組み合わせても、性能は出ません。
かつて日本の製造業にはお家芸「すり合わせ技術」がありました。
垂直統合とかいって技術のわかっていない経営屋に骨抜きにされてしまいましたね。
最近ノブレスオブリージュを感じなくなった嫌な感じ感マシマシのエローンマスク氏ですが、「サイクルタイム」に続いてすり合わせ技術もゲッツしたようです。
あそこにイメージングセンサーを提供しているのはどこですかね?
かつて現場のマシンビジョンに触れたことがあれば、わかる人にはこれだけでわかるでしょう。
We also save 13 milliseconds on latency.
※13msあれば、deep sleepから復帰して、環境センサから値を取ってきてEEPROMに書き込んでdeep sleepに落ちるくらいできてしまう長い長い時間ですよね?(誰に同意?)
ようするに
- イメージセンサーからポストプロセス処理を省いて
- 光子のカウントをそのままニューラルネットに突っ込んだ方が
- 低照度でも「見える」し
- レイテンシが13msも稼げる
という話です。
同じ話は、リーマン時代の20数年前には山師から聞いていました。
マシンビジョンをやっているひとには常識的な話ではないでしょうか。
当然当時はCCDやCMOSセンサではなく、ビジコンかもしれませんが、話は同じです。
最近でも完全斜陽産業のデジカメ開発の現場などでも常識ですね。
かたや一方、
- ビジーループで画像処理を回す
- それを多段で物体認識
という学生実験レベルの実装では、”とりあえず”動くものは作れても、たぶんたいした金にはならないということです。それを”PoC”と呼ぶのは何かを間違えています。その違いがわからないことが絶望的な壁かもしれません。
さらに、
部品(=ポストプロセッサ)を抜いて納品させるなら、値引きさせろ!
などとわめく(生産のための)資材・購買を通していたら、セットメーカーは儲かるかもしれませんが、部品メーカーは逃げてしまうか、資金不足で次のイノベーションがとまってしまいますよね。
ちなみにこの動画では「俺が考えた最高のCコンパイラ」「名もなきヒーロープログラマ」が出てくるのでムネアツです。
過去のエローンくん、ようわかっとるやないか: