時間付きIOなら、ご飯3杯イケル

イケルというのは、たとえ話です。

実際には時間付きIOをネタにして一度に3回くらい妄想できるということです。

ユビキタッスな世界(UW)では、さまざまの計算機が相互に接続されます。

計算機だけでなく、センサや出力デバイスも接続されます。実際にはセキュリティ上の観点から大きく制限されるわけですが。

ここでは空想の世界、ネバーランドを妄想しましょう。

あるイメージセンサが事象Aを捉えたとします。イメージセンサは簡単に言えばビデオカメラのことです。いまどきならウェブカメラをイメージしても良いでしょう。

すぐ近くの別のセンサも同じ事象を捉えます。

遠く離れた別のセンサからはこの事象をはっきりとは捉えることが出来ませんでしたが、ある程度の信頼性で捉えることができました。望遠でズームして捉えたが像がぼやけていた、と考えてください。

さて、これら3つの情報をどうやって統合しますか?

1.もっとも距離の近いセンサの情報のみを採用する

2.近くのセンサの情報を足しで2で割る

3.ぼやけた遠くのセンサの情報も混ぜ合わせる

簡単に書きましたが、どれも大変です。

イメージセンサだけでは最も距離が近いという判定自体が困難なのです。ソフトウェアばっかりいじっている人は、実世界(RW)のおそろしさを実感できないかもしれません。いわんや複数センサのフュージョンなんて。

・イメージセンサに写っているものの距離を測る

どうやって?ユビキタスを生かすなら距離測定センサの入力を使いましょうか。いやいやいまどきのイメージセンサなら、AF用に距離検出が付いているでしょう。

なるほど。ではイメージの端に写っていたものは対象外なんですね?

いやいやいや、いまどきのセンサなら端にフォーカスすることもできますね。どっちにしても、フォーカスしている対象、つまり事前に着目したものでなければならないということです。

カメラのパラメータと画像を組み合わせれば、写っているものの大きさが分かるという人がいます。

なるほど、写りこんでいる既知の物体のサイズがわかれば、あるいは既知の空間上のポイントの位置関係が分かれば、変換可能であると。

なんかだますの簡単そうですよねぇ。ミニカーをカメラの目の前に置いたりして。

・・・とまたまた時間付きIOに触れることなくエントリは終了するのです・・・