声を出さずに6オンス、手を動かさずにキー坊(by石立鉄男)

さてどちらが近いでしょうか。

 

声帯と口腔鼻の筋電位を読み取って音声として取り出す、手指の筋電位を読み取ってキータイプとして取り出す。

 

そんな無駄の多い浅はかななかんがえではぜんぜんだめです。

 

数十チャネルのアナログパルス群から、100bps程度のデジタル信号に変換するなんて愚の骨頂です。

 

 

 

必要なのは、アナログ信号を多次元空間に配置して、タイミングをずらせる余裕幅と、振幅のダイナミックレンジで峻別可能な組み合わせ数を調べておくことだけです。

 

さらに必要なのはフィードバックです。長時間正座した後の足が動かしにくいように、フィードバックは学習のために必要です。

 

フィードバックに使う触覚や痛覚は、足の裏でもわきの下でもどこでも良いのです。指先で文字が読めるのと同じことです。問題は峻別可能かどうかと密度だけです。あとは小脳のモデル化能力に任せれば、どんなに高次の次元変換でも学習で乗り越えられます。

 

 

 

これでなんとか数百kbpsの入力媒体を計算機に備えることができるはずです。それ以上は視覚デバイスが付いてこられないので、現状ではまだ不要ということです。

 

それでも秒間十数文字しか打ち込めないキーボードよりは1000倍早くなります。

 

 

 

視覚の限界は個人差が大きいということと、まばたきの問題によって、最後まで通信速度の制限として付きまとうことになるでしょう。

 

グーテンベルグの呪い、活字による情報量の欠落も大いに影響しています。本来の人間の視覚は、奥行きありのダイナミックなものですが、そのためには視覚聴覚の複合提示の問題がつきまといます。ダイナミックな視覚変化にマッチした聴覚を提示しないと、うまく空間を認識できないのです。

 

 

 

さて、筋電位からキーを打つのが浅はかという話には続きがあります。

 

複合的に小脳モデルで制御できるのであれば、キャレット(文脈上の着目点)の移動やマウスポインタ(に相当するもの)の移動と文字の入力が同時におこなえます。その先には、真に自由なユーザインタフェースの地平が待っているのです。

 

# 飯を食いながら漫画を読めるくらいのことは、小脳モデルにはへっちゃらなのです

 

片手キーボードと片手マウスで実現できる限界は各種のCADアプリが示しています。巷で腕が3本欲しいというヒトは、キーボードで2本、マウスで1本腕が必要だと感じているのでしょう。だからといって仮想的な腕をあまり使われない筋電位で実現しても、たいしたことはできないのです。

 

 

 

新たなユーザインタフェースの地平へ向けて準備は遅れています。JMのころからちっとも進んでいません。遅すぎます。