
未来で成功するためには、いまは過小評価されているけれど、これから人々の暮らしを大きく変える流れを先に見ておく必要があります。
ある人はクリプトを語り、ある人は量子コンピュータを語り、ある人はAIを語ります。私もそれらの技術が重要だと思っています。ただ、すでに多くのお金と関心が集まっている領域でもあります。だから私は、少し違う問いを投げかけてみたいんです。
人はこれから情報をどこで見て、どうやって入力するようになるのでしょうか?
私たちはいまモニターを見ます。スマートフォンを見ます。キーボードとマウスを使い、タッチスクリーンを押し、たまに音声で命令します。でもこのやり方は、永遠に続くのでしょうか?
人がひとつの場所に座って、目をきょろきょろさせながらモニターを見て、指でキーボードをたたき、マウスをクリックする方式が、本当に人間とコンピュータが出会う最終形なのでしょうか?
私はそうは思いません。
コンピュータの歴史を大きく見ると、人間はずっと情報アクセシビリティの高い方向へ移動してきました。そして情報は、少しずつ人間の体と感覚器官に近づいてきています。
大型コンピュータは部屋の中にありました。
人がコンピュータを使いに行きました。
次にコンピュータは机の上に上がりました。
人はモニターの前に座って情報を見ました。
次にスマートフォンが手のひらに入ってきました。
人はいつでもどこでもインターネットとつながりました。
次は何でしょうか?
私はその中間段階のひとつがARグラスだと思っています。
そしてその先にはニューラルインターフェース、つまりBCIのような技術があります。
モニターは情報を外に出力します。
スマートフォンは情報を手の中に出力します。
ARグラスは情報を現実の上に出力します。
BCIは情報を神経系と直接やり取りしようとします。
この流れの本質は、単に「デバイスが小さくなる」ことではありません。
核心はこれです。
人間と情報の距離が縮まっている。
人間の情報入出力インターフェースとは何か#
人間の情報入出力インターフェースは、難しく言えばHCI、つまり人間とコンピュータが相互作用するやり方です。でも、もっとやさしく言えばこういうものです。
人間の思考、意図、感覚、行動をデジタルシステムにつなぐ翻訳層
コンピュータは人間のように考えません。
人間もコンピュータのように0と1で命令しません。
だから両者の間には、いつも翻訳装置が必要です。
キーボードは指の動きを文字に翻訳します。
マウスは手の移動をポインタの移動に翻訳します。
マイクは音声をデジタル信号に翻訳します。
カメラは世界をピクセルデータに翻訳します。
モニターはコンピュータの結果を光に翻訳します。
スピーカーはデータを音に翻訳します。
バイブレーターはデータを触覚に翻訳します。
つまりインターフェースは、単なる画面やボタンではありません。
人間と機械のあいだの相互翻訳システムです。
このシステムはつねに双方向です。
ひとつ目は出力。
コンピュータが人間に情報を見せたり、聞かせたり、感じさせたりすることです。
ふたつ目は入力。
人間がコンピュータに意図、命令、状態、文脈を伝えることです。
だから、すべてのインターフェースはこんな循環構造を持っています。
人間の意図
→ 入力デバイス
→ コンピュータの解釈
→ 情報処理
→ 出力デバイス
→ 人間の感覚
→ 人間の理解
→ また新しい意図私たちはコンピュータを直接さわっているように感じますが、実はいつも何らかの翻訳層を間にはさんでいます。
良いインターフェースは、この翻訳プロセスを自然に感じさせます。
悪いインターフェースは、人間にずっと翻訳を要求します。
良いインターフェースとは何か#
新しいデバイスを見たとき、多くの人はこう尋ねます。
「これ、みんな使うかな?」
「いまの方法より楽?」
「わざわざこれを使う必要ある?」
もちろん大事な問いです。でも、もっと本質的な問いがあります。
欲しい情報を得るまでに、人間が払う認知コストはどれくらい減るのか?
良いインターフェースは、ただきれいなものではありません。
良いインターフェースは、人間の脳をあまり煩わせません。
別の言い方をすれば、良いインターフェースは認知摩擦を減らします。
たとえば道を探す状況を考えてみましょう。
紙の地図を使うときは、自分の現在地を探し、方向を合わせ、道を解釈しないといけません。
スマートフォンの地図は、私の位置を自動でつかんで経路を見せてくれます。
ARの道案内は、いま見ている実際の道の上に矢印を浮かべることができます。
人間が直接解釈しないといけない量がどんどん減っていきます。
大事なのは「まったく考えなくなる」ということではありません。
良いインターフェースは、人間が大事じゃないことについて少なく考え、より大事なことについて多く考えられるようにします。
計算、検索、記憶、整理、比較、繰り返しの入力、形式合わせのような仕事は、機械が得意です。こういう低レベルの負担は減るほうがいいですよね。
そのかわり、人はより高い層の思考に集中するべきです。
私の目的は何か?
この選択は私の価値観と合うか?
リスクはどの程度か?
代案は何か?
この情報は信頼できるか?
私が見落としている文脈は何か?
これが、良いインターフェースが向かうべき方向です。
機械が思考をなくすことが問題なのではなく、どんな思考をなくして、どんな思考をより多くさせるかが大切だ。
インターフェースはどこへ進化するのか#
人間の情報入出力インターフェースは、いくつかの方向に進化しています。
1. 情報は体に近づく#
コンピュータはもともと遠くにありました。
部屋ひとつを占める機械でした。
次に机の上に来ました。
次に手の中に来ました。
次に手首と耳に来ました。
いまは目の前に来ようとしています。
さらに先の未来では、神経系の中に入っていくかもしれません。
これは「コンピュータが小さくなる」という話ではありません。
情報が人間の感覚器官にだんだん近づいていくという話です。
モニターは机の上にあります。
スマートフォンは手にあります。
ウォッチは手首にあります。
イヤホンは耳にあります。
ARグラスは視野の中にあります。
BCIは神経系につながります。
情報と人間のあいだの物理的距離が、ずっと縮まっているんです。
2. 入力は明示的入力から暗黙的入力へ#
過去には、人が必ず命令しなければいけませんでした。
キーボードを押さないといけなかった。
マウスをクリックしないといけなかった。
タッチしないといけなかった。
検索ワードを入力しないといけなかった。
これが明示的入力です。
でも未来の入力は、だんだん暗黙的に変わっていきます。
私がどこを見ているのか、
何をしようとしているのか、
どんな表情をしているのか、
心拍はどんな状態か、
どれくらい集中しているか、
どんな文脈の中にいるのか、
機械が読み始めます。
つまりインターフェースはこう変わります。
命令を待つ道具から、文脈を読む協力者へ移っていく。
ここでAIがとても重要になります。
AIは単に命令を実行する存在ではなく、ユーザーの状況と意図を推論する存在になります。ユーザーがすべてを説明しなくても、機械がより多くを理解する方向に進んでいくんです。
3. 単一感覚から多感覚へ#
初期のコンピュータはテキスト中心でした。
次にグラフィックがつきました。
次に音、タッチ、振動がつきました。
いまはカメラ、マイク、位置センサー、生体センサーが組み込まれています。
人間はもともと多感覚な存在です。
目で見て、
耳で聞いて、
手でさわって、
体の方向感覚で空間を理解します。
だから未来のインターフェースは、ひとつの画面ではなく、複数の感覚を統合する方式になっていく可能性が高いです。
視覚、聴覚、触覚、位置、生体状態、周囲の文脈が、すべてインターフェースの一部になります。
ARグラスが大事な理由も、ここにあります。
ARグラスは単なる出力デバイスではありません。
カメラで現実を見て、
マイクで音を聞いて、
視線と頭の方向を追跡して、
空間を理解して、
その上に情報を出力します。
つまりARグラスは、入力デバイスでありながら出力デバイスでもあり、同時に現実認識デバイスでもあります。
4. コンピュータは道具から環境へ、環境から自我へ#
初期のコンピュータは道具でした。
必要なときにつけて使う物でした。
スマートフォンは伴侶になりました。
いつも持ち歩き、いつもつながっています。
ARグラスは環境レイヤーになり得ます。
私が見ている現実の上に情報が乗り、
現実そのものがインターフェースになります。
さらにBCIは、自我の一部のように働く可能性があります。
思考と入力、記憶と検索、判断と補助、感覚と出力の境界がぼやけていく可能性があるからです。
この流れを単純化すると、こう見ることができます。
道具としてのコンピュータ
→ 体に貼りつくコンピュータ
→ 現実の上に重なるコンピュータ
→ 神経系とつながるコンピュータこのとき大事な問いはこれです。
人間はデジタル情報を体の中に、さらには精神の中に、どこまで受け入れるのか?
ARグラスはなぜ重要なのか#
ARグラスに対して否定的な人たちは、こう言います。
「みんな眼鏡をかけて歩くかな?」
「カメラ付きの眼鏡って気まずくない?」
「バッテリーも短いし重いじゃん。」
「スマホで十分じゃない?」
現実的な指摘です。
いまのARグラスは、まだ足りないところがたくさんあります。
でも、この反論はプロダクトの形に対する反論であって、方向性そのものへの反論ではないかもしれません。
核心は「人々が今の形の眼鏡を毎日かけるか?」ではありません。
もっと大事な問いはこれです。
人間はデジタル情報を、現実認識のなかにどれくらい深く統合するか?
ARグラスが意味を持つ理由は、現実の上に情報を重ねられるからです。
ドアを見れば予約情報が出てきます。
商品を見れば価格とレビューが浮かびます。
人を見れば名前と前回の会話が思い出されます。
外国語の看板を見ると翻訳されます。
機械を見ると修理方法が重なって見えます。
会議中は、相手の発言の核心が横に整理されます。
これは単なるディスプレイではありません。
現実の意味をリアルタイムで再解釈する装置です。
PCではファイルとウィンドウがインターフェースでした。
スマートフォンではアプリと画面がインターフェースでした。
ARでは現実のモノ、人、空間がインターフェースになります。
だからARグラスには、単なるディスプレイ技術だけが必要なわけではありません。
カメラ、レンズ、ディスプレイ、センサー、バッテリー、AI、空間認識、プライバシー、社会的受容性まで、すべてが必要です。
技術ハードルが高い理由がここにあります。
そしてARグラスが、必ずしも今の形の眼鏡である必要もありません。
もっと軽い眼鏡かもしれないし、
コンタクトレンズ型ディスプレイかもしれないし、
イヤホンとプロジェクションの組み合わせかもしれないし、
車のHUDかもしれないし、
空間ディスプレイかもしれないし、
さらに先の未来ではニューラルインターフェースかもしれません。
だから、問いをこう変えるべきです。
間違った問いはこれです。
人々はARグラスを毎日かけるか?
もっと良い問いはこれです。
デジタル情報は、人間の現実認識のなかにどれくらい深く入ってくるか?
AIがARと結びつくと何が変わるのか#
ARグラスだけでは十分ではありません。
目の前にずっと情報を浮かべるだけだと、かえって邪魔になります。
通知が多く、説明が多く、画面が複雑だと、人間の注意力はもっと早く消耗します。
だから未来のインターフェースの核心は、単に「もっと多くの情報を見せること」ではありません。
大事なのはこれです。
私がいま知るべきことを、どれだけ正確に、邪魔にならずに、適切な感覚チャンネルで届けられるか
ここでAIが必要になります。
AIがなければ、ARは目の前の通知パネルに近いものです。
AIがあれば、ARは文脈を理解する認知補助デバイスになります。
会議の前に、参加者と論点を要約してくれます。
会議中は、相手の発言の核心を整理してくれます。
私が見落とした文脈を横に出してくれます。
外国語をリアルタイムで翻訳してくれます。
作業中の機械を見ると、次の手順を教えてくれます。
集中したいときは、通知を隠してくれます。
良い秘書はずっとしゃべりません。
必要なときにだけ話します。
良いARも同じだと思います。
未来の出力は、単なる情報表示ではありません。
未来の出力は、文脈に合った認知補助です。
いちばん大事な資源は画面ではなく注意力#
現代人は、情報が足りなくて苦しいわけではありません。
情報が多すぎて苦しいんです。
通知が多くて、
アプリが多くて、
選択肢が多くて、
コンテンツが多くて、
おすすめが多い。
だから未来のインターフェースで、いちばん大事な資源は画面のスペースではありません。
人間の注意力です。
良い未来のインターフェースは、もっと多くの情報を見せる装置ではありません。
むしろ不必要な情報を隠して、必要な瞬間に必要なものだけを見せる装置です。
この観点から見ると、ARグラスが成功するためには、いつも何かを見せ続ける方式ではいけません。
ほとんどの時間は静かでなければいけません。
本当に必要な瞬間にだけ、ごくわずかな情報を見せるべきです。
そしてその情報は、ユーザーの目的と文脈に正確に合っていなければいけません。
未来のインターフェースの競争は画面サイズの競争ではなく、注意力マネジメントの競争になる可能性が高いです。
良いインターフェースは人をバカにするのか#
ある人たちはこう心配します。
「機械が便利になりすぎたら、人が考えなくなるんじゃないか?」
「AIが全部やってくれたら、人間の能力が弱くなるんじゃないか?」
「良いインターフェースが、かえって人を受動的にするんじゃないか?」
一部はその通りです。
機械がおすすめしたからと無条件で信じて、
アルゴリズムが見せたものをそのまま受け入れて、
AIが言った答えを検討せず、
ナビが案内した道だけをたどって、
要約だけ見て原文は見なければ、
人はだんだん判断を放棄するようになるかもしれません。
これは「よい意味であまり考えない」ではありません。
これは判断の放棄です。
でも逆のケースもあります。
計算は電卓がします。
道探しはナビがします。
予定の記憶はカレンダーがします。
資料整理はAIがします。
繰り返しの仕事は自動化がします。
そうすれば人は、もっと大事な問いを立てられるようになります。
私はなぜこの仕事をするのか?
この決定の目的は何か?
この選択は私の価値観と合うか?
リスクは何か?
代案は何か?
この情報は信頼できるか?
機械が見落とした人間的な文脈は何か?
これは「考えない」ことではありません。
思考のレイヤーを引き上げることです。
機械が反復計算、検索、記憶、整理、比較のような低レベルの負担を減らしてくれるなら、人はもっと高い判断に集中できます。
だから、良いインターフェースがするべき仕事は、人間をバカにすることではありません。
良いインターフェースは、人間が大事じゃないことについて少なく考え、もっと大事なことについて多く考えられるようにすべきです。
現在と未来でユーザーの態度はどう変わるか#
いまのコンピュータとスマートフォンは、まだほとんどが命令型の道具です。
私がアプリを開いて、
検索して、
入力して、
コピーして、
整理して、
選ばないといけません。
いまのユーザーは、こう振る舞う必要があります。
積極的に使いつつ、結果を検討する。
コンピュータ、スマートフォン、AIをたくさん使うのは良いことです。
ただ、結果をそのまま信じてはいけません。
AIが書いた文章は検討すべきです。
おすすめアルゴリズムは疑うべきです。
検索結果は比較すべきです。
オートコンプリートは私の表現をぼかす可能性があると知っておくべきです。
通知やフィードは私の注意力を奪う可能性があると知っておくべきです。
いまの良いユーザーは、道具のオペレーターであり、エディターでもあります。
近い未来には、機械が先に提案することが増えていくでしょう。
「このメールはこう返信すればいいです。」
「いま出発する必要があります。」
「この人と前回こんな会話をしました。」
「この商品はオンラインのほうが安いです。」
「会議でこの質問を投げると良いです。」
このとき、ユーザーの態度は変わるべきです。
提案を受け取りつつ、自分の基準で承認する。
機械が先に提案するほど大事になるのは、質問する力と基準を立てる力です。
このおすすめは私の目的に合うか?
このおすすめは誰に有利か?
広告やプラットフォームの利害関係が混じっていないか?
ほかの代案は何か?
私が直接判断するべき部分はどこか?
さらに先の未来には、機械が環境のように動くようになるかもしれません。
AR、ウェアラブル、空間コンピューティング、ニューラルインターフェースが発展すれば、コンピュータは画面の中の道具ではなく、私が暮らしている環境の一部になります。
そのときユーザーは、こう問うべきです。
私の周りの環境は、私をどう誘導しているか?
私が見ている情報は誰が選んだのか?
何が強調されて、何が隠されたか?
このインターフェースは私の利益のために動いているのか、プラットフォームの利益のために動いているのか?
私はこのフィルターをオフにできるか?
私の判断権はまだ私にあるのか?
未来のユーザーは、単に機械をうまく扱える人ではありません。
未来のユーザーは、機械が提供する楽な選択肢を、自分の基準で組み直せる人です。
未来のデバイスをうまく使う人の態度#
未来では、機械を遠ざける人が強いわけではありません。
かといって、機械にすべてを任せる人が強いわけでもありません。
大事なのは能動的に共生する態度です。
機械を積極的に使いつつ、自分の判断の筋肉は残しておかないといけません。
未来のデバイスをうまく使う人は、こんな態度を持っています。
ひとつ、繰り返しは委ねて、方向は自分で決めます。
整理、比較、計算、予約、ドラフト作成、繰り返し作業は機械に任せられます。でも、自分がどこへ行きたいのか、何を大事に見るのかは、自分で決めるべきです。
ふたつ、結果より根拠を見ます。
AIがAをおすすめしたなら、「なぜAなのか?」を問うべきです。BやCがなぜダメなのか、どんな情報が足りないのか、どんな条件が変われば結論が変わるのか、確認するべきです。
みっつ、取り戻せない決定には摩擦を置きます。
小さな決定は速くしてもいいです。でもお金、健康、関係、仕事、法律、倫理のような大事な問題では、もう一度立ち止まるべきです。
よっつ、機械を「正解マシン」ではなく「観点ジェネレーター」として使います。
AIにひとつの正解だけを求めず、賛成のロジック、反対のロジック、リスク要因、代案、ほかの人の観点まで生成させるべきです。
いつつ、外部記憶を使いつつ、コアの構造は頭の中に置きます。
細かい部分はノート、カレンダー、AIに任せていいです。でも、大きな絵と構造は自分が理解しておくべきです。
むっつ、便利さと操られていることを区別します。
すべての便利さが自分の味方ではありません。おすすめフィードは便利だけど、自分の時間を奪うかもしれません。オートコンプリートは便利だけど、自分の表現を平均化するかもしれません。AR案内は便利だけど、自分が見ている現実を誰かのフィルターに置き換えるかもしれません。
ななつ、テクノロジーを能力の増幅器として見ます。
テクノロジーはユーザーの傾向を増幅します。目的がはっきりしている人にとって、AIは生産性ツールになります。目的がぼんやりしている人にとって、AIはもっと大きな散漫さになることがあります。
結局、大事な態度はこれです。
機械をうまく使いつつ、自分の判断の筋肉は残す。
人間とコンピュータの境界はだんだんぼやけていく#
コンピュータは計算を外注しました。
インターネットは情報をつなぎました。
スマートフォンはいつでもどこでも、コンピュータとインターネットへのアクセスを可能にしました。
ARは現実と情報を融合させようとしています。
BCIは思考と情報を融合させようとしています。
この流れの先には、こんな問いがあります。
人間はデジタルをどこまで受け入れるのか? 体まで? 精神まで?
思考が読まれる瞬間、新しい可能性が開きます。
記憶補助、
思考補正、
感覚補綴、
集中補助、
意図ベースのコマンド、
身体能力の補助が可能になり得ます。
でも同時にリスクも大きくなります。
ターゲット広告、
感情操作、
注意力のコントロール、
思考パターンの分析、
精神的プライバシーの侵害も、可能になります。
技術が体と精神に近づくほど、インターフェースはもう単なる道具ではなくなります。
それは人間の認知の一部になります。
だから未来のインターフェースの核心は、技術性能だけではありません。
帯域幅、レイテンシ、認知負荷、文脈理解、社会的受容性、プライバシー、コントロール権、すべてが大事になります。
未来のデバイスは、どれだけ多くの情報を見せるかよりも、どれだけ適切に隠して見せるかが大事になります。
結論: ARグラスは終わりではなく中間段階だ#
ARグラスが次のスマートフォンになるかは、まだ確かではありません。
人々が毎日着けられるくらい軽くなるか、
バッテリー問題が解決されるか、
カメラに対する社会的な居心地の悪さが減るか、
価格が十分に下がるか、
本当に強力なユースケースが出てくるか、それはこれから見守るしかありません。
でも、ARグラスが投げかける問いはとても大事です。
情報はこれからどこに出力されるのか?
人間はこれからどう入力するのか?
コンピュータは人間の文脈をどこまで理解するようになるのか?
私はこれから、人間が機械を操作する時代から、機械が人間の文脈と認知を補助する時代へ移っていくと思っています。
さらに先には、機械が人間なしでも一部の作業を遂行し、物理的な実体のないソフトウェアエージェントのように動く時代も来るかもしれません。
その過程でARグラスは、単なるデバイスのひとつではなく、人間の認知拡張の中間段階になり得ます。
大事なのは眼鏡そのものではありません。
大事なのは、人間がデジタル情報を現実認識のなかにどれくらい深く受け入れるか、です。
そして未来の良いユーザーは、機械を拒む人ではありません。
機械にすべてを任せる人でもありません。
未来の良いユーザーは、機械が提供する楽な選択肢を、自分の基準で組み直せる人です。
最後に、この一文でまとめられます。
機械に思考を奪われるな。機械に雑用を奪われろ。
計算は渡してもいいです。
検索は渡してもいいです。
整理は渡してもいいです。
ドラフトは渡してもいいです。
繰り返しは渡してもいいです。
でも目的、基準、価値観、責任、疑い、好み、最終判断は残しておかないといけません。
技術をうまく使うというのは、機械に引きずられることではありません。
技術をうまく使うというのは、機械を使ってもっと大事なことを考えられる状態を作ることです。
Never regret. If it's good, it's wonderful. If it's bad, it's experience.
— Victoria Holt


