活発化する遠隔からのコミュニケーション

これまで、私たちの働き方は「移動」と「対面」を前提としていました。しかし、今ニューノーマルの時代では「リモート(移動しない)」と「非対面」が基本となり、時間や場所にとらわれずにビジネスの生産性を向上していくことが、これまで以上に求められています。

これまで対面で行うことが当たり前だった、日々の業務の打ち合わせや営業の商談、そして飲み会さえ、今やオンラインで行うことがごく自然となり、そして許容される社会になりました。

しかし、現場作業などオンラインではどうしても対応できない業務がまだまだ無数に存在することも事実です。

そこで注目されているのが、⼈間の動きを(ほぼ)リアルタイムに再現するアバター(分⾝)技術を活用した遠隔操作ロボットです。全てを自動化したロボットに比べれば、技術的なハードルが低いこともあり、さまざまなロボットが開発・販売されています。普及も加速しており、世界市場はここ5年の間に2倍以上になるとも言われています。店舗での接客や介護⽀援、受付、掃除、宅配など物理的な接触が必要な業務でも、遠隔操作ロボットを活用することでテレワークが可能になると考えられています。

実際に、難病や寝たきりで外出が困難な障がい者が自分のアバターとなるロボットを遠隔操作し、コーヒーショップで接客や配膳サービスをする取り組みも行われています。

 

場所をまたいだ“感覚”を共有するには

とはいえ、現在の遠隔操作ロボットには、まだまだ改善の余地があります。いざ操作してみると、思うようにモノを動かせない、行きたい方向に移動できないなど、簡単にできると思っていたことができず、操作に想像以上に習熟を要することがあるのです。

さまざまな場面で活用するためには、どのような挑戦が必要なのでしょうか。

まずは場所を越えたユーザーとロボットの間の「感覚の共有」です。操作する人間は、ロボットのカメラやマイクを通じて視覚と聴覚を共有し、あたかも現地にいるような感覚で自由に移動したり、ロボットのアームを動かして作業をし、現地にいる相手とコミュニケーションを行えなくてはなりません。

これを実現する上で鍵となるのはVR(仮想現実)、AR(拡張現実)、MR(複合現実)などのテクノロジーです。そこにさらにセンシングやハプティクス(触覚技術)などの技術、さらには5Gのように違和感を生じさせないような高速の通信環境が前提になるでしょう。

 

人間とロボットが違和感なく“協調”するには

もう1つ重要なのが、人間と遠隔操作ロボットの「協調」です。

人間とロボットでは仕組みや構造が違えば機能も違います。人間ができないことをロボットが簡単にこなす場合もあれば、人間が当たり前にこなしていることがロボットにとっては非常に難しい場合もあります。

このギャップをテクノロジーで埋めることで、はじめて人間と遠隔操作ロボットの協調(あるいは協働)が可能となります。

これまでの取り組みとして、産業用ロボットのティーチング(教示)があります。産業用ロボットは、その構造(例:三関節の腕だけ)や特性(例:平面的な動きのみ)を理解した上で、作業の順序や姿勢などを制御する複雑なプログラムを作成するとともに、それが工場などで正しく動作するようにセッティングしなければなりません。例えばどれくらいの強さで対象物をつかみ、どこ(始点)からどこ(終点)まで移動するのかといったパラメーターを細かな数値で設定し、調整を行います。

すなわちプログラムの出来次第で産業用ロボットの能力を最大限に引き出すことができるかどうかが決まるため、ティーチングには高度なスキルと熟練が要求されます。

 

人間と遠隔操作ロボットの協調の橋渡しをする「ワールド」の必要性

ティーチングをより簡易なものにすべく工夫もされてきました。リモコンでの操作(オンライン・ティーチング)や、それこそ直接手でロボットを動かし(ダイレクト・ティーチング)ながら、一連の動きを記憶させ再生する手法です(ティーチング・プレイバック)。これらの方法は、工場の産業用ロボット向けに発展・拡張し、自動化や省人化に貢献してきました。

しかし、工場ではなく、周りに多くの人間がいる場所での作業や、直接人間を相手とする作業では、さらに多くの配慮が必要になります。どこに何があるか、何をするかがあらかじめわかっている工場とは違って、未知のことに対応する必要があるからです。

そこで、これまでの知見を組み合わせ、人間とロボットのギャップを埋めることを目指した研究が進められています。定型的で単純な作業はティーチングで自動的・自律的に動くようにしておきつつ、難しい作業は人間が遠隔操作で行う、というものです。こうした、人間とロボットの分担で、実務に役立つDesirability(利用者にとっての有用性)を高めることができます。コンピューター上の単純作業の自動化で広く使われているRPA(ロボティック・プロセス・オートメーション)の実世界への拡張版――Augmented RPAあるいはPhysical RPAとも呼べるでしょうか。

ここでは、人間とロボットの両方が理解できる「ワールド」モデルが必要となってきます。これは、人間の感覚や動作をロボットに伝える、またロボットが集めた情報を人間にわかりやすくフィードバックする、その橋渡しを担うものです。

ゲームの世界では、プレイヤーは仮想空間の中のキャラクター(アバター)を自由自在に操り、超人的な動きをすることができますよね。これは人間の操作をコンピューターが解釈して強化・拡張し、仮想空間、つまり人間とロボットの両方が理解できる「ワールド」で表現しているからです。上ボタンを押すとゲームの世界では前に進む、といったことです。

 

Physical RPAにおける「ワールド」

Physical RPAでは、どうでしょう?例えば、遠くにいる実世界のロボットを、ある場所まで動くことを自動化したいとします。最初は人間によるオンラインティーチングと並行して、ロボットから見たワールド(ゲームでいう仮想空間)も作っていく必要があります。これは、「ロボットから見た実世界」を人間が理解するためのものです。

このワールドを通して、例えば、人間とは違った視野や視界でロボットが見ていることがわかります(ロボットの感覚の共有)し、単純動作として自動化できた後でも、人間にとってはどうということがない(しかしロボットにとっては大きな障害となるもの。例えば小さな石など)障害物があったときに、人間が遠隔操作してよけて進む、という切り替えを行い新たなティーチングをすることができます(協調)。

さらには、「進入禁止の標識がある」といった人間側の認識を情報としてワールドに埋め込んでいくこともできます。ロボットにとっての実世界の制約と人間の知見を「ワールド」にフィードバックしながら、ロボットのみでできる単純作業と人間の遠隔操作による作業を分担していくわけです。

仮想空間でも本物のような表現が可能になり、その土台となる計算能力もクラウドなどで安価に手に入るようになりました。これらが、人間とロボットの違いを把握し、その修正を容易にしつつあります。人間とロボットが、その間にある「ワールド」へフィードバックをしていくことで、ギャップをより自然な形で埋めながら「感覚の共有」と「協調」を実現していけるのではないかと考えています。