JP6555665B2 - コミュニケーション装置および方法 - Google Patents

コミュニケーション装置および方法 Download PDF

Info

Publication number
JP6555665B2
JP6555665B2 JP2016148409A JP2016148409A JP6555665B2 JP 6555665 B2 JP6555665 B2 JP 6555665B2 JP 2016148409 A JP2016148409 A JP 2016148409A JP 2016148409 A JP2016148409 A JP 2016148409A JP 6555665 B2 JP6555665 B2 JP 6555665B2
Authority
JP
Japan
Prior art keywords
eyeball
eyelid
unit
sight
opening
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016148409A
Other languages
English (en)
Other versions
JP2018015843A (ja
Inventor
正典 横山
正典 横山
崇由 望月
崇由 望月
山田 智広
智広 山田
由貴 木下
由貴 木下
鈴木 啓太
啓太 鈴木
翔 櫻井
翔 櫻井
拓志 鳴海
拓志 鳴海
智洋 谷川
智洋 谷川
通孝 廣瀬
通孝 廣瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
University of Tokyo NUC
Original Assignee
Nippon Telegraph and Telephone Corp
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, University of Tokyo NUC filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016148409A priority Critical patent/JP6555665B2/ja
Publication of JP2018015843A publication Critical patent/JP2018015843A/ja
Application granted granted Critical
Publication of JP6555665B2 publication Critical patent/JP6555665B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)

Description

この発明は、人とのアイコンタクトを可能にしたコミュニケーション装置および方法に関する。
近年、遠隔操作により制御される機械または自動的に制御される機械を使用して、人とコミュニケーションを行う技術について、様々な研究が行われている。例えば、人が実際の人と対話をしているかのような感覚を得やすいように、視線の指向性の高低を調整する装置が提案されている。視線の指向性とは、目(眼球)の動きと目の動きによって人が感じる視線の変化との相関性をいう。具体的には、目の向きが変化すると視線も目の向きの変化に伴って変化していると人が感じやすい場合に視線の指向性が高いと表現され、目の向きを変化させても視線の変化を感じにくい場合に視線の指向性が低いと表現される。
この特性に着目し、機械の目の形状を変化させることで視線の指向性をダイナミックに制御する技術が提案されている。具体的には機械の眼球に相当する部位に凹面と凸面とを形成し、これらの凹面と凸面とを切り替えることで視線の指向性を変化させる。このようにすると、多人数の対話者に対してもアイコンタクトによる心理的効果を生じさせることが可能となる(例えば非特許文献1を参照)。
横山正典ほか、「コミュニケーションを拡張する"超現実テレビジョンプレゼンス"の提案」、情報処理学会研究報告、Vol.2015-HCI-163 No.4 2015/5/14
ところが、非特許文献に記載された技術では、機械の眼球に相当する部位の凹面と凸面とを切り替える際に、凹面と凸面の切替過程が対話者に見えてしまう。このため、対話者に対し不自然な印象を与えてしまうという課題があった。
この発明は上記事情に着目してなされたもので、対話者に対し不自然な印象を与えることなく視線の指向性を変更できるようにし、これによりアイコンタクトによる心理的効果をさらに高めることが可能なコミュニケーション装置および方法を提供しようとするものである。
上記課題を解決するためにこの発明の第1の態様は、正面側に位置する対話者とアイコンタクトによるコミュニケーションを行うコミュニケーション装置にあって、凸形状となる第1の面および凹形状となる第2の面を有しこれら第1および第2の面を前記正面側に対し択一的に向けることが可能な人工的な眼球部と、前記眼球部の前記正面側となる位置において瞬きを表す開閉動作を行うまぶた部と、前記眼球部およびまぶた部を動作させる制御部とを具備する。そして、前記制御部により、前記正面側に向ける眼球部の面を前記第1の面と第2の面との間で切り替える期間に、当該眼球部の面を前記正面側に対し隠すべく前記まぶた部を閉動作させるようにしたものである。
この発明の第2の態様は、前記制御部が、前記眼球部の面を切り替える動作に同期して、当該切り替える動作の開始前に前記まぶた部を閉動作させ、前記切り替える動作の終了後に前記まぶた部を開動作させるようにしたものである。
この発明の第3の態様は、前記制御部が、前記まぶた部を予め設定した時間間隔で周期的に開閉動作させ、前記眼球部の面を切り替える動作を、前記まぶた部の周期的な開閉動作に同期してその閉期間に行うようにしたものである。
この発明の第4の態様は、前記制御部が、予め設定した監視期間ごとに前記まぶた部が開閉動作を行ったか否かを判定し、直近の監視期間に前記開閉動作が1回も行われなかったと判定された場合には、次の監視期間の開始前に前記まぶた部に開閉動作を行わせる。一方、前記直近の監視期間に前記開閉動作が行われた場合には、当該開閉動作の回数が1回であるか複数回であるかを判定し、前記開閉動作の回数が1回と判定された場合には、次の監視期間の開始前に開閉動作を行わず次の監視期間に開閉動作を行い、前記開閉動作の回数が複数回と判定された場合には、前記次の監視期間が終了するまで前記開閉動作を行わないように制御するようにしたものである。
この発明の第5の態様は、前記制御部が、前記正面側に対し前記眼球部の第1の面を向けている状態で、当該第1の面による視線の方向が前記対話者の方向に設定されている状態が予め設定した時間続いた場合に、前記第1の面による視線の方向を前記対話者の方向から他の方向へそらすべく前記眼球部の向きを変化させるようにしたものである。
この発明の第1の態様によれば、まぶた部が閉じている期間に眼球部の凸形状の第1の面と凹形状の第2の面との切替動作を行うことができ、これにより眼球部の第1の面と第2の面との切替動作が対話者から見えないようにして、不自然な印象を対話者に与えないようにすることができる。
この発明の第2の態様によれば、眼球部の面を切り替える動作に同期してまぶた部が開閉動作するため、まぶた部本来の瞬き動作とは独立して、眼球部の面を切り替えるタイミングでまぶたを閉じることができる。
この発明の第3の態様によれば、眼球部の面を切り替える動作が、まぶた部の周期的な開閉動作に同期してその閉期間に行なわれる。このため、まぶたの開閉動作を眼球部の面の切り替え動作に合わせる必要がなくなる。
この発明の第4の態様によれば、まぶた部の開閉動作が一般的な人の瞬き動作に近いタイミングで行われるように制御される。このため、自然な瞬きを行うことができる。
この発明の第5の態様によれば、視線の方向が対話者の方向に設定されている状態が一定時間続くと、視線の方向が対話者の方向から他の方向へそらされる。一般に、人と一対一で対話するときの視線の継続時間には、好ましいとされる時間があることが知られている。このため、上記のように対話者を一定時間注視した後視線を自動的にそらすようにすると、一対一の対話をより円滑に行うことが可能となる。
すなわちこの発明の各態様によれば、対話者に対し不自然な印象を与えることなく視線の指向性を変更できるようにし、これによりアイコンタクトによる心理的効果をさらに高めることが可能なコミュニケーション装置および方法を提供することができる。
この発明の第1の実施形態に係るコミュニケーション装置の機構部分の正面図。 図1に示したコミュニケーション装置の機構部分の上面図。 図1に示したコミュニケーション装置の機構部分の構成を示す右側面図。 図1に示したコミュニケーション装置の機構部分の構成を示す左側面図。 この発明の第1の実施形態に係るコミュニケーション装置の視線提示制御ユニットの構成を示すブロック図。 図5に示した視線提示制御ユニットによる瞬き姿勢制御の処理手順と処理内容を示すフローチャート。 図6に示した瞬き視線制御のうち半自律的な視線制御の処理手順と処理内容を示すフローチャート。 図6に示した瞬き視線制御のうち瞬きタイマ確認動作の処理手順と処理内容を示すフローチャート。 この発明の第1の実施形態に係るコミュニケーション装置の機構部分の動作遷移図。 この発明の第2の実施形態に係るコミュニケーション装置の機構部分の正面図。 図10に示したコミュニケーション装置の機構部分の側面図。 この発明の第2の実施形態に係るコミュニケーション装置の機構部分の動作遷移図。
以下、図面を参照してこの発明に係わる実施形態を説明する。
[第1の実施形態]
(構成)
図1乃至図4は、この発明の第1の実施形態に係るコミュニケーション装置の機構部分の構成を示すもので、図1は正面図、図2は上面図、図3は右側面図、図4は左側面図をそれぞれ示している。
コミュニケーション装置10は、人の目を模したものであり、例えば人型または他の形状のロボットの顔に相当する部分に2個搭載され、当該ロボットの目として使用される。ロボットは、例えば単数または複数の人と対話によるコミュニケーションを行う。ここで、正面とは、対話者である人がコミュニケーション装置10を見る方向である。
コミュニケーション装置10は、フレーム11により3個の独立する収容部を構成している。このうち中央の収容部には、人工的な眼球部12およびまぶた部17が配置されている。正面から見て左側の収容部には第1および第2のサーボモータ14,15が収容され、右側の収容部には第3のサーボモータ16が収容されている。またフレーム11の下部には第4のサーボモータ13が配置されている。
眼球部12は半球殻形状に形成されている。すなわち、眼球部12は、正面から見える表側の球面が凸面を形成しており、裏側の球面が凹面を形成している。眼球部12は、例えば白色の硬質材料で形成されており、眼球部12の中央部分は人の瞳孔および虹彩を模して例えば円形に黒色に着色されている。眼球部12において黒色に着色された箇所を、以下「黒目」ともいう。眼球部12は、フレーム11に対し回転軸18aにより回動自在に支持されている。
上記各サーボモータ13〜16のうち、第1および第4のサーボモータ14,13は、眼球部12の凸面が正面側を向いている状態で眼球部12の上下左右方向の動きを変化させるために用いられる。すなわち、第4のサーボモータ13は、真正面方向を基準としてフレーム11を矢印A方向にそれぞれ90°回転させことにより、眼球部12の左右方向(パン方向)の向きを最大180°変更する。第1のサーボモータ14は、真正面方向を基準としてモータ軸18bを矢印B方向にそれぞれ90°回転させることにより、眼球部12の上下方向(チルト方向)の向きを最大180°変更する。
なお、第1および第4のサーボモータ14,13は、眼球部12の凹面が正面方向を向いている状態では動作しない。つまり、眼球部12の凹面が正面方向を向いている場合には、眼球部12の向きは変化しない。
第2のサーボモータ15は、眼球部12の凸面と凹面のどちらを正面方向に向けるかを切り替えるために使用される。すなわち、第2のサーボモータ15は、モータ軸18bを矢印B方向に180°回転させることにより、図3に示すように眼球部12の凸面が正面方向を向くように設定したり、図4に示すように眼球部12の凹面が正面方向を向くように設定する。なお、第1のサーボモータ14が360°回転可能な場合には、第2のサーボモータ15を省略し、第1のサーボモータ14により凸面と凹面の切り替えを行ってもよい。
まぶた部17は、例えば半球状に形成された不透明な樹脂、繊維または金属により構成され、一端部が第3のサーボモータ16のモータ軸19に接続されている。第3のサーボモータ16は、モータ軸19を矢印C方向に回転させることにより、上記まぶた部17を開閉動作、つまり瞬き動作させる。この開閉動作により、上記眼球部12の正面側を隠したり、露出させたりする。
次に、第1の実施形態に係るコミュニケーション装置の視線提示制御ユニットについて説明する。図5はその機能構成を示すブロック図である。
視線提示制御ユニット20は、制御部21と、インタフェース部22とを有している。
インタフェース部22は、外部との間で信号の送受信を行うもので、画像データ受信部221と、操作データ受信部222と、駆動信号送信部223とを備えている。画像データ受信部221は、例えばロボットの頭部に設置されたカメラ31から出力される、対話者の顔画像データを受信する。操作データ受信部222は、例えば遠隔のユーザが使用するスマートフォンやパーソナルコンピュータ等の操作端末から送信される、視線操作のための操作データを受信する。駆動信号送信部223は、制御部21から出力される瞬きおよび視線の制御データに応じて、各サーボモータ13〜16に対し駆動信号を出力する。
制御部21は、例えば中央処理ユニット(Central Processing Unit:CPU)と記憶ユニットとから構成され、第1の実施形態を実施するために必要な制御機能として、顔認識部211と、瞬き視線制御部212と、半自律制御タイマ213と、瞬きタイマ214と、視線タイマ215と、視線回避タイマ216とを備えている。なお、これらの制御機能部は、記憶ユニットに格納されたプログラムを上記CPUに実行させることにより実現される。
顔認識部211は、上記画像データ受信部221により受信された対話者の顔画像データを読み込み、当該顔画像データから対話者の顔を認識して、認識結果を瞬き視線制御部212へ出力する処理を行う。顔認識処理には、OpenCV for headtrackr.js [https://github.com/auduno/headtrackr] 等の周知の認識方式を用いることができる。
瞬き視線制御部212は、上記顔認識部211による対話者の顔の認識結果と、操作データ受信部222により受信された操作データと、半自律制御タイマ213、瞬きタイマ214、視線タイマ215および視線回避タイマ216の各計時値に基づいて、上記眼球部12の視線の方向と、凸面と凹面の何れを正面側に設定するかを制御すると共に、まぶた部17の開閉動作を併せて制御する。具体的には、瞬きおよび視線の制御データをもとにサーボモータ13〜16の駆動制御データを生成し、駆動信号送信部223へ出力する。
半自律制御タイマ213は、システムの起動と同時に計時を開始し、遠隔のユーザからの視線操作に関する入力を受信する度にリセットされる。一方、視線操作の入力がないまま計時時間が事前に設定された時間を超えると、タイムアウトを瞬き視線制御部212へ通知する。このタイムアウトは、瞬き視線制御部212が半自律モードへ移行するためのトリガとして使用される。なお、上記タイムアウトまでの設定時間は、視線の継続時間(3秒)よりも長い時間に設定される。
瞬きタイマ214は、システムの起動と同時に計時を開始し、3秒毎にタイムアウトを瞬き視線制御部212へ通知する。
視線タイマ215は、対話者に視線を合わせた時点から計時を開始し、その計時時間を瞬き視線制御部212へ通知する。この視線タイマ215の計時時間は、瞬き視線制御部212が眼球部12の視線を対話者からそらす制御を行うか否かを判定するために使用される。瞬き視線制御部212により視線をそらす制御が行われると、視線タイマ215の計時は終了する。なお、視線タイマの計時時間は、例えば3秒に設定される。これは、視線の継続時間は約3秒が最も好印象という実験結果に基づく(Harrison, Charlotte, et al. “Individual differences in preference for mutual gaze
duration.” Journal of vision 15.12 (2015): 173‐173.)。
視線回避タイマ216は、半自律モードによる視線制御中に、視線をそらしている時間を計時し、計時時間が事前に設定した時間を超えた時点で、タイムアウトを瞬き視線制御部212へ通知し、計時を終了する。
(動作)
次に、以上のように構成されたコミュニケーション装置の瞬き視線制御動作を説明する。図6乃至図8は、瞬き視線提示制御ユニット20による処理手順と処理内容を示すフローチャートである。
制御部21は、先ず顔認識部211により、画像データ受信部221により受信された対話者の顔画像データを読み込み、当該顔画像データから対話者の顔を認識する。そして、瞬き視線制御部212により、上記対話者の顔の認識結果をもとに対話者の顔の方向を検出し、当該検出した対話者の顔の方向へ視線が向くように眼球部12の向きを制御する。この視線の制御は、第1または第4のサーボモータ14,13を動作させることにより行われる。
上記視線の制御が終了すると、瞬き視線制御部212は先ずステップS10により瞬きタイマ214および半自律制御タイマ213によりそれぞれ計時を開始する。そして、瞬き視線制御部212の制御の下、ステップS11において半自律制御タイマの計時時間が予め設定した一定時間(例えば3秒より長い時間)を経過したか否かを判定する。この判定の結果、半自律制御タイマの計時時間が上記一定時間を経過していなければ、ステップS12に移行して瞬きタイマ確認処理を以下のように実行する。
図8はその処理手順と処理内容を示すフローチャートである。すなわち、瞬き視線制御部212は、先ずステップS120により瞬きタイマ214の計時時間を読み込み、前回瞬きしてから3秒が経過したか否かを判定する。そして、3秒が経過していなければ、そのまま瞬き確認処理を終了してステップS14に移行する。なお、瞬きタイマ214の計時時間を3秒に設定した理由は、人の自然な瞬き頻度は1分当たり20回と言われているからである。なお、その根拠は、「瞬目の多少が人の印象形成に及ぼす影響」、子孫、日本教育工学会論文誌、2006に詳しく記載されている。
一方、3秒が経過すると、ステップS121において複数回フラグがセットされているか否か、つまり当該3秒間に瞬きが複数回行われたか否かを判定する。そして、複数回フラグがセットされていなければ、ステップS123により瞬きが行われたか否かを判定し、瞬きが行われていなければステップS126により瞬き制御データを駆動信号送信部223へ出力する。この結果、駆動信号送信部223から第3のサーボモータ16へ駆動信号が出力され、第3のサーボモータ16が動作してまぶた部17が閉じられる。すなわち、直近の3秒間に瞬きが一度も行われていなければ、まぶた部17により瞬きが行われる。
一方、直近の3秒間に瞬きが行われたならば、ステップS124により瞬きの回数が複数回か否かを判定する。そして、瞬きが1回のみであれば瞬きをせずにそのままステップS14に移行する。これに対し、瞬きが複数回であればステップS125により複数回フラグをセットした後、ステップS14に移行する。なお、ステップS121において上記複数回フラグがセットされていると判定された場合には、ステップS122により上記複数回フラグをリセットした後、ステップS14に移行する。
すなわち、瞬き視線制御部212は、瞬きタイマ214により3秒が計時されるごとに、当該3秒間に瞬きが行われたか否かを判定する。そして、瞬きが1回も行われなかった場合にはまぶた部17により瞬きを行わせる。これに対し、上記3秒間に瞬きが行われた場合には、その回数が1回のみであれば瞬きをせず、複数回の場合には次の3秒間が経過したのちにおいても瞬きをしないようにする。
瞬き視線制御部212は、次にステップS14においてユーザによる半自律モードへの切替指示が受信されたか否かを判定する。そして、半自律モードへの切替指示が受信された場合には、ステップS15により半自律モードに切り替えた後、ステップS11に戻って半自律制御タイマ213のタイムアウトを監視する。そして、タイムアウトするまで、先に述べたステップS12による瞬きタイマ確認処理が繰り返し行われる。
さて、上記半自律制御タイマ213がタイムアウトしたとする。そうすると瞬き視線制御部212は、半自律の視線制御を以下のように実行する。図7はその処理手順と処理内容を示すフローチャートである。
すなわち、先ずステップS130において瞬きタイマ確認処理を実行した後、ステップS131に移行する。なお、瞬きタイマ確認処理については、先に図8にて説明したので説明は省略する。
ステップS131において瞬き視線制御部212は、ユーザから視線操作を行わせるための操作データが入力されたか否かを判定し、視線操作データが入力されればステップS16に移行する。これに対し、ユーザの視線操作データが入力されなければ、ステップS132において、視線タイマ215がタイムアウトしたか否か、つまり前回対話者に視線を合わせた時点から3秒が経過したか否かを判定する。そして、前回対話者に視線を合わせた時点から3秒が経過すると、ステップS133により視線をそらすための処理を実行する。この視線をそらす処理は、サーボモータ13または14を駆動制御することで、眼球部12の向きを左右方向または上下方向に一定量変化させることによりなされる。
上記視線をそらす処理が終了すると瞬き視線制御部212は、ステップS134により視線回避タイマ216に計時を開始させ、ステップS130に戻る。そして、ステップS130により瞬きタイマ確認処理を行った後、ステップS132を経てステップS135に移行し、ここで視線回避タイマ216が計時動作中か否かを判定する。そして、視線回避タイマ216が計時動作中であれば、当該視線回避タイマ216がタイムアウトしたか否かを判定し、タイムアウトしていなければステップS130に戻る。
これに対し、視線回避タイマ216がタイムアウトしたとする。そうすると瞬き視線制御部212は、ステップS137により視線回避タイマ216の計時動作を終了した後、ステップS138において、半自律的な視線制御モードとして「多人数モード」が設定されているかまたは「一対一モード」が設定されているかを判定する。そして、「一対一モード」が設定されていれば、ステップS140において、眼球部12の凸面が正面を向いた状態を保持したまま、対話者に対し視線を合わせるための制御を行う。この視線を合わせる制御は、顔認識部211から最新の対話者の顔の位置を表すデータを取り込み、眼球部12の視線の向きを対話者の顔の方向に向けるべくサーボモータ13または14を動作させて眼球部12の向きを変化させることにより行われる。
一方、多人数モードが設定されている場合には、瞬き視線制御部212はステップS139において眼球部12を凹面が対話者の方に向くように制御する。この制御は、サーボモータ15を動作させて眼球部12を回転させることにより行われる。また、このとき瞬き視線制御部212は、眼球部12を凸面から凹面に切り替える際に、第4のサーボモータ16に対し駆動制御データを出力することで、まぶた部17に瞬きをさせる。図9(a)〜(d)は、このときのまぶた部17の開閉動作と眼球部12の凸凹面の切替動作の変化を示すものである。
従って、眼球部12の凸面から凹面への切り替え動作は、まぶた部17が閉じている間に行われることになり、これにより上記凸面から凹面への切替動作が対話者に見られないようにすることができる。
上記ステップS140による視線合わせと、ステップS139による眼球部12の凹面への切り替えが終了すると、瞬き視線制御部212はステップS141において視線タイマ215に計時を開始させ、ステップS130に戻る。そして、以後ユーザから視線操作データが入力されるまで、ステップS130〜S141による半自律的な視線制御処理を繰り返す。
瞬き視線制御部212は、続いてステップS16において、ユーザから視線操作データの入力がなされたか否かを判定する。そして、視線操作データが入力されると、ステップS20により半自律制御タイマ213をリスタートした後、ステップS21,ステップS22およびステップS26において、それぞれ操作指示の内容が「凹面への変更」であるか、「凸面への変更」であるか、さらには「視線合わせ」であるか「視線そらし」であるかを判定する。
上記判定の結果、操作指示の内容が「凹面への変更」であれば、ステップS22において、第2のサーボモータ15を動作させて眼球部12を回転させることにより眼球部12の凹面が正面方向に向くように設定する。なお、このとき眼球部12の視線の方向は対話者に合っている状態を維持する。
これに対し、操作指示の内容が「凸面への変更」であれば、ステップS25において、第2のサーボモータ15を動作させて眼球部12を回動させることにより、眼球部12の凸面が正面方向に向くように設定する。またこのとき、第1または第3のサーボモータ14,13を動作させることで、眼球部12の視線の方向を対話者に合わせる。なお、この視線の方向を対話者に合わせる制御は、顔認識部211による対話者の顔の認識結果に基づいて行われる。
また、上記眼球部12の凹面または凸面を切り替える際に、瞬き視線制御部212は、第4のサーボモータ16に対し駆動制御データを出力し、これによりまぶた部17に瞬きを行わせる。このため、眼球部12の凹面または凸面への切り替え動作は、上記まぶた部17が閉じている間に行われることになり、これにより上記凹面または凸面への切り替え動作が対話者に見られることはない。
一方、ユーザによる操作指示の内容が「視線合わせ」であれば、ステップS27において、第1または第3のサーボモータ14,13を動作させることで、眼球部12の視線の方向を対話者に合わせる。なお、この視線合わせは眼球部12の凸面が正面を向いている状態で行われる。
これに対し、上記ユーザによる操作指示の内容が「視線そらし」であれば、ステップS28において、第1または第3のサーボモータ14,13を動作させることで、眼球部12の視線の方向を対話者からそらす。
なお、上記ステップS22、S25またはS27において対話者に対する視線合わせを行った場合、瞬き視線制御部212はステップS23により視線タイマ215に計時を開始させる。
瞬き視線制御部212は、上記視線タイマ215を用いることで、自律的に視線をそらす処理を以下のように実行する。すなわち、ユーザから視線操作データの入力がない場合、瞬き視線制御部212はステップS16からステップS17に移行する。そして、ステップS17で視線タイマ215が計時動作中か否かを判定し、計時動作中であればステップS17により計時時刻が3秒を経過したか否かを判定する。この判定の結果、視線タイマ215の計時時間が3秒を経過すると、ステップS19において、第2のサーボモータ15を動作させて眼球部12を回転させることにより、眼球部12の凸面が正面方向に向くように設定する。そして、第1または第3のサーボモータ14,13を動作させることで眼球部12を移動させ、対話者から視線をそらす。
すなわち、眼球部12の視線が対話者に合っている状態で、ユーザが視線をそらすための操作を行わなくても、視線タイマ215の計時時間が3秒を経過すると自律的に視線をそらす処理が行われる。
(効果)
以上詳述したように第1の実施形態では、眼球部12に凸面と凹面を設け、これらの凸面と凹面とを切り替えることで、高指向性の視線と、低指向性の視線との双方を、状況に応じて切り替えることができる。
すなわち、眼球部12の凸面が正面側を向いている場合、対話者は、眼球部12の黒目が自分の方向を向いているときには眼球部12が自分の方向を向いていると感じやすい。これに対し黒目の方向が変化すると、対話者は眼球部12の黒目が自分の方向からそれた方向を向いているため、眼球部12が自分の方向を向いているとは感じにくくなる。つまり、眼球部12の凸面が正面側を向いている場合には、視線の指向性が高くなる。
一方、眼球部12の凹面が正面側を向いている場合、対話者は、眼球部12の黒目が自分の方向を向いているときも、また自分の方向からそれた方向を向いているときも、眼球部12が自分の方向を向いていると感じやすい。これは、黒目が眼球部12の凹面上ではなく、凹面から浮き上がった位置に存在するように見え、対話者にとっては黒目が眼球部12において対話者側に寄った状態で見えるからである。このように、眼球部12が自分の方向を向いていると感じる現象(錯視)は、対話者の位置によらず発生する。そのため、凹面が正面側に向いている場合には、視線の指向性は低くなる。
以上のような性質を利用することで以下のような効果が奏せられる。すなわち、特定の人と一対一の関係でコミュニケーションを行う場合や、コミュニケーションを行っている人と視線を共有する共同注視を行う場合に、眼球部12の凸面が正面側を向くように設定する。このようにすると、対話者に対する視線の指向性が高くなり、共同注視や1対1のコミュニケーションを効果的に行うことができる。
一方、例えばプレゼンテーション等、不特定多数の人に対してコミュニケーションを行う場合には、眼球部12の凹面が正面側を向くように設定する。このようにすると、対話者に対する指向性が低くなり、多人数に対してもより高い信頼感を持ったコミュニケーションを実現できる。
しかも、まぶた部17をさらに設け、上記眼球部12の凸面と凹面との切替えに際し、まぶた部17を動作させて瞬きをするようにしている。このため、まぶた部17が閉じている期間に眼球部12の凸面と凹面との切替動作を行うことができ、これにより眼球部12の凸面と凹面との切替動作が対話者から見えないようにして、不自然な印象を対話者に与えないようにすることができる。
さらに、眼球部12の視線の提示時間とまぶた部17による瞬きの頻度をタイマ213〜216を用いて自律的に制御するようにしたので、日常のコミュニケーションの中でアイコンタクトによる心理的効果を多人数に対して自然に与えることが可能となる。
[第2の実施形態]
この発明の第2の実施形態は、黒目が表示された弾性を有する膜を、互いに向き合うように配置された2個の球面の何れかに密着させることで眼球の凸面と凹面とを切り替え、かつ眼球の前面側にジャバラ構造をなすまぶた部を配置し、このまぶた部を縮小および拡張することで瞬き動作を実現するようにしたものである。
(構成)
図10および図11はこの発明の第2の実施形態に係るコミュニケーション装置の機構部分の構成を示すもので、図10は正面図、図11は側面図である。コミュニケーション装置30は、基台部310と、可動部320とを備える。
基台部310は、図11に示すように右側面視で略コの字型の外枠部311を有する。外枠部311は、上面312と、底面313と、背面314とにより構成される。上面312の底面313側と、底面313の上面312側には、それぞれ可動部320の歯車324および325の歯面と噛み合う歯面が設けられている。
また、基台部310は、背面314の中央に、正面側に突出する、正面視で略四角形の筒部315を有する。筒部315の正面側の開口は、膜316で覆われている。膜316と筒部315の開口とは接着されている。膜316は、例えば白色のシリコン等の伸縮性を有する材料で構成されている。筒部315の内部は中空になっている。また、膜316の中央部分は、人の瞳孔及び虹彩を模して、例えば円形に黒色に着色されている。
可動部320は、球体321と、半球体322と、これらの球体321および半球体322を支持するフレーム323とを備える。球体321およびフレーム323は、例えばアクリル板等の透明な硬質材料で形成されている。球体321と、半球体322とは、球面同士で基台部310の膜316を挟み込むようにして、正面視で前後方向に配置される。フレーム323の上側には、回転軸326を通すための軸受け327が接続され、フレーム323の下側には、回転軸328を通すための軸受け329が接続されている。
また、可動部320は、基台部310の上面312と接する2つの歯車324及び底面313と接触する2つの歯車325とを備える。歯車324の歯面は上面312の歯面と噛み合い、歯車325の歯面は底面313の歯面と噛み合う。2つの歯車324には、回転軸326が挿入されている。また、2つの歯車325のうち、一方には回転軸328が挿入されており、他方にはモータ330の回転軸が挿入されている。モータ330は、フレーム323の下側に取り付けられている。モータ330として、例えばサーボモータまたはエンコーダ付き直流モータ等を使用することができる。モータ330が駆動することにより、歯車325が回転し、可動部320が基台部310に対して、正面視における前後方向に変位する。モータ330は、例えば図示しない駆動部により駆動される。
コミュニケーション装置30において、球体321と、半球体322と、膜316とは眼球を構成し、モータ330は、眼球について、正面側に対して凸形状を向けるか、凹形状を向けるかを制御する制御部として機能する。
またコミュニケーション装置30は、まぶた部340を備えている。まぶた部340は、紙や布等の素材で製作されたジャバラ構造をなすまぶた部材344を有する。このまぶた部材344は、基端部がフレームに固定され、先端部が可動部材に343に固定されている。可動部材343は、モータ341の回転板342に接続され、モータ341によりこの回転板342が回動することで上記まぶた部材344を開閉動作させる。
なお、視線提示制御ユニット20の構成は、図4に示した構成と基本的に同一なので、ここでは説明を省略する。
(動作)
次に、以上のように構成された装置の動作を説明する。図12は、眼球部の凸面と凹面との切り替え動作と、まぶた部340の動作の変化を説明するための図である。
先ず対話者が存在する方向に対し眼球部を凸面状態に設定するには、瞬き視線制御部212の制御の下、サーボモータを駆動することで、図12(a)に示すように歯車324,325を回転させ、基台部310に対し可動部320を対話者の方向へ一定量移動させる。この結果、膜316は半球体322の半球面に密着し、これにより眼球の凸面が形成される。
次に、瞬き視線制御部212の制御の下、サーボモータ341を駆動してまぶた部材344を拡張させ、これにより図12(b)に示すように眼球部の球体321を覆い隠す。すなわち、まぶたを閉じた状態に設定する。
続いて、この状態でサーボモータを駆動することで歯車324,325を回転させ、これにより図12(c)に示すように可動部320を対話者とは反対の方向へ一定量移動させる。この結果、膜316は球体321の裏面側の半球面に密着し、これにより眼球の凹面が形成される。
最後に、瞬き視線制御部212の制御の下、サーボモータ341を駆動してまぶた部材344を伸縮させ、これにより図12(d)に示すように眼球部の球体321を露出させる。すなわち、まぶたを開けた状態に設定する。
なお、眼球部を凹面から凸面に切り替える場合には、上記動作とは反対の手順で凸凹面の切り替え動作と瞬き動作が行われる。
(効果)
以上のように第2の実施形態では、まぶた部材344をジャバラ構造のような伸縮可能な部材により構成し、眼球部を凸面から凹面に、また凹面から凸面に切り替える際に、事前にまぶた部340を動作させて、まぶた部材344により眼球部を隠すようにしている。このため、第1の実施形態と同様に、まぶた部340が閉じている期間に眼球部の凸面と凹面との切替動作を行うことができ、これにより眼球部の凸面と凹面との切替動作が対話者から見えないようにして、不自然な印象を対話者に与えないようにすることができる。また、まぶた部材344をジャバラ構造としたことで、まぶた部材344の収容スペースを縮小することができる。
[その他の実施形態]
前記各実施形態では、まぶた部の開閉動作(瞬き動作)を眼球部の面を凸面と凹面との間で切り替える動作に同期して行った。すなわち、眼球部の面を切り替える動作の開始前にまぶた部を閉動作させ、上記切り替える動作の終了後に上記まぶた部を開動作させるようにした。しかしそれに限らず、まぶた部を予め設定した時間間隔で周期的に開閉動作させる場合には、眼球部の面を切り替える動作を当該まぶた部の周期的な開閉動作に同期してその閉期間に行うようにしてもよい。
また、眼球の凸面又は凹面の切替えは、遠隔のユーザの操作に基づいて行ってもよいが、切替え制御の手順と内容をコミュニケーション装置を含むロボットが話す内容に合わせて予めプログラムしておくようにしてもよい。
さらに前記各実施形態では、眼球部の凸面と凹面との切り替え時にまぶた部を開閉動作させる場合について述べたが、眼球部の視線を合わせたりそらせるとき、つまり視線を変化させるときにもまぶた部を開閉動作させるようにしてもよい。
さらに、制御部の制御の下で、例えば3Dディスプレイからなる立体画像表示部に、眼球を表す凸形状の立体画像と凹形状の立体画像を択一的に表示するようにしてもよい。すなわち、立体画像表示部に、正面側に凸形状の眼球の立体画像を表示すると、第1の実施形態において凸面を正面側に向けた状態と同じ状態が実現され、また立体画像表示部に、正面側に凹形状の眼球の立体画像を表示すると、第1の実施形態において、凹面を正面側に向けた状態と同じ状態が実現される。
その際、3Dディスプレイに表示される眼球の凸形状又は凹形状の切り替えは、制御部により制御される。制御部は、眼球の凸形状の立体画像と凹形状の立体画像との表示の切替えについて、例えばコミュニケーション装置を含むロボットが話す内容に合わせて自動的に決定する。また、制御部は、眼球の凸形状の立体画像と凹形状の立体画像との表示の切替えを、例えば遠隔の操作者の操作に基づいて行ってもよい。
また、上記凸形状の眼球の立体画像と凹形状の眼球の立体画像の表示を切り替える際には、まぶたが瞬きをする立体画像を眼球の立体画像に重ねて表示する。このようにすると、凸形状の眼球の立体画像と凹形状の眼球の立体画像と表示を切り替えが対話者に見えないようにすることができる。
さらに、立体画像表示部に凸形状の眼球の立体画像を表示している場合には、表示される眼球の方向を変更して表示することにより、表示される眼球の視線の向きを変えることができる。なお、立体画像表示部は、必ずしも3Dディスプレイでなくてもよい。立体画像表示部は、例えばホログラムにより眼球の立体画像を表示可能な装置で合ってもよい。
その他、眼球部およびまぶた部の構成、その制御手順と処理の内容等については、この発明の要旨を逸脱しない範囲で種々変形して実施可能である。
要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
10,30…コミュニケーション装置、11…フレーム、12…眼球部、13〜16…サーボモータ、17…まぶた部、18a…回転軸、18b,19…モータ軸、20…視線提示制御ユニット、21…制御部、22…インタフェース部、221…画像データ受信部、222…操作データ受信部、223…駆動信号送信部、211…顔認識部、212…瞬き視線制御部、213…半自律制御タイマ、214…瞬きタイマ、215…視線タイマ、216…視線回避タイマ、310…基台部、316…膜、320…可動部、321…球体、322…半球体、324,325…歯車、330…モータ、340…まぶた部、341…モータ、342…回転板、343…可動部材、344…まぶた部材。

Claims (6)

  1. 正面側に位置する対話者とアイコンタクトによるコミュニケーションを行うコミュニケーション装置であって、
    凸形状となる第1の面および凹形状となる第2の面を有し、これら第1および第2の面を前記正面側に対し択一的に向けることが可能な人工的な眼球部と、
    前記眼球部の前記正面側となる位置において、瞬きを表す開閉動作を行うまぶた部と、
    前記眼球部およびまぶた部を動作させる制御部と
    を具備し、
    前記制御部は、
    前記正面側に向ける眼球部の面を、前記第1の面と第2の面との間で切り替える手段と、
    前記眼球部の面を切り替える期間に、当該眼球部の面を前記正面側に対し隠すべく前記まぶた部を閉動作させる手段と
    を備えることを特徴とするコミュニケーション装置。
  2. 前記制御部は、前記眼球部の面を切り替える動作に同期して、当該切り替える動作の開始前に前記まぶた部を閉動作させ、前記切り替える動作の終了後に前記まぶた部を開動作させることを特徴とする請求項1記載のコミュニケーション装置。
  3. 前記制御部は、前記まぶた部を予め設定した時間間隔で周期的に開閉動作させ、前記眼球部の面を切り替える動作を、前記周期的な開閉動作に同期してその閉期間に行うことを特徴とする請求項1記載のコミュニケーション装置。
  4. 前記制御部は、
    予め設定した監視期間ごとに前記まぶた部が開閉動作を行ったか否かを判定する手段と、
    直近の監視期間に前記開閉動作が1回も行われなかったと判定された場合には、次の監視期間の開始前に前記まぶた部に開閉動作を行わせる手段と、
    前記直近の監視期間に前記開閉動作が行われた場合には、当該開閉動作の回数が1回であるか複数回であるかを判定する手段と、
    前記開閉動作の回数が1回と判定された場合には、次の監視期間の開始前に開閉動作を行わず次の監視期間に開閉動作を行う手段と、
    前記開閉動作の回数が複数回と判定された場合には、前記次の監視期間が終了するまで前記開閉動作を行わないように制御する手段と
    を、さらに備えることを特徴とする請求項1記載のコミュニケーション装置。
  5. 前記制御部は、前記正面側に対し前記眼球部の第1の面を向けている状態で、当該第1の面による視線の方向が前記対話者の方向に設定されている状態が予め設定した時間続いた場合に、前記第1の面による視線の方向を前記対話者の方向から他の方向へそらすべく前記眼球部の向きを変化させる手段を、さらに備えることを特徴とする請求項1記載のコミュニケーション装置。
  6. 凸形状となる第1の面および凹形状となる第2の面を対話者が位置する正面側に択一的に向けることが可能な人工的な眼球部と、前記眼球部の前記正面側となる位置において瞬きを表す開閉動作を行うまぶた部と、前記眼球部およびまぶた部を動作させる制御部とを
    備える装置が、前記対話者とアイコンタクトによるコミュニケーションを行うコミュニケーション方法であって、
    前記制御部により、前記正面側に向ける眼球部の面を、前記第1の面と第2の面との間で切り替える過程と、
    前記制御部により、前記眼球部の面を切り替える期間に、当該眼球部の面を前記正面側に対し隠すべく前記まぶた部を閉動作させる過程と
    を具備することを特徴とするコミュニケーション方法。
JP2016148409A 2016-07-28 2016-07-28 コミュニケーション装置および方法 Active JP6555665B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016148409A JP6555665B2 (ja) 2016-07-28 2016-07-28 コミュニケーション装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016148409A JP6555665B2 (ja) 2016-07-28 2016-07-28 コミュニケーション装置および方法

Publications (2)

Publication Number Publication Date
JP2018015843A JP2018015843A (ja) 2018-02-01
JP6555665B2 true JP6555665B2 (ja) 2019-08-07

Family

ID=61075053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016148409A Active JP6555665B2 (ja) 2016-07-28 2016-07-28 コミュニケーション装置および方法

Country Status (1)

Country Link
JP (1) JP6555665B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019005842A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
CN111886565B (zh) 2018-03-22 2024-06-14 国立研究开发法人科学技术振兴机构 处理装置、处理方法、数据处理装置、数据处理系统、数据处理方法和程序

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4937095U (ja) * 1972-05-17 1974-04-02
JP2869841B2 (ja) * 1993-04-22 1999-03-10 株式会社タカラ 人形の目玉と瞼の連動装置
JP3300843B2 (ja) * 1996-01-22 2002-07-08 パイロットインキ株式会社 人形又は動物玩具用眼球
JP3995348B2 (ja) * 1998-09-03 2007-10-24 リコーエレメックス株式会社 ロボットシステム
JP2002035440A (ja) * 2000-07-28 2002-02-05 Roman Kobo:Kk 人形型ロボット、及びその製作方法
JP2003230770A (ja) * 2002-02-12 2003-08-19 Chubu Kagaku Gijutsu Center 表情表出ロボット
JP3891413B2 (ja) * 2002-06-14 2007-03-14 日本ビクター株式会社 ロボット装置
JP3914928B2 (ja) * 2004-02-25 2007-05-16 Necアクセステクニカ株式会社 ロボット
ES1135614Y (es) * 2015-01-02 2015-04-17 Imc Toys Sa Un ojo mecánico para un juguete
JP6468598B2 (ja) * 2015-05-01 2019-02-13 日本電信電話株式会社 コミュニケーション装置、制御方法及び制御プログラム

Also Published As

Publication number Publication date
JP2018015843A (ja) 2018-02-01

Similar Documents

Publication Publication Date Title
CN105629469B (zh) 基于液晶透镜阵列的头戴式显示设备
AU2010302959B2 (en) Object tracking for artificial vision
KR102225563B1 (ko) 가상 및 증강 현실의 초점 평면들을 생성하기 위한 방법들 및 시스템
JP5887026B2 (ja) ヘッドマウントシステム及びヘッドマウントシステムを用いてディジタル画像のストリームを計算しレンダリングする方法
JP6339239B2 (ja) 頭部装着型表示装置、及び映像表示システム
CN101051349B (zh) 采用主动视觉反馈的双目虹膜采集设备
JP6378781B2 (ja) 頭部装着型表示装置、及び映像表示システム
WO2020030849A1 (en) Display apparatus and method of displaying using gaze prediction and image steering
CN107307981B (zh) 头戴显示设备的控制方法
CN105943327B (zh) 具有防眩晕设备的视力锻炼保健系统
JP2020504644A (ja) 融合機能改善のための視力訓練装置及び視力訓練方法
US9805612B2 (en) Interest-attention feedback method for separating cognitive awareness into different left and right sensor displays
JP6555665B2 (ja) コミュニケーション装置および方法
JP2020137128A (ja) コンピュータ読取可能な非一過性の記憶媒体、Webサーバ、及び、瞳孔間のキャリブレーション方法
JP2006212717A (ja) ロボット装置
CN110091345A (zh) 互动机器人以及其控制程序
KR20210125980A (ko) 시각 장애 또는 시각적으로 손상된 사용자를 위한 환경 인지를 향상하기 위한 의료 기기
CN109106567A (zh) 一种用于近视治疗的多视距显示系统
JP2010148738A (ja) 視力改善訓練装置および視力改善訓練制御プログラム
JP2007260372A (ja) 眼力トレーニング用電子画面の表示方法
CN110812145B (zh) 一种视功能调整方法及装置、虚拟现实头戴式显示设备
JP6468598B2 (ja) コミュニケーション装置、制御方法及び制御プログラム
CN205562957U (zh) 基于液晶透镜阵列的头戴式显示设备
JPH11109932A (ja) 画像表示装置
CN110882139B (zh) 一种利用图序列的视功能调整方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190701

R150 Certificate of patent or registration of utility model

Ref document number: 6555665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250