JP2006123102A - 眼球制御装置、眼球制御方法および眼球制御プログラム - Google Patents

眼球制御装置、眼球制御方法および眼球制御プログラム Download PDF

Info

Publication number
JP2006123102A
JP2006123102A JP2004315853A JP2004315853A JP2006123102A JP 2006123102 A JP2006123102 A JP 2006123102A JP 2004315853 A JP2004315853 A JP 2004315853A JP 2004315853 A JP2004315853 A JP 2004315853A JP 2006123102 A JP2006123102 A JP 2006123102A
Authority
JP
Japan
Prior art keywords
head
eyeball
angle
rotation angle
observer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004315853A
Other languages
English (en)
Other versions
JP4267556B2 (ja
Inventor
Miyuki Kamaike
みゆき 蒲池
Chisato Yoshida
千里 吉田
Verstraten Frans
フランス・バーストラテン
Hill Harold
ハロルド・ヒル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004315853A priority Critical patent/JP4267556B2/ja
Publication of JP2006123102A publication Critical patent/JP2006123102A/ja
Application granted granted Critical
Publication of JP4267556B2 publication Critical patent/JP4267556B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】 眼球により表現される視線により観察者の注意を所望の対象物に正確に誘導することができる眼球制御装置、眼球制御方法および眼球制御プログラムを提供することである。
【解決手段】 知覚ずれ角度θe を、θe =0.079×θu −0.02により求める。ロボット1の視線方向Sと頭部方向Rとの間の角度が注視対象角度θt に知覚ずれ角度θe を加えた値になるように眼球回転角度θs を設定する。それにより、ユーザ30は、ロボット1が対象物100を注視していると知覚することができる。
【選択図】 図6

Description

本発明は、眼球の回転運動を制御する眼球制御装置、眼球制御方法および眼球制御プログラムに関する。
従来より、眼球を有する種々のロボットが開発されている(特許文献1〜4参照)。このようなロボットは、眼球の向きにより視線方向を表現している。そのため、視線方向を変更するために眼球の回転運動を制御する制御装置が設けられる。ロボットが眼球を回転させることにより視線を対象物に向けると、視線が向けられた対象物にユーザの注意が誘導される。
一方、コンピュータグラフィックス技術により作成される人物またはロボットの頭部の画像においては、眼の瞳の位置および形状により視線方向が表現される。したがって、頭部の画像においても、眼球を回転させることにより視線を対象物に向けると、視線が向けられた対象物に画像の観察者の注意が誘導される。
特開2004−42151号公報 特開2004−233585号公報 特開2001−157992号公報 特開平8−22345号公報
しかしながら、ロボットの実際の視線方向とユーザが知覚するロボットの視線方向とが異なる場合がある。例えば、ロボットがある対象物に視線を向けている場合に、ユーザは、ロボットがその対象物からずれた位置にある他の対象物に視線を向けていると知覚することがある。このような場合、ロボットが意図する対象物とは異なる対象物にユーザの注意が誘導されることになる。
同様に、コンピュータグラフィックス技術により作成される頭部の画像の実際の視線方向と画像の観察者が知覚する頭部の画像の視線方向とが異なる場合がある。このような場合、頭部の画像が意図する対象物とは異なる対象物に観察者の注意が誘導されることになる。
本発明の目的は、眼球により表現される視線により観察者の注意を所望の対象物に正確に誘導することができる眼球制御装置、眼球制御方法および眼球制御プログラムを提供することである。
本発明者は、種々の実験および検討を重ねた結果、観察者に対面する人がある対象物を注視している場合に、その人の頭部が観察者に向かう方向からどちらかの側に回転されると、観察者は、その人が対象物の方向からずれた方向を注視していると知覚することを見出し、以下の発明を案出した。
第1の発明に係る眼球制御装置は、観察者に対面する頭部に設けられる眼球の回転角度を制御する眼球制御装置であって、観察者に向かう方向と頭部の正面の方向とのなす角度を頭部回転角度θu[deg]として取得する第1の取得手段と、頭部の正面の方向と対象物の方向とのなす角度を注視対象角度θt[deg]として取得する第2の取得手段と、第1の取得手段により取得された頭部回転角度θuならびに所定の第1の係数aおよび所定の第2の係数b[deg]を用いて観察者による知覚ずれ角度θe[deg]を、θe=aθt−bにより算出する第1の算出手段と、第1の取得手段により取得された頭部回転角度θuおよび第1の算出手段により算出された知覚ずれ角度θe[deg]を用いて頭部の正面の方向を基準とする眼球の回転角度θsを、θs=θt+θeにより算出する第2の算出手段と、眼球により表現される視線の方向と頭部の正面の方向とのなす角度を第2の算出手段により算出された回転角度θsに設定する設定手段とを備えたものである。
本発明に係る眼球制御装置においては、第1の取得手段により観察者に向かう方向と頭部の正面の方向とのなす角度が頭部回転角度θu[deg]として取得される。また、第2の取得手段により頭部の正面の方向と対象物の方向とのなす角度が注視対象角度θt[deg]として取得される。次に、第1の算出手段により頭部回転角度θuならびに所定の第1の係数aおよび所定の第2の係数b[deg]を用いて観察者による知覚ずれ角度θe[deg]が、θe=aθt−bにより算出される。次いで、第2の算出手段により頭部回転角度θuおよび知覚ずれ角度θe[deg]を用いて頭部の正面の方向を基準とする眼球の回転角度θsが、θs=θt+θeにより算出される。さらに、眼球により表現される視線の方向と頭部の正面の方向とのなす角度が設定手段により回転角度θsに設定される。
このようにして、頭部回転角度θu に応じて眼球により表現される視線の方向を対象物の方向から知覚ずれ角度θe ずれた方向に設定することにより、観察者は眼球の視線が対象物の方向を向いていると知覚することができる。したがって、眼球の視線により観察者の注意を所望の対象物に正確に誘導することができる。
第1の係数は約0.08であり、第2の係数は約0.02[deg]であることが好ましい。これにより、頭部回転角度θu に応じて対面する観察者による知覚ずれ角度を正確に求めることができる。
頭部は、ロボットの頭部であり、眼球は、ロボットの眼球であってもよい。この場合、ロボットの頭部の回転角度に応じてロボットの眼球により表現される視線の方向を対象物の方向から知覚ずれ角度ずれた方向に設定することにより、観察者はロボットの眼球の視線が対象物の方向を向いていると知覚することができる。したがって、ロボットの眼球の視線により観察者の注意を所望の対象物に正確に誘導することができる。
頭部は、頭部の画像であり、眼球は、眼球の画像であってもよい。この場合、頭部の画像の回転角度に応じて眼球の画像により表現される視線の方向を対象物の方向から知覚ずれ角度ずれた方向に設定することにより、観察者は眼球の画像の視線が対象物の方向を向いていると知覚することができる。したがって、眼球の画像の視線により観察者の注意を所望の対象物に正確に誘導することができる。
第2の発明に係る眼球制御方法は、観察者に対面する頭部に設けられる眼球の回転角度を制御する眼球制御方法であって、観察者に向かう方向と頭部の正面の方向とのなす角度を頭部回転角度θu[deg]として取得するステップと、頭部の正面の方向と対象物の方向とのなす角度を注視対象角度θt[deg]として取得するステップと、取得された頭部回転角度θuならびに所定の第1の係数aおよび所定の第2の係数b[deg]を用いて観察者による知覚ずれ角度θe[deg]を、θe=aθt−bにより算出するステップと、取得された頭部回転角度θuおよび算出された知覚ずれ角度θe[deg]を用いて頭部の正面の方向を基準とする眼球の回転角度θsを、θs=θt+θeにより算出するステップと、眼球により表現される視線の方向と頭部の正面の方向とのなす角度を前記算出された回転角度θsに設定するステップとを備えたものである。
本発明に係る眼球制御方法においては、観察者に向かう方向と頭部の正面の方向とのなす角度が頭部回転角度θu[deg]として取得される。また、頭部の正面の方向と対象物の方向とのなす角度が注視対象角度θt[deg]として取得される。次に、頭部回転角度θuならびに所定の第1の係数aおよび所定の第2の係数b[deg]を用いて観察者による知覚ずれ角度θe[deg]が、θe=aθt−bにより算出される。次いで、頭部回転角度θuおよび知覚ずれ角度θe[deg]を用いて頭部の正面の方向を基準とする眼球の回転角度θsが、θs=θt+θeにより算出される。さらに、眼球により表現される視線の方向と頭部の正面の方向とのなす角度が回転角度θsに設定される。
このようにして、頭部回転角度θu に応じて眼球により表現される視線の方向を対象物の方向から知覚ずれ角度θe ずれた方向に設定することにより、観察者は眼球の視線が対象物の方向を向いていると知覚することができる。したがって、眼球の視線により観察者の注意を所望の対象物に正確に誘導することができる。
第3の発明に係る眼球制御プログラムは、観察者に対面する頭部に設けられる眼球の回転角度を制御するためにコンピュータにより実行可能な眼球制御プログラムであって、観察者に向かう方向と頭部の正面の方向とのなす角度を頭部回転角度θu[deg]として取得する処理と、頭部の正面の方向と対象物の方向とのなす角度を注視対象角度θt[deg]として取得する処理と、取得された頭部回転角度θuならびに所定の第1の係数aおよび所定の第2の係数b[deg]を用いて観察者による知覚ずれ角度θe[deg]を、θe=aθt−bにより算出する処理と、取得された頭部回転角度θuおよび算出された知覚ずれ角度θe[deg]を用いて頭部の正面の方向を基準とする眼球の回転角度θsを、θs=θt+θeにより算出する処理と、前記眼球により表現される視線の方向と前記頭部の正面の方向とのなす角度を前記算出された回転角度θsに設定するステップと眼球により表現される視線の方向と頭部の正面の方向とのなす角度を前記算出された回転角度θsに設定する処理とを、コンピュータに実行させるものである。
本発明に係る眼球制御プログラムにおいては、観察者に向かう方向と頭部の正面の方向とのなす角度が頭部回転角度θu[deg]として取得される。また、頭部の正面の方向と対象物の方向とのなす角度が注視対象角度θt[deg]として取得される。次に、頭部回転角度θuならびに所定の第1の係数aおよび所定の第2の係数b[deg]を用いて観察者による知覚ずれ角度θe[deg]が、θe=aθt−bにより算出される。次いで、頭部回転角度θuおよび知覚ずれ角度θe[deg]を用いて頭部の正面の方向を基準とする眼球の回転角度θsが、θs=θt+θeにより算出される。さらに、眼球により表現される視線の方向と頭部の正面の方向とのなす角度が回転角度θsに設定される。
このようにして、頭部回転角度θu に応じて眼球により表現される視線の方向を対象物の方向から知覚ずれ角度θe ずれた方向に設定することにより、観察者は眼球の視線が対象物の方向を向いていると知覚することができる。したがって、眼球の視線により観察者の注意を所望の対象物に正確に誘導することができる。
本発明によれば、頭部回転角度θu に応じて眼球により表現される視線の方向を対象物の方向から知覚ずれ角度θe ずれた方向に設定することにより、観察者は眼球の視線が対象物の方向を向いていると知覚することができる。したがって、眼球の視線により観察者の注意を所望の対象物に正確に誘導することができる。
(1)第1の実施の形態
まず、本発明に係る眼球制御装置、眼球制御方法および眼球制御プログラムをロボットに適用した場合について説明する。
図1は本発明の第1の実施の形態に係る眼球制御装置を備えたロボットの正面図である。図2は図1のロボットの頭部の横断面図である。図3は図1のロボットの縦断面図である。図4は図1のロボットの制御系を示すブロック図である。
図1に示すように、ロボット1は、頭部10、頸部20および胴部21を備える。胴部21上に頸部20を介して頭部10が設けられている。
頭部10の前面には、右の眼球11Rおよび左の眼球11Lが設けられている。眼球11R,11Lは、角膜および水晶体に相当するレンズ12R,12Lを有する。頭部10の前面の上部には光センサ13およびCCD(電荷結合素子)カメラ等のカメラ16が取り付けられている。
図2に示すように、右の眼球11Rは、右眼回転駆動装置14Rにより鉛直軸の周りで左右に回転駆動される。左の眼球11Lは、左眼回転駆動装置14Lにより鉛直軸の周りで左右に回転駆動される。頭部10は、頭部回転駆動装置22により鉛直軸の周りで左右に回転駆動される。
図3に示すように、頭部10内の上部には、CPU(中央演算処理装置)、メモリ等からなる制御装置15が設けられている。光センサは、頭部10に照射される光を検知する。また、カメラ16は、頭部10の前方の対象物を撮影する。
図4に示すように、制御装置15は、光センサ13の出力信号およびカメラ16により撮影された画像を受け、右眼回転駆動装置14R、左眼回転駆動装置14Lおよび頭部回転駆動装置22を制御する。この制御装置15は、光センサ13の出力信号に基づいて頭部10に照射される光の方向を検出することができる。また、制御装置15は、カメラ16から与えられる画像に基づいてロボット1に対面するユーザ(観察者)の位置を検出することができる。制御装置15は、ロボット制御プログラムに従って動作する。ロボット制御プログラムは、眼球制御プログラムを含む。
次に、図5および図6を参照しながら第1の実施の形態に係るロボットにおける眼球制御動作について説明する。図5および図6は第1の実施の形態に係るロボットにおける眼球制御動作の原理を説明するための図であり、(a)はロボット、ユーザおよび対象物の関係を示す平面図、(b)は左の眼球の平面図である。
後述するように、本実施の形態に係るロボット1は、視線により所望の対象物にユーザの注意を誘導することができる。
図5および図6において、頭部10の中心点Oから左の眼球11Lと右の眼球11Rとを結ぶ線分の中点を通って前方に向かう方向を頭部方向Rと呼ぶ。また、頭部10の中心点Oからユーザ(観察者)30の頭部の中心点に向かう方向をユーザ方向Uと呼ぶ。ここで、ロボット1の視線によりユーザ30の注意を対象物30に誘導するものとする。頭部10の中心点Oから対象物100に向かう方向を注視対象方向Tと呼ぶ。
図5(b)および図6(b)に示すように、眼球11Lの中心点Pからレンズ12Lの中心点を通って前方へ向かう方向を視線方向と定義する。右の眼球11Rの視線方向も同様に定義する。
図5(a)および図6(a)において、右の眼球11Rの視線方向と左の眼球11Lの視線方向との交点を注視点とし、頭部10の中心点Oから注視点に向かう方向を視線方向Sと呼ぶ。右の眼球11Rの視線方向と左の眼球11Lの視線方向とは厳密には異なるが、ここでは、説明を簡単にするために、右の眼球11Rの視線方向および左の眼球11Lの視線方向は図5(a)および図6(a)の視線方向Sと等しいものとする。
図5(a)および図6(a)において、ユーザ方向Uと頭部方向Rとの間の角度を頭部回転角度θu と定義する。頭部方向Rと注視対象方向Tとの間の角度を注視対象角度θt と定義する。
図5(a)には、ロボット1の視線方向Sが注視対象方向Tに一致する場合が示される。すなわち、ロボット1の眼球11R,11Lが対象物100を注視している。ロボット1の頭部方向Rがユーザ方向Uからどちらかの側に回転されると、ユーザ30は、ロボット1が注視対象方向Tよりも頭部方向R側にずれた方向を注視していると知覚する。ユーザ30が知覚するロボット1の視線方向を視線知覚方向Eと呼ぶ。ロボット1の視線方向Sとユーザ30の視線知覚方向Eとの間の角度を知覚ずれ角度θe と定義する。
すなわち、図5(a)の状態では、ユーザ30は、ロボット1が視線知覚方向Eを注視していると知覚する。
そこで、本実施の形態では、図6(a)に示すように、ロボット1の視線方向Sと頭部方向Rとの間の角度が注視対象角度θt に知覚ずれ角度θe を加えた値になるように眼球回転角度θs を設定する。眼球回転角度θs は次式で表される。
θs =θt +θe …(1)
図6(a)に示すように、眼球回転角度θs を上式(1)のように設定することにより注視対象方向Tと視線知覚方向Eとが一致する。それにより、ユーザ30は、ロボット1が対象物100を注視していると知覚することができる。
ここで、後述するように、知覚ずれ角度θe は、頭部回転角度θu に依存して変化する。知覚ずれ角度θe は次式のように表される。
θe =aθu −b …(2)
上式(2)において、aおよびbはそれぞれ所定の係数である。後述する実験結果によると、a≒0.079であり、b≒0.02である。すなわち、知覚ずれ角度θe は次式(3)で表される。
θe =0.079×θu −0.02 …(3)
次に、第1の実施の形態に係るロボットの眼球制御動作について説明する。図7は第1の実施の形態に係るロボットの眼球制御動作を示すフローチャートである。
まず、制御装置15は、注視対象角度θt を決定する(ステップS1)。次に、制御装置15は、カメラ16から与えられる画像に基づいて頭部回転角度θu を算出する(ステップS2)。この場合、制御装置15は、カメラ16から与えられるユーザ30の画像を解析することによりユーザ方向Uを判定し、ユーザ方向Uに基づいて頭部回転角度θu を算出する。
次いで、制御装置15は、頭部回転角度θu が−15°以上+15°以下の範囲内にあるか否かを判定する(ステップS3)。本実施の形態では、頭部回転角度θu の限界値を±15°とする。
頭部回転角度θu が−15°以上+15°以下の範囲内にない場合には、警告の発生および頭部10の回転操作を行い(ステップS4)、ステップS1に戻る。ここで、警告は、スピーカ(図示せず)による警告音または表示ランプ(図示せず)による警告表示である。
頭部10の回転操作によりユーザ方向Uおよび頭部回転角度θu が変化する。ステップS3において頭部回転角度θu が−15°以上+15°以下の範囲内にある場合には、制御装置15は、頭部回転角度θu に基づいて上式(3)より知覚ずれ角度θe を算出する(ステップS5)。
さらに、制御装置15は、注視対象角度θt および知覚ずれ角度θe に基づいて上式(1)より眼球回転角度θs を算出する(ステップS6)。
次いで、制御装置15は、右眼回転駆動装置14Rおよび左眼回転駆動装置14Lにより眼球11R,11Lをそれぞれ眼球回転角度θs 回転させる(ステップS7)。
本実施の形態に係るロボット1においては、頭部回転角度θu に応じて視線方向Sを注視対象方向Tから知覚ずれ角度θe ずれた方向に制御することにより、ユーザ30はロボット1が対象物100を注視していると知覚することができる。したがって、ロボット1の視線によりユーザ30の注意を所望の対象物100に誘導することができる。
本実施の形態においては、制御装置15が第1の取得手段、第2の取得手段、第1の算出手段および第2の算出手段に相当し、右眼回転駆動装置14Rおよび左眼回転駆動装置14Lが設定手段に相当する。
(2)第2の実施の形態
次に、本発明に係る眼球制御装置、眼球制御方法および眼球制御プログラムを画像作成装置に適用した場合について説明する。
図8は本発明の第2の実施の形態の係る画像作成装置の構成を示すブロック図である。
画像作成装置50は、CPU(中央演算処理装置)501、ROM(リードオンリメモリ)502、RAM(ランダムアクセスメモリ)503、入力装置504、表示装置505、外部記憶装置506、記録媒体駆動装置507および入出力インタフェース508を含む。この画像作成装置50は、コンピュータグラフィックス画像(以下、CG画像と呼ぶ)を作成する。
入力装置504は、キーボード、マウス等からなり、各種指令および各種データを入力するために用いられる。ROM502にはシステムプログラムが記憶される。記録媒体駆動装置507は、CD−ROMドライブ、DVD(デジタルバーサタイルディスク)ドライブ、フレキシブルディスクドライブ等からなり、CD−ROM、DVD、フレキシブルディスク等の記録媒体509に対してデータの読み書きを行う。
記録媒体509には、画像作成プログラムが記録されている。画像作成プログラムは、眼球制御プログラムを含む。外部記憶装置506は、ハードディスク装置等からなり、記録媒体駆動装置507を介して記録媒体509から読み込まれた画像作成プログラムおよび各種データを記憶する。CPU501は、外部記憶装置506に記憶された画像作成プログラムをRAM503上で実行する。
表示装置505は、液晶表示パネル、CRT(陰極線管)等からなり、各種画像を表示する。入出力インタフェース508には、デジタルカメラ、イメージスキャナ、プリンタ等の外部機器を接続することができる。入出力インタフェース508は、デジタルカメラ、イメージスキャナ等の外部機器により画像データとして与えられる画像を外部記憶装置506に転送するとともに、画像作成プログラムにより作成された画像をプリンタ等の外部機器に転送する。
なお、画像作成プログラムを記録する記録媒体509として、ROM等の半導体メモリ、ハードディスク等の種々の記録媒体を用いることができる。また、画像作成プログラムを通信回線等の通信媒体を介して外部記憶装置506にダウンロードし、RAM503上で実行してもよい。
図9は図8の画像作成装置の動作を示すフローチャートである。この画像作成装置の動作は、画像作成プログラムに従ってCPU501により制御される。
まず、CPU501は、頭部回転角度θu を決定する(ステップS11)。次に、CPU501は、注視対象方向θt を決定する(ステップS12)。続いて、CPU501は、頭部回転角度θu が−15°以上+15°以下の範囲内にあるか否かを判定する(ステップS13)。
頭部回転角度θu が−15°以上+15以下の範囲内にない場合には、CPU501は、警告の発生および頭部回転角度θu の修正を行う(ステップS14)。ここで、警告は、スピーカ(図示せず)による警告音または表示ランプ(図示せず)による警告表示である。
ステップS13において頭部回転角度θu が−15°以上+15以下の範囲内にある場合には、CPU501は、頭部回転角度θu に基づいて上式(3)より知覚ずれ角度θe を算出する(ステップS15)。
次いで、CPU501は、注視対象方向θt および知覚ずれ角度θe に基づいて上式(1)より眼球回転角度θs を算出する(ステップS16)。
さらに、CPU501は、頭部回転角度θu に基づいて頭部10の画像を作成する(ステップS17)。また、CPU501は、眼球回転角度θs に基づいて眼球内の瞳(瞳孔)の位置を決定する(ステップS18)。眼球内の瞳の位置の決定方法については後述する。
最後に、CPU501は、眼球内の瞳の位置に基づいて右眼および左眼の画像を作成する(ステップS19)。
図10は眼球内の瞳の位置の決定方法を説明するための模式図であり、(a)は眼球を上から見た図を示し、(b)は眼の画像を示す。
図10(a)に示すように、まず、眼球81の中心点Pからユーザ方向Uを作図する。ここでは、観察者が表示装置の正面から画面を見ることを想定し、ユーザ方向Uは、画面に垂直な方向に設定する。
次に、頭部回転角度θuに基づいて頭部方向Rを作図する。また、注視対象角度θtに基づいて注視対象方向Tを作図する。さらに、知覚ずれ角度θeに基づいて視線方向Sを作図する。視線方向Sを中心として角膜部分82を作図する。
次いで、図10(b)に示すように、眼61の外形を描画し、眼61内に図10(a)の視線方向Sと角膜部分82との交点を投影することにより瞳孔62を描画し、さらに虹彩63を描画する。このようにして、視線方向Sを注視する眼の画像が作成される。
図11は第2の実施の形態に係る画像作成装置により作成される画像の例を示す模式図である。
図11(a)に示す画像500においては、頭部60が正面を向き、眼61R,61Lの視線方向が対象物70を向いている。
また、図11(b)に示す画像501においては、頭部60が左前方を向き、眼61R,61Lの視線方向が対象物70よりも左側の点75を向いている。これにより、画像501を見る人は、眼61R,61Lが対象物70を注視していると知覚することができる。
図12は第2の実施の形態に係る画像作成装置により作成されたCG画像の一例を示す図である。図12のCG画像においては、図9に示した方法により右および左の眼の視線方向が決定されている。
本実施の形態に係る画像作成装置50においては、頭部の画像の回転角度に応じて眼の画像の視線方向を注視対象方向から知覚ずれ角度ずれた方向に制御することにより、観察者は眼の画像が対象物を注視していると知覚することができる。したがって、眼の画像の視線により観察者の注意を所望の対象物に誘導することができる。
本実施の形態においては、CPU501が第1の取得手段、第2の取得手段、第1の算出手段、第2の算出手段および設定手段に相当する。
(式(3)の導出のための実験)
人間の視線方向の知覚に対して頭部方向が及ぼす影響を調べるために次のような実験を行い、上式(3)を導出した。図13は視線方向の知覚実験の方法を示す模式図である。
着席する実験者110の前方に距離Lを隔てて被験者120が着席する。被験者120としては、健常な視力を有する日本人の男女の合計9名を採用した。実験者110と被験者120との間の距離Lは200cmとした。
被験者120の眼の高さの位置に直径7〜10cmの13個の玉を対象物130として水平方向に配置した。以下、被験者120の左方向を−(負の符号)で表し、右方向を+(正の符号)で表す。
対象物130の配置箇所は、実験者110の両眼間の中心から被験者200の両眼間の中心に向かう方向を0度とし、0度、±2.5度、±5度、±7.5度、±10度、±12.5度および±15度の計13箇所とした。
実験者110の頭部に光を照射するための光源してライト400,410を2箇所に設けた。ライト400は、実験者110の正面から実験者110の頭部に光を照射するように、被験者120の後方に配置した。また、ライト401は、実験者110の右前方の60度の方向から実験者110の頭部に光を照射するように配置した。
実験者110は、頭部を−15度、−5度、0度、+5度および+15度のいずれかの方向に回転させた状態で左右の眼で0度、±2.5度、±5度、±10度および±15度のいずれかの方向の対象物130を注視した。
被験者120は、実験者110の眼を観察し、実験者110の視線方向を判断する。−15度から+15度の方向に位置する13個の対象物130を1番〜13番とし、被験者120は実験者110が注視する対象物130を番号で回答した。
図14は視線方向の知覚実験の結果を示す図である。図14は、ライト400により実験者110の頭部に正面から光を照射した場合の実験結果である。図14の横軸は実験者110の注視方向を示し、縦軸は被験者120の知覚方向を示す。
頭部の回転に伴い、被験者120の知覚方向が実験者110の注視方向とずれてくる。ずれの方向は頭部の回転方向とは逆になった。例えば、実験者110の頭部が被験者120からみて右側に頭部回転角度θu 回転した場合には、被験者120は実験者110の視線方向を実際の視線方向よりも左側に知覚ずれ角度θe だけずれて知覚する。
図15は知覚実験の結果に基づく頭部回転角度と知覚ずれ角度の関係を示す図である。図15の横軸は頭部回転角度を示し、縦軸は知覚ずれ角度を示す。図15の関係から上式(3)が導出される。
なお、ライト410により実験者110の右前方60度の方向から実験者の頭部に光を照射した場合には、頭部回転角度θu と知覚ずれ角度θe との関係が図15の関係とは異なった。すなわち、頭部の左右に光量差がある場合には、頭部回転角度θu と知覚ずれ角度θe との関係を表わす式(2)の係数aおよびbの値が異なることがわかった。したがって、頭部の左右に光量差がある場合には、式(2)の係数aおよびbを光量差に基づいて修正することが好ましい。
本発明は、ロボット、画像作成等に利用することができる。
本発明の第1の実施の形態に係る眼球制御装置を備えたロボットの正面図である。 図1のロボットの頭部の横断面図である。 図1のロボットの縦断面図である。 図1のロボットの制御系を示すブロック図である。 第1に実施の形態に係るロボットにおける眼球制御動作の原理を説明するための図である。 第1の実施の形態に係るロボットにおける眼球制御動作の原理を説明するための図である。 第1の実施の形態に係るロボットの眼球制御動作を示すフローチャートである。 本発明の第2の実施の形態の係る画像作成装置の構成を示すブロック図である。 図8の画像作成装置の動作を示すフローチャートである。 眼球内の瞳の位置の決定方法を説明するための模式図である。 第2の実施の形態に係る画像作成装置により作成される画像の例を示す模式図である。 第2の実施の形態に係る画像作成装置により作成されたCG画像の一例を示す図である。 視線方向の知覚実験の方法を示す模式図である。 視線方向の知覚実験の結果を示す図である。 知覚実験の結果に基づく頭部回転角度と知覚ずれ角度の関係を示す図である。
符号の説明
1 ロボット
10 頭部
11R 右の眼球
11L 左の眼球
12R,12L レンズ
14R 右眼回転駆動装置
14L 左眼回転駆動装置
15 制御装置
20 頸部
21 胴部
50 画像作成装置
61 眼
62 瞳孔
81 眼球
82 角膜部分
501 CPU
502 ROM
503 RAM
504 入力装置
505 表示装置
506 外部記憶装置
507 記録媒体駆動装置
508 入出力インタフェース
509 記録媒体
P 中心点

Claims (6)

  1. 観察者に対面する頭部に設けられる眼球の回転角度を制御する眼球制御装置であって、
    観察者に向かう方向と前記頭部の正面の方向とのなす角度を頭部回転角度θu[deg]として取得する第1の取得手段と、
    前記頭部の正面の方向と対象物の方向とのなす角度を注視対象角度θt[deg]として取得する第2の取得手段と、
    前記第1の取得手段により取得された頭部回転角度θuならびに所定の第1の係数aおよび所定の第2の係数b[deg]を用いて前記観察者による知覚ずれ角度θe[deg]を、θe=aθt−bにより算出する第1の算出手段と、
    前記第1の取得手段により取得された頭部回転角度θuおよび前記第1の算出手段により算出された知覚ずれ角度θe[deg]を用いて前記頭部の正面の方向を基準とする前記眼球の回転角度θsを、θs=θt+θeにより算出する第2の算出手段と、
    前記眼球により表現される視線の方向と前記頭部の正面の方向とのなす角度を前記第2の算出手段により算出された回転角度θsに設定する設定手段とを備えたことを特徴とする眼球制御装置。
  2. 前記第1の係数は約0.08であり、前記第2の係数は約0.02[deg]であることを特徴とする請求項1記載の眼球制御装置。
  3. 前記頭部は、ロボットの頭部であり、前記眼球は、前記ロボットの眼球であることを特徴とする請求項1または2記載の眼球制御装置。
  4. 前記頭部は、頭部の画像であり、前記眼球は、前記眼球の画像であることを特徴とする請求項1または2記載の眼球制御装置。
  5. 観察者に対面する頭部に設けられる眼球の回転角度を制御する眼球制御方法であって、
    観察者に向かう方向と前記頭部の正面の方向とのなす角度を頭部回転角度θu[deg]として取得するステップと、
    前記頭部の正面の方向と対象物の方向とのなす角度を注視対象角度θt[deg]として取得するステップと、
    前記取得された頭部回転角度θuならびに所定の第1の係数aおよび所定の第2の係数b[deg]を用いて前記観察者による知覚ずれ角度θe[deg]を、θe=aθt−bにより算出するステップと、
    前記取得された頭部回転角度θuおよび前記算出された知覚ずれ角度θe[deg]を用いて前記頭部の正面の方向を基準とする前記眼球の回転角度θsを、θs=θt+θeにより算出するステップと、
    前記眼球により表現される視線の方向と前記頭部の正面の方向とのなす角度を前記算出された回転角度θsに設定するステップとを備えたことを特徴とする眼球制御方法。
  6. 観察者に対面する頭部に設けられる眼球の回転角度を制御するためにコンピュータにより実行可能な眼球制御プログラムであって、
    観察者に向かう方向と前記頭部の正面の方向とのなす角度を頭部回転角度θu[deg]として取得する処理と、
    前記頭部の正面の方向と対象物の方向とのなす角度を注視対象角度θt[deg]として取得する処理と、
    前記取得された頭部回転角度θuならびに所定の第1の係数aおよび所定の第2の係数b[deg]を用いて前記観察者による知覚ずれ角度θe[deg]を、θe=aθt−bにより算出する処理と、
    前記取得された頭部回転角度θuおよび前記算出された知覚ずれ角度θe[deg]を用いて前記頭部の正面の方向を基準とする前記眼球の回転角度θsを、θs=θt+θeにより算出する処理と、
    前記眼球により表現される視線の方向と前記頭部の正面の方向とのなす角度を前記算出された回転角度θsに設定する処理とを、前記コンピュータに実行させることを特徴とする眼球制御プログラム。
JP2004315853A 2004-10-29 2004-10-29 眼球制御装置、眼球制御方法および眼球制御プログラム Expired - Fee Related JP4267556B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004315853A JP4267556B2 (ja) 2004-10-29 2004-10-29 眼球制御装置、眼球制御方法および眼球制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004315853A JP4267556B2 (ja) 2004-10-29 2004-10-29 眼球制御装置、眼球制御方法および眼球制御プログラム

Publications (2)

Publication Number Publication Date
JP2006123102A true JP2006123102A (ja) 2006-05-18
JP4267556B2 JP4267556B2 (ja) 2009-05-27

Family

ID=36718313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004315853A Expired - Fee Related JP4267556B2 (ja) 2004-10-29 2004-10-29 眼球制御装置、眼球制御方法および眼球制御プログラム

Country Status (1)

Country Link
JP (1) JP4267556B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008221431A (ja) * 2007-03-15 2008-09-25 Hitachi Ltd ロボット
JP2016198850A (ja) * 2015-04-09 2016-12-01 本田技研工業株式会社 自律移動装置および自律移動装置の制御方法
JP2017204231A (ja) * 2016-05-13 2017-11-16 富士通株式会社 情報処理装置、情報処理方法、および情報処理プログラム
CN111136650A (zh) * 2018-11-02 2020-05-12 深圳市优必选科技有限公司 一种机器人及其视觉跟踪方法、计算机可读存储介质
CN112083795A (zh) * 2019-06-12 2020-12-15 北京迈格威科技有限公司 对象控制方法及装置、存储介质和电子设备
JP2021018482A (ja) * 2019-07-17 2021-02-15 本田技研工業株式会社 ロボット管理装置、ロボット管理方法およびロボット管理システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0619616A (ja) * 1992-06-29 1994-01-28 Canon Inc 情報処理装置
JP2003062777A (ja) * 2001-08-22 2003-03-05 Honda Motor Co Ltd 自律行動ロボット
JP2004042151A (ja) * 2002-07-09 2004-02-12 Advanced Telecommunication Research Institute International コミュニケーションロボット

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0619616A (ja) * 1992-06-29 1994-01-28 Canon Inc 情報処理装置
JP2003062777A (ja) * 2001-08-22 2003-03-05 Honda Motor Co Ltd 自律行動ロボット
JP2004042151A (ja) * 2002-07-09 2004-02-12 Advanced Telecommunication Research Institute International コミュニケーションロボット

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008221431A (ja) * 2007-03-15 2008-09-25 Hitachi Ltd ロボット
JP4512200B2 (ja) * 2007-03-15 2010-07-28 株式会社日立製作所 ロボット
US8041458B2 (en) 2007-03-15 2011-10-18 Hitachi, Ltd. Robot
JP2016198850A (ja) * 2015-04-09 2016-12-01 本田技研工業株式会社 自律移動装置および自律移動装置の制御方法
US9682482B2 (en) * 2015-04-09 2017-06-20 Honda Motor Co., Ltd. Autonomous moving device and control method of autonomous moving device
JP2017204231A (ja) * 2016-05-13 2017-11-16 富士通株式会社 情報処理装置、情報処理方法、および情報処理プログラム
CN111136650A (zh) * 2018-11-02 2020-05-12 深圳市优必选科技有限公司 一种机器人及其视觉跟踪方法、计算机可读存储介质
CN112083795A (zh) * 2019-06-12 2020-12-15 北京迈格威科技有限公司 对象控制方法及装置、存储介质和电子设备
JP2021018482A (ja) * 2019-07-17 2021-02-15 本田技研工業株式会社 ロボット管理装置、ロボット管理方法およびロボット管理システム
JP7273638B2 (ja) 2019-07-17 2023-05-15 本田技研工業株式会社 ロボット管理装置、ロボット管理方法およびロボット管理システム

Also Published As

Publication number Publication date
JP4267556B2 (ja) 2009-05-27

Similar Documents

Publication Publication Date Title
US11480784B2 (en) Binocular display with digital light path length modulation
US9191658B2 (en) Head-mounted display and position gap adjustment method
EP0849959B1 (en) Apparatus and method for displaying stereoscopic images
US20150187115A1 (en) Dynamically adjustable 3d goggles
CN104094162A (zh) 动态控制沉浸或抬头显示操作的宽视场3d立体视觉平台
JP5565258B2 (ja) 画像処理装置、画像処理方法及びプログラム
US11570426B2 (en) Computer-readable non-transitory storage medium, web server, and calibration method for interpupillary distance
JP6026836B2 (ja) 画像表示装置、制御方法、プログラム及び記憶媒体
JPH11202256A (ja) 頭部搭載型画像表示装置
JP2020527872A (ja) 非平面コンピュテーショナルディスプレイ
EP3966670B1 (en) Display apparatus and method of correcting image distortion therefor
WO2020042638A1 (zh) 一种头戴式显示设备
CN114616511A (zh) 改善双眼视觉的系统与方法
US8970390B2 (en) Method and apparatus of aiding viewing position adjustment with autostereoscopic displays
JP4267556B2 (ja) 眼球制御装置、眼球制御方法および眼球制御プログラム
JPH06235885A (ja) 立体映像表示装置
CN110794590B (zh) 虚拟现实显示系统及其显示方法
WO2019093278A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN211786414U (zh) 虚拟现实显示系统
JP2024520105A (ja) 医用イメージング中の患者の動き抑制
CN113557717A (zh) 信息处理装置、信息处理方法和程序
JP4267555B2 (ja) 眼球制御装置、眼球制御方法および眼球制御プログラム
WO2023157332A1 (ja) 情報処理装置および調整画面表示方法
US20230118559A1 (en) Information processing apparatus and information processing method
US11921294B2 (en) Head-mounted display and method for adjusting the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090210

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090218

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140227

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees