JP6950644B2 - 注意対象推定装置及び注意対象推定方法 - Google Patents

注意対象推定装置及び注意対象推定方法 Download PDF

Info

Publication number
JP6950644B2
JP6950644B2 JP2018151148A JP2018151148A JP6950644B2 JP 6950644 B2 JP6950644 B2 JP 6950644B2 JP 2018151148 A JP2018151148 A JP 2018151148A JP 2018151148 A JP2018151148 A JP 2018151148A JP 6950644 B2 JP6950644 B2 JP 6950644B2
Authority
JP
Japan
Prior art keywords
person
line
sight
attention
attention target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018151148A
Other languages
English (en)
Other versions
JP2020027390A (ja
Inventor
裕之 石原
裕之 石原
孝之 仲地
孝之 仲地
山口 高弘
高弘 山口
小河原 成哲
成哲 小河原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018151148A priority Critical patent/JP6950644B2/ja
Priority to PCT/JP2019/031626 priority patent/WO2020032254A1/ja
Priority to US17/266,948 priority patent/US11436751B2/en
Publication of JP2020027390A publication Critical patent/JP2020027390A/ja
Application granted granted Critical
Publication of JP6950644B2 publication Critical patent/JP6950644B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Description

本開示は、コンピュータシステムを用いてコミュニケーションの円滑化を図る技術に関し、より詳細には、ある空間中でコミュニケーションを行っている人物の「注意」対象を特定する注意対象推定技術に関する。
人間の表現力や理解力を拡張し、コミュニケーションを円滑化するためには、コミュニケーションの様子を外的に観測しその状態を理解する技術が必要不可欠になる。コミュニケーション状態を理解し、適切に支援するためには、ユーザの行動のみを理解すればよいわけではなく、その行動の背景にあるユーザの内的状態や、コミュニケーション空間の状態との関係性を考慮することが必要になる。
人間が外界から情報を受容しようとするとき、適切な対象からの情報のみを受容し、それ以外の対象からの情報は抑制しようとする働きが生じる。このような働きは「注意」と呼ばれる認知的な機構によって実現されている。これは、人間がある時刻において重要と思われる情報を抽出する処理、と言い換えることができる。また、複数の人物がある共通の対象に注意を向けている状態は「共同注意」と呼ばれる。
コンピュータシステムによるコミュニケーションの支援を考えた場合、コミュニケーション当事者の注意が向けられている対象や、共同注意の有無を検出することができれば、コミュニケーションの理解度の推定や、他者への注意誘導手法の開発といった、より知的なコミュニケーション支援システムの開発が実現できるものと考えられる。
共同注意の有無を推定するための先行技術として、コミュニケーション当事者が注意を向けている「場所」から共同注意を推定する方法(例えば、非特許文献1参照。)、あるいは注意を向けている対象が同じアピアランス(外観)を持った「物体」か否かから共同注意を推定する方法(例えば、非特許文献2参照。)が開示されている。しかしながら、これらの先行技術では、例えば、空間中に同じアピアランスを持つ物体が複数存在していた場合、どの物体が注意対象であるかを判断することができず、従って共同注意が発生したか否かについても判断することができなかった。
H. Park, E. Jain, and Y. Sheikh, "3D Social Saliency from Head−mounted Cameras" NIPS, 2012. Y. Huang, M. Cai, H. Kera, R.Yonetani, K. Higuchi and Y. Sato, "Temporal Localization and Spatial Segmentation of Joint Attention in Multiple First − Person Videos", ICCV Workshop, 2017. P. Moulon, P. Monasse, R. Marlet, "Global Fusion of Relative Motions for Robust, Accurate and Scalable Structure from Motion", ICCV, 2013. V. Lepetit, F. Moreno−Noguer, and P. Fua, "EPnP: An accurate O(n) solution to the PnP problem", IJCV, 2009. J. Redmon and A. Farhadi. "YOLO9000: Better, Faster, Stronger", CVPR, 2017.
本開示は、空間中に同じアピアランスを持つ物体が複数存在していた場合であっても、コミュニケーション当事者の注意対象を推定可能にすることを目的とする。
上記目的を達成するために、本開示は、空間中の人物iの一人称視点映像(人物iの目線で撮影された2次元画像)と、当該人物の視線情報(人物iが視線を向けている位置に関する情報)とを用い、(1)一人称視点映像に含まれる物体(オブジェクト)を検出し、抽出された複数の物体をそれぞれ3次元空間中にマッピングし、(2)抽出された複数の物体それぞれについて、人物iの視線位置と物体の位置との距離を求め、この距離が最小となる物体を人物iの注意対象として抽出することを特徴とする。
具体的には、本開示に係る注意対象推定装置は、
人物の目線で撮像された一人称視点映像及び当該一人称視点映像を撮像時の前記人物の視線の情報を取得し、
前記一人称視点映像から抽出されたオブジェクトの3次元空間での位置を特定し、
前記一人称視点映像に含まれるオブジェクトのうちの前記人物の視線に近いオブジェクトを、前記人物の注意対象と判定する。
具体的には、本開示に係る注意対象推定方法は、
注意対象推定装置が、
人物の目線で撮像された一人称視点映像及び当該一人称視点映像を撮像時の前記人物の視線の情報を取得し、
前記一人称視点映像から抽出されたオブジェクトの3次元空間での位置を特定し、
前記一人称視点映像に含まれるオブジェクトのうちの前記人物の視線に近いオブジェクトを、前記人物の注意対象と判定する。
本開示は、コンピュータを本開示の注意対象推定装置に備わる各機能部として機能させるための注意対象推定プログラム、及び、コンピュータに本開示の注意対象推定方法に備わる各ステップを実行させるための注意対象推定プログラムを含む。本開示の注意対象推定プログラムは、コンピュータ読み取り可能な記録媒体に記録されていてもよい。
本開示によれば、空間中に同じアピアランスを持つ物体が複数存在していた場合であっても、コミュニケーション当事者の注意対象を推定することが可能になる。
本実施形態に係る注意対象推定システムの構成例を説明する図である。 本実施形態に係る注意対象推定装置の構成例を説明する図である。 本実施形態に係る注意対象推定方法の処理フローを説明する図である。 実際に取得した3次元情報の一例を示す図である。 注意対象推定処理の処理フローを説明する図である。 人物iの視線位置gとオブジェクトとの距離の一例を説明する図である。 人物kの視線位置gとオブジェクトとの距離の一例を説明する図である。
以下、本開示の実施形態について、図面を参照しながら詳細に説明する。なお、本開示は、以下に示す実施形態に限定されるものではない。これらの実施の例は例示に過ぎず、本開示は当業者の知識に基づいて種々の変更、改良を施した形態で実施することができる。なお、本明細書及び図面において符号が同じ構成要素は、相互に同一のものを示すものとする。
本開示に係る実施形態は、ある同一空間中でコミュニケーションを行っている人物の一人称視点映像と視線情報に基づき、各人物の注意対象が「どこ(位置)」の「何(物体)」であるかを特定することができる注意対象推定システム、注意対象推定装置および注意対象推定方法を開示する。これら注意対象推定システム、注意対象推定装置および注意対象推定方法は、空間中に同じアピアランスを持つ物体が複数存在していた場合であっても、コミュニケーション当事者の注意対象を推定可能にする。さらにこれら注意対象推定システム、注意対象推定装置および注意対象推定方法は、各人物の注意対象の関連性の度合いを考慮して、共同注意が発生したか否かをも判断することができる。
「注意」には、注意方向と視線方向が一致する「顕在的注意」と、注意方向と視線方向が一致しない「潜在的注意」の2種類に分けられるが、本開示は顕在的注意を対象とする。以下、単に「注意」と言った場合は、特に説明のないかぎり「顕在的注意」を意図するものとする。
ここで、「一人称視点映像」とは、空間中でコミュニケーションを行っている人物の目線で撮影された2次元映像を意味する。人物が自身の頭部に装着型カメラ20を装着することで、当該装着型カメラ20により一人称視点映像を撮影することができる。また、「視線情報」とは、空間中でコミュニケーションを行っている人物がどこを見ているかを表す情報を意味する。例えば、「視線情報」は、一人称視点映像中でその人物が注視している位置を示す座標である。「視線情報」の取得方法は任意であり、例えば、装着型カメラ20と連携しながら人物の眼球を撮影することができるアイカメラ(eye camera)あるいはアイマーカカメラ(eye marker camera)を用いることができる。
図1は、本実施形態に係る注意対象推定システムの構成例を説明する図である。コミュニケーション空間には、それぞれ装着型カメラ20とアイカメラ(不図示)を装着した複数の人物(描画の都合上、図1には人物iと人物kのふたりの人物のみが記載されているが、この人数に限定されるものではない。)が存在している。一方、コミュニケーション空間とは別の実空間上に、注意対象を推定する注意対象推定方法を実装した注意対象推定装置10が用意されている。
注意対象推定装置10には、後述する3次元情報取得処理により、コミュニケーション空間に関する3次元情報が格納されている。コミュニケーション空間の3次元情報は、コミュニケーション空間内に存在する特徴点の識別情報と、コミュニケーション空間内での3次元座標を含む。コミュニケーション空間の3次元情報は、さらに特徴点の色情報を含んでいてもよい。
コミュニケーション空間中の人物iが装着した装着型カメラ20は、人物iの一人称視点映像を撮影する。同時に、コミュニケーション空間中の人物iが装着したアイカメラ(不図示)は、人物iの眼球を撮影し、人物iの視線情報を取得する。装着型カメラ20およびアイカメラは時間的に同期され、かつ互いの位置関係が校正済みである。装着型カメラ20は、任意の通信手段により、人物iの一人称視点映像と視線情報を注意対象推定装置10に送信する。
注意対象推定装置10は、装着型カメラ20から人物iの一人称視点映像と視線情報を受信する。注意対象推定装置10は、あらかじめ取得していたコミュニケーション空間の3次元情報と、受信した人物iの一人称視点映像および視線情報とを用いて、後述する注意対象推定処理を実行し、人物iの一人称視点映像における、人物iが注意を向けている注意対象のオブジェクトおよびその位置を推定する。
注意対象推定装置10は、人物kの一人称視点映像と視線情報も同様に受信し、人物kの一人称視点映像における、人物kの注意対象のオブジェクトおよびその位置を推定する。そして注意対象推定装置10は、推定した人物iの注意対象のオブジェクトと人物kの注意対象のオブジェクトに関する情報を用いて、後述する共同注意判定処理を実行し、共同注意が発生したか否かを判断する。
図1に記載の注意対象推定装置10はコミュニケーション空間とは異なる実空間に配置されると述べたが、本開示はこのような態様に限定されるものではない。注意対象推定装置10は、当然にコミュニケーション空間と同じ実空間に配置されるようにしてもよい。また、注意対象推定装置10は1台のハードウェアのみで構成される必要はなく、例えば、各人物i,kがそれぞれ可搬型の注意対象推定装置10を保持し、複数の注意対象推定装置10が連携して注意対象推定処理あるいは共同注意判定処理を実行するようにしてもよい。この場合、各人物が保持する可搬型の注意対象推定装置10は、装着型カメラ20に組み込まれた形態としてもよい。
注意対象推定装置10は、例えば図2に記載したように、人物が装着した装着型カメラ20から一人称視点映像および視線情報を受信する受信部13、後述する3次元情報取得処理により取得した3次元情報を格納する3次元情報格納部14、後述する注意対象推定処理を実行する注意対象推定部11、および共同注意判定処理を実行する共同注意判定部12を備える構成とすればよい。受信部13、3次元情報格納部14、注意対象推定部11、共同注意判定部12は、例えば1つの特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)に集積された態様であってもよい。もちろん、これら4つの機能部のうちのいずれか(例えば、注意対象推定部と共同注意判定部)のみがASICに集積された態様であってもよい。
注意対象推定装置10は、注意対象推定処理および/または共同注意判定処理を実行するための命令コードを記載したプログラムをプロセッサに実行させる汎用コンピュータにより構成される態様であってもよい。その場合、注意対象推定装置10は、注意対象推定処理および共同注意判定処理を記述したプログラムを格納する補助記憶装置、補助記憶装置からロードされたプログラムを一時的に記憶する主記憶装置、3次元情報を格納する揮発性メモリないし不揮発性メモリ、プログラムを実行するプロセッサ、これらを接続するバスを備える構成としてもよい。注意対象推定装置は、注意対象推定処理の結果、あるいは共同注意判定処理の結果を表示する表示装置(不図示)をも備える構成としてもよい。
図3は、本実施形態に係る注意対象推定方法の処理フローを説明する図である。本実施形態に係る注意対象推定方法は、図1及び図2に記載した注意対象推定装置10に実装されるものであって、
ステップS101:コミュニケーション空間の3次元情報を取得する処理、
ステップS102:同一空間中でコミュニケーションを行っている複数の人物i(i=1,2,…,n、nは2以上の整数)のそれぞれについて注意対象のオブジェクトを推定する処理、
ステップS103:複数の人物iの注意対象のオブジェクトから共同注意が発生しているか否かを判断する処理、
を順次行うものである。
ステップS101〜ステップS103の具体的な処理を以下で説明する。
(1)3次元情報取得処理(S101)
人物の注意対象推定処理に先立ち、注意対象推定装置10は、コミュニケーション空間の3次元情報を前処理として取得しておく。3次元情報の取得には、例えば、Structure from Motion(SfM)と呼ばれる、多視点の2次元画像から3次元形状を復元する技術を用いることができる。
まず、複数の異なる位置や角度からコミュニケーション空間を撮影して、複数の2次元画像を生成する。生成した2次元画像のそれぞれについて、画像中に存在する特徴点を抽出する。特徴点とは、例えば2次元画像中のオブジェクトの頂点や端部、エッジなどに対応する画素である。特徴点は背景画像に比べて明るさや色が大きく異なるため、例えば、2次元画像を構成する各画素に対し、隣接する画素より輝度ないし色差が大きく変化している画素を検出することで、特徴点を抽出することができる。
次に、複数の2次元画像の位置関係から、抽出した特徴点のそれぞれについて3次元位置(座標)を計算する。3次元位置を計算するための具体的なアルゴリズムは、例えば非特許文献3などに開示されているものを用いればよい。このような処理により、コミュニケーション空間に存在する複数の特徴点の位置を3次元座標の集合として表した情報(3次元情報)を取得することができる。
図4は、実際に取得した3次元情報の一例を示す図である。図4において、点のそれぞれが、複数の2次元画像の位置関係から抽出した特徴点を表している。図4では、理解が容易になるよう、装着型カメラ20も記載している。
(2)注意対象推定処理(S102)
人物の注意対象推定処理は、前述の3次元情報取得処理で取得したコミュニケーション空間の3次元情報、注意対象を推定しようとする人物の一人称視点映像および視線情報とを用いて、人物それぞれの注意対象(「どこ」の「何」)を推定するものである。図5は、人物i(i=1,2,…,n、nは2以上の整数)のそれぞれが行う注意対象推定処理の処理フローを説明する図である。
(A)まず、注意対象推定装置10は、人物iのコミュニケーション空間中における頭部の存在位置および視線方向(すなわち顔向き)を推定する。そして、注意対象推定装置10は、人物iの視線情報をコミュニケーション空間の3次元情報に投影し、コミュニケーション空間における人物iの視線位置gを求める。
人物iのコミュニケーション空間中における存在位置および視線方向の推定方法は任意である。例えば推定された存在位置と視線方向は、人物iの一人称視点映像が撮影された位置と撮影方向に等しい。そのため、コミュニケーション空間の3次元情報に含まれる特徴点の座標と、それが投影される一人称視点映像中の画素との対応関係を計算することで、人物iの空間中における存在位置および視線方向を推定することができる。このような処理は、人物iの一人称視点映像を、コミュニケーション空間の3次元情報から得られる3次元空間に逆投影していることにほかならない。具体的な計算手法は、例えば非特許文献4などに開示されているものを用いればよい。
人物iのコミュニケーション空間中における存在位置を始点とする視線方向の直線上に、一人称視点映像における視線情報に一致する位置が存在する。一人称視点映像における視線情報に一致する位置は、視線方向の直線上で奥行きを有する。そこで、コミュニケーション空間中における人物iの頭部の存在位置を始点としかつ一人称視点映像中の視線の情報で示される位置を終点とする直線上の任意の点を、人物iの視線位置gとして扱うことが好ましい。
(B)次に、注意対象推定装置10は、人物iの一人称視点映像に映るオブジェクト(物体)を検出し、そのオブジェクト領域をコミュニケーション空間の3次元情報から得られる3次元空間にマッピングする。
映像中からのオブジェクト検出には、例えば非特許文献5に開示されているYOLOなどの手法を用いればよい。オブジェクト検出を行うことで、一人称視点映像上に検出されたオブジェクトの領域とその名称を取得することができる。このようにして得られたオブジェクトの集合をもとに、特徴点の集合に抽出したオブジェクトOのラベル(jは、一人称視点映像から抽出された複数のオブジェクトを判別するための符号)を付与する。
当然ながら、抽出したオブジェクトは複数存在するため、すべてのオブジェクトOに対してラベルを付与する。これにより、コミュニケーション空間を構成する特徴点の集合と、検出したオブジェクトとが結び付けられる。3次元情報に存在する特徴点は単に座標の情報でしかなかったものが、特徴点の集合が実空間上の物体に関連付けられた状態となる。この際、オブジェクト検出によって得られたそのオブジェクトの具体的な名称(図1の例では、符号31及び34に示す「ディスプレイ」、符号32に示す「机」、あるいは符号33に示す「ゴミ箱」など)も同時に付与するようにしてもよい。
なお、本開示におけるオブジェクトは、ディスプレイなどの物体に限らず、形状、模様、色彩の組み合わせによって一人称視点映像で特定しうる任意の対象を含む。例えば、壁の一部やディスプレイ31に表示されている画像の一部もオブジェクトとして含みうる。
(C)最後に、注意対象推定装置10は、人物iが注意を向けているであろう注意対象のオブジェクトを計算により求める。計算の基本的概念は、人物iが注視している視線位置gに近いオブジェクトOを注意対象とみなす、という考えである。
例えば、図6に示すように、人物iの一人称視点映像IMにオブジェクトとしてディスプレイ31、机32及びゴミ箱33が含まれており、視線位置gとの距離がそれぞれD31、D32、D33であり、D31>D32>D33の関係を有する場合、注意対象推定装置10は、最も短い距離D33のゴミ箱33を注意対象と判定する。
本開示は、注意対象を求めるに際し、基本概念に加えて、過去に人物iの注意対象として推定したオブジェクトとの相関性を加味するようにしてもよい。例えば、図6における視線位置gとの距離D32及びD33がほぼ同じであり、過去の一定時間内にゴミ箱33が注意対象と判定されている場合、注意対象推定装置10は、人物iの一人称視点映像IMに含まれているオブジェクトのうちのゴミ箱33を注意対象と判定する。
本開示は、注意対象を求めるに際し、基本概念に加えて、同じコミュニケーション空間に存在する他の人物kの視線位置gからの距離を加味するようにしてもよい。例えば、図6における視線位置gとの距離D32及びD33がほぼ同じであり、図7に示すように、人物kの一人称視点映像IMにオブジェクトとしてディスプレイ机32及びゴミ箱33が含まれており、視線位置gとの距離D32、D33が、D32>D33の関係を有する場合、注意対象推定装置10は、人物iの一人称視点映像IMに含まれているオブジェクトのうちのゴミ箱33を注意対象と判定する。
具体的には、抽出した複数のオブジェクトOのそれぞれに対して以下の目的関数Eを計算し、その値が最小となるオブジェクトおよびその3次元位置を人物iの注意対象と決定する。
Figure 0006950644
ここで、gは人物iの視線位置の3次元座標、gは人物iとは異なる人物kの視線位置の3次元座標、pはオブジェクトOの重心の3次元座標、|O|は一人称視点映像におけるオブジェクトOの面積、Oi,t−1は1フレーム前の時刻t−1に人物iの注意対象として推定されたオブジェクト、f(Oi,t−1,O)は1フレーム前の時刻t−1に推定した注意対象との相関性の度合いを算出する関数、λ,λはそれぞれ係数である。また、記号||A||はベクトルAの大きさ(スカラー積)を意味する。
式(1)の第1項は、人物iの視線位置と評価対象オブジェクトとの距離を、評価対象オブジェクトのサイズで規格化したものである。ここで、「g−p」における「g」は、例えば、コミュニケーション空間中における人物iの頭部の存在位置を始点としかつ一人称視点映像中の視線の情報で示される位置を終点とする直線上における、評価対象オブジェクトOと最も近い地点の座標である。また、式(1)の第1項における「p」は、オブジェクトOの重心座標に限らず、「g」に最も近い位置であってもよい。
式(1)の第2項は、時間的な連続性の制約を加味する項であり、1フレーム前の注意対象オブジェクトとの類似度を表す。この項は、1フレーム前の注意対象には次のフレームでも注意が向きやすい、という時間的な連続性の仮定に基づいて設けた項である。第2項の関数fとして、例えば(i)1フレーム前に推定した注意対象オブジェクトOi,t−1と評価対象であるオブジェクトOの、重心位置の距離を導出する関数、あるいは(ii)Oi,t−1とOの形状の類似度を導出する関数などを用いることができる。なお、本開示は、一人称視点映像内に同一のオブジェクトが含まれている時間内であれば、1フレーム前に限らず、予め定められたフレーム数又は時間をさかのぼった時点であってもよい。
式(1)の第3項は、人物i以外の人物kの視線位置と評価対象オブジェクトとの距離の規格化値を、コミュニケーション空間中に存在するすべての人物について加算したものである。空間中の複数人間の交互作用を表し、コミュニケーションに参加している人物があるオブジェクトにどのくらいの注視を向けているかを記述したものである。この項は、コミュニケーションに参加している人物は同じオブジェクトに注意を払う傾向が高い、という仮定に基づいて設計した項である。
なお、式(1)による目的関数Eの計算は、抽出したすべてのオブジェクトに対して行うようにしてもよいが、計算量を削減するため、人物iの視線位置gの周辺に存在するオブジェクトに限定して計算するようにしてもよい。例えば、一人称視点映像において、視線の情報で示される位置から一定距離に配置されているオブジェクトに限定する。
(3)共同注意判定処理(S103)
注意対象推定装置10は、複数の人物に対して推定した注意対象オブジェクトから、共同注意が発生しているか否かを判断する。共同注意が発生しているか否かは、「物体(オブジェクト)」に関する類似度の評価をもって判断してもよいし、あるいは注意対象オブジェクトの「場所」に関する類似度の評価をもって判断してもよい。注意対象推定装置10は、「物体」あるいは「場所」のいずれか単独の類似度の評価から共同注意の有無を判断してもよく、あるいは両者の類似度の評価結果を統合して共同注意の有無を判断するようにしてもよい。
「物体」に関する類似度の評価は、人物iについて推定した注意対象オブジェクトの画像と、他の人物kについて推定した注意対象オブジェクトの画像との類似度をもって判断する。類似度の指標として、形状と色の両者を考慮するようにしてもよい。たとえば、形状の類似度指標については、FisherVectorの内積を、色の指標についてはカラーヒストグラム類似度を用いることができる。双方の類似度指標を計算し、その和があらかじめ定めた閾値以上となった場合、共同注意が発生したとみなす。
一方、「場所」に関する類似度の評価は、注意対象オブジェクトの3次元空間中のユークリッド距離に基づいて判断する。人物iの視線位置(注意対象位置)と他の人物kの視線位置とのユークリッド距離があらかじめ定めた閾値以下となった場合、共同注意が発生したとみなす。
「物体」に関する共同注意と「場所」に関する共同注意をそれぞれ評価することで、例えば、講義中に教員が教室前方のプロジェクタ画面に映し出されたスライドに注意を向けながら話し、一方で学生は手元のノートPC画面で同じ内容のスライドを見ながら話を聞いているような状況を想定したとき、両者は同じ場所を見てはいないが同じ対象に注意を向けており、講義中という背景を考えると共同注意が成立していると判断することができる。「物体」と「場所」の両方の側面から共同注意を計算することができるため、本開示は幅広い分野に適用することができる。
以上述べてきたように、本開示に係る注意対象推定装置ないし注意対象推定方法は、ある同一空間中でコミュニケーションを行っている人物の一人称視点映像と視線情報に基づき、当該人物の注意対象が「どこ(位置)」の「何(物体)」であるかを特定することができ、もって、共同注意が発生したか否かを正しく推定できるようになるものである。
なお、本実施形態においては、注意対象推定処理(S102)において、コミュニケーション空間に存在する物体の特定を、一人称視点映像に映るオブジェクトを検出することで行ったが、本開示はこれに限定されない。例えば、3次元情報格納部14は、コミュニケーション空間内に存在する物体の名称といった物体の識別情報を、各特徴点と紐付けて予め格納していてもよい。
また、本実施形態では、「視線情報」が一人称視点映像中でその人物が注視している位置を示す座標である例について説明したが、本開示はこれに限定されない。例えば、加速度センサなど、人物iの頭部を始点とする視線方向が特定可能な任意の情報を用いることができる。
本開示は情報通信産業に適用することができる。
10:注意対象推定装置
11:注意対象推定部
12:共同注意判定部
13:受信部
14:3次元情報格納部

Claims (6)

  1. 人物の目線で撮像された一人称視点映像及び当該一人称視点映像を撮像時の前記人物の視線の情報を取得し、
    前記一人称視点映像から抽出されたオブジェクトの3次元空間での位置を特定し、
    前記一人称視点映像に含まれるオブジェクトと前記人物の視線との3次元空間での距離を求め、
    前記一人称視点映像に含まれるオブジェクトのうちの前記人物の視線との3次元空間での距離が近く、かつ、前記一人称視点映像に含まれるオブジェクトのうちの過去に注意対象と判定されたオブジェクトを、前記人物の注意対象と判定する注意対象推定装置であって、
    前記人物とは異なる第2の人物の注意対象の判定結果を取得し、
    前記第2の人物の注意対象のオブジェクトが前記人物の注意対象のオブジェクトと類似している場合、注意対象のオブジェクトの3次元空間での位置が類似していなくても、当該類似しているオブジェクトに共同注意が発生していると判定する
    注意対象推定装置。
  2. 人物の目線で撮像された一人称視点映像及び当該一人称視点映像を撮像時の前記人物の視線の情報を取得し、
    前記一人称視点映像から抽出されたオブジェクトの3次元空間での位置を特定し、
    前記一人称視点映像に含まれるオブジェクトと前記人物の視線との3次元空間での距離を求め、
    前記一人称視点映像に含まれるオブジェクトのうちの前記人物の視線との3次元空間での距離が近く、かつ、前記一人称視点映像に含まれるオブジェクトのうちの過去に注意対象と判定されたオブジェクトを、前記人物の注意対象と判定する注意対象推定装置であって、
    前記一人称視点映像に含まれるオブジェクトのうちの次式で表される目的関数E が最小となるオブジェクトを、前記人物の注意対象と判定する
    注意対象推定装置。
    Figure 0006950644
    ここで、g は前記人物である人物iの視線位置の3次元座標、g は前記人物iとは異なる人物kの視線位置の3次元座標、p はオブジェクトO の重心の3次元座標、|O |は前記一人称視点映像におけるオブジェクトO の面積、O i,t−1 は1フレーム前の時刻t−1に前記人物iの注意対象として推定されたオブジェクト、f(O i,t−1 ,O )は1フレーム前の時刻t−1に推定した注意対象との相関性の度合いを算出する関数、λ ,λ はそれぞれ係数である。また、記号||A||はベクトルAの大きさ(スカラー積)を意味する。
  3. 前記一人称視点映像に含まれるオブジェクトのうちの前記人物の視線との3次元空間での距離が近くかつ前記人物とは異なる第2の人物の視線との3次元空間での距離が近いオブジェクトを、前記人物の注意対象と判定する、
    請求項1又は2に記載の注意対象推定装置。
  4. 前記視線の情報は、前記一人称視点映像における位置であり、
    前記人物の視線は、実空間中における人物の存在位置を始点としかつ前記一人称視点映像中の前記視線の情報で示される位置を終点とする直線である、
    請求項1からのいずれかに記載の注意対象推定装置。
  5. 注意対象推定装置が、
    人物の目線で撮像された一人称視点映像及び当該一人称視点映像を撮像時の前記人物の視線の情報を取得し、
    前記一人称視点映像から抽出されたオブジェクトの3次元空間での位置を特定し、
    前記一人称視点映像に含まれるオブジェクトと前記人物の視線との3次元空間での距離を求め、
    前記一人称視点映像に含まれるオブジェクトのうちの前記人物の視線との3次元空間での距離が近く、かつ、前記一人称視点映像に含まれるオブジェクトのうちの過去に注意対象と判定されたオブジェクトを、前記人物の注意対象と判定する注意対象推定方法であって、
    前記人物とは異なる第2の人物の注意対象の判定結果を取得し、
    前記第2の人物の注意対象のオブジェクトが前記人物の注意対象のオブジェクトと類似している場合、注意対象のオブジェクトの3次元空間での位置が類似していなくても、当該類似しているオブジェクトに共同注意が発生していると判定する
    注意対象推定方法。
  6. 注意対象推定装置が、
    人物の目線で撮像された一人称視点映像及び当該一人称視点映像を撮像時の前記人物の視線の情報を取得し、
    前記一人称視点映像から抽出されたオブジェクトの3次元空間での位置を特定し、
    前記一人称視点映像に含まれるオブジェクトと前記人物の視線との3次元空間での距離を求め、
    前記一人称視点映像に含まれるオブジェクトのうちの前記人物の視線との3次元空間での距離が近く、かつ、前記一人称視点映像に含まれるオブジェクトのうちの過去に注意対象と判定されたオブジェクトを、前記人物の注意対象と判定する注意対象推定方法であって、
    前記一人称視点映像に含まれるオブジェクトのうちの次式で表される目的関数E が最小となるオブジェクトを、前記人物の注意対象と判定する
    注意対象推定方法。
    Figure 0006950644
    ここで、g は前記人物である人物iの視線位置の3次元座標、g は前記人物iとは異なる人物kの視線位置の3次元座標、p はオブジェクトO の重心の3次元座標、|O |は前記一人称視点映像におけるオブジェクトO の面積、O i,t−1 は1フレーム前の時刻t−1に前記人物iの注意対象として推定されたオブジェクト、f(O i,t−1 ,O )は1フレーム前の時刻t−1に推定した注意対象との相関性の度合いを算出する関数、λ ,λ はそれぞれ係数である。また、記号||A||はベクトルAの大きさ(スカラー積)を意味する。
JP2018151148A 2018-08-10 2018-08-10 注意対象推定装置及び注意対象推定方法 Active JP6950644B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018151148A JP6950644B2 (ja) 2018-08-10 2018-08-10 注意対象推定装置及び注意対象推定方法
PCT/JP2019/031626 WO2020032254A1 (ja) 2018-08-10 2019-08-09 注意対象推定装置及び注意対象推定方法
US17/266,948 US11436751B2 (en) 2018-08-10 2019-08-09 Attention target estimating device, and attention target estimating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018151148A JP6950644B2 (ja) 2018-08-10 2018-08-10 注意対象推定装置及び注意対象推定方法

Publications (2)

Publication Number Publication Date
JP2020027390A JP2020027390A (ja) 2020-02-20
JP6950644B2 true JP6950644B2 (ja) 2021-10-13

Family

ID=69414318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018151148A Active JP6950644B2 (ja) 2018-08-10 2018-08-10 注意対象推定装置及び注意対象推定方法

Country Status (3)

Country Link
US (1) US11436751B2 (ja)
JP (1) JP6950644B2 (ja)
WO (1) WO2020032254A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11587302B2 (en) * 2019-12-17 2023-02-21 X Development Llc Shared dense network with robot task-specific heads
JP2023068212A (ja) * 2020-03-31 2023-05-17 株式会社Nttドコモ 情報処理システム
US11554496B2 (en) * 2020-04-03 2023-01-17 Fanuc Corporation Feature detection by deep learning and vector field estimation

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6257362B1 (en) * 1999-07-28 2001-07-10 Harley-Davidson Motor Company Motorcycle fender mounting system
JP4061379B2 (ja) * 2004-11-29 2008-03-19 国立大学法人広島大学 情報処理装置、携帯端末、情報処理方法、情報処理プログラム、およびコンピュータ読取可能な記録媒体
JP2013179403A (ja) * 2012-02-28 2013-09-09 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2015191554A (ja) * 2014-03-28 2015-11-02 株式会社ニコン 電子機器
JP6433862B2 (ja) * 2015-08-18 2018-12-05 株式会社コロプラ ヘッドマウントディスプレイシステム制御プログラム、コンピュータ及び方法
US10027888B1 (en) * 2015-09-28 2018-07-17 Amazon Technologies, Inc. Determining area of interest in a panoramic video or photo
US10482668B2 (en) * 2016-06-02 2019-11-19 Thales Visionix, Inc. Miniature vision-inertial navigation system with extended dynamic range
JP6714632B2 (ja) * 2018-03-20 2020-06-24 マクセル株式会社 情報表示端末及び情報表示方法

Also Published As

Publication number Publication date
JP2020027390A (ja) 2020-02-20
US20210304434A1 (en) 2021-09-30
WO2020032254A1 (ja) 2020-02-13
US11436751B2 (en) 2022-09-06

Similar Documents

Publication Publication Date Title
US11741624B2 (en) Method and system for determining spatial coordinates of a 3D reconstruction of at least part of a real object at absolute spatial scale
US8639020B1 (en) Method and system for modeling subjects from a depth map
EP3651457B1 (en) Pupillary distance measurement method, wearable eye equipment and storage medium
TWI496108B (zh) AR image processing apparatus and method
US10254831B2 (en) System and method for detecting a gaze of a viewer
JP6950644B2 (ja) 注意対象推定装置及び注意対象推定方法
CN103501688A (zh) 注视点映射的方法和装置
CN104364733A (zh) 注视位置检测装置、注视位置检测方法和注视位置检测程序
WO2016107638A1 (en) An image face processing method and apparatus
CN112926464B (zh) 一种人脸活体检测方法以及装置
CN105165004A (zh) 摄影系统
JP7379065B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN111488775B (zh) 注视度判断装置及方法
CN109035307B (zh) 基于自然光双目视觉的设定区域目标追踪方法及系统
WO2022237026A1 (zh) 平面信息检测方法及系统
CN112073640B (zh) 全景信息采集位姿获取方法及装置、系统
US20200211275A1 (en) Information processing device, information processing method, and recording medium
US20170007118A1 (en) Apparatus and method for estimating gaze from un-calibrated eye measurement points
KR20120082319A (ko) 윈도우 형태의 증강현실을 제공하는 장치 및 방법
JP2016194847A (ja) 画像検出装置、画像検出方法およびプログラム
Mehmood et al. Ghost pruning for people localization in overlapping multicamera systems
JP2012212325A (ja) 視線計測システム、方法およびプログラム
JP6597277B2 (ja) 投影装置、投影方法及び投影用コンピュータプログラム
KR101268539B1 (ko) 영역 검출 방법 및 이를 적용한 영역 검출 장치
JP2019079299A (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180905

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210906

R150 Certificate of patent or registration of utility model

Ref document number: 6950644

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150