JP2011227649A - 画像処理システム、画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理システム、画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2011227649A
JP2011227649A JP2010095877A JP2010095877A JP2011227649A JP 2011227649 A JP2011227649 A JP 2011227649A JP 2010095877 A JP2010095877 A JP 2010095877A JP 2010095877 A JP2010095877 A JP 2010095877A JP 2011227649 A JP2011227649 A JP 2011227649A
Authority
JP
Japan
Prior art keywords
image
feature
image processing
input image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010095877A
Other languages
English (en)
Other versions
JP5521727B2 (ja
Inventor
Koichi Matsuda
晃一 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010095877A priority Critical patent/JP5521727B2/ja
Priority to EP11156761A priority patent/EP2378393A2/en
Priority to US13/084,339 priority patent/US9195302B2/en
Priority to CN2011100931527A priority patent/CN102221878A/zh
Publication of JP2011227649A publication Critical patent/JP2011227649A/ja
Application granted granted Critical
Publication of JP5521727B2 publication Critical patent/JP5521727B2/ja
Priority to US14/930,089 priority patent/US9524427B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/13Digital output to plotter ; Cooperation and interconnection of the plotter with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

【課題】複数人によるコミュニケーションにおいて、視線方向が異なるユーザが指し示した場所を正確に又は容易に認識することを可能とすること。
【解決手段】他の画像処理装置において取得される画像内に設定される複数の特徴点の座標を含む第1の特徴量、及び、実空間内の場所を指し示すために用いられる指示子の前記画像内での位置を表す位置データ、を受信する通信部と、実空間を撮影した入力画像を取得する入力画像取得部と、取得される前記入力画像内に設定される複数の特徴点の座標を含む第2の特徴量を生成する特徴量生成部と、前記第1の特徴量と前記第2の特徴量とを照合し、当該照合の結果及び前記位置データに基づいて、前記指示子により指し示されている実空間内の場所の前記入力画像内での位置を特定する特定部と、特定される位置を指し示す標識を表示する出力画像を生成する出力画像生成部と、を備える画像処理装置を提供する。
【選択図】図2

Description

本発明は、画像処理システム、画像処理装置、画像処理方法及びプログラムに関する。
複数人の人間同士のコミュニケーションにおいて、視界に映る何らかの場所(例えば話題の対象となっている人物又は物体などが存在する場所)についての認識を共有しようとする場合、その場所を指で指し示すことがよく行われる。しかし、対象の場所に直接指を触れることができるようなケースを除いて、指示者がどの場所を指し示しているのかを聞き手が正しく認識できない場合は少なくない。この場合、対象の場所を言葉で表現することができるときには、指差しと共に言葉でその場所を表現することで、認識の共有はより容易となる。しかし、言葉で表現することの難しい場所については、このような複合的なやり方は通用しない。また、例えば、会議のような場面においては、レーザポインタを用いて出席者が認識を共有すべき場所を指し示すことも行われる。しかし、実世界の一般的な場面において、ユーザがレーザポインタを常に所持しているわけではなく、仮にレーザポインタを所持していてもこれを濫用することは危険である。
ところで、撮像画像に映るユーザの手指を検出し、検出された手指の形状、位置又はジェスチャに基づいて電子機器を操作しようとする技術が存在する。例えば、下記特許文献1は、撮像画像に映る腕の中心軸に基づいて設定される走査線に沿って腕の幅を走査することにより、高い精度でユーザの手指の形状等を検出することのできる技術を開示している。
特開2005−63091号公報
しかしながら、撮像画像に映るユーザの手指を検出する従来の手法は、複数人の人間同士のコミュニケーションに直接的に応用し得るものではなかった。その主な理由は、ユーザ間の視線方向の違いである。指示者が対象の場所を指で指し示したとしても、その1つの指を見る指示者の視線と聞き手の視線とは1点で交わる2本の直線となり、異ならざるを得ない。そのため、例えば、聞き手の視線方向に向けた撮像装置から取得される画像内で指示者の指を高い精度で検出したとしても、その指が重なる場所はもはや指示者が伝えようとした場所ではない。
そこで、本発明は、複数人によるコミュニケーションにおいて、視線方向が異なるユーザが指し示した場所を正確に又は容易に認識することを可能とする、新規かつ改良された画像処理システム、画像処理装置、画像処理方法及びプログラムを提供しようとするものである。
本発明のある実施形態によれば、実空間を撮影した入力画像を取得する入力画像取得部、をそれぞれ備える2つの画像処理装置を含む画像処理システムであって、第1の画像処理装置は、上記第1の画像処理装置において取得される第1の入力画像に映る指示子であって、実空間内の場所を指し示すために用いられる上記指示子を認識する画像認識部と、上記第1の入力画像内に設定される複数の特徴点の座標を含む第1の特徴量を生成する第1の特徴量生成部と、上記第1の入力画像について生成される上記第1の特徴量、及び上記画像認識部により認識される上記指示子の位置を表す位置データを送信する第1の通信部と、をさらに備え、第2の画像処理装置は、上記第2の画像処理装置において取得される第2の入力画像内に設定される複数の特徴点の座標を含む第2の特徴量を生成する第2の特徴量生成部と、上記第1の特徴量及び上記位置データを受信する第2の通信部と、上記第1の特徴量と上記第2の特徴量とを照合し、当該照合の結果及び上記位置データに基づいて、上記指示子により指し示されている実空間内の場所の上記第2の入力画像内での位置を特定する特定部と、上記特定部により特定される位置を指し示す標識を表示する出力画像を生成する出力画像生成部と、をさらに備える、画像処理システムが提供される。
また、上記第1の画像処理装置は、ユーザの指を上記指示子として認識するための指画像を記憶している記憶部、をさらに備え、上記画像認識部は、上記第1の入力画像に映る上記指画像を検出することにより、上記指示子を認識してもよい。
また、上記第1の特徴量は、複数の視線方向ごとに上記第1の入力画像を回転させた場合に上記第1の入力画像内にそれぞれ設定される特徴点の座標のセットを複数含み、上記特定部は、上記第1の特徴量に含まれる特徴点の座標のセットの各々と上記第2の特徴量とを照合することにより、上記複数の視線方向のうちのいずれか1つを選択してもよい。
また、上記特定部は、複数の視線方向ごとに上記第1の入力画像を回転させた場合に上記第1の入力画像内にそれぞれ設定される特徴点の座標のセットを上記第1の特徴量から複数生成し、生成した特徴点の座標のセットの各々と上記第2の特徴量とを照合することにより、上記複数の視線方向のうちのいずれか1つを選択してもよい。
また、上記特定部は、選択した視線方向と上記位置データとに基づいて、上記指示子により指し示されている実空間内の場所の上記第2の入力画像内での位置を特定してもよい。
また、上記出力画像生成部は、上記特定部により特定される位置を囲む図形を上記標識として表示する上記出力画像を生成してもよい。
また、本発明の別の実施形態によれば、他の画像処理装置において取得される画像内に設定される複数の特徴点の座標を含む第1の特徴量、及び、実空間内の場所を指し示すために用いられる指示子の上記画像内での位置を表す位置データ、を受信する通信部と、実空間を撮影した入力画像を取得する入力画像取得部と、上記入力画像取得部により取得される上記入力画像内に設定される複数の特徴点の座標を含む第2の特徴量を生成する特徴量生成部と、上記第1の特徴量と上記第2の特徴量とを照合し、当該照合の結果及び上記位置データに基づいて、上記指示子により指し示されている実空間内の場所の上記入力画像内での位置を特定する特定部と、上記特定部により特定される位置を指し示す標識を表示する出力画像を生成する出力画像生成部と、を備える画像処理装置が提供される。
また、上記第1の特徴量は、複数の視線方向ごとに上記画像を回転させた場合に当該画像内にそれぞれ設定される特徴点の座標のセットを複数含み、上記特定部は、上記第1の特徴量に含まれる特徴点の座標のセットの各々と上記第2の特徴量とを照合することにより、上記複数の視線方向のうちのいずれか1つを選択してもよい。
また、上記特定部は、複数の視線方向ごとに上記画像を回転させた場合に当該画像内にそれぞれ設定される特徴点の座標のセットを上記第1の特徴量から複数生成し、生成した特徴点の座標のセットの各々と上記第2の特徴量とを照合することにより、上記複数の視線方向のうちのいずれか1つを選択してもよい。
また、上記特定部は、選択した視線方向と上記位置データとに基づいて、上記指示子により指し示されている実空間内の場所の上記入力画像内での位置を特定してもよい。
また、上記出力画像生成部は、上記特定部により特定される位置を囲む図形を上記標識として表示する上記出力画像を生成してもよい。
また、本発明の別の実施形態によれば、実空間を撮影した入力画像をそれぞれ取得する2つの画像処理装置により実行される画像処理方法であって、第1の画像処理装置において、第1の入力画像を取得するステップと、取得した上記第1の入力画像に映る指示子であって、実空間内の場所を指し示すために用いられる上記指示子を認識するステップと、上記第1の入力画像内に設定される複数の特徴点の座標を含む第1の特徴量を生成するステップと、上記第1の入力画像について生成した上記第1の特徴量、及び認識した上記指示子の位置を表す位置データを送信するステップと、第2の画像処理装置において、上記第1の特徴量及び上記位置データを受信するステップと、第2の入力画像を取得するステップと、取得した上記第2の入力画像内に設定される複数の特徴点の座標を含む第2の特徴量を生成するステップと、上記第1の特徴量と上記第2の特徴量とを照合するステップと、当該照合の結果及び上記位置データに基づいて、上記指示子により指し示されている実空間内の場所の上記第2の入力画像内での位置を特定するステップと、特定した位置を指し示す標識を表示する出力画像を生成するステップと、を含む、画像処理方法が提供される。
また、本発明の別の実施形態によれば、画像処理装置により実行される画像処理方法であって、他の画像処理装置において取得される画像内に設定される複数の特徴点の座標を含む第1の特徴量、及び、実空間内の場所を指し示すために用いられる指示子の上記画像内での位置を表す位置データ、を受信するステップと、実空間を撮影した入力画像を取得するステップと、取得した上記入力画像内に設定される複数の特徴点の座標を含む第2の特徴量を生成するステップと、上記第1の特徴量と上記第2の特徴量とを照合するステップと、当該照合の結果及び上記位置データに基づいて、上記指示子により指し示されている実空間内の場所の上記入力画像内での位置を特定するステップと、特定した位置を指し示す標識を表示する出力画像を生成するステップと、を含む、画像処理方法が提供される。
また、本発明の別の実施形態によれば、画像処理装置を制御するコンピュータを、他の画像処理装置において取得される画像内に設定される複数の特徴点の座標を含む第1の特徴量、及び、実空間内の場所を指し示すために用いられる指示子の上記画像内での位置を表す位置データ、を受信する通信部と、実空間を撮影した入力画像を取得する入力画像取得部と、上記入力画像取得部により取得される上記入力画像内に設定される複数の特徴点の座標を含む第2の特徴量を生成する特徴量生成部と、上記第1の特徴量と上記第2の特徴量とを照合し、当該照合の結果及び上記位置データに基づいて、上記指示子により指し示されている実空間内の場所の上記入力画像内での位置を特定する特定部と、上記特定部により特定される位置を指し示す標識を表示する出力画像を生成する出力画像生成部と、として機能させるための、プログラムが提供される。
以上説明したように、本発明に係る画像処理システム、画像処理装置、画像処理方法及びプログラムによれば、複数人によるコミュニケーションにおいて、視線方向が異なるユーザが指し示した場所を正確に又は容易に認識することを可能とすることができる。
一実施形態に係る画像処理システムの概要を示す模式図である。 一実施形態に係る画像処理装置の構成の一例を示すブロック図である。 一実施形態に係る入力画像の第1の例を示す説明図である。 一実施形態に係る指示子の一例を示す模式図である。 一実施形態に係る指示子の他の例を示す模式図である。 一実施形態において第1の入力画像内に設定される特徴点について説明するための説明図である 一実施形態に係る入力画像の第2の例を示す説明図である。 一実施形態において第2の入力画像内に設定される特徴点について説明するための説明図である 一実施形態に係る特徴量の照合処理について説明するための説明図である。 一実施形態において生成される出力画像の一例について説明するための説明図である 一実施形態に係る指示側の画像処理の流れの一例を示すフローチャートである。 一実施形態に係る被指示側の画像処理の流れの一例を示すフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付すことにより重複説明を省略する。
また、以下の順序にしたがって当該「発明を実施するための形態」を説明する。
1.一実施形態に係る画像処理システムの概要
2.一実施形態に係る画像処理装置の構成例
2−1.全体的な構成
2−2.指示側
2−3.被指示側
3.一実施形態に係る画像処理の流れ
3−1.指示側
3−2.被指示側
4.まとめ
<1.一実施形態に係る画像処理システムの概要>
まず、図1を用いて、本発明の一実施形態に係る画像処理システムの概要を説明する。図1は、本発明の一実施形態に係る画像処理システム1の概要を示す模式図である。図1を参照すると、画像処理システム1は、ユーザUaが使用する画像処理装置100a、及びユーザUbが使用する画像処理装置100bを含む。
画像処理装置100aは、例えば、ユーザUaの頭部に装着される撮像装置102a及びヘッドマウントディスプレイ(HMD:Head Mounted Display)104aと接続される。撮像装置102aは、ユーザUaの視線方向を向いて実空間3を撮像し、一連の入力画像を画像処理装置100aへ出力する。HMD104aは、画像処理装置100aから入力される画像をユーザUaに表示する。HMD104aにより表示される画像は、画像処理装置100aにより生成される出力画像である。HMD104aは、シースルー型のディスプレイであってもよく、又は非シースルー型のディスプレイであってもよい。
画像処理装置100bは、例えば、ユーザUbの頭部に装着される撮像装置102b及びHMD104bと接続される。撮像装置102bは、ユーザUbの視線方向を向いて実空間3を撮像し、一連の入力画像を画像処理装置100bへ出力する。HMD104bは、画像処理装置100bから入力される画像をユーザUbに表示する。HMD104bにより表示される画像は、画像処理装置100bにより生成される出力画像である。HMD104bもまた、シースルー型のディスプレイであってもよく、又は非シースルー型のディスプレイであってもよい。
画像処理装置100a及び100bは、有線又は無線による通信接続を介して、互いに通信することができる。画像処理装置100aと画像処理装置100bとの間の通信は、例えば、P2P(Peer to Peer)方式により直接行われてもよく、ルータ又はサーバなどの他の装置(図示せず)を介して間接的に行われてもよい。
図1の例において、ユーザUa及びUbは、共に実空間3の方向を向いている。そして、ユーザUaは、例えば話題の対象となっている人物又は物体などが存在する場所を指で指し示している。このとき、撮像装置102aから画像処理装置100aに入力される入力画像においては、ユーザUaの指はまさにその対象の場所を指し示しているであろう。しかし、撮像装置102bから画像処理装置100bに入力される入力画像においては、ユーザUaの指は対象の場所からずれている可能性がある。そこで、本実施形態に係る画像処理システム1において、以下に詳しく説明する仕組みにより、ユーザUaが指し示した対象の場所をユーザUbが正確かつ容易に認識することを可能とする。
なお、画像処理装置100a及び100bは、図1に示した例に限定されない。例えば、カメラ付き携帯端末を用いて画像処理装置100a又は100bが実現されてもよい。その場合には、カメラ付き携帯端末のカメラが実空間を撮像し、端末により画像処理が行われた後、端末の画面上に出力画像が表示される。また、画像処理装置100a又は100bは、PC(Personal Computer)又はゲーム端末などのその他の種類の装置であってもよい。
本明細書のこれ以降の説明において、画像処理装置100a及び100bを互いに区別する必要がない場合には、符号の末尾のアルファベットを省略することにより、画像処理装置100a及び100bを画像処理装置100と総称する。また、撮像装置102a及び102b(撮像装置102)、HMD104a及び104b(HMD104)、並びにその他の要素についても同様とする。また、画像処理システム1に参加可能な画像処理装置100の数は、図1の例に限定されず、3つ以上であってもよい。即ち、例えば、第3のユーザが使用する第3の画像処理装置100が、画像処理システム1にさらに含まれてもよい。
<2.一実施形態に係る画像処理装置の構成例>
[2−1.全体的な構成]
次に、図2〜図9を用いて、本実施形態に係る画像処理装置100の構成を説明する。図2は、本実施形態に係る画像処理装置100の構成の一例を示すブロック図である。図2を参照すると、画像処理装置100は、入力画像取得部110、記憶部120、画像認識部130、特徴量生成部140、通信部150、特定部160、出力画像生成部170及び表示部180を備える。
なお、画像処理装置100が対象の場所を指し示す指示者ユーザの側(例えば図1におけるユーザUa。以下、指示側という)として動作する場合、図2に示した画像処理装置100の構成要素のうち、主に入力画像取得部110、記憶部120、画像認識部130、特徴量生成部140及び通信部150が画像処理に関与する。一方、画像処理装置100が対象の場所を指し示される聞き手ユーザの側(例えば図1におけるユーザUb。以下、被指示側という)として動作する場合、図2に示した画像処理装置100の構成要素のうち、主に入力画像取得部110、特徴量生成部140、通信部150、特定部160、出力画像生成部170及び表示部180が画像処理に関与する。
本節では、画像処理装置100が指示側の構成及び被指示側の構成を共に備える例について説明する。しかしながら、かかる例に限定されず、指示側の構成及び被指示側の構成のいずれか一方のみを備える画像処理装置が提供されてもよい。
[2−2.指示側]
(入力画像取得部)
入力画像取得部110は、撮像装置102を用いて撮像される一連の入力画像を取得する。図3は、入力画像取得部110により取得される一例としての入力画像IM01を示している。入力画像IM01には、実空間3に存在する様々な対象物が映っている。図3の例では、実空間3は駅の構内の空間であり、店舗T1、案内板T2、看板T3及び人物T4などが入力画像IM01に映っている。さらに、入力画像IM01には、指示子Maが映っている。ここでは、指示子MaはユーザUaの指である。入力画像取得部110は、取得したこのような入力画像を、画像認識部130及び特徴量生成部140へ順次出力する。
(記憶部)
記憶部120は、ハードディスク又は半導体メモリなどの記憶媒体を用いて、入力画像に映る指示子を認識するための画像認識に用いられる指示子画像を予め記憶する。本明細書において、指示子とは、実空間内の任意の場所をユーザが指し示すために用いる物体又は人体の一部である。
図4A及び図4Bは、本実施形態に係る指示子の一例をそれぞれ示す模式図である。図4Aの例では、指示子M1は、ユーザの指(手指)である。記憶部120は、例えば、このようなユーザの指を映した画像を指示子画像として予め記憶する。記憶部120は、例えば、異なる複数の方向からユーザの指を映した一群の画像を指示子画像として記憶してもよい。
図4Bの例では、指示子M2は、ユーザの指に装着される立方体状のマーカである。マーカの各面の中央部には空洞が開けられており、ユーザは、その空洞に指を挿入してマーカを動かすことができる。この場合、記憶部120は、マーカを映した画像を指示子画像として予め記憶する。その代わりに、例えば、マーカと当該マーカに挿入された指とを含む全体を指示子とし、それらを映した画像が指示子画像として記憶されてもよい。
なお、指示子は、図4A及び図4Bの例に限定されず、例えば、ユーザの足又はユーザに把持される棒状の物体など、実世界に存在する人体の一部又は任意の物体であってよい。記憶部120は、画像認識部130からの要求に応じて、かかる指示子画像を画像認識部130へ出力する。
(画像認識部)
画像認識部130は、入力画像取得部110により取得される入力画像に映る指示子を認識する。画像認識部130は、例えば、記憶部120により記憶されている指示子画像と入力画像とを公知のパターンマッチングの手法を用いて照合することにより、入力画像に映る指示子を認識してもよい。その代わりに、画像認識部130は、指示子画像を用いることなく、例えば上記特許文献1に記載された手法を用いて入力画像に映る指示子としてのユーザの手指を認識してもよい。
画像認識部130は、入力画像に指示子が映っていることを認識すると、さらに指示子が指し示している場所の入力画像内における位置を判定する。例えば、画像認識部130は、図4Aに例示された指示子M1における人差し指の先端の位置を、指示子M1が指し示している場所の入力画像内における位置であると判定してもよい。また、例えば、画像認識部130は、図4Bに例示された指示子M2におけるマーカの重心の位置を、指示子M2が指し示している場所の入力画像内における位置であると判定してもよい。
画像認識部130は、上述した手法により認識した指示子の位置(指示子が指し示している位置の入力画像内の座標)を表す位置データを、ユーザからの要求に応じて、通信部150へ出力する。ユーザからの要求は、例えば、指示子を用いたジェスチャにより画像処理装置100に入力され得る。例えば、画像認識部130は、入力画像内で指示子のサイズの変化を監視する。そして、例えば、一定の閾値以上のサイズを有する指示子が継続して検出されている場合において、当該指示子のサイズが一時的に小さくなったときに、画像認識部130は、ユーザが何らかの場所をタップしたものと認識することができる。このようなタップジェスチャは、ユーザが指し示している場所についての情報の転送の要求を表すユーザ入力の一例である。このほか、画像認識部130は、例えば、指示子の先端が円軌道を描くジェスチャ、又は特定の手指の形状などを情報転送の要求を表すユーザ入力として扱ってもよい。また、画像認識部130による画像認識の代わりに、情報処理装置100に設けられるボタン又はスイッチなどのユーザインタフェースを介して、情報転送の要求が入力されてもよい。
画像認識部130は、ユーザからの要求を検知すると、指示子の位置を表す位置データを通信部150へ出力すると共に、特徴量生成部140に入力画像についての特徴量の生成を要求する。
(特徴量生成部)
特徴量生成部140は、画像認識部130からの要求に応じて、入力画像取得部110により取得される入力画像内に複数の特徴点を設定し、設定した特徴点の座標を含む特徴量を生成する。特徴量生成部140は、例えば、公知のHarris作用素若しくはMoravec作用素を用いる手法、又はFAST特徴検出法(FAST feature detection)などの任意の手法に従って、入力画像内に特徴点を設定してよい。特徴量生成部140が生成する特徴量には、各特徴点の座標に加えて、特徴点ごとの輝度、コントラスト及び方向などの追加的なパラメータ値が含まれてもよい。特徴量として、例えば、David G. Loweによる“Distinctive Image Features from Scale-Invariant Keypoints”(the International Journal of Computer Vision, 2004)に記載された特有不変特徴量(distinctive invariant Features)を用いることにより、画像内のノイズ、大きさの変化、回転及び照明の変化などに対する画像処理の高いロバスト性が実現される。
図5は、本実施形態に係る特徴量生成部140により入力画像内に設定される特徴点について説明するための説明図である。図5を参照すると、図3に例示した入力画像IM01内に、×印で示した多数の特徴点が設定されている。特徴点は、例えば、実空間3の内部の様々な物体のエッジ及びコーナー上に設定され得る。特徴量生成部140は、このような特徴点の入力画像内の座標値と、上述した追加的なパラメータ値とを1つのデータセットとして格納した特徴量を、通信部150へ出力する。
(通信部)
通信部150は、画像処理装置100が他の装置と通信するための通信インタフェースとして動作する。例えば、通信部150は、画像認識部130により情報転送の要求を表すユーザ入力が検知されると、画像認識部130から入力される指示子の位置データと特徴量生成部140から入力される入力画像についての特徴量とを、他の画像処理装置100へ送信する。
[2−3.被指示側]
(入力画像取得部)
画像処理装置100が被指示側として動作する場合にも、入力画像取得部110は、指示側と同様に、撮像装置102を用いて撮像される一連の入力画像を取得する。そして、入力画像取得部110は、取得した入力画像を特徴量生成部140へ順次出力する。
図6は、入力画像取得部110により取得される他の例としての入力画像IM02を示している。入力画像IM02には、図3に例示した入力画像IM01と同様、実空間3に存在する店舗T1、案内板T2、看板T3及び人物T4などの様々な対象物が映っている。さらに、入力画像IM02には、ユーザUaの指である指示子Maが映っている。但し、視線方向の違いが原因となり、入力画像IM02において、指示子Maは、入力画像IM01のように看板T3の上ではなく、人物T4の上に位置している。従って、単純に入力画像IM02を見たユーザは、指示子Maが実際にどの場所を指し示しているのかを正しく認識できない。
(通信部)
被指示側の通信部150は、指示側の装置から送信される上述した特徴量及び位置データを受信する。本明細書のこれ以降の説明では、指示側の通信部150により送信され被指示側の通信部150により受信される特徴量を第1の特徴量という。通信部150は、第1の特徴量及び位置データを受信すると、当該第1の特徴量及び位置データを特定部160へ出力すると共に、第1の特徴量と照合すべき入力画像についての第2の特徴量の生成を特徴量生成部140に要求する。
(特徴量生成部)
被指示側の特徴量生成部140は、通信部150からの要求に応じて、入力画像取得部110により取得される入力画像について生成した特徴量を、第1の特徴量と照合すべき第2の特徴量として特定部160へ出力する。第2の特徴量は、第1の特徴量と同様に、入力画像内に設定される複数の特徴点の座標を含む。さらに、第2の特徴量もまた特徴点ごとの輝度、コントラスト及び方向などの追加的なパラメータ値を含んでよい。
(特定部)
特定部160は、通信部150から入力される第1の特徴量と特徴量生成部140から入力される第2の特徴量とを照合する。そして、特定部160は、当該照合の結果及び通信部150から入力される位置データに基づいて、指示子により指し示されている実空間内の場所の入力画像内での位置を特定する。
図7は、図6に例示した入力画像IM02内に設定される特徴点について説明するための説明図である。図7を参照すると、入力画像IM02内に、×印で示した多数の特徴点が設定されている。入力画像IM02における各特徴点の座標値は、入力画像IM01における対応する特徴点の座標値と異なる。座標値の相違は、視線方向の違いを原因とする。そこで、特定部160は、第1の特徴量に含まれる座標値を複数の視線方向ごとにそれぞれ回転させた各特徴点座標のセットを照合のために利用する。特定部160は、特徴点座標のセットの各々と第2の特徴量とを照合し、特徴量が最も適合した特徴点座標のセットに対応する視線方向を選択する。そして、特定部160は、選択した視線方向とその視線方向に応じた指示子の位置とに基づいて、指示子により指し示されている実空間内の場所の被指示側の入力画像内での位置を特定する。
図8は、本実施形態に係る特定部160による特徴量の照合処理について説明するための説明図である。図8の中央には、第1の特徴量に含まれる特徴点座標のセットFS0及び指示子の位置P0が示されている。特定部160は、このような特徴点座標のセットFS0及び指示子の位置P0の各座標値をアフィン変換又は3D回転することにより、複数の視線方向にそれぞれ対応する複数の特徴点座標のセット及び複数の位置データを生成する。図8の例では、視線方向α1〜α8にそれぞれ対応する8個の特徴点座標のセットFS1〜FS8及び指示子の位置P1〜P8が示されている。そして、特定部160は、例えば、基本的な特徴点座標のセットFS0及び特徴点座標のセットFS1〜FS8の各々と第2の特徴量とを照合する。このとき、例えば、特徴点座標のセットFS4が第2の特徴量に最も小さな誤差で適合した場合には、特定部160は、被指示側の入力画像内の位置P4に対応する場所を指示子が指し示していると特定する。特定部160による特徴量の照合は、例えば、上述した“Distinctive Image Features from Scale-Invariant Keypoints”に記載されたSIFT(Scale Invariant Feature Transform)法に従って行われてもよい。また、特定部160による特徴量の照合は、例えば、Mustafa Oezuysalらによる“Fast Keypoint Recognition using Random Ferns”(IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.32, Nr.3, pp.448-461, March 2010)に記載されたRandom Ferns法に従って行われてもよい。
なお、指示側の入力画像についての特徴量から視線方向ごとの特徴点座標のセットを生成する処理は、指示側の画像処理装置100の特徴量生成部140により行われてもよい。その場合には、被指示側の通信部150が受信する第1の特徴量は、視線方向ごとの複数の特徴点座標のセットと対応する指示子の位置データとを含む。
特定部160は、指示子により指し示されている場所の被指示側の入力画像内での位置をこのように特定し、特定した当該位置の座標値を出力画像生成部170へ出力する。
(出力画像生成部)
出力画像生成部170は、特定部160により特定される位置を指し示す標識を表示する出力画像を生成する。例えば、本実施形態において、出力画像生成部170は、特定部160により特定される位置を囲む図形を上記標識として表示する出力画像を生成し、生成した出力画像を表示部180へ出力する。その代わりに、上記標識は、特定部160により特定される位置を指す矢印などであってもよい。また、特定部160により特定される位置の周囲の一定のサイズの領域と他の領域との間に色又は輝度の差を設けて、その差を上記標識としてもよい。
(表示部)
表示部180は、出力画像生成部170により生成される出力画像を、HMD104を用いてユーザに向けて表示する。
(出力画像の例)
図9は、出力画像生成部170により生成される出力画像の一例について説明するための説明図である。図9を参照すると、一例としての出力画像IM11が示されている。出力画像IM11において、指示子Maは人物T4の上に位置している一方、看板T3の上に標識INDが表示されている。標識INDが表示される位置は、図8を用いて説明した処理により特定部160が特定した位置である。このような出力画像IM11を参照することにより、被指示側のユーザ(例えば図1のユーザUb)は、指示側のユーザ(例えば図1のユーザUa)が指示子Maにより看板T3を指し示していることを容易に認識することができる。
なお、例えば、HMD104がシースルー型である場合には、出力画像生成部170は、標識INDのみの画像を出力画像として生成する。一方、HMD104が非シースルー型である場合には、出力画像生成部160は、入力画像に標識INDを重畳させた出力画像を生成する。
<3.一実施形態に係る画像処理の流れ>
次に、図10及び図11を用いて、本実施形態に係る画像処理装置100による画像処理の流れを説明する。図10は、画像処理装置100による指示側の画像処理の流れの一例を示すフローチャートである。図11は、画像処理装置100による被指示側の画像処理の流れの一例を示すフローチャートである。
[3−1.指示側]
図10は、指示側の画像処理装置100において一連の入力画像の各フレームについて行われる画像処理の流れの一例を示している。まず、入力画像取得部110は、撮像装置102から入力画像を取得する(ステップS102)。次に、画像認識部130は、例えば記憶部120により記憶されている指示子画像と入力画像とを照合することにより、入力画像内の指示子を認識する(ステップS104)。次に、画像認識部130は、例えば指示子を用いたジェスチャにより表されるユーザ入力を認識する。ここで、情報転送を要求するユーザ入力が検出された場合には、処理はステップS108へ進む。一方、ユーザ入力が検出されない場合には、その後の処理はスキップされる(ステップS106)。
ステップS106において画像認識部130が情報転送を要求するユーザ入力を検出すると、特徴量生成部140は、入力画像内に複数の特徴点を設定し、第1の特徴量を生成する(ステップS108)。そして、通信部150は、画像認識部130により認識された指示子の位置を表す位置データと特徴量生成部140により生成された第1の特徴量とを送信する(ステップS110)。
[3−2.被指示側]
図11に例示する画像処理は、典型的には、指示側の画像処理装置100からの上述した第1の特徴量及び位置データの受信をきっかけとして、被指示側の画像処理装置100において行われる。
まず、通信部150は、指示側の画像処理装置100から送信された第1の特徴量及び位置データを受信する(ステップS202)。次に、特徴量生成部140は、入力画像取得部110により取得される入力画像内に複数の特徴点を設定し、第2の特徴量を生成する(ステップS204)。次に、特定部160は、第1の特徴量から、複数の視線方向ごとに特徴点の座標値をそれぞれ変換した複数の特徴点座標のセットを生成する(ステップS206)。そして、特定部160は、第1の特徴量から生成した複数の特徴点座標のセットの各々と第2の特徴量とを照合する(ステップS208)。ここで、いずれの特徴点座標のセットも第2の特徴量と十分に適合しない(例えば誤差の総和が所定の閾値を下回らない)場合には、指示子により指し示されている場所を特定できないため、その後の処理はスキップされる。一方、いずれかの特徴点座標のセットが第2の特徴量と適合する場合には、処理はステップS212へ進む(ステップS210)。
次に、特定部160は、第2の特徴量に最もよく適合した特徴点座標のセットに対応する視線方向に応じて、指示子により指し示されている場所の被指示側の入力画像内の位置を特定する(ステップS212)。次に、出力画像生成部170は、特定部160により特定された位置を指し示す標識を表示する出力画像を生成するステップ(ステップS214)。そして、表示部180は、出力画像生成部170により生成された出力画像をHMD104に表示する(ステップS216)。
なお、図11に例示した画像処理のうちステップS204〜S216は、例えば、第1の特徴量及び位置データが受信された後、所定の期間にわたって各入力画像について繰返し実行され得る。その際、前のフレームから入力画像の内容が変化していない(即ち、被指示側のユーザの視線方向が変化していない)フレームについては、特徴量の照合処理が省略されてもよい。この場合、前のフレームにおいて特定された位置を指し示す標識が出力画像により表示される。
<4.まとめ>
ここまで、図1〜図11を用いて、本発明の一実施形態に係る画像処理システム1及び画像処理装置100について説明した。本実施形態によれば、指示側の第1の画像処理装置100が、入力画像に映る指示子を認識すると共に、第1の入力画像についての特徴点座標を含む第1の特徴量を生成し、生成した第1の特徴量と指示子の位置を表す位置データとを送信する。そして、被指示側の第2の画像処理装置100が、第2の入力画像についての特徴点座標を含む第2の特徴量を生成し、第1の画像処理装置100から受信される第1の特徴量と当該第2の特徴量とを照合する。かかる照合の結果に応じて、第2の画像処理装置100は、指示子により指し示されている実空間内の場所を第2の入力画像内で特定し、その場所を指し示す標識を出力画像内に表示する。それにより、第1の画像処理装置100のユーザが指し示した場所を、第2の画像処理装置100のユーザが正確かつ容易に認識することが可能となる。
また、本実施形態において、第1の特徴量と第2の特徴量との照合は、一方の特徴量に含まれる特徴点座標のセットを複数の視線方向ごとにそれぞれ回転させて生成した複数の特徴点座標のセットの各々と、他方の特徴量とをマッチングさせる形で行われる。そして、最もよく適合した特徴点座標のセットに応じて、複数の視線方向のうちのいずれか1つが選択される。ここで選択される視線方向は、ユーザ間の視線方向の相対的なズレに相当する。そのため、当該選択される視線方向に応じて指示子が指し示す場所を特定することにより、視線方向が異なるユーザが指し示した場所を正確に認識することができる。
なお、本明細書では、指示子が指し示す場所を囲む図形を標識として表示する例について説明した。しかしながら、例えば、さらにパターンマッチングに基づくオブジェクト認識技術を応用し、指示子が指し示すオブジェクトの形状を認識した上で、オブジェクトの形状に沿った枠などを出力画像において表示してもよい。また、認識したオブジェクトの名称及び属性などの追加的な情報を出力画像において表示してもよい。
本明細書において説明した画像処理装置100による一連の処理は、典型的には、ソフトウェアを用いて実現される。一連の処理を実現するソフトウェアを構成するプログラムは、例えば、画像処理装置100の内部又は外部に設けられる記憶媒体に予め格納される。そして、各プログラムは、例えば、実行時に画像処理装置100のRAM(Random Access Memory)に読み込まれ、CPU(Central Processing Unit)などのプロセッサにより実行される。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
100 画像処理装置
102 撮像装置
104 HMD
110 入力画像取得部
120 記憶部
130 画像認識部
140 特徴量生成部
150 通信部
160 特定部
170 出力画像生成部
180 表示部

Claims (14)

  1. 実空間を撮影した入力画像を取得する入力画像取得部、をそれぞれ備える2つの画像処理装置を含む画像処理システムであって、
    第1の画像処理装置は、
    前記第1の画像処理装置において取得される第1の入力画像に映る指示子であって、実空間内の場所を指し示すために用いられる前記指示子を認識する画像認識部と、
    前記第1の入力画像内に設定される複数の特徴点の座標を含む第1の特徴量を生成する第1の特徴量生成部と、
    前記第1の入力画像について生成される前記第1の特徴量、及び前記画像認識部により認識される前記指示子の位置を表す位置データを送信する第1の通信部と、
    をさらに備え、
    第2の画像処理装置は、
    前記第2の画像処理装置において取得される第2の入力画像内に設定される複数の特徴点の座標を含む第2の特徴量を生成する第2の特徴量生成部と、
    前記第1の特徴量及び前記位置データを受信する第2の通信部と、
    前記第1の特徴量と前記第2の特徴量とを照合し、当該照合の結果及び前記位置データに基づいて、前記指示子により指し示されている実空間内の場所の前記第2の入力画像内での位置を特定する特定部と、
    前記特定部により特定される位置を指し示す標識を表示する出力画像を生成する出力画像生成部と、
    をさらに備える、
    画像処理システム。
  2. 前記第1の画像処理装置は、ユーザの指を前記指示子として認識するための指画像を記憶している記憶部、をさらに備え、
    前記画像認識部は、前記第1の入力画像に映る前記指画像を検出することにより、前記指示子を認識する、
    請求項1に記載の画像処理システム。
  3. 前記第1の特徴量は、複数の視線方向ごとに前記第1の入力画像を回転させた場合に前記第1の入力画像内にそれぞれ設定される特徴点の座標のセットを複数含み、
    前記特定部は、前記第1の特徴量に含まれる特徴点の座標のセットの各々と前記第2の特徴量とを照合することにより、前記複数の視線方向のうちのいずれか1つを選択する、
    請求項2に記載の画像処理システム。
  4. 前記特定部は、複数の視線方向ごとに前記第1の入力画像を回転させた場合に前記第1の入力画像内にそれぞれ設定される特徴点の座標のセットを前記第1の特徴量から複数生成し、生成した特徴点の座標のセットの各々と前記第2の特徴量とを照合することにより、前記複数の視線方向のうちのいずれか1つを選択する、請求項2に記載の画像処理システム。
  5. 前記特定部は、選択した視線方向と前記位置データとに基づいて、前記指示子により指し示されている実空間内の場所の前記第2の入力画像内での位置を特定する、請求項3又は請求項4に記載の画像処理システム。
  6. 前記出力画像生成部は、前記特定部により特定される位置を囲む図形を前記標識として表示する前記出力画像を生成する、請求項1に記載の画像処理システム。
  7. 他の画像処理装置において取得される画像内に設定される複数の特徴点の座標を含む第1の特徴量、及び、実空間内の場所を指し示すために用いられる指示子の前記画像内での位置を表す位置データ、を受信する通信部と、
    実空間を撮影した入力画像を取得する入力画像取得部と、
    前記入力画像取得部により取得される前記入力画像内に設定される複数の特徴点の座標を含む第2の特徴量を生成する特徴量生成部と、
    前記第1の特徴量と前記第2の特徴量とを照合し、当該照合の結果及び前記位置データに基づいて、前記指示子により指し示されている実空間内の場所の前記入力画像内での位置を特定する特定部と、
    前記特定部により特定される位置を指し示す標識を表示する出力画像を生成する出力画像生成部と、
    を備える画像処理装置。
  8. 前記第1の特徴量は、複数の視線方向ごとに前記画像を回転させた場合に当該画像内にそれぞれ設定される特徴点の座標のセットを複数含み、
    前記特定部は、前記第1の特徴量に含まれる特徴点の座標のセットの各々と前記第2の特徴量とを照合することにより、前記複数の視線方向のうちのいずれか1つを選択する、
    請求項7に記載の画像処理装置。
  9. 前記特定部は、複数の視線方向ごとに前記画像を回転させた場合に当該画像内にそれぞれ設定される特徴点の座標のセットを前記第1の特徴量から複数生成し、生成した特徴点の座標のセットの各々と前記第2の特徴量とを照合することにより、前記複数の視線方向のうちのいずれか1つを選択する、請求項7に記載の画像処理装置。
  10. 前記特定部は、選択した視線方向と前記位置データとに基づいて、前記指示子により指し示されている実空間内の場所の前記入力画像内での位置を特定する、請求項8又は請求項9に記載の画像処理装置。
  11. 前記出力画像生成部は、前記特定部により特定される位置を囲む図形を前記標識として表示する前記出力画像を生成する、請求項7に記載の画像処理装置。
  12. 実空間を撮影した入力画像をそれぞれ取得する2つの画像処理装置により実行される画像処理方法であって、
    第1の画像処理装置において、
    第1の入力画像を取得するステップと、
    取得した前記第1の入力画像に映る指示子であって、実空間内の場所を指し示すために用いられる前記指示子を認識するステップと、
    前記第1の入力画像内に設定される複数の特徴点の座標を含む第1の特徴量を生成するステップと、
    前記第1の入力画像について生成した前記第1の特徴量、及び認識した前記指示子の位置を表す位置データを送信するステップと、
    第2の画像処理装置において、
    前記第1の特徴量及び前記位置データを受信するステップと、
    第2の入力画像を取得するステップと、
    取得した前記第2の入力画像内に設定される複数の特徴点の座標を含む第2の特徴量を生成するステップと、
    前記第1の特徴量と前記第2の特徴量とを照合するステップと、
    当該照合の結果及び前記位置データに基づいて、前記指示子により指し示されている実空間内の場所の前記第2の入力画像内での位置を特定するステップと、
    特定した位置を指し示す標識を表示する出力画像を生成するステップと、
    を含む、画像処理方法。
  13. 画像処理装置により実行される画像処理方法であって、
    他の画像処理装置において取得される画像内に設定される複数の特徴点の座標を含む第1の特徴量、及び、実空間内の場所を指し示すために用いられる指示子の前記画像内での位置を表す位置データ、を受信するステップと、
    実空間を撮影した入力画像を取得するステップと、
    取得した前記入力画像内に設定される複数の特徴点の座標を含む第2の特徴量を生成するステップと、
    前記第1の特徴量と前記第2の特徴量とを照合するステップと、
    当該照合の結果及び前記位置データに基づいて、前記指示子により指し示されている実空間内の場所の前記入力画像内での位置を特定するステップと、
    特定した位置を指し示す標識を表示する出力画像を生成するステップと、
    を含む、画像処理方法。
  14. 画像処理装置を制御するコンピュータを、
    他の画像処理装置において取得される画像内に設定される複数の特徴点の座標を含む第1の特徴量、及び、実空間内の場所を指し示すために用いられる指示子の前記画像内での位置を表す位置データ、を受信する通信部と、
    実空間を撮影した入力画像を取得する入力画像取得部と、
    前記入力画像取得部により取得される前記入力画像内に設定される複数の特徴点の座標を含む第2の特徴量を生成する特徴量生成部と、
    前記第1の特徴量と前記第2の特徴量とを照合し、当該照合の結果及び前記位置データに基づいて、前記指示子により指し示されている実空間内の場所の前記入力画像内での位置を特定する特定部と、
    前記特定部により特定される位置を指し示す標識を表示する出力画像を生成する出力画像生成部と、
    として機能させるための、プログラム。
JP2010095877A 2010-04-19 2010-04-19 画像処理システム、画像処理装置、画像処理方法及びプログラム Expired - Fee Related JP5521727B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010095877A JP5521727B2 (ja) 2010-04-19 2010-04-19 画像処理システム、画像処理装置、画像処理方法及びプログラム
EP11156761A EP2378393A2 (en) 2010-04-19 2011-03-03 Image processing system, image processing apparatus, image processing method, and program
US13/084,339 US9195302B2 (en) 2010-04-19 2011-04-11 Image processing system, image processing apparatus, image processing method, and program
CN2011100931527A CN102221878A (zh) 2010-04-19 2011-04-12 图像处理系统、图像处理装置、图像处理方法及程序
US14/930,089 US9524427B2 (en) 2010-04-19 2015-11-02 Image processing system, image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010095877A JP5521727B2 (ja) 2010-04-19 2010-04-19 画像処理システム、画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2011227649A true JP2011227649A (ja) 2011-11-10
JP5521727B2 JP5521727B2 (ja) 2014-06-18

Family

ID=43945969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010095877A Expired - Fee Related JP5521727B2 (ja) 2010-04-19 2010-04-19 画像処理システム、画像処理装置、画像処理方法及びプログラム

Country Status (4)

Country Link
US (2) US9195302B2 (ja)
EP (1) EP2378393A2 (ja)
JP (1) JP5521727B2 (ja)
CN (1) CN102221878A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014054211A1 (en) 2012-10-01 2014-04-10 Sony Corporation Information processing device, display control method, and program for modifying scrolling of automatically scrolled content
KR20150005751A (ko) * 2013-07-04 2015-01-15 삼성전자주식회사 영상 인식 방법 및 이를 이용하는 장치
JPWO2014045683A1 (ja) * 2012-09-21 2016-08-18 ソニー株式会社 制御装置および記憶媒体
JP2016177819A (ja) * 2016-04-26 2016-10-06 京セラ株式会社 表示装置、制御方法および制御プログラム
JP2016181264A (ja) * 2016-04-26 2016-10-13 京セラ株式会社 表示装置、制御方法および制御プログラム
JP2016224890A (ja) * 2015-06-04 2016-12-28 富士通株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017016056A (ja) * 2015-07-06 2017-01-19 セイコーエプソン株式会社 表示システム、表示装置、表示装置の制御方法、及び、プログラム
US9651785B2 (en) 2015-01-26 2017-05-16 Seiko Epson Corporation Display system, portable display device, display control device, and display method
JP2017091433A (ja) * 2015-11-17 2017-05-25 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP6144849B1 (ja) * 2014-03-19 2017-06-07 クアルコム,インコーポレイテッド 電子デバイス間の接続を確立するための方法および装置
US10120633B2 (en) 2015-01-26 2018-11-06 Seiko Epson Corporation Display system, portable display device, display control device, and display method

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5826749B2 (ja) * 2009-09-04 2015-12-02 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. コンテンツベースの画像検索に関する関連度の視覚化
US8760395B2 (en) * 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US9043766B2 (en) * 2011-12-16 2015-05-26 Facebook, Inc. Language translation using preprocessor macros
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
US9129429B2 (en) 2012-10-24 2015-09-08 Exelis, Inc. Augmented reality on wireless mobile devices
WO2014101219A1 (zh) * 2012-12-31 2014-07-03 青岛海信信芯科技有限公司 一种动作识别方法及电视机
US9986225B2 (en) * 2014-02-14 2018-05-29 Autodesk, Inc. Techniques for cut-away stereo content in a stereoscopic display
US9569692B2 (en) * 2014-10-31 2017-02-14 The Nielsen Company (Us), Llc Context-based image recognition for consumer market research
US10282908B2 (en) * 2016-12-16 2019-05-07 Lenovo (Singapore) Pte. Ltd. Systems and methods for presenting indication(s) of whether virtual object presented at first device is also presented at second device
EP3873285A1 (en) * 2018-10-29 2021-09-08 Robotarmy Corp. Racing helmet with visual and audible information exchange
US11462016B2 (en) * 2020-10-14 2022-10-04 Meta Platforms Technologies, Llc Optimal assistance for object-rearrangement tasks in augmented reality

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007042073A (ja) * 2005-07-01 2007-02-15 Canon Inc 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0829799A3 (en) * 1992-05-26 1998-08-26 Takenaka Corporation Wall computer module
US6215498B1 (en) * 1998-09-10 2001-04-10 Lionhearth Technologies, Inc. Virtual command post
JP4136859B2 (ja) * 2003-01-10 2008-08-20 キヤノン株式会社 位置姿勢計測方法
JP3752246B2 (ja) 2003-08-11 2006-03-08 学校法人慶應義塾 ハンドパターンスイッチ装置
JP2005174021A (ja) * 2003-12-11 2005-06-30 Canon Inc 情報提示方法及び装置
JP2005339266A (ja) * 2004-05-27 2005-12-08 Canon Inc 情報処理方法、情報処理装置、撮像装置
JP5140543B2 (ja) 2008-10-15 2013-02-06 大成建設株式会社 遮断壁構築方法及びそれを用いた地盤浄化方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007042073A (ja) * 2005-07-01 2007-02-15 Canon Inc 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200700483009; 寺中浩司 外3名: '指差し天体インタラクションシステムの構築と評価' 第49回 先進的学習科学と工学研究会資料 (SIG-ALST-A603) , 20070318, 第59〜64頁, 社団法人人工知能学会 *
JPN6013052810; 寺中浩司 外3名: '指差し天体インタラクションシステムの構築と評価' 第49回 先進的学習科学と工学研究会資料 (SIG-ALST-A603) , 20070318, 第59〜64頁, 社団法人人工知能学会 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2014045683A1 (ja) * 2012-09-21 2016-08-18 ソニー株式会社 制御装置および記憶媒体
US10318028B2 (en) 2012-09-21 2019-06-11 Sony Corporation Control device and storage medium
WO2014054211A1 (en) 2012-10-01 2014-04-10 Sony Corporation Information processing device, display control method, and program for modifying scrolling of automatically scrolled content
KR20150005751A (ko) * 2013-07-04 2015-01-15 삼성전자주식회사 영상 인식 방법 및 이를 이용하는 장치
KR102138277B1 (ko) * 2013-07-04 2020-07-28 삼성전자 주식회사 영상 인식 방법 및 이를 이용하는 장치
JP6144849B1 (ja) * 2014-03-19 2017-06-07 クアルコム,インコーポレイテッド 電子デバイス間の接続を確立するための方法および装置
JP2017517780A (ja) * 2014-03-19 2017-06-29 クアルコム,インコーポレイテッド 電子デバイス間の接続を確立するための方法および装置
US9651785B2 (en) 2015-01-26 2017-05-16 Seiko Epson Corporation Display system, portable display device, display control device, and display method
US10120633B2 (en) 2015-01-26 2018-11-06 Seiko Epson Corporation Display system, portable display device, display control device, and display method
US10223058B2 (en) 2015-01-26 2019-03-05 Seiko Epson Corporation Display system, display control device, and display method
JP2016224890A (ja) * 2015-06-04 2016-12-28 富士通株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017016056A (ja) * 2015-07-06 2017-01-19 セイコーエプソン株式会社 表示システム、表示装置、表示装置の制御方法、及び、プログラム
US10564919B2 (en) 2015-07-06 2020-02-18 Seiko Epson Corporation Display system, display apparatus, method for controlling display apparatus, and program
JP2017091433A (ja) * 2015-11-17 2017-05-25 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP2016181264A (ja) * 2016-04-26 2016-10-13 京セラ株式会社 表示装置、制御方法および制御プログラム
JP2016177819A (ja) * 2016-04-26 2016-10-06 京セラ株式会社 表示装置、制御方法および制御プログラム

Also Published As

Publication number Publication date
US9524427B2 (en) 2016-12-20
US9195302B2 (en) 2015-11-24
CN102221878A (zh) 2011-10-19
JP5521727B2 (ja) 2014-06-18
US20110254859A1 (en) 2011-10-20
EP2378393A2 (en) 2011-10-19
US20160055373A1 (en) 2016-02-25

Similar Documents

Publication Publication Date Title
JP5521727B2 (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
EP2508975B1 (en) Display control device, display control method, and program
US8751969B2 (en) Information processor, processing method and program for displaying a virtual image
JP6730642B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP5418386B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20140009494A1 (en) Display control device, display control method, and program
US20190333478A1 (en) Adaptive fiducials for image match recognition and tracking
US20150369593A1 (en) Orthographic image capture system
KR20190032084A (ko) 혼합현실 콘텐츠를 제공하는 장치 및 방법
KR101533320B1 (ko) 포인터가 불필요한 3차원 객체 정보 획득 장치
RU2598598C2 (ru) Устройство обработки информации, система обработки информации и способ обработки информации
JP2015001875A (ja) 画像処理装置、画像処理方法、プログラム、印刷媒体及び印刷媒体のセット
JP6344530B2 (ja) 入力装置、入力方法、及びプログラム
JP2013080326A (ja) 画像処理装置、画像処理方法及びプログラム
CN113052949B (zh) 多种扩展现实模式的集成渲染方法及适用其的装置
JP5668587B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7419003B2 (ja) 情報表示装置、情報表示方法及び情報表示システム
CN112230765A (zh) Ar显示方法、ar显示设备和计算机可读存储介质
CN113867875A (zh) 标记对象的编辑及显示方法、装置、设备、存储介质
KR20110087407A (ko) 카메라 시뮬레이션 시스템 및 이를 이용한 위치 감지 방법
KR101039298B1 (ko) 다수의 특징점 기반 마커를 인식하기 위한 순차 검색 방법 및 이를 이용한 증강현실 구현 방법
CN111913560B (zh) 虚拟内容的显示方法、装置、系统、终端设备及存储介质
JP2011071746A (ja) 映像出力装置及び映像出力方法
JP2009259254A (ja) コンテンツ表現制御装置、コンテンツ表現制御システム、コンテンツ表現制御用基準物体およびコンテンツ表現制御プログラム
CN111047710A (zh) 虚拟现实系统及交互设备显示方法和计算机可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140324

LAPS Cancellation because of no payment of annual fees