JP6501501B2 - 情報処理装置、情報処理方法、情報処理システム及びプログラム - Google Patents

情報処理装置、情報処理方法、情報処理システム及びプログラム Download PDF

Info

Publication number
JP6501501B2
JP6501501B2 JP2014229910A JP2014229910A JP6501501B2 JP 6501501 B2 JP6501501 B2 JP 6501501B2 JP 2014229910 A JP2014229910 A JP 2014229910A JP 2014229910 A JP2014229910 A JP 2014229910A JP 6501501 B2 JP6501501 B2 JP 6501501B2
Authority
JP
Japan
Prior art keywords
virtual object
map
image
information processing
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014229910A
Other languages
English (en)
Other versions
JP2016095579A (ja
Inventor
智也 本條
智也 本條
優和 真継
優和 真継
小森 康弘
康弘 小森
伊藤 嘉則
嘉則 伊藤
英生 野呂
英生 野呂
英 大野
英 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014229910A priority Critical patent/JP6501501B2/ja
Priority to US14/936,534 priority patent/US10043313B2/en
Publication of JP2016095579A publication Critical patent/JP2016095579A/ja
Application granted granted Critical
Publication of JP6501501B2 publication Critical patent/JP6501501B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/38Outdoor scenes
    • G06V20/39Urban scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、現実の空間の画像に対して仮想オブジェクトを表示させる技術に関する。
カメラ付きスマートフォンや透過型ディスプレイを搭載したウェアラブル端末等が登場し、現実の空間を捉えた画像中にコンピュータグラフィックスによって何らかの情報を仮想オブジェクトとして重畳して表示する技術の開発が盛んに行われている。このような技術は、AR(Augmented Reality:拡張現実)と呼ばれている。
特許文献1には、現実空間を捉えた画像から仮想オブジェクトの重畳を禁止するオブジェクト(重畳禁止実オブジェクト)を検出し、この重畳禁止実オブジェクトが隠れないように仮想オブジェクトの表示位置を制御する技術が開示されている。
特開2011−242934号公報
P.Krahenbuhl,"Efficient Inference in Fully Connected CRFs with Gaussian Edge Potentials",Neural Information Processing Systems 2011.
しかしながら、特許文献1の方法では、重畳禁止実オブジェクトに基づいて仮想オブジェクトの表示位置を制御しているため、仮想オブジェクトの表示を適切に行えない場合があった。例えば、表示すべき仮想オブジェクトが重畳禁止実オブジェクトに囲まれていた場合、仮想オブジェクトが本来の表示されるはずの位置から離れたところに表示されてしまうという問題があった。
上記課題を解決するために、本発明によれば、情報処理装置に、取得した現実空間の画像における実オブジェクトを認識する認識手段と、前記認識した実オブジェクトそれぞれに対する仮想オブジェクトの重畳を許容する程度を示した情報に基づいて、前記現実空間の画像の各座標に対して前記情報を数値として表現した第1のマップを作成する第1のマップ作成手段と、仮想オブジェクトを対応づけて表示する実オブジェクトからの距離基づいて、前記現実空間の画像の各座標に対して前記距離を数値として表現した第2のマップを作成する第2のマップ作成手段と、前記第1及び第2のマップに基づいて、前記現実空間の画像に対する前記仮想オブジェクトの表示条件を決定する決定手段と、前記表示条件に基づいて、前記現実空間の画像に前記仮想オブジェクトを重畳して表示画像を作成する画像作成手段とを有することを特徴とする。
以上の構成によれば、本発明は、仮想オブジェクトをより適切に表示することが可能となる。
第1の実施形態に関わる情報処理システムの構成を示すブロック図。 第1の実施形態に関わる情報処理方法を示すフローチャート。 第1の実施形態に関わる情報処理方法による一連の処理を説明する図。 第1の実施形態に関わる実オブジェクトの重要度情報を示す図。 第1、第3の実施形態に関わる仮想オブジェクトに関する情報の一覧を示す図。 第1の実施形態に関わるスコア総和リストを示す図。 第2の実施形態に関わる情報処理システムの構成を示すブロック図。 第2の実施形態に関わる情報処理方法を示すフローチャート。 第2の実施形態に関わる情報処理方法による一連の処理を説明する図。 第3の実施形態に関わる情報処理装置のソフト構成を示すブロック図。 第3の実施形態に関わる情報処理方法を示すフローチャート。 第3の実施形態に関わる情報処理方法による一連の処理を説明する図。
[第1の実施形態]
本実施形態において、仮想オブジェクトとは、現実空間のオブジェクト(実オブジェクト)に対応するように現実空間の画像に重畳表示される文章、画像、映像等の種々の情報形態を指す。本実施形態では、仮想オブジェクトとして、実オブジェクトの名前を吹き出しの形式で表示する構成について説明する。
以下、図面を参照して本発明の第1の実施形態を詳細に説明する。
図1は、本実施形態の情報処理システムの構成を示すブロック図である。図1(a)は、オブジェクト表示システムのハードウェア構成を図示している。同図において、入力装置101はユーザーからの様々な入力を受け付けるための装置であり、具体的にはマウス、キーボード、タッチインターフェース等で構成される。入力装置101は、例えば、仮想オブジェクトを表示するモードに変更する際のコマンド入力や、仮想オブジェクトの表示を終了する際のコマンド入力を受付ける。
撮影装置102は、現実空間の画像を2次元的な画像として撮影するカメラであり、撮影した画像を後述の情報処理装置に出力する。表示装置103はディスプレイであり、撮影装置102によって撮影された画像やユーザーに提供する情報(仮想オブジェクト)等を表示する。
情報処理装置104は、情報処理装置104全体を制御し、また前述の各装置をコントロールし、各装置間で必要なデータの転送の制御を司るプロセッサ、本実施形態に係る各機能部(後述)を機能させるためのプログラム等を格納するためのメモリ等で構成される。図1(b)に、情報処理装置104のハードウェア構成を示すブロック図を示す。CPU401が、ROM403やHD404等に格納されたプログラムを実行することにより、後述する情報処理装置104の機能構成及び情報処理装置104に係るフローチャートの処理が実現される。RAM402は、CPU401がプログラムを展開して実行するワークエリアとして機能する記憶領域である。ROM403は、CPU401が実行するプログラム等を格納する記憶領域である。HD404は、CPU401が処理を実行する際に要する各種のプログラムや撮影装置102により撮影された画像を格納する記憶領域である。ネットワークI/F405は、情報処理装置104と外部の機器とを接続する。
なお、前述した各装置間は、電子回路を介して接続されていても、ネットワークを介して接続されていてもよい。このネットワークには、例えば、携帯電話回線網やインターネットが適用できる。なお、上記説明では、各装置が別体として構成された情報処理システムの構成を示したが、各装置が一体に構成されていても構わない。すなわち、情報処理装置自体に、撮影装置、表示装置等のハードウェア機構を備えるようにすることも可能である。
図1(c)は、情報処理装置104のソフトウェア構成を説明する機能ブロック図である。データベース106はHD404上にあり、表示装置103に表示される画像において仮想オブジェクトの表示位置を決定するのに必要な種々の情報を格納している。具体的には、本実施形態では、後述するように、仮想オブジェクトの表示対象実オブジェクトのクラス情報、実オブジェクトの重要度情報、仮想オブジェクトに関する情報一覧を保持している。仮想オブジェクトの情報としては、仮想実オブジェクトの形状、仮想オブジェクトの外接矩形サイズ、対応する実オブジェクト、仮想オブジェクトの内容(表示する情報)から構成されている。
認識部107は、撮影装置102により撮影された画像から現実空間におけるオブジェクト(実オブジェクト)の位置と領域を認識し、実オブジェクトの種類、位置および形状を出力する。抽出部108は、認識部107によって出力された実オブジェクトに関する情報に基づいて、仮想オブジェクトを対応付けて表示する実オブジェクトを抽出し、表示対象実オブジェクトリストを出力する。
決定部109は、撮影された画像上のどの位置に仮想オブジェクトを表示するかを決定し、仮想オブジェクト表示位置情報を出力する。決定部109は、後述するように、実オブジェクトそれぞれの重要度(重要度マップ)と、実オブジェクトからの距離に対応したスコア(位置マップ)とに基づいて、表示位置を決定する。表示部110は、仮想オブジェクト表示位置情報に基づいて撮影画像に仮想オブジェクトを重畳し、仮想オブジェクト重畳画像を出力する。
図2は、本実施形態において、情報処理装置により実行されるオブジェクト表示に係る情報処理方法のフローチャートである。まず、ステップS201において、認識部107は、撮影装置102から入力される画像を取得し、この画像に対して意味的領域分割を行い、画像中の各領域にクラス情報を割り当てることにより、画像中のオブジェクトを認識する。
意味的領域分割とは、撮影された画像を複数の領域に分割して、分割した領域毎に、被写体(オブジェクト)の分類に関するクラスを識別する手法のことである。本実施形態では、意味的領域分割の手法として非特許文献1に記載の方法を用いる。この方法の詳細な説明は省略するが、簡単に説明すると、各領域から抽出される特徴量に基づいて、各領域のクラスを識別する。非特許文献1の方法では、CRF(Conditional−Random−Field:条件付き確率場)を用いて、画素毎に領域分割及びクラス識別を同時に行う。この非特許文献1の方法は、各画素から抽出される特徴量に基づくだけでなく、隣接する画素間のクラス共起も考慮した上で各画素のクラスを識別するようにしている。
ここで、図3は、本実施形態の情報処理表示方法による一連の処理を説明するための図である。本実施形態では、撮影装置102から入力される入力画像は、図3(a)に示すように、「空」を背景として、ビルが3つ並んでおり、それぞれ左から「ビルA」、「ビルB」、「ビルC」である。
図3(b)は本実施形態における意味的領域分割結果の例を示しており、ステップS201において認識部107が入力画像に対して意味的領域分割を行うことで、図3(b)のような結果が得られる。この例では、まず空領域とビルの領域に分けられ、さらにビルはそれぞれの特徴から「ビルA」、「ビルB」、「ビルC」と認識される。その結果、各領域に、「空」「ビルA」「ビルB」「ビルC」というクラス情報が割り当てられる。
図2に戻り、ステップS202において、認識部107は重要度マップを作成する。具体的には、認識部107は、データベース106に記録されている実オブジェクトの重要度情報を参照して、ステップS201で分割された各領域に対して重要度を割り当て、入力画像と同サイズの重要度マップを作成する。
図4は、データベース106にテーブルとして記録されている実オブジェクトの重要度情報を示す。本実施形態では、実オブジェクトの重要度として、「空」に0.1、「ビルA」に0.8、「ビルB」に0.7、「ビルC」に0.7の各値が設定されている。この重要度は、そのオブジェクトに対する仮想オブジェクトの重畳を許容する程度を示す指標であり、各オブジェクトに対して0〜1の値で表現される。この重要度は、その数値が高くなるほど、実オブジェクトに仮想オブジェクトを重畳して表示するのにコストがかかる(重畳して表示するには不適である)ことを表している。
認識部107は、図4に示される重要度情報に基づいて、重要度マップ中の各領域内の各画素(x,y)の値vに実オブジェクトの重要度を割り当てる。図3(c)は、このようにして重要度が各画素に割り当てられた重要度マップを示している。図3(c)では、濃い色の領域ほど重要度が高いことを示している。
次に、ステップS203において、抽出部108は、ステップS201において分割された各領域の中から、仮想オブジェクトを対応付けて表示する実オブジェクトを抽出する。前述したように、データベース106には、仮想オブジェクトの表示対象となる実オブジェクトのクラス情報が保持されており、本実施形態では、仮想オブジェクトを表示する表示対象実オブジェクトとして「ビルA」および「ビルB」が設定されている。そのため、抽出部108は、「ビルA」および「ビルB」に該当する実オブジェクトを抽出する。この抽出処理は、入力画像で分割された各領域のクラス情報と、データベース106に保持されている仮想オブジェクトの表示対象実オブジェクトの名前とを比較することにより行われる。仮想オブジェクトを表示する実オブジェクトの抽出が完了したら、抽出部108は、仮想オブジェクトを表示する実オブジェクト名を表示対象実オブジェクトリストに追加し、これを出力する。表示対象実オブジェクトリストは、データベース106内に保存される。
次に、ステップS204において、決定部109は、仮想オブジェクトを対応付けて表示する実オブジェクトごとに、入力画像と同等サイズの位置マップを作成する。位置マップは、仮想オブジェクトを表示する実オブジェクトからの距離に対応するスコアを2次元的に表わしたものであり、各位置に仮想オブジェクトをどの程度配置してよいかを示す。この位置マップでは、各座標に対して0〜1の値が設定され、その数値が高くなるほど仮想オブジェクトを配置するのにコストがかかる(配置するには不適である)ことを表す。
以下、「ビルA」に対応する位置マップについて説明すると、まず決定部109は、「ビルA」の重心(x,y)を、以下の数1式より求める。
ここで、x、yはそれぞれ、「ビルA」を構成する画像中の画素のx座標、y座標である。次に、決定部109は、位置マップ上の各点(x,y)の値pを、以下の数2式より求める。
ここで、αは定数であり、例えばα=256とすれば、重心から256画素離れたところまでは値が0から1へ直線的に増加し、256画素よりも離れたところでは値が1となる。図3(d)は、「ビルA」に対応する位置マップを示す。同図では、濃い色の領域ほど値が高いことを示しており、「ビルA」の重心から離れるにつれて色が濃くなり、値が高くなっていることが表わされている。
次に、ステップS205において、決定部109は、ステップS202で作成された重要度マップと、ステップS204で作成された位置マップとを合成して、仮想オブジェクトを表示する実オブジェクトごとに表示優先度スコアマップを作成する。表示優先度スコアマップは、位置マップと同じく各位置に仮想オブジェクトをどの程度配置してよいかを示す。表示優先度スコアマップにおいても、各座標に対して0〜1の値が設定され、その数値が高くなるほど仮想オブジェクトを配置するのにコストがかかる(配置するには不適である)ことを表す。重要度マップと位置マップとの合成により求められる表示優先度スコアマップの各画素(x,y)のスコアsは、以下の数3式より求められる。
=min(v+p,1)
図3(e)は、「ビルA」に対応する表示優先度スコアマップであり、濃い色の領域ほど値が高いことを示している。なお、ここでは、表示優先度スコアマップの各座標のスコアを重要度マップの数値と位置マップの数値の加算で求めるようにしているが、重み付けする等の種々の演算を適用できる。
続いて、ステップS206において、決定部109は、表示優先度スコアマップ上の各点において、仮想オブジェクト内に存在する画素のスコアの総和を計算する。具体的には、決定部109は、まずデータベース106から仮想オブジェクトの外接矩形サイズを取得する。図5は、データベース106に保存されている仮想オブジェクトに関する情報の一覧を示す図であり、仮想オブジェクト番号ごとに、仮想実オブジェクトの形状、外接矩形サイズ、対応する実オブジェクト、表示させる内容が対応付けられている。図5(a)には、「ビルA」および「ビルB」に対応する仮想オブジェクトに関する情報を図示している。決定部109は、データベース106を参照して、例えば、「ビルA」に対応する仮想オブジェクトの外接矩形サイズとして、50×30画素という情報を取得する。
次に、決定部109は、表示優先度スコアマップ上の全ての50×30画素の領域に対し、領域内に存在する画素のスコアの総和を計算する。このとき、決定部109は、図3(f)に示すように外接矩形の左上の座標をキーとしてスコアの総和を計算し、結果をスコア総和リストに保存する。図6は、スコア総和リストに保存された、各座標における外接矩形領域内のスコアの総和の一例を示す。図6(a)は「ビルA」のスコア総和リストであり、同図(b)が「ビルB」のスコア総和リストである。決定部109は、表示優先度スコアマップ上の全ての画素においてスコアの総和を計算すると、その仮想オブジェクトについて計算完了のフラグを立てる。
ステップS207において、決定部109は、データベース106に保存されている表示対象実オブジェクトリスト中にある全ての実オブジェクトについて、スコア総和リストが生成されているかをフラグに基づき判定する。表示対象実オブジェクトリストの全ての実オブジェクトについてスコア総和リストが生成されていると判定されれば、処理はステップS208へ移行する。全ての実オブジェクトについてスコア総和リストが生成されていなければ、処理はステップS205に戻り、全てのスコア総和リストが作成されるまで処理を続ける。
続いて、ステップS208において、決定部109は、ステップS206で作成されたスコア総和リストに基づいて、表示すべき仮想オブジェクトの表示位置を決定する。
まず、決定部109は、「ビルA」のスコア総和リストから座標を1つ選択し、「ビルA」に対応する仮想オブジェクトの位置を仮決定する。ここでは、例えば座標(0,0)を選択したものとする。次に、決定部109は、「ビルB」のスコア総和リストから座標を1つ選択する。このとき、「ビルA」の仮想オブジェクトの表示位置は座標(0,0)に仮決定されているので、「ビルA」の仮想オブジェクトの表示領域に含まれる座標は無効とし、「ビルB」のスコア総和リストからは、これ以外の座標から1つを選択する。「ビルA」に対応する仮想オブジェクトの表示位置が座標(0,0)に仮決定されている場合、仮想オブジェクトの外接矩形サイズは50×30画素であるので、「ビルB」のスコア総和リストにおける座標(0,0)〜(49,29)は無効となる。ここでは、例えば、「ビルB」のスコア総和リストから座標(50,0)を選択したとする。そして、決定部109は、選択された各座標におけるスコアの総和を合算する。図6(a)に示されるように、「ビルA」のスコア総和リストにおいて座標(0,0)のスコアの総和は104.5である。また、図6(b)に示されるように、「ビルB」のスコア総和リストにおいて座標(50,0)のスコアの総和は863.9であるので、これらを合算すると968.4となる。
同様にして、「ビルA」のスコア総和リストに含まれる座標と「ビルB」のスコア総和リストに含まれる座標との組合せのうち、取り得る全ての組合せについて合算値を算出し、この合算値が最小の値となる座標の組合せを仮想オブジェクトの表示位置として決定する。本実施形態では、「ビルA」の仮想オブジェクトの表示位置は座標(81,59)、「ビルB」の仮想オブジェクトの表示位置は座標(161,51)と決定される。決定された仮想オブジェクトの表示位置の情報は、データベース106に保存される。
ステップS209において、表示部110は、ステップS208で決定された仮想オブジェクト表示位置情報に基づいて、撮影装置102により撮影された画像に仮想オブジェクトを重畳し、仮想オブジェクト重畳画像出力する。ここでは、実オブジェクト「ビルA」に対応する仮想オブジェクトを、仮想オブジェクト表示位置情報に記載された(81,59)を左上座標として画像に重畳する。さらに、実オブジェクト「ビルB」の仮想オブジェクトを、仮想オブジェクト表示位置情報に記載された位置(161,51)を左上座標として画像に重畳する。
図3(g)は、本実施形態において、実オブジェクト「ビルA」、「ビルB」に対応する各仮想オブジェクトが画像に重畳して表示される様子を示す。このようにして作成された重畳画像は表示装置103へと出力され、表示装置103はその重畳画像をユーザーに対して提示する。
一方、図3(h)は、従来の特許文献1に記載の方法により仮想オブジェクトを画像に重畳して表示する様子を示す。特許文献1の方法では仮想オブジェクトは重畳を禁止される実オブジェクトを避けるように表示される。そのため、図3(h)のように、「ビルA」に対応する仮想オブジェクトは、本来の位置から離れたところに表示されてしまう。
本実施形態では、オブジェクトそれぞれに対する仮想オブジェクトの重畳の許容を表わす情報としての重要度として0〜1の値を設定した上で、オブジェクトからの距離に対応したスコア(位置マップ)とに基づいて、仮想オブジェクトを表示する位置を決定する。これによって、本実施形態では、実オブジェクトに対応付けて表示する仮想オブジェクトをより適切な位置に表示できるようになる。
ステップS210において、情報処理装置104のプロセッサは入力装置101から仮想オブジェクト表示終了コマンドが入力されているかを判定する。仮想オブジェクト表示終了コマンドが入力されていなければ、処理をステップS201へ移し、処理を続行する。仮想オブジェクト表示終了コマンドが入力されていれば、処理を終了する。
本実施形態では、オブジェクトそれぞれに対する仮想オブジェクトの重畳の許容を表わす情報としての重要度(重要度マップ)と、オブジェクトからの距離に対応したスコア(位置マップ)とに基づいて、仮想オブジェクトを表示する位置を決定する。より具体的には、重要度マップと位置マップとを合成し、表示優先度スコアマップを作成した上で、この表示優先度マップに基づいて、仮想オブジェクトを表示する位置を決定する。以上の構成によって、本実施形態では、仮想オブジェクトをより適切に表示することが可能となる。
なお、本実施形態では、表示優先度スコアマップに基づいて、仮想オブジェクトを表示する位置を決定するようにしたが、仮想オブジェクトの位置は実オブジェクトに対して固定で、代わりに、他の表示条件を変更、決定するようにしてもよい。その表示条件としては、例えば、仮想オブジェクトの形状や大きさ、仮想オブジェクトの透明度、仮想オブジェクトの情報量等を挙げることができる。
例えば、仮想オブジェクトの形状、大きさの場合、表示優先度スコアマップのスコアが低い領域の形状に合わせて仮想オブジェクトの形状を変更したり、スコアが低い領域に合わせて仮想オブジェクトの大きさを変更したりすることができる。また、仮想オブジェクトが吹き出しであれば、その形状を変えるようにしてもよい。また、仮想オブジェクトの透明度の場合、優先度スコアマップのスコアと透明度を関連付けて、スコアが低いほど仮想オブジェクトの透明度を低くすることができる。さらに、仮想オブジェクトの情報量の場合、優先度スコアマップのスコアが一定以下の領域の面積を計算し、その面積に入る程度の情報を表示するよう構成すればよい。
さらには、表示優先度マップに基づいて、仮想オブジェクトの表示位置、仮想オブジェクトの形状や大きさ、仮想オブジェクトの透明度、仮想オブジェクトの情報量の中から複数の表示条件を変更、決定するようにしてもよい。
なお、本実施形態では、意味的領域分割の技術を用いて画像の認識を行うようにしたが、仮想オブジェクトを表示する物体と、それ以外の物体、領域とを区別して認識できる技術であれば、他の手法を用いることも可能である。例えば、テンプレートマッチングを使用した物体の検出手法などを用いるようにしてもよい。
また、本実施形態では、仮想オブジェクトを対応付けて表示する対象を実オブジェクトとして指定するようにしているが、実オブジェクト以外にも、実オブジェクトの集合やユーザーが指定する任意の領域等を対象とすることも可能である。
また、本実施形態では、実オブジェクトに対する重要度は予め決められて、その情報はデータベース106に保存されているようになっていたが、重要度の設定の手法はこれに限られない。例えば、入力画像中でピントの合っている領域とそうでない領域を検出し、ピントの合っている領域の重要度を高く、ピントの合っていない領域の重要度を低くするようにしてもよい。
また、本実施形態では、実オブジェクトの重要度をそれぞれ定義したが、特定の実オブジェクトは常に1という重要度を持つようにしてもよい。このようにすることで、特定の実オブジェクトに重畳しないように仮想オブジェクトの表示位置を決定できる。
また、本実施形態では、仮想オブジェクトの外接矩形サイズはデータベースに保存されているものとしたが、動的に生成しても良い。例えば仮想オブジェクト表示対象実オブジェクトの大きさに比例するようにしても良い。
また、本実施形態で示したスコア総和の計算方法は一例であり、様々な計算方法が考えられる。例えば、仮想オブジェクトの外接矩形ではなく、仮想オブジェクトの形状そのものに含まれる座標のスコアの総和を計算するようにしてもよい。また、本実施形態で説明したように、仮想オブジェクトが吹き出しの場合には、情報を表示する矩形部分に含まれる座標のスコアの総和を計算するようにしてもよい。いずれにしても、仮想オブジェクトに対応する領域に対して、その領域に含まれる座標のスコアの総和を計算するようにすればよい。
また、本実施形態で示した表示位置の決定方法は一例であり、様々な方法が考えられる。例えば、各仮想オブジェクトのスコア総和リストからスコアの総和が小さいものだけを集めて、合算値を計算することにより、組み合わせ数を削減することができる。さらに、第1の実施形態では仮想オブジェクト同士の重畳を許さなかったが、重畳を許すようにしてもよい。仮想オブジェクト同士の重畳を許す場合にも、例えば、スコア合算時に仮想オブジェクトの領域は重み付けをすることで、仮想オブジェクト同士が極力重畳しないように構成することもできる。
さらに、本実施形態では、仮想オブジェクトを2次元空間に配置したが、3次元空間に配置することも可能である。例えば、距離計測装置により各物体までの距離計測を行い、奥行き方向も考慮した重要度マップ及び位置マップから3次元の表示優先度スコアマップを作成することにより実現できる。
また、本実施形態において、例えば、GPS情報等を用いることにより、位置(場所)に応じて仮想オブジェクトを表示する実オブジェクトを変更するようにしてもよい。このようにすることで、GPSによりユーザーの位置を検出し、ユーザーの位置に応じて表示対象オブジェクトを決めることもできる。
[第2の実施形態]
次に、本発明の第2の実施形態として、ユーザーが注目している領域も考慮して、仮想オブジェクトの表示位置を決定する形態について説明する。なお、第1の実施形態において既に説明をした構成については、同一の符号を付し、その説明を省略する。
図7は、本実施形態の情報処理システムの構成を示すブロック図である。図7(a)は、本実施形態の情報処理システムのハード構成を図示している。同図において、視線検出装置111は、情報処理システムを使用しているユーザーの視線方向を検出し、その視線方向を出力する装置である。視線検出装置111は、ユーザーの目を撮影するカメラによって構成され、ユーザーの目の瞳孔位置とカメラとの位置関係からユーザーの視線方向を検出する。カメラによりユーザーの視線方向を検出する技術については周知の技術であるため、その詳細な処理については説明を省略する。
図7(b)は、本実施形態の情報処理装置104のソフトウェア構成を示すブロック図である。検出部112は、視線検出装置111から出力されたユーザーの視線方向に関する情報と、認識部107によって出力された実オブジェクトに関する情報(実オブジェクトの種類、位置および形状)とに基づいて、ユーザーが注目している実オブジェクトを検出する。なお、データベース106には想オブジェクトを表示する表示対象実オブジェクトに関する情報が保存されており、本実施形態では、表示対象実オブジェクトとして「ビルA」が設定されている。
図8は、本実施形態において、情報処理装置104が実行する情報処理方法のフローチャートである。ステップS801およびステップS802の処理は、第1の実施形態におけるステップS201およびS202の処理と同様であるため、説明を省略する。なお、本実施形態においても、撮影装置102から入力される入力画像は、図9(a)に示すように、「空」を背景として、ビルが3つ並んでおり、それぞれ左から「ビルA」、「ビルB」、「ビルC」である。そのため、意味的領域分割の結果、重要度マップ作成の結果は第1の実施形態と同様である。すなわち、ステップS201における意味的領域分割により、図9(b)に示すように、各領域に、「空」「ビルA」「ビルB」「ビルC」というクラス情報が割り当てられる。また、ステップS802により作成される重要度マップは、図9(c)に示すように、第1の実施形態と同様のマップが得られる。
図8に戻り、ステップS803において、検出部112が注目領域を検出する。具体的には、検出部112は、視線検出装置111により検出された視線方向に基づいて、その視線方向に存在する実オブジェクトを注目領域と決定する。例えば、ユーザーの視線方向が表示装置103の表示画面上のある点(s,t)であるとき、その点(s,t)がステップS801で意味的領域分割されたどの領域に属するかを判定する。判定の結果、点(s,t)を含む領域が注目領域として決定され、出力される。本実施形態では、「ビルB」が注目領域として決定されたとして、以下の説明を行う。
次に、ステップS804において、検出部112は、重要度マップの注目領域内の重要度を更新する。具体的には、ステップS802で作成された重要度マップの注目領域(「ビルB」)内の各画素viに重要度1を割り当てる。図9(d)には、ステップS804により更新された重要度マップを示す。同図において、注目領域(「ビルB」)の重要度を1に更新したため、「ビルB」に相当する領域が濃い色で表されている。なお、本実施形態では、注目領域内の重要度を1に更新したが、比較的大きな値であれば、1以外の値に更新するようにすることもできる。
次のステップS805、S806およびS807は、第1の実施形態におけるステップS203、S204およびS205の処理と同様である。図9(e)は、ステップ806において、決定部109が作成した「ビルA」に関する位置マップである。また、図9(f)は、ステップS807において、「ビルA」に関する重要度マップと位置マップとを合成して作成された優先度スコアマップを示す。本実施形態では、ステップS804において重要度マップ内の注目領域(「ビルB」)の重要度を1に更新したため、図9(f)の優先度スコアマップにおいても、その「ビルB」に相当する領域の重要度が高くなっている。
また、ステップS808およびS809は、第1の実施形態におけるステップS206およびS207の処理と同様である。以上のステップによって、本実施形態においても、表示対象実オブジェクトリスト中にある全ての実オブジェクトについて、スコア総和リストが生成される。本実施形態では、表示対象実オブジェクトは「ビルA」であるので、実オブジェクト「ビルA」についてスコア総和リストが生成される。
続いて、ステップS810において、第1の実施形態と同様にして、決定部109が、表示すべき仮想オブジェクトの表示位置を決定する。本実施形態では、表示すべき仮想オブジェクトの数が1つであるため、スコア総和リストの合算値を算出する処理は必要なく、スコアの総和が最小の座標を実オブジェクト「ビルA」に対応する仮想オブジェクトの表示位置と決定する。なお、表示すべき仮想オブジェクトが複数ある場合には、第1の実施形態と同じく、取り得る座標の組合せについてスコア総和の合算値を算出することにより、各仮想オブジェクトの表示位置を決定する。
ステップS811およびS812の処理は、第1の実施形態におけるステップS209およびS210の処理と同様である。ステップS811において、表示部110は重畳画像を作成して表示装置103へと出力し、表示装置103はその重畳画像をユーザーに対して提示する。そして、ステップS812では、情報処理装置104のプロセッサが入力装置101から仮想オブジェクト表示終了コマンドが入力されているかを判定して、処理を続行するかを決定する。
以上のように、本実施形態では、ユーザーが注目する注目領域を検出し、重要度(重要度マップ)およびオブジェクトからの距離(位置マップ)に加えて、検出した注目領域にも基づいて仮想オブジェクトの表示位置を決定する。具体的には、検出手段は、検出した注目領域に対応する実オブジェクトの重要度を更新する。そして、更新された重要度(重要度マップ)と、位置マップとに基づいて、仮想オブジェクトの表示位置を決定する。以上の構成により、本実施形態では、ユーザーの注目する領域も考慮して、仮想オブジェクトをより適切に表示することが可能となる。
なお、本実施形態では、注目領域を検出する方法として、ユーザーの視線に基づき検出する方法を用いたが、これ以外の方法によって注目領域を検出するようにしてもよい。例えば、従来から画像中の主要被写体を検出する技術や、画像中で異常のある領域を検出する技術等が知られており、これらの技術を用いて注目領域を検出して良い。
また、本実施形態では、注目領域の重要度を固定の値としていたが、その値を変動させるようにしてもよい。例えば、ユーザーがその領域を注目している時間に応じて重要度を変えることもできる。
[第3の実施形態]
次に、本発明の第3の実施形態として、実オブジェクトの時間的変化も考慮して仮想オブジェクトの表示位置を決定する形態について説明する。なお、第1、第2の実施形態において既に説明をした構成については、同一の符号を付し、その説明を省略する。
本実施形態の情報処理システムの構成は、第1の実施形態における情報処理システムと同じである。図10に、本実施時形態の情報処理装置104のソフトウェア構成のブロック図を示す。本実施形態では、予測部113を更に有し、予測部113が、異なる時間に撮影された複数の画像から実オブジェクトそれぞれのオプティカルフローを求める。そして、実オブジェクトそれぞれのオプティカルフローの情報に基づき、重要度マップおよび位置マップを更新する。なお、データベース106には想オブジェクトを表示する表示対象実オブジェクトに関する情報が保存されており、本実施形態では、表示対象実オブジェクトとして「車F」が設定されている。
図11は、本実施形態において、情報処理装置104が実行する情報処理方法のフローチャートである。ステップS1101の処理は、第1の実施形態におけるステップS1101の処理と同様であるため、説明を省略する。なお、本実施形態では、撮影装置102から入力される入力画像は、図12(a)に示すように、「地面」を背景として、左から右に進む車3台と、右から左に進む車3台の、計6台の車が走っている画像である。そして、ステップS1101において、入力画像に対して意味的領域分割を行うことにより、図12(b)に示すように、各領域に「地面」「車A」「車B」「車C」「車D」「車E」「車F」というクラス情報が割り当てられる。左から右に進む3台の車にはそれぞれ左から「車A」、「車B」、「車C」が割り当てられ、右から左に進む3台の車にはそれぞれ右から「車D」、「車E」、「車F」が割り当てられる。
次に、ステップS1102において、予測部113は、情報処理装置104内のメモリに保存されている直前のフレームの入力画像及びその意味的領域分割結果と、現在のフレームの入力画像とに基づいて、実オブジェクトそれぞれのオプティカルフローを算出する。オプティカルフローとは、異なる時間に撮影された画像間でオブジェクトの対応付けを行い、その移動量をベクトルで表現したものであり、これにより、次の移動を予測することができる。オプティカルフローを求める方法としては多くの方法が知られているが、本実施形態では、実オブジェクトそれぞれの認識結果をテンプレートとするブロックマッチング法を使用する。この方法は周知の技術であるため、詳細な説明は省略するが、まず予測部113は、直前のフレームに存在する実オブジェクトの領域をテンプレートとして、現在のフレーム上でテンプレートと同じ位置の近傍を調べる。そして、テンプレートと最もよくマッチングする位置の中心点を求めて、元のテンプレートの中心位置(cxt−1,cyt−1)から、マッチングした位置の中心位置(cx,cy)を差し引くことで、オプティカルフローを得る。予測部113は、この処理を実オブジェクトについて行い、実オブジェクトそれぞれについてオプティカルフローを求める。図12(c)は、「車A」「車B」「車C」「車D」「車E」「車F」に対して求められたオプティカルフローを示す。
次に、ステップS1103において、認識部107は、ステップS1102で求められたオプティカルフローに基づき、重要度マップを作成する。このステップでは、認識部107が、テンプレート重要度マップをオプティカルフローの方向に沿って少しずつ移動させながら重要度マップに加算していく。ここで、テンプレート重要度マップとは、実オブジェクトと同じ形状を有する領域に対して重要度が設定されたマップである。
ここで、「車A」を例にして、テンプレート重要度マップについて説明する。なお、本実施形態では、「地面」の重要度は0であり、「車」の重要度は全て1である。また、現在のフレーム上において「車A」の重心位置は(50,50)であり、オプティカルフローは、図12(c)に示すように、(50,0)である。このとき、「車A」のテンプレート重要度マップの重要度vは、以下の数4式に従って算出される。
ここで、Vは予め設定されている「車A」の重要度、oxは「車A」のx方向のオプティカルフロー、oyは「車A」のy方向のオプティカルフローである。上記値を用いて計算すると、v=0.01という結果が得られる。すなわち、「車A」のテンプレート重要度マップでは、「車A」の形状をした、画素値0.01の領域が得られることになる。
そして、ステップS1103では、認識部107が、このテンプレート重要度マップをオプティカルフローの方向に沿って重要度マップに加算していく。ここでは、認識部107は、重心位置(50,50)から、オプティカルフローの2倍の長さ、すなわち(150,50)の位置まで、1画素ずつずらしながら、テンプレート重要度マップを重要度マップに加算していく。オプティカルフローの2倍の長さLは、以下の数5式により算出される値である。
認識部107は、この処理を全ての実オブジェクトに対して行う。図12(d)は、上記処理によって得られた重要度マップを示す。
ステップS1104は、第1の実施形態におけるステップS203と同様である。前述したように、本実施形態では、表示対象実オブジェクトとして「車F」が設定されているため、このステップでは「車F」が抽出され、表示対象実オブジェクトリストに「車F」が出力される。
続いて、ステップS1105において、決定部109は、まずテンプレート位置マップを作成し、その後、テンプレート位置マップを用いて位置マップを作成する。ここで、テンプレート位置マップは、その仮想オブジェクトを表示する実オブジェクトからの距離に対応するスコアを2次元的に表わしたマップであり、第1の実施形態における位置マップ作成と同様の手順により作成される。図12(e)は、作成されたテンプレート位置マップを示しており、本実施形態では、表示対象実オブジェクトが「車F」であるので、「車F」の重心から離れるにつれて色が濃くなり、値が高くなっていることが表わされている。
次に、決定部109は、このテンプレート位置マップを用いて位置マップを作成する。具体的には、ステップS1103と同様にして、テンプレート位置マップをオプティカルフローの方向に沿って少しずつ移動させながら位置マップに加算していく。そのために、決定部109は、所定時間経過後の実オブジェクトの位置を基準として仮想オブジェクトが表示できるよう、まずテンプレート位置マップの各画素pの値を調整してp′とする。調整後の各画素p′の値は、下記の数6式に従って算出される。
決定部109は、ステップS1103と同様にして、オプティカルフローの方向に沿って、テンプレート位置マップを位置マップに加算していく。ここでは、オプティカルフローの方向に2倍の長さの距離だけ1画素ずつずらしながら、テンプレート位置マップを位置マップに加算していく。図12(c)に示すように、「車F」のオプティカルフローは(−50,0)であるので、オプティカルフローの2倍の長さは、数5式と同様に計算をして、100となる。そこで、決定部109は、1画素ずつ左方向にテンプレート位置マップを移動して位置マップに加算し、移動量が100になるまでこれを繰り返す。図12(f)は、本ステップS1105により得られる位置マップを示す。
次に、ステップS1106で、決定部109は、第1の実施形態のステップS205と同様にして、仮想オブジェクトを表示する実オブジェクトごとに表示優先度スコアマップを作成する。本実施形態では、表示対象実オブジェクトとして「車F」が設定されているため、「車F」に対応した表示優先度スコアマップが作成される。図12(g)は、本実施形態における「車F」に対応した表示優先度スコアマップを示す。
続くステップS1107、S1108及びS1109における処理は、第1の実施形態のステップS206、S207及びS208の処理と同様である。ステップS1107では、決定部109が、まずデータベース106を参照して、表示対象実オブジェクト「車F」に対応する仮想オブジェクトの外接矩形サイズ情報を取得する。図5(b)には、本実施形態において、「車F」に対応する仮想オブジェクトに関する情報を図示している。その後、決定部109は、第1の実施形態のステップS206と同様にして、作成された表示優先度スコアマップ上において、表示する仮想オブジェクトの外接矩形領域内に存在する画素のスコアの総和を計算する。また、ステップS1108では、決定部109が、仮想オブジェクトを表示する対象の実オブジェクト「車F」についてスコア総和リストを作成する。そして、ステップS1109において、「車F」のスコア総和リストから、スコアの総和が最小となる座標を実オブジェクト「車F」に対応する仮想オブジェクトの表示位置と決定する。
ステップS1110は、第1の実施形態におけるステップS209の処理と同様であり、表示部110は重畳画像を作成して表示装置103へと出力し、表示装置103はその重畳画像をユーザーに対して提示する。
ステップS1111において、情報処理装置104のプロセッサは、現在のフレームの入力画像(図12(a))および意味的領域分割結果(図12(b))を装置内のメモリに保存する。保存したデータは、次フレームにおける処理に供されることになる。
最後に、ステップS1112では、情報処理装置104のプロセッサが入力装置101から仮想オブジェクト表示終了コマンドが入力されているかを判定して、処理を続行するかを決定する。
以上、本実施形態では、オブジェクトの時間的変化を算出し、重要度(重要度マップ)およびオブジェクトからの距離(位置マップ)に加えて、算出した時間変化にも基づいて仮想オブジェクトの表示位置を決定する。具体的には、算出したオブジェクトの時間変化に基づいて重要度マップと位置マップとを作成する。そして、オブジェクトの時間変化に基づき作成された重要度マップと、位置マップとに基づいて、仮想オブジェクトの表示位置を決定する。以上の構成により、本実施形態では、実オブジェクトの時間変化も考慮して、仮想オブジェクトをより適切に表示することが可能となる。
なお、本実施形態に関して、オプティカルフローの抽出方法は、ブロックマッチング法に限らず、勾配法によりオプティカルフローを抽出するようにしてもよいし、画面上のオブジェクトの動きを予測できるものであれば、他の方法を使用することも可能である。例えば、機械学習によりある実オブジェクトの動きが事前に予測できるのであれば、その予測結果を利用してよいし、過去の履歴を用いるなどしてもよい。
また、本実施形態において示した重要度マップ、位置マップ、表示優先度スコアマップの作成方法は一例であり、例えば、テンプレート重要度マップ、テンプレート位置マップをそれぞれ重要度マップ、位置マップに加算していく際、重み付けをしてもよい。
また、前述の実施形態で示した情報処理装置は、実空間の画像に仮想オブジェクトを重畳表示できるデバイスに広く適用可能であり、例えば、ウェアラブル端末、スマートフォン等に適用することができる。
また、本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
104 情報処理装置
107 認識部
108 抽出部
109 決定部
110 表示部

Claims (11)

  1. 取得した現実空間の画像における実オブジェクトを認識する認識手段と、
    前記認識した実オブジェクトそれぞれに対する仮想オブジェクトの重畳を許容する程度を示した情報に基づいて、前記現実空間の画像の各座標に対して前記情報を数値として表現した第1のマップを作成する第1のマップ作成手段と、
    仮想オブジェクトを対応づけて表示する実オブジェクトからの距離基づいて、前記現実空間の画像の各座標に対して前記距離を数値として表現した第2のマップを作成する第2のマップ作成手段と、
    前記第1及び第2のマップに基づいて、前記現実空間の画像に対する前記仮想オブジェクトの表示条件を決定する決定手段と、
    前記表示条件に基づいて、前記現実空間の画像に前記仮想オブジェクトを重畳して表示画像を作成する画像作成手段とを有することを特徴とする情報処理装置。
  2. 前記表示条件は、前記仮想オブジェクトを表示する位置、前記仮想オブジェクトの形状、前記仮想オブジェクトの大きさ、前記仮想オブジェクトの透明度、前記仮想オブジェクトの情報量の少なくとも1つを含むことを特徴とする請求項1に記載の情報処理装置。
  3. 前記決定手段は、前記現実空間の画像の各座標に対して前記第1のマップの数値と前記第2のマップの数値とを演算することにより、第3のマップを作成することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記第3のマップの各座標に対して前記表示する仮想オブジェクトに対応する領域に含まれる座標の数値を合算し、当該合算した値に基づいて前記表示条件を決定することを特徴とする請求項に記載の情報処理装置。
  5. 前記現実空間の画像に複数の前記仮想オブジェクトを重畳させる場合、前記決定手段は、前記複数の仮想オブジェクトが互いに重ならないように前記表示条件を決定することを特徴とする請求項1からのいずれか1項に記載の情報処理装置。
  6. 前記認識手段は、前記現実空間の画像を分割してなる複数の領域ごとの特徴量に基づいて前記実オブジェクトを認識することを特徴とする請求項1からのいずれか1項に記載の情報処理装置。
  7. 前記現実空間の画像におけるユーザーの注目領域を検出する検出手段を更に有し、
    前記決定手段は、前記情報および前記距離と、前記検出した注目領域とに基づいて、前記表示条件を決定することを特徴とする請求項1からのいずれか1項に記載の情報処理装置。
  8. 前記認識した実オブジェクトそれぞれの時間変化を予測する予測手段を更に有し、
    前記決定手段は、前記情報および前記距離と、前記予測した時間変化とに基づいて、前記表示条件を決定することを特徴とする請求項1からのいずれか1項に記載の情報処理装置。
  9. 取得した現実空間の画像における実オブジェクトを認識するステップと、
    前記認識した実オブジェクトそれぞれに対する仮想オブジェクトの重畳を許容する程度を示した情報に基づいて、前記現実空間の画像の各座標に対して前記情報を数値として表現した第1のマップを作成するステップと、
    仮想オブジェクトを対応づけて表示する実オブジェクトからの距離基づいて、前記現実空間の画像の各座標に対して前記距離を数値として表現した第2のマップを作成するステップと、
    前記第1及び第2のマップに基づいて、前記現実空間の画像に対する前記仮想オブジェクトの表示条件を決定するステップと、
    前記表示条件に基づいて、前記現実空間の画像に前記仮想オブジェクトを重畳して表示画像を作成するステップとを有することを特徴とする情報処理方法。
  10. 請求項1からのいずれか1項に記載の情報処理装置と、
    前記現実空間の画像を撮影するための撮影装置と、
    前記情報処理装置により作成され、前記仮想オブジェクトが重畳された現実空間の画像を表示するための表示装置と、
    を有することを特徴とする情報処理システム。
  11. コンピュータを、請求項1からのいずれか1項に記載の情報処理装置として機能させ
    るためのプログラム。
JP2014229910A 2014-11-12 2014-11-12 情報処理装置、情報処理方法、情報処理システム及びプログラム Active JP6501501B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014229910A JP6501501B2 (ja) 2014-11-12 2014-11-12 情報処理装置、情報処理方法、情報処理システム及びプログラム
US14/936,534 US10043313B2 (en) 2014-11-12 2015-11-09 Information processing apparatus, information processing method, information processing system, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014229910A JP6501501B2 (ja) 2014-11-12 2014-11-12 情報処理装置、情報処理方法、情報処理システム及びプログラム

Publications (2)

Publication Number Publication Date
JP2016095579A JP2016095579A (ja) 2016-05-26
JP6501501B2 true JP6501501B2 (ja) 2019-04-17

Family

ID=55912610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014229910A Active JP6501501B2 (ja) 2014-11-12 2014-11-12 情報処理装置、情報処理方法、情報処理システム及びプログラム

Country Status (2)

Country Link
US (1) US10043313B2 (ja)
JP (1) JP6501501B2 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9818038B2 (en) * 2016-01-06 2017-11-14 Toshiba Tec Kabushiki Kaisha Image recognition apparatus
JP2018092299A (ja) * 2016-12-01 2018-06-14 Kddi株式会社 操作支援装置
JP2018116537A (ja) * 2017-01-19 2018-07-26 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP6696925B2 (ja) * 2017-03-16 2020-05-20 Kddi株式会社 操作支援装置
JP7149692B2 (ja) * 2017-08-09 2022-10-07 キヤノン株式会社 画像処理装置、画像処理方法
CN107918955A (zh) * 2017-11-15 2018-04-17 百度在线网络技术(北京)有限公司 增强现实方法和装置
US10580215B2 (en) * 2018-03-29 2020-03-03 Rovi Guides, Inc. Systems and methods for displaying supplemental content for print media using augmented reality
US10204160B1 (en) 2018-04-10 2019-02-12 Rovi Guides, Inc. Methods and systems for disambiguating user input based on detection of ensembles of items
JP7169431B2 (ja) * 2019-03-25 2022-11-10 富士フイルム株式会社 画像処理装置、画像処理方法及びプログラム、撮影装置
CN110335630B (zh) * 2019-07-08 2020-08-28 北京达佳互联信息技术有限公司 虚拟道具显示方法、装置、电子设备及存储介质
US10997418B2 (en) * 2019-09-09 2021-05-04 Ar, Llc Augmented, virtual and mixed-reality content selection and display
US11961294B2 (en) 2019-09-09 2024-04-16 Techinvest Company Limited Augmented, virtual and mixed-reality content selection and display
US10699124B1 (en) * 2019-09-09 2020-06-30 Ar, Llc Augmented reality content selection and display based on printed objects having security features
JP7508230B2 (ja) 2020-01-29 2024-07-01 キヤノン株式会社 画像処理装置、画像処理システム、撮像装置および画像処理方法
JP7413077B2 (ja) * 2020-02-27 2024-01-15 キヤノン株式会社 ヘッドマウントディスプレイ、制御方法、情報処理装置、情報処理方法、およびプログラム
CN111523530B (zh) * 2020-04-13 2021-04-02 南京行者易智能交通科技有限公司 一种目标检测中分数图的映射方法及目标检测方法
SE2030252A1 (en) * 2020-08-13 2022-02-14 Nagoon AB Method performed by a computer system for creation of augmented reality experiences and connection of these to the real world
DE102020210816A1 (de) * 2020-08-27 2022-03-03 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Erkennung dreidimensionaler Objekte, Computerprogramm, Maschinenlesbares Speichermedium, Steuergerät, Fahrzeug und Videoüberwachungssystem
US20220076489A1 (en) * 2020-09-08 2022-03-10 Rovi Guides, Inc. Systems and methods for generating supplemental content in an extended reality environment
US11696011B2 (en) 2021-10-21 2023-07-04 Raytheon Company Predictive field-of-view (FOV) and cueing to enforce data capture and transmission compliance in real and near real time video
US11792499B2 (en) * 2021-10-21 2023-10-17 Raytheon Company Time-delay to enforce data capture and transmission compliance in real and near real time video
US11700448B1 (en) 2022-04-29 2023-07-11 Raytheon Company Computer/human generation, validation and use of a ground truth map to enforce data capture and transmission compliance in real and near real time video of a local scene
WO2023243048A1 (ja) * 2022-06-16 2023-12-21 日本電信電話株式会社 情報提示装置、情報提示方法、及びプログラム
JP2024055512A (ja) * 2022-10-07 2024-04-18 株式会社日立製作所 表示方法、表示システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8585476B2 (en) * 2004-11-16 2013-11-19 Jeffrey D Mullen Location-based games and augmented reality systems
JP4061379B2 (ja) * 2004-11-29 2008-03-19 国立大学法人広島大学 情報処理装置、携帯端末、情報処理方法、情報処理プログラム、およびコンピュータ読取可能な記録媒体
JP2011128838A (ja) * 2009-12-17 2011-06-30 Panasonic Corp 画像表示装置
JP5055402B2 (ja) * 2010-05-17 2012-10-24 株式会社エヌ・ティ・ティ・ドコモ オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法
US9429912B2 (en) * 2012-08-17 2016-08-30 Microsoft Technology Licensing, Llc Mixed reality holographic object development
CN108628446B (zh) * 2013-03-15 2021-10-26 奇跃公司 显示系统和方法
US20150235630A1 (en) * 2014-02-18 2015-08-20 Sony Corporation Transparency Determination for Overlaying Images on an Electronic Display
US20160042563A1 (en) * 2014-08-11 2016-02-11 Empire Technology Development Llc Augmented reality information management
GB201414609D0 (en) * 2014-08-18 2014-10-01 Tosas Bautista Martin Systems and methods for dealing with augmented reality overlay issues

Also Published As

Publication number Publication date
US10043313B2 (en) 2018-08-07
JP2016095579A (ja) 2016-05-26
US20160133054A1 (en) 2016-05-12

Similar Documents

Publication Publication Date Title
JP6501501B2 (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
CN111783986B (zh) 网络训练方法及装置、姿态预测方法及装置
KR101603017B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
CN107808111B (zh) 用于行人检测和姿态估计的方法和装置
CN102077250B (zh) 移动体检测方法及移动体检测装置
JP2021526698A (ja) 画像生成方法および装置、電子機器、並びに記憶媒体
US10623659B2 (en) Image processing system, image processing method, and program
CN112258404B (zh) 图像处理方法、装置、电子设备和存储介质
JP6314251B2 (ja) 操作入力装置、操作入力方法及びプログラム
JP2011076255A (ja) ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム
JP2016224919A (ja) データ閲覧装置、データ閲覧方法、及びプログラム
JPWO2014050432A1 (ja) 情報処理システム、情報処理方法及びプログラム
JP2017215666A (ja) 制御装置、制御方法およびプログラム
KR102344227B1 (ko) 동체 검출 장치, 동체 검출 방법, 동체 검출 프로그램
KR20220034844A (ko) 이미지 처리 방법 및 장치, 전자 기기, 저장 매체 및 프로그램 제품
JP2006244272A (ja) 手位置追跡方法、装置、およびプログラム
CN114360047A (zh) 举手手势识别方法、装置、电子设备及存储介质
KR102063408B1 (ko) 가상 객체와의 상호 작용을 위한 방법 및 장치
JP5448952B2 (ja) 同一人判定装置、同一人判定方法および同一人判定プログラム
KR20150094108A (ko) 배경 영상의 위치를 이용한 관심맵 생성 방법 및 이를 기록한 기록 매체
JP2005321966A (ja) インタフェース方法、装置、およびプログラム
CN111103967A (zh) 虚拟对象的控制方法和装置
JP2013255172A (ja) 画像処理装置及び画像処理方法
WO2023017723A1 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
CN114495164A (zh) 基于单张图像的多人3d人体姿态估计方法和装置以及设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190319

R151 Written notification of patent or utility model registration

Ref document number: 6501501

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151