JP2014174643A - 画像処理システム、その制御方法、画像処理装置、及び画像処理方法 - Google Patents

画像処理システム、その制御方法、画像処理装置、及び画像処理方法 Download PDF

Info

Publication number
JP2014174643A
JP2014174643A JP2013044718A JP2013044718A JP2014174643A JP 2014174643 A JP2014174643 A JP 2014174643A JP 2013044718 A JP2013044718 A JP 2013044718A JP 2013044718 A JP2013044718 A JP 2013044718A JP 2014174643 A JP2014174643 A JP 2014174643A
Authority
JP
Japan
Prior art keywords
image
image processing
captured
virtual object
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013044718A
Other languages
English (en)
Inventor
Hiroshi Ofuji
洋 大藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013044718A priority Critical patent/JP2014174643A/ja
Publication of JP2014174643A publication Critical patent/JP2014174643A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 拡張現実の視聴者間でポインティング装置を用いることなく、一方の視聴者が指し示している箇所を他方の視聴者に対して通知する為の技術を提供すること。
【解決手段】 第1の装置は、該第1の装置のユーザが指示している仮想物体上の指示位置を求める。第2の装置は、該第2の装置の表示部に表示されている合成画像上の上記指示位置に対応する位置を求め、該求めた位置を指し示す表示を該合成画像上に合成表示する。
【選択図】図1

Description

本発明は、撮像画像と仮想物体とを合成してユーザに提供する為の技術に関するものである。
近年、撮像装置により得られる画像に対し、仮想的な情報や画像を重畳して表示させることで現実を拡張する、拡張現実(AR: Augmented Reality)技術が開発されてきている。
例えば、撮影された画像中の特定の対象について、予め関連付けておいた動画などのコンテンツを該対象の位置に合わせて重畳表示させるヒューレット・パッカード社のAurasmaなどが存在している。
また特許文献1では、実写画像から特定画像の領域を示す領域情報を検出し、検出した領域情報を用いて、実写画像における特定画像の領域以外の領域に対してはコンピュータグラフィックス画像を合成する。これにより実写風景を背景としてCG物体をその上に重畳し、さらにその手前に実写の被写体の画像を合成させるときに、実写の背景と被写体とを別々に撮影することなく同時に撮影した画像を用いてCGと合成することが可能となる。
また、ARコンテンツに対する指示(ポインティング)技術も開示されている。例えば特許文献2では、被指示者の視点における画像を指示者に送り、入力装置を介して該画像中に指示者から被指示者への指示が入力されると、被指示者の表示装置に表示する仮想空間映像を、指示が反映されている映像となるように描画する。これにより指示者からの指示を、被指示者が認識することを可能とする。
特許文献3では、ポインティング装置と撮像装置の位置姿勢情報から得られるポインティング位置情報に基づき、仮想コンテンツを指示しているのか現実コンテンツを指示しているのかを判別し、判別結果に応じて指示対象を切り替える。これにより一つのポインティング装置で仮想コンテンツと現実コンテンツに対する指示を可能とする。
特許第4136420号公報 特開2007−42073号公報 特開2008−40556号公報
しかしながら、特許文献2に記載されている技術では、指示する際に指示者は被指示者の視点における画像を取得し、該画像中で指示する座標を指定しなければならないため、相互に指示を出し合うことが難しいという課題がある。
また、特許文献3に記載されている技術では、ポインティング装置の位置姿勢情報を用いて指示位置を特定するため、ポインティング装置を持ち合わせていない場合には指示することが出来ないという課題がある。
本発明はこのような問題に鑑みてなされたものであり、拡張現実の視聴者間でポインティング装置を用いることなく、一方の視聴者が指し示している箇所を他方の視聴者に対して通知する為の技術を提供することを目的とする。
本開示の画像処理装置の一様態によれば、撮像部及び表示部を有し、管理装置と通信可能な画像処理装置であって、前記撮像部によって撮像された撮像画像中に写っている特定の現実物体に対応する仮想物体を取得する取得手段と、前記撮像画像と前記仮想物体の画像とを合成した合成画像を生成し、該合成画像を前記表示部に表示する表示制御手段と、ユーザが指示している前記仮想物体上の指示位置を求める計算手段と、前記指示位置を前記管理装置に転送する転送手段とことを特徴とする。
本発明の構成により、拡張現実の視聴者間でポインティング装置を用いることなく、一方の視聴者が指し示している箇所を他方の視聴者に対して通知することができる。
画像処理システムの構成例を示すブロック図。 AR指示送信装置10及びAR表示装置30の外観例を示す図。 画像処理ステムに含まれる各装置が行う処理のフローチャート。 ステップS102における処理の詳細を示すフローチャート。 マーカ及びマーカ座標系を説明するための図。 ステップS104における処理の詳細を示すフローチャート。 ステップS1041における処理を説明する図。 ステップS303における処理の詳細を示すフローチャート。 画像処理ステムの使用例を説明する図。 画像処理ステムの使用例を説明する図。 ステップS105における処理の詳細を示すフローチャート。 指示点及び指示ベクトルVvaを説明する図。 ステップS1052における処理を説明する図。 ステップS305における処理を説明する図。 指示ポインタの合成表示例を示す図。 画像処理ステムに含まれる各装置が行う処理のフローチャート。 第3の実施形態を説明する図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。
[第1の実施形態]
先ず、本実施形態に係る画像処理システムの構成例について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係る画像処理システムは、AR指示送信装置10と、AR管理装置20と、AR表示装置30と、を有している。そしてこのシステムでは、AR管理装置20が、有線や無線などのネットワークを介して、AR指示送信装置10及びAR表示装置30とデータ通信が可能なように構成されている。
先ず、AR指示送信装置10について説明する。撮影部11は、現実空間の動画像を撮像可能な装置であり、撮像した各フレームの画像(現実空間の撮像画像)は順次、メモリ15に格納される。
制御部12は、メモリ15に格納されているコンピュータプログラムやデータを用いて処理を実行することで、AR指示送信装置10全体の動作制御を行うと共に、AR指示送信装置10が行うものとして後述する各処理を実行する。
表示部14は、例えば、液晶画面であり、制御部12による処理結果を画像や文字などでもって表示することができる。通信部13は、上記のネットワークを介してAR管理装置20とデータ通信を行う。
AR表示装置30を構成する制御部32、撮影部31、表示部34、通信部33、メモリ35はそれぞれ、制御部12、撮影部11、表示部14、通信部13、メモリ15と同じであるため、AR表示装置30を構成する各部に係る説明は省略する。
このように、AR指示送信装置10、AR表示装置30はいずれも同様の構成を有しており、外観についても図2に例示するように、同様の外観を有している。図2の例では、AR指示送信装置10、AR表示装置30はいずれも、一方の面に撮影部、他方の面に表示部が搭載されている。
次に、AR管理装置20について説明する。制御部21は、メモリ25に格納されているコンピュータプログラムやデータを用いて処理を実行することで、AR管理装置20全体の動作制御を行うと共に、AR管理装置20が行うものとして後述する各処理を実行する。通信部22は、上記ネットワークを介してAR指示送信装置10及びAR表示装置30とのデータ通信を行う。
次に、AR指示送信装置10、AR管理装置20、AR表示装置30のそれぞれの装置が行う処理について、図3のフローチャートを用いて説明する。このフローチャートにおける各ステップに対応する処理は、以下に説明するように、該ステップに対応する装置の制御部(CPUなど)が制御プログラムを実行することにより実行される。
ステップS101では、制御部12は撮影部11を制御して現実空間の動画像撮影を行わせる。撮影部11はこの制御に従って現実空間の動画像撮影を開始し、撮影した各フレームの画像(撮像画像)は順次メモリ15に格納される。
ステップS102では、制御部12は、メモリ15から順次撮像画像を読み出す。そして制御部12は、読み出した撮像画像から該撮像画像中に写っている特定の現実物体の画像を抽出し、該抽出した画像をAR管理装置20に対して送信することで、対応するARコンテンツの送信要求を行う。このARコンテンツには、仮想物体と、該仮想物体を配置する位置姿勢と、が含まれている。なお、仮想物体を配置する位置姿勢は必ずARコンテンツに含まれている必要はなく、ARコンテンツとは別個のデータとしても良い。ステップS102における処理の詳細について、図4のフローチャートを用いて説明する。このフローチャートにおける各ステップに対応する処理は、以下に説明するように、該ステップに対応する装置の制御部(CPUなど)が制御プログラムを実行することにより実行される。
ここで、現実空間を撮像した撮像画像上に仮想物体を重畳させるための手法には、マーカ型と非マーカ型とがある。マーカ型とは、次のような手法である。即ち、ドキュメント等が印刷されている印刷物上に予め印刷されている「規定のフォーマットで描かれた特定パターン」を撮影し、撮影した画像中の該パターンを認識することで対応する仮想物体を得、該仮想物体を該画像上に重畳させるものである。非マーカ型とは、上記のようなパターンは必要とせず、代わりに画像中の特徴量(例えば、SIFT特徴量、SURF特徴量)を認識することで対応する仮想物体を得て該画像上に重畳させるものである。
以下では説明上、マーカ型の手法により撮像画像上に仮想物体を重畳させるが、非マーカ型を採用しても、以下に説明する処理の基本的な構成は変わらない。すなわち、本実施形態は、撮像画像上に仮想物体を重畳させる手法は特定の手法に限るものではない。
図4において先ずステップS1021では、制御部12は、撮像画像からマーカが写っている領域を検出し、該領域内の画像をマーカ画像として抽出する。撮像画像からマーカを検出するためには、例えば、メモリ15に各マーカに共通の特徴を予め格納しておき、撮像画像内でこの共通の特徴にマッチする領域を検出すればよい。このとき用いるマーカは、例えば、図5(a)に例示するように、ある太さの枠で囲まれた四角形であり、各マーカに共通の特徴は、「四角形部分」となる。なお、撮像画像からマーカを検出するための技術には様々な公知技術があり、いずれを採用しても構わない。
次に、ステップS1022では、制御部12は、通信部13を制御し、ステップS1021で抽出したマーカ画像またはマーカの特徴量をAR管理装置20に対して送信させる。ステップS201では、制御部21は通信部22を制御し、AR指示送信装置10から送信されたマーカ画像またはマーカの特徴量を受信する。ここで、AR管理装置20は、それぞれのマーカに対し、該マーカに対応するARコンテンツをメモリ25内に管理している。具体的には、それぞれのマーカの特徴量に対し、該マーカに対応するARコンテンツをメモリ25内に管理している。然るに、図3のステップS201では、制御部21は、AR指示送信装置10から受信したマーカ画像の特徴量を抽出し、該抽出した特徴量と最もマッチする特徴量をメモリ25から検索する(マーカの特徴量はAR指示送信装置側で抽出してもよい)。もちろん、ステップS201でマーカ画像の特徴量を受信した場合は、この受信した特徴量と最もマッチする特徴量をメモリ25から検索する。そしてステップS201では制御部21は、検索した特徴量に対応するARコンテンツをメモリ25から読み出し、通信部22を制御して、この読み出したARコンテンツをAR指示送信装置10に対して送信する。
ステップS1023では、制御部12は通信部13を制御して、AR管理装置20から送信されたARコンテンツを受信させ、該受信したARコンテンツをメモリ15に格納する。上記の通り、このARコンテンツには、仮想物体と、該仮想物体を配置する位置姿勢と、が含まれている。この「仮想物体を配置する位置姿勢」とは、図5(b)に例示する如く、該仮想物体に対応するマーカの位置を原点P0とし、該原点で互いに直交する3軸をそれぞれx、y、z軸とする座標系(マーカ座標系)における該仮想物体の位置姿勢である。
以上説明した各処理により、AR指示送信装置10は、撮像した画像中に含まれているマーカに対応するARコンテンツをAR管理装置20から取得することができる。なお、AR表示装置30側でもAR指示送信装置10と同様の処理を行っている。ステップS301,S302のそれぞれは、上記のステップS101,S102と同様であるため、ステップS301,S302のそれぞれに係る説明は省略する。
次に、ステップS103では、AR指示送信装置10の制御部12は、ステップS102で読み出した撮像画像から、仮想物体を指示するための指示具が写っている領域を特定する。指示具はユーザの手であっても良いし、ユーザが手で把持する指示棒などの器具であっても良い。指示具として如何なるものを用いるにせよ、この指示具の色は予めメモリ15に登録されており、制御部12は、撮像画像に対して指示具の色でクラスタリングを行い、クラスタリング結果を「撮像画像内における指示具の領域」とする。もちろん、撮像画像から指示具が写っている領域を特定する為の技術には様々な方法が考えられるので、本実施形態は特定の方法に限るものではない。
ステップS104では、制御部12は、ステップS102で読み出した撮像画像と、ステップS102で取得したARコンテンツ内の仮想物体と、を合成した合成画像を生成し、該生成した合成画像を表示部14に表示する。ステップS104における処理の詳細について、図6のフローチャートを用いて説明する。このフローチャートにおける各ステップに対応する処理は、以下に説明するように、該ステップに対応する装置の制御部(CPUなど)が制御プログラムを実行することにより実行される。
ステップS1041では、制御部12は、ステップS102で読み出した撮像画像中に写っているマーカに対する撮影部11の相対位置姿勢(即ち、マーカ座標系における撮影部11の位置姿勢)を、該撮像画像を用いて求める。この相対位置姿勢は、撮像画像中に写っているマーカの大きさや角度から求めることができる。この技術は公知の技術であるため、これに係る説明は省略する。
ステップS1041における処理について、図7を用いて説明する。図7には、マーカの中心位置P0を原点としたマーカ座標系におけるx−z平面を示している。上記の如く、公知技術を用いることで、マーカ座標系における撮影部11の位置姿勢を求めることができ、これは、マーカ座標系における撮影部11の座標位置Pdaと姿勢ベクトルVdaとを求めることと同義である。θdaは姿勢ベクトルVdaとx軸とがなす角度である。上記の公知技術を用いてこのθdaを求めることで、結果として姿勢ベクトルVdaを求める。姿勢ベクトルVdaは、撮影部11の中心位置(即ち、撮影部11による撮像画像の中心位置)から垂直方向に延長したベクトルである。
次に、ステップS1042では、制御部12は、ステップS1023でメモリ15に格納したARコンテンツ内の仮想物体を配置する。ARコンテンツ内に含まれている「仮想物体の配置位置姿勢」は、マーカ座標系におけるものであるので、制御部12は、ARコンテンツに含まれている配置位置姿勢でもって、同ARコンテンツに含まれている仮想物体を配置する。図7においてParは仮想物体の配置位置である。
そして更に、ステップS1042では、制御部12は、仮想物体の配置後、座標位置がPdaであり且つ姿勢ベクトルがVdaである撮影部11から見た該仮想物体の画像を生成する。所定の位置姿勢を有する視点から見た仮想物体の画像を生成するための技術は公知であるため、これに係る説明は省略する。
そして更に、ステップS1042では、制御部12は、この生成した仮想物体の画像を、ステップS102で読み出した撮像画像上に重畳するのであるが、ステップS103で特定した領域には仮想物体の画像を重畳させないようにする。この技術は公知のものであり、例えば、上記の特許文献1に開示されている技術が適用可能である。そして更に、ステップS1042では、制御部12は、このようにして仮想物体の画像が重畳された撮像画像を、表示部14に表示させる。
以上説明した処理により、AR指示送信装置10の表示部14には、撮影部11による撮像画像中に写っているマーカに対応する仮想物体であって、撮影部11の位置姿勢に応じて見える該仮想物体、の画像が重畳された該撮像画像が表示される。
一方、ステップS303ではAR表示装置30の制御部32は、撮影部31による撮像画像中に写っているマーカに対応する仮想物体であって、撮影部31の位置姿勢に応じて見える該仮想物体、の画像が重畳された該撮像画像を生成して表示部34に表示する。ステップS303における処理の詳細について、図8のフローチャートを用いて説明する。このフローチャートにおける各ステップに対応する処理は、以下に説明するように、該ステップに対応する装置の制御部(CPUなど)が制御プログラムを実行することにより実行される。
先ず、ステップS3031では、制御部32は、ステップS302で読み出した撮像画像中に写っているマーカに対する撮影部31の相対位置姿勢(即ち、マーカ座標系における撮影部31の位置姿勢)を、該撮像画像を用いて求める。この処理は、上記のステップS1041における処理と同様である。
ステップS3032で制御部32は上記ステップS1042と同様に、ステップS302で読み出した撮像画像中のマーカに対応するARコンテンツ内の仮想物体を配置し、撮影部31から見た該仮想物体の画像を生成して、該撮像画像上に重畳する。重畳の際には、ステップS1042のように、仮想物体の画像を指示具の領域に重畳させないようにすることは行わない。そして更に、ステップS3032では、制御部32は、このようにして仮想物体の画像が重畳された撮像画像を、表示部34に表示させる。
ここまでの処理で、AR指示送信装置10(表示部14)、AR表示装置30(表示部34)のそれぞれには、仮想物体が重畳された撮像画像が表示されていることになる。例えば、図9に示す如く、ユーザA、ユーザBのそれぞれがAR指示送信装置10、AR表示装置30を手にし、それぞれの撮影部をマーカが印刷されているポスターに向けたとする。このとき、表示部14には、図10の左側に示す如く、マーカに対応する仮想物体が、撮像画像において手の領域以外の領域に重畳されて表示されている。また、表示部34には、図10の右側に示す如く、マーカに対応する仮想物体が、撮像画像に重畳されて表示されている。このとき、ユーザBは、表示部34に表示されている画面を見るだけでは、ユーザAの手が仮想物体のどこを指し示しているのかは分からない。然るに、以降の処理では、ユーザAの手が仮想物体のどこ部分を指し示しているのかを表示部34の画面上に通知するための処理を行う。
ステップS105では、制御部12は、ステップS102で読み出した撮像画像中に写っている指示具が指し示している、マーカ座標系における座標位置を求める。ステップS105における処理の詳細について、図11のフローチャートを用いて説明する。このフローチャートにおける各ステップに対応する処理は、以下に説明するように、該ステップに対応する装置の制御部(CPUなど)が制御プログラムを実行することにより実行される。
ステップS1051では、制御部12は、撮像画像中の指示具の先端部の画像座標を求める。例えば、撮像画像が図12(a)に例示するような画像である場合、指示具はユーザの手であるので、その先端部である指の先(指示点)の画像座標を求めることになる。
ステップS1052では、制御部12は、ステップS1051で求めた画像座標を用いて、撮影部11の中心位置からこの画像座標を通る方向ベクトル(指示ベクトル)Vvaを求める。ステップS1052における処理の詳細について、図13を用いて説明する。図13において、ベクトルVdaはこれまでの処理ですでに求められているものであり、このベクトルVdaは常に撮影部11の中心位置(撮影画像中の中心位置)から垂直方向に延長したベクトルである。
指示ベクトルVvaを求める手法として挙げられるのが、撮像画像における、中心点から指示点までの距離を用いて得る方法である。この方法を図12(b)を用いて説明する。
まず撮像画像中の中心点Pcを基準とし、水平方向にu軸、垂直方向にv軸を取る。以下から、各点のu成分とv成分は_u、_vと表記する。例えば、撮像画像中心の座標Pc_uは0、Pc_vも0である。このとき撮像画像の左端をPuel、右端をPuerとする。この撮像画像中の左端から右端までにどの範囲の風景が写っているのかは撮影部の画角に依存する。例えば撮影部の水平画角が40度であるとすると、撮像画像の左端から右端まではこの40度内での風景を切り出していることになる。指示点をPpとすると、これを先ほどの画角を用いて比を取ると、Puel_u:Pp_u=水平画角(40度)/2:nとなる。このnは、撮影部からのu軸方向の角度であるので、このnを求めれば、ひいてはベクトルVdaに対する指示ベクトルVvaのu軸方向の角度を得ることとなる。これをv軸にも適用することで、ベクトルVdaに対する指示ベクトルVvaの角度θvaを得ることができる。換言すれば、ベクトルVdaに対して角度θvaを有するベクトルを、指示ベクトルVvaとして求めることができる。
ステップS1053では、制御部12は、指示具が指し示している仮想物体上の、マーカ座標系における座標位置(指示位置)を求める(計算する)。これは、ステップS1052で求めた指示ベクトルVvaを方向ベクトルとする直線と仮想物体との交点位置(より撮像部に近い位置)を求めればよい。図13ではこの交点位置はPvとして表されている。
そしてステップS106では、制御部12は通信部13を制御し、ステップS1053で求めた座標位置をAR管理装置20に対して送信する。ステップS202では、制御部21は通信部22を制御し、AR指示送信装置10から送信された座標位置を受信してメモリ25に格納する。そしてステップS203では制御部21は通信部22を制御し、ステップS202でメモリ25に格納した座標位置をAR表示装置30に対して送信する。
ステップS304では、制御部32は通信部33を制御して、AR管理装置20から送信された座標位置を受信してメモリ35に格納する。そしてステップS305では制御部32は、表示部34に表示している画面において、ステップS304でメモリ35に格納した座標位置に対応する位置を求める。この座標位置は撮影装置に依存しない、マーカを基準とした座標系で定義されている座標位置であるので、AR表示装置30側で該座標位置が画面上のどの位置に当たるかを算出することができる。この算出処理について、図14を用いて説明する。
図14においてPdbは撮影部31の位置、Vdbは撮影部31の姿勢ベクトルであり、該姿勢ベクトルVdbは、撮影部31の中心位置(即ち、撮影部31による撮像画像の中心位置)から垂直方向に延長したベクトルである。撮影部31の位置や姿勢については、上記のステップS1041と同様の処理により求めればよい。
マーカ座標系における座標位置Pvに対応する、撮影部31による撮像画像上の位置を求めるためには、先ず、撮影部31の中心位置から座標位置Pvに伸ばしたベクトルVvbを求める。そして、ベクトルVdbとベクトルVvbとのなす角であるθvbを求める。そして、Puel_u:Xh=水平画角(40度)/2:θvbを満たすXhを求める。このXhは、マーカ座標系における座標位置Pvに対応する、撮影部31による撮像画像上の位置のx成分である。これをv軸にも適用することで、マーカ座標系における座標位置Pvに対応する、撮影部31による撮像画像上のx成分及びy成分を得ることができる。
そしてステップS305では更に制御部32は、表示部34に表示されている画像において、マーカ座標系における座標位置Pvに対応する座標位置に、指示ポインタを合成表示する。この表示例を図15に示す。ここでは、AR表示装置30のメモリ35に保存されている指示ポインタを合成表示している。指示ポインタの種類は、図示している矢印に限らず、どのような図形・絵柄であってもよい。なお、矢印など、方向性を有する指示ポインタの方向については別段限定するものではないが、例えば矢印の指示ポインタを使用する場合、指示ポインタの配置位置に矢印の先を合わせるようにし、矢印の向きそのものは適当な方向で良い。
なお、指示ポインタを表示する目的は、マーカ座標系における座標位置Pvに対応する、撮影部31による撮像画像上の位置をユーザBに通知するためのものである。然るに、同様の目的を達成することができるのであれば、他の方法を用いて該通知を行うようにしても構わない。例えば、マーカ座標系における座標位置Pvに対応する、撮影部31による撮像画像上の位置若しくはその周辺をハイライト表示しても良いし、色を反転させても良い。また、マーカ座標系における座標位置Pvに対応する、撮影部31による撮像画像上の位置を中心とする枠(指示具を囲むような枠)を表示しても良い。
以上説明した処理によって、一方のユーザが指し示した位置を、他方のユーザが観察する画像上に示すことができる。なお、本実施形態では、便宜的にAR指示送信装置10とAR表示装置30とをそれぞれ異なる機能を有する装置として説明しているが、それぞれが双方の機能を有する装置としてもよい。その場合、それぞれの装置は互いに自分の指示点を相手に通知することができるようになる。
なお、上記で説明した構成は、以下に説明する基本構成の一例に過ぎず、該基本構成と同等の機能を有する構成であれば、他の構成を採用しても良い。即ち、撮像部及び表示部を有する第1,2の装置と、該第1,2の装置と通信可能な管理装置と、を有する画像処理システムにおいて、第1,2の装置のそれぞれは、次のような構成を有する。
即ち、撮像部によって撮像された撮像画像中に写っている特定の現実物体に対応する仮想物体を取得する取得部と、撮像画像と仮想物体の画像とを合成した合成画像を生成し、該合成画像を表示部に表示する表示制御部を有する。
第1の装置は更に、第1の装置のユーザが指示している仮想物体上の指示位置を求める計算部と、計算部が求めた指示位置を管理装置に対して送信する送信部とを有する。管理装置は、送信部により送信された指示位置を第2の装置に転送する転送部を有する。そして第2の装置は更に、転送部により転送された指示位置を受信し、第2の装置の表示部に表示されている合成画像上の該指示位置に対応する位置を求め、該求めた位置を示す情報を該合成画像に重畳させて表示する合成表示制御部を有する。
[第2の実施形態]
第1の実施形態では、AR指示送信装置10で求めた指示位置をAR表示装置30に対して送信する方法を説明した。しかし、複数台のAR表示装置30がAR管理装置20に接続されている場合、全てのAR表示装置30に指示位置を送信すると、指示ポインタを表示させたくないユーザのAR表示装置30にまで、この指示ポインタを表示することになってしまう。
本実施形態では、第1の実施形態の構成に、指示位置の送信先を限定する為の構成を加えた実施形態について説明する。本実施形態に係るシステムの動作について、図16のフローチャートを用いて説明する。なお、図16において「AR表示装置」が行う処理として示しているステップS601〜S606は、複数台のAR表示装置30のそれぞれが行う処理である。
ステップS401では、AR指示送信装置10の制御部12は通信部13を制御して、指示位置の送信対象となるAR表示装置30のグループの作成要求をAR管理装置20に対して送信する。
ステップS501では、AR管理装置20の制御部21は通信部22を制御して、AR指示送信装置10から送信された作成要求を受信し、該受信に応じて、指示位置の送信先のAR表示装置30のグループの作成を開始する。即ち、グループに含まれるAR表示装置30の識別情報を登録するためのリストをメモリ25内に作成する。この時点でリストは初期化されており、いずれのAR表示装置30も登録されていない。
ステップS601では、AR表示装置30の制御部32は通信部33を制御して、グループ参加要求をAR管理装置20に対して送信する。もちろん、全てのAR表示装置30がグループ参加要求を送信することに限るものではない。AR表示装置30のユーザは例えば上記のグループに属したい場合には、AR表示装置30に備わっている不図示の操作部を操作してグループ参加要求を入力する。制御部32はグループ参加要求が入力されると、通信部33を制御し、この入力されたグループ参加要求をAR管理装置20に対して送信する。
ステップS502では制御部21は、通信部22を介してAR表示装置30からグループ参加要求を受信すると、この参加要求に含まれている該AR表示装置30の識別情報を、メモリ25内のリストに登録する。この識別情報は、参加要求を送信したAR表示装置30を識別することができれば如何なる情報であってもよく、例えば、ネットワークアドレスであっても良い。
この参加要求の受け付けの終了は任意のタイミングであってよく、参加要求の受付を開始してからユーザが設定した時間が経過すれば受け付けを終了させても良いし、一定台数のAR表示装置30から参加要求を受け付けた時点で受け付けを終了させても良い。
そしてステップS505では、制御部21は、AR指示送信装置10から受けた指示位置を、メモリ25内に管理しているリストに登録してある識別情報によって特定されるAR管理装置20に対して送信する。
ステップS402〜S407、ステップS503,S504、ステップS602〜S606のそれぞれのステップにおける処理は、上記のステップS101〜S106、ステップS201,S202、ステップS301〜S305と同様である。
このように、本実施形態によれば、AR指示送信装置10を有するユーザの周囲にAR表示装置30を有するユーザが複数存在しても、指示位置を共有したいユーザのAR表示装置30に対してのみ指示位置を配信することができる。AR表示装置30の位置によっては、図10の左側の図で示される指示位置が正しく表示されることがある。指示位置が正しく意図通りに表示されていれば、ステップS505の処理を省略することもできる。
もちろん、上記のリストは、AR指示送信装置10のユーザが、該AR指示送信装置10の不図示の操作部を操作して、リストに登録するAR表示装置30を指定するなどして予め作成しておいてメモリ15に登録するようにしても構わない。また、リストの確定後にAR指示送信装置10のユーザがAR指示送信装置10の不図示の操作部を操作してこのリストを編集するようにしても構わない。
[第3の実施形態]
第1の実施形態でも触れたように、AR指示送信装置10、AR表示装置30の代わりに、AR指示送信装置10及びAR表示装置30の双方の機能を有する複合装置を複数台AR管理装置20に接続するシステムを構築しても良い。
しかし、一方のユーザが他方のユーザが有する複合装置における仮想物体の表示領域に重複して何かを指示した場合、図17(a)に例示するような状態となる。仮にこのシーンにおいて指示しているユーザをユーザA、視聴しているユーザをユーザBと呼称することとする。このような場合、ユーザBは、ユーザAの指先を指示点としてよいのか、指示ポインタを指示点としてよいのか戸惑ってしまう。これは複合装置内でユーザAの手の領域であるのかユーザBの手の領域であるのかを区別していないため、ユーザBの装置内でもユーザAの手がユーザBの手として認識され、ユーザAの手が仮想物体よりも手前に表示されてしまったことに起因する。
これを防ぐためには、ユーザの手の領域を検出する処理において、画像内の手が自装置のユーザの手であるか否かを判断し、自装置のユーザの手のみを抽出するようにする。これにより、自装置のユーザの手のみを仮想物体の手前に表示することが可能となる。画像内における手が自装置のユーザの手であるか否かを判断する方法については、手の進入角度、大きさ、衣服の色などの特徴量を元に判別すればよい。
このような処理により、図17(a)に示したような状態は起こらずに、図17(b)に示す如く、ユーザBは一意に指示ポインタのみを参照すればよくなるため、視認性が向上する。
また、上記の各実施形態では、一方のユーザが指示した仮想物体上の位置は、AR管理装置20を介して他方のユーザが有する装置に転送された。しかし、この転送は必ずしもAR管理装置20を介して行わなくても良く、一方の装置から他方の装置に対して直接転送するようにしても構わない。また、AR管理装置20の機能をそれぞれのユーザが有する装置に組み込んでおいてもよく、全ての処理をAR管理装置20を介して行うことなく、ユーザ間で直接データ通信を行うことで上記処理を達成するようにしても構わない。なお、上記の各実施形態で説明した核技術内容は適宜組み合わせて用いても構わない。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (11)

  1. 撮像部及び表示部を有し、管理装置と通信可能な画像処理装置であって、
    前記撮像部によって撮像された撮像画像中に写っている特定の現実物体に対応する仮想物体を取得する取得手段と、
    前記撮像画像と前記仮想物体の画像とを合成した合成画像を生成し、該合成画像を前記表示部に表示する表示制御手段と、
    ユーザが指示している前記仮想物体上の指示位置を求める計算手段と、
    前記指示位置を前記管理装置に転送する転送手段と
    ことを特徴とする画像処理装置。
  2. 撮像部及び表示部を有し、管理装置と通信可能な画像処理装置であって、
    前記撮像部によって撮像された撮像画像中に写っている特定の現実物体に対応する仮想物体を取得する取得手段と、
    前記撮像画像と前記仮想物体の画像とを合成した合成画像を生成し、該合成画像を前記表示部に表示する表示制御手段と、
    前記管理装置から転送された、ユーザが指示している前記仮想物体上の指示位置を受信し、前記表示部に表示されている合成画像上の該指示位置に対応する位置を求め、該求めた位置を示す情報を該合成画像に重畳させて表示する合成表示制御手段と
    を備えることを特徴とする画像処理装置。
  3. 撮像部及び表示部を有する第1,2の装置と、該第1,2の装置と通信可能な管理装置と、を有する画像処理システムであって、
    前記第1,2の装置のそれぞれは、
    前記撮像部によって撮像された撮像画像中に写っている特定の現実物体に対応する仮想物体を取得する取得手段と、
    前記撮像画像と前記仮想物体の画像とを合成した合成画像を生成し、該合成画像を前記表示部に表示する表示制御手段と
    を備え、
    前記第1の装置は更に、
    前記第1の装置のユーザが指示している前記仮想物体上の指示位置を求める計算手段と、
    前記計算手段が求めた指示位置を前記管理装置に対して送信する送信手段とを備え、
    前記管理装置は、
    前記送信手段により送信された指示位置を前記第2の装置に転送する転送手段を備え、
    前記第2の装置は更に、
    前記転送手段により転送された指示位置を受信し、前記第2の装置の表示部に表示されている合成画像上の該指示位置に対応する位置を求め、該求めた位置を示す情報を該合成画像に重畳させて表示する合成表示制御手段を備える
    ことを特徴とする画像処理システム。
  4. 前記ユーザの手若しくは前記ユーザが把持する器具を、前記仮想物体を指示するための指示具とし、
    前記計算手段は、
    前記表示部に表示されている前記指示具の画像座標と、前記撮像部の画角と、前記撮像部が撮像した撮像画像中に写っている前記現実物体の大きさ及び角度から得られる前記現実物体に対する前記撮像部の相対位置姿勢と、を用いて、該相対位置から前記指示具の位置へのベクトルを求め、該ベクトルを方向ベクトルとする直線と前記仮想物体と、の交点位置を、前記指示位置として求める
    ことを特徴とする請求項1に記載の画像処理装置。
  5. 前記表示制御手段は、前記撮像画像において前記指示具が写っている領域以外の領域に前記仮想物体の画像を合成することを特徴とする請求項4に記載の画像処理装置。
  6. 前記合成表示制御手段は、
    前記撮像部が撮像した撮像画像中に写っている前記現実物体の大きさ及び角度から得られる前記現実物体に対する前記撮像部の相対位置姿勢と、前記撮像部の画角と、を用いて、前記指示位置に対応する前記合成画像上の位置を求める
    ことを特徴とする請求項2に記載の画像処理装置。
  7. 前記合成表示制御手段は、前記表示部に表示されている合成画像において前記求めた位置に対応する位置にポインタを表示する、または該対応する位置若しくはその周辺をハイライト表示する、または該対応する位置若しくはその周辺の色を反転させる、ことを特徴とする請求項2に記載の画像処理装置。
  8. 前記第2の装置が複数台である場合、前記転送手段は、該複数台のうち予め指定された前記第2の装置に対して前記指示位置を転送することを特徴とする請求項3に記載の画像処理システム。
  9. 撮像部及び表示部を有し、管理装置と通信可能な画像処理装置が行う画像処理方法であって、
    前記画像処理装置の取得手段が、前記撮像部によって撮像された撮像画像中に写っている特定の現実物体に対応する仮想物体を取得する取得工程と、
    前記画像処理装置の表示制御手段が、前記撮像画像と前記仮想物体の画像とを合成した合成画像を生成し、該合成画像を前記表示部に表示する表示制御工程と、
    前記画像処理装置の計算手段が、ユーザが指示している前記仮想物体上の指示位置を求める計算工程と、
    前記画像処理装置の転送手段が、前記指示位置を前記管理装置に転送する転送工程と
    ことを特徴とする画像処理方法。
  10. 撮像部及び表示部を有し、管理装置と通信可能な画像処理装置が行う画像処理方法であって、
    前記画像処理装置の取得手段が、前記撮像部によって撮像された撮像画像中に写っている特定の現実物体に対応する仮想物体を取得する取得工程と、
    前記画像処理装置の表示制御手段が、前記撮像画像と前記仮想物体の画像とを合成した合成画像を生成し、該合成画像を前記表示部に表示する表示制御工程と、
    前記画像処理装置の合成表示制御手段が、前記管理装置から転送された、ユーザが指示している前記仮想物体上の指示位置を受信し、前記表示部に表示されている合成画像上の該指示位置に対応する位置を求め、該求めた位置を示す情報を該合成画像に重畳させて表示する合成表示制御工程と
    を備えることを特徴とする画像処理方法。
  11. 撮像部及び表示部を有する第1,2の装置と、該第1,2の装置と通信可能な管理装置と、を有する画像処理システムの制御方法であって、
    前記第1,2の装置のそれぞれは、
    前記撮像部によって撮像された撮像画像中に写っている特定の現実物体に対応する仮想物体を取得し、
    前記撮像画像と前記仮想物体の画像とを合成した合成画像を生成し、該合成画像を前記表示部に表示し、
    前記第1の装置は更に、
    前記第1の装置のユーザが指示している前記仮想物体上の指示位置を求め、
    前記求めた指示位置を前記管理装置に対して送信し、
    前記管理装置は、
    前記送信された指示位置を前記第2の装置に転送し、
    前記第2の装置は更に、
    前記転送された指示位置を受信し、前記第2の装置の表示部に表示されている合成画像上の該指示位置に対応する位置を求め、該求めた位置を示す情報を該合成画像に重畳させて表示する
    ことを特徴とする画像処理システムの制御方法。
JP2013044718A 2013-03-06 2013-03-06 画像処理システム、その制御方法、画像処理装置、及び画像処理方法 Pending JP2014174643A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013044718A JP2014174643A (ja) 2013-03-06 2013-03-06 画像処理システム、その制御方法、画像処理装置、及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013044718A JP2014174643A (ja) 2013-03-06 2013-03-06 画像処理システム、その制御方法、画像処理装置、及び画像処理方法

Publications (1)

Publication Number Publication Date
JP2014174643A true JP2014174643A (ja) 2014-09-22

Family

ID=51695837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013044718A Pending JP2014174643A (ja) 2013-03-06 2013-03-06 画像処理システム、その制御方法、画像処理装置、及び画像処理方法

Country Status (1)

Country Link
JP (1) JP2014174643A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016130987A (ja) * 2015-01-15 2016-07-21 三菱電機株式会社 ポインティング装置、ポインティング方法、及びプログラム
JP2021051789A (ja) * 2020-12-21 2021-04-01 Kddi株式会社 仮想物体を表示する端末装置とサーバ装置とを含むシステム及び該サーバ装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016130987A (ja) * 2015-01-15 2016-07-21 三菱電機株式会社 ポインティング装置、ポインティング方法、及びプログラム
JP2021051789A (ja) * 2020-12-21 2021-04-01 Kddi株式会社 仮想物体を表示する端末装置とサーバ装置とを含むシステム及び該サーバ装置
JP7082175B2 (ja) 2020-12-21 2022-06-07 Kddi株式会社 仮想物体を表示する端末装置とサーバ装置とを含むシステム及び該サーバ装置

Similar Documents

Publication Publication Date Title
CA2888943C (en) Augmented reality system and method for positioning and mapping
JP5843340B2 (ja) 3次元環境共有システム及び3次元環境共有方法
US20160357491A1 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
WO2010027193A2 (en) Spatially correlated rendering of three-dimensional content on display components having arbitrary positions
JP6978701B2 (ja) 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム
WO2020084951A1 (ja) 画像処理装置および画像処理方法
JP6677890B2 (ja) 情報処理システム、その制御方法、及びプログラム、並びに情報処理装置、その制御方法、及びプログラム
CN106133582A (zh) 在头戴显示设备内结合实景图像流之方法及系统
WO2011152634A2 (ko) 모니터 기반 증강현실 시스템
JP2005174021A (ja) 情報提示方法及び装置
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
KR20190027079A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
JP6730577B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP6632322B2 (ja) 情報通信端末、共有管理装置、情報共有方法、コンピュータプログラム
US11430178B2 (en) Three-dimensional video processing
JP2018033107A (ja) 動画の配信装置及び配信方法
JP7335335B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2014174643A (ja) 画像処理システム、その制御方法、画像処理装置、及び画像処理方法
WO2019106862A1 (ja) 操作案内システム
JP7225016B2 (ja) Ar空間画像投影システム、ar空間画像投影方法及びユーザ端末
JP5326816B2 (ja) 遠隔会議システム、情報処理装置、及びプログラム
JP2018032991A (ja) 画像表示装置、画像表示方法及び画像表示用コンピュータプログラム
JP6376251B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP6689492B2 (ja) 端末装置、データ処理システム及びプログラム
JP6164177B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム