JP2015219590A - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
JP2015219590A
JP2015219590A JP2014100786A JP2014100786A JP2015219590A JP 2015219590 A JP2015219590 A JP 2015219590A JP 2014100786 A JP2014100786 A JP 2014100786A JP 2014100786 A JP2014100786 A JP 2014100786A JP 2015219590 A JP2015219590 A JP 2015219590A
Authority
JP
Japan
Prior art keywords
index
image
information processing
processing apparatus
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014100786A
Other languages
English (en)
Other versions
JP2015219590A5 (ja
JP6368142B2 (ja
Inventor
真一 荒谷
Shinichi Araya
真一 荒谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014100786A priority Critical patent/JP6368142B2/ja
Priority to US14/703,056 priority patent/US9696543B2/en
Publication of JP2015219590A publication Critical patent/JP2015219590A/ja
Publication of JP2015219590A5 publication Critical patent/JP2015219590A5/ja
Application granted granted Critical
Publication of JP6368142B2 publication Critical patent/JP6368142B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 撮像装置の位置姿勢を推定するため等に利用される指標を現実空間中に配する際の配置支援を行うための技術を提供すること。
【解決手段】 複数の指標のそれぞれに対して予め設定されている、現実空間中の配置位置を取得する。現実空間の画像内に写っている指標のうち規定の条件を満たす指標を対象指標として特定する。対象指標の配置位置を通知する。
【選択図】 図1

Description

本発明は、指標の配置支援技術に関するものである。
現実世界と仮想世界とをリアルタイムに融合させる技術として、複合現実感(MR:Mixed Reality)技術や拡張現実感(AR:Augmented Reality)技術が知られている。これらの技術は、現実空間とコンピュータによって作られる仮想空間とを繋ぎ目なく融合する技術である。これらは、組み立て作業時に作業手順や配線の様子を重畳表示する組み立て支援、患者の体表面に体内の様子を重畳表示する手術支援等、様々な分野への応用が期待される。
MR技術を実現する上で解決しなければならない大きな問題の一つとして、位置合わせの問題がある。仮想物体が現実空間に実在するように利用者が感じるためには、仮想物体と現実空間との間の幾何学的な整合性が取れている必要がある。即ち、仮想物体は現実空間中に存在するべき位置に存在しているように常に利用者から観察されなければならない。
また、観察者が、仮想物体を現実空間に実在するように感じるための装置の一つとして、ビデオシースルー型の情報処理装置がある。これは、ビデオカメラで現実世界を撮影し、その撮影画像に仮想物体を重畳した合成画像を、リアルタイムにディスプレイ等の表示部に表示させ、観察者に提示する装置である。一般にこのような情報処理装置としては、背面にビデオカメラを有するタブレット端末と呼ばれる携帯型情報端末や、頭部搭載型のビデオシースルー型HMD(Head Mounted Display)などが用いられる。
ビデオシースルー型HMDを利用するMRでは、HMDに内蔵されているカメラから画像が入力される毎に、画像撮影時のカメラの現実空間における位置及び姿勢を計測する。そしてこのカメラの位置及び姿勢と、焦点距離などのカメラの固有パラメータと、に基づいてCGを描画し、該CGを現実空間の画像上に重畳するという処理が一般的に行われる。そのため、ビデオシースルー型HMDを利用するMRの場合、位置合わせの問題は、HMDに内蔵したカメラの現実空間における位置及び姿勢を計測することに係る問題となる。これまでに、カメラの位置と姿勢を計測する種々の研究報告が行われている(非特許文献1)。
カメラの位置及び姿勢は、例えば磁気センサや超音波センサ、光学式センサなど6自由度の物理センサによって計測することが可能である。一方で、ビデオシースルー型HMDを利用する場合には、ビデオシースルー型HMDに内蔵されているカメラからの画像情報を位置合わせのために利用することが可能である。画像情報を利用する位置合わせ方法は、物理センサを利用する方法に比べて手軽且つ低コストであるため、広く利用されている。画像情報を利用する位置合わせ手法では、現実空間中における3次元位置が既知の指標をカメラで撮影し、指標の撮影画像上での位置と3次元位置との対応をもとにカメラの位置及び姿勢を推定することが行われている。指標としては、現実空間中に人為的に配置したマーカを用いる場合や、現実空間中に元来存在するコーナー点やエッジなどの自然特徴を利用する場合がある。
カメラの位置姿勢によっては撮影範囲内にある指標の画像特徴が十分撮影できない場合がある。例えば、MR体験者がCGに近づいて観察する場合に、指標がカメラの画角内に入らず撮影できなくなることがある。また、指標が平面的な場合、その平面の法線に対して、直交する方向から撮影する場合には、指標を十分に撮影することができない。したがって、任意の位置姿勢からでも指標の画像特徴が十分に撮影されるように指標を配置することが重要である。ただし、多数の指標を配置した場合には、指標検出の負荷が高くなりリアルタイム性を損なう可能性がある。また、現実空間とCGを合成するMRにおいて、景観の美観を損なうなど、不都合が生じる。
そこで、従来では、指標は、適度に分布し且つ適度な大きさで撮影されるように、経験に基づいた何らかの知見から生まれた指針に従って配置されている。さらに、指標の数が多い場合には、現実空間中で、どこにどのような指標を配置すればよいかを記載した設計図を作成する。
特許文献1に記載の技術では、MR体験者が適切な指標の配置が行えるように、すでに配置されている指標を用いて、新たな指標を配置すべき場所を、指標配置者に提示する。特許文献1に記載の技術では、すでに配置されている指標を用いて精度のよい位置合わせが行えていることを前提としている。配置済みの指標によって決定される「高精度な位置合わせ領域」と、配置しようとしている領域が隙間なく重なり過ぎないような位置を、新たに追加すべき指標の配置情報として、現実空間に重ねあわせて提示する。
特許第4689380号
佐藤, 内山, 田村, "複合現実感における位置合わせ手法", 日本VR学会論文誌,Vol.8,no.2,pp.171−180,2003.
特許文献1では、予め配置した指標によって精度のよい位置合わせが実現されていることを前提としており、新たに配置する指標を追加することを目的としている。そのため、指標を配置する前の状態では、配置すべき位置を提示することができない。
また、何らかの指針に基づいて作成された指標の配置の設計図があっても、カメラで認識するための指標は、コンピュータが識別しやすいように設計されているため、人が見てもすぐに識別しにくい。そのため、印刷された設計図やモニタに表示された配置情報のみを見ても、現実空間において、指標をどこに配置すればよいかわかりにくいという課題があった。
本発明はこのような問題に鑑みてなされたものであり、撮像装置の位置姿勢を推定するため等に利用される指標を現実空間中に配する際の配置支援を行うための技術を提供する。
本発明の一様態は、複数の指標のそれぞれに対して予め設定されている、現実空間中の配置位置を取得する手段と、前記現実空間の画像内に写っている指標のうち規定の条件を満たす指標を対象指標として特定する特定手段と、前記対象指標の配置位置を通知する通知手段とを備えることを特徴とする。
本発明の構成によれば、撮像装置の位置姿勢を推定するため等に利用される指標を現実空間中に配する際の配置支援を行うことができる。
システムの構成例を示すブロック図。 システムの外観及びその環境を示す図。 四角形指標の配置例を説明する図。 四角形指標を説明する図。 点指標を説明する図。 情報処理装置1000が行う処理のフローチャート。 ステップS2050における処理の詳細を示すフローチャート。 透視投影変換を説明する図。 システムの構成例を示すブロック図。 情報処理装置2000が行う処理のフローチャート。 コンピュータのハードウェア構成例を示すブロック図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態では、これから現実空間に配する複数の指標のそれぞれについて、その配置位置は予め決まっているものの、該配置位置が実際に現実空間中のどの位置であるのかをユーザに通知するシステムについて説明する。本実施形態に係るシステムの外観例及びその環境について、図2を用いて説明する。
ユーザ900は指標500cを手に持ち、これからこの指標500cを現実空間中に配しようとしている。この指標500cを配すべき位置(配置位置)は500aで示す如く予め決まっており、データとして情報処理装置1000に登録されている。しかし、指標500cの配置位置がいくらデータとして情報処理装置1000に登録されていたとしても、ユーザ900は、その配置位置が実際に現実空間のどこに相当するのかが分からない。
そこで本実施形態では、現実空間の様子は撮像装置100によって撮像され、その撮像画像は情報処理装置1000を介して表示部400に表示されるのであるが、この撮像画像中に、ユーザがこれから配しようとしている指標500cが写っていた場合には、情報処理装置1000は、自身が保持している「指標500cの配置位置」に相当する撮像画像上の箇所を通知することを特徴とする。図2では、この箇所に指標500cを表す画像500bが合成表示されており、ユーザはこの合成画像を見ることで、現実空間において500aで表す位置を把握することができる。
次に、本実施形態に係るシステムの構成例について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係るシステムは、撮像装置100、表示部400、配置情報入力部200、位置姿勢入力部300、情報処理装置1000、を有する。
先ず、撮像装置100について説明する。撮像装置100は、現実空間の動画像(連続静止画像を含む)を撮像する装置であり、本実施形態では、撮像装置100は、天井など現実空間中に固定して配置されているものとする。すなわち、歪み補正係数や焦点距離などの内部パラメータや、位置姿勢などの外部パラメータは、全て予め校正されて固定されているものとする。しかし、実施形態によってはこれに限るものではなく、これらのパラメータが変化しようとも、その時々のパラメータが取得可能であれば構わない。
次に、表示部400について説明する。表示部400は、CRTや液晶画面などにより構成されており、情報処理装置1000による処理結果を画像や文字などでもって表示することができる。なお、表示部400は、現実空間中に固定して配置される表示装置であっても構わないし、頭部装着型表示装置が有する表示装置であっても構わない。
次に、配置情報入力部200について説明する。配置情報入力部200は、これから現実空間中に配置する各指標について、該指標の配置位置、該指標に固有の識別子、を含む配置情報を情報処理装置1000に入力するためのものである。配置情報入力部200は、ユーザが各指標の配置情報を入力するために操作するユーザインターフェース(キーボードやマウス)であっても構わないし、予め各指標の配置情報が登録された装置(ハードディスクドライブ装置やサーバ装置)であっても構わない。すなわち、情報処理装置1000に各指標の配置情報を供給可能な装置であれば、如何なる装置であっても構わない。換言すれば、情報処理装置1000に各指標の配置情報を入力する方法には様々な方法があり、特定の入力方法に限るものではない。
次に、位置姿勢入力部300について説明する。位置姿勢入力部300は、撮像装置100の位置姿勢を情報処理装置1000に入力するためのものである。位置姿勢入力部300は、ユーザが撮像装置100の位置姿勢を入力するために操作するユーザインターフェース(キーボードやマウス)であっても構わないし、予め撮像装置100の位置姿勢が登録された装置(ハードディスクドライブ装置やサーバ装置)であっても構わない。また、位置姿勢入力部300は、撮像装置100の位置姿勢を計測するセンサであっても構わない。この場合、撮像装置100とセンサとの間の位置姿勢関係は予め校正されており、センサによる計測値を撮像装置100の位置姿勢としても構わないし、センサによる計測値に適当な変換を施すことで得られる位置姿勢を撮像装置100の位置姿勢としても構わない。このように、情報処理装置1000に撮像装置100の位置姿勢を供給可能な装置であれば、如何なる装置であっても構わない。換言すれば、情報処理装置1000に撮像装置100の位置姿勢を入力する方法には様々な方法があり、特定の入力方法に限るものではない。
次に、情報処理装置1000について説明する。画像取得部1010は、撮像装置100から順次送出される各フレームの画像を取得し、該取得した画像を後段のデータ記憶部1020に格納する。
なお、データ記憶部1020に現実空間の画像を取り込む方法は上記の方法に限るものではなく、例えば、ハードディスク装置等の外部メモリに予め格納されている現実空間の動画像をデータ記憶部1020に読み出しても構わない。また、ネットワークを介して本装置に接続されている機器から送信される各フレームの現実空間の画像を取得してデータ記憶部1020に取り込んでも構わない。
配置情報取得部1030は、配置情報入力部200にて入力された各指標の配置情報を取得し、該取得した配置情報を後段のデータ記憶部1020に格納する。位置姿勢取得部1040は、位置姿勢入力部300にて入力された撮像装置100の位置姿勢を取得し、該取得した位置姿勢を後段のデータ記憶部1020に格納する。
指標検出部1050は、データ記憶部1020に格納されている各フレームの画像を順次読み出し、該読み出した画像から指標の検出を行う。ここで、指標及び該指標の検出について、図3A〜3Cを用いて説明する。
図3Aには、四角形の指標(四角形指標)が3つ(P,P,P)現実空間中に配されている様子を示している。この四角形指標は、図3Bに示す如く(図3Bでは指標Pを例にとっている)、その内部に自身に固有の識別子を表すパターンが記されており、且つ頂点P21、P22、P23、P24を有する。
このような指標を画像から検出する場合、指標検出部1050は、画像に対して2値化処理を施した後にラベリング処理を行い、一定面積以上の領域の中から4つの直線によって形成されている領域を候補領域として抽出する。そして指標検出部1050は、抽出したそれぞれの候補領域に対し、該候補領域の中に特定のパターン(指標の識別子を表すパターン)があるか否かを判定することによって該候補領域が指標の領域であるかを判定する。そして指標検出部1050は、指標が写っていると判定した候補領域からパターンを読み出し、該読み出したパターンに基づいて該指標の識別子及び該画像内における該指標の位置を検出する。そして指標検出部1050は、画像から検出したそれぞれの指標について、該指標の識別子、該指標の画像内における位置、をセットにしてデータ記憶部1020に登録する。
もちろん、指標の形状は四角形に限るものではなく、n角形(nは5以上の整数)であっても構わない。また、図3Cに示す如く、それぞれが異なる色を有する円形状の指標のような点指標であってもよい。この場合、指標検出部1050は、画像から各々の指標の色に対応する領域を検出し、検出した領域の重心位置を指標の検出座標とする。
また、それぞれが異なるテクスチャ特徴を有する特徴点(自然特徴点)を点指標としてもよい。この場合、指標検出部1050は、既知の情報として予め保持している各々の指標のテンプレート画像によるテンプレートマッチングを画像上に施すことにより、画像から指標を抽出する。これに限らず、空間中に固定される指標であってそれを撮影した画像から検出可能なものであればどのような指標であってもかまわない。
このように、本実施形態で用いることができる指標は、画像から検出可能で且つその識別子と画像内における位置(画像座標)が検出可能であれば、如何なる指標であっても構わない。
対象指標判定部1060は、指標検出部1050が画像から検出した指標のうち規定の条件を満たす指標を対象指標として特定する。対象指標の特定方法には様々な方法があり、これについては以下で詳しく説明する。そして対象指標判定部1060は、データ記憶部1020に格納されている指標毎のセット(識別子と画像座標のセット)のうち対象指標のセットを、他のセットとは識別可能にデータ記憶部1020内で管理する。
対象指標投影部1070は、データ記憶部1020に登録されている対象指標の配置情報中の配置位置を、データ記憶部1020から読み出した画像上に投影した投影位置(対応位置)を求め、該求めた投影位置を該画像と共に画像出力部1080に対して送出する。
画像出力部1080は、対象指標投影部1070から画像及び投影位置を受けると、該画像上に「該投影位置が対象指標を配置する位置である」ことを示す情報を合成した合成画像を生成し、該生成した合成画像を表示部400に対して送出する。
次に、情報処理装置1000が、撮像装置100による撮像画像上に、対象指標を配する位置を示す情報を合成して出力するために行う一連の処理について、図4のフローチャートを用いて説明する。なお、図4のフローチャートに従った処理は、撮像装置100から送出される各フレームの画像に対して行われる。
<ステップS2010>
配置情報取得部1030は、配置情報入力部200によって入力された各指標の配置情報を取得し、該取得した配置情報をデータ記憶部1020に格納する。なお、以下では、各指標の配置位置は、世界座標系(現実空間中の1点を原点とし、該原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系)におけるものとするが、処理の内容によっては、他の座標系における配置位置としても構わない。
<ステップS2020>
位置姿勢取得部1040は、位置姿勢入力部300によって入力された撮像装置100の位置姿勢を取得し、該取得した位置姿勢をデータ記憶部1020に格納する。なお、撮像装置100の位置姿勢は、世界座標系におけるものとするが、処理の内容によっては、他の座標系における位置姿勢としても構わない。また、データ記憶部1020には、撮像装置100の上記内部パラメータが予め登録されているものとする。もちろん、この内部パラメータは、位置姿勢入力部300によってデータ記憶部1020に入力されても構わない。
<ステップS2030>
画像取得部1010は、撮像装置100から送出された現実空間の撮像画像を取得し、該取得した撮像画像をデータ記憶部1020に格納する。
<ステップS2040>
指標検出部1050は、ステップS2030でデータ記憶部1020に格納した撮像画像(若しくはデータ記憶部1020に最も過去に登録された、指標検出を未だ行っていない画像)を対象画像とし、該対象画像から指標を検出する処理を行う。
対象画像中にN個の四角形指標Pkn(n=1、…、N)が含まれている場合、指標検出部1050は、N個の四角形指標Pknのそれぞれについて、識別子knと、4つの頂点pkni(i=1,2,3,4)の画像座標upkniから計算される1点の画像座標と、をセットにしてデータ記憶部1020に格納する。4つの頂点の画像座標から計算される1点の画像座標は、4つの頂点の画像座標の平均画像座標であっても良いし、4つの頂点の画像座標のうちの1つであっても構わない。
図3Aの場合には、3つの指標が撮像画像中に含まれることになり、以下の3セットがデータ記憶部1020に格納されることになる
・ {識別子k1=1、uPk11及びuPk12及びuPk13及びuPk14から計算される1点の画像座標}
・ {識別子k2=2、uPk21及びuPk22及びuPk23及びuPk24から計算される1点の画像座標}
・ {識別子k3=3、uPk31及びuPk32及びuPk33及びuPk34から計算される1点の画像座標}
<ステップS2050>
対象指標判定部1060は、対象画像と、該対象画像の1フレーム過去の撮像画像(過去撮像画像)と、を用いて、該対象画像から検出した指標のうち規定の条件を満たす指標を対象指標として特定する。そして対象指標判定部1060は、データ記憶部1020に格納されている指標毎のセットのうち対象指標のセットを、他のセットとは識別可能にデータ記憶部1020内で管理する。これは少なくとも、対象指標の識別子が非対象指標の識別子と識別可能に管理されていればよい。
ステップS2050における処理の詳細について、図5のフローチャートを用いて説明する。なお、図5のフローチャートに従った処理は、対象画像から検出したそれぞれの指標について行われる。以下の説明では、対象画像から検出したそれぞれの指標のうち着目指標について行われる処理を例にとり説明するが、他の指標についても同様の処理を行うことになる。
<ステップS2051>
先ず、過去撮像画像から検出したそれぞれの指標の識別子のうち、対象画像から検出した着目指標と同じ識別子を特定し、該特定した識別子と同セット中の画像座標を取得する。そして、該取得した画像座標と、対象画像から検出した着目指標の画像座標と、の差分Δuを求める。
<ステップS2053>
差分Δuが規定の閾値Tよりも大きいか否かを判断する。この判断の結果、Δu>Tであれば処理はステップS2054に進み、Δu≦Tであれば、着目指標に係る図5のフローチャートに従った処理は終了する。
<ステップS2054>
着目指標についてデータ記憶部1020に登録したセットを対象指標のセットとし、該対象指標のセットを、非対象指標のセットと識別可能に管理する。即ち、図5のフローチャートに従った処理を、対象画像から検出したそれぞれの指標について行うことで、対象画像から検出したそれぞれの指標のうち、画像内で閾値よりも大きく動いた指標を対象指標として検出することができ、例えば、ユーザが、これから指標を配置しようとして手に持ってる場合などに、この手に持っている「これから配置しようとしている指標」を対象指標として判定することができる。
<ステップS2060>
対象指標投影部1070は先ず、データ記憶部1020内に格納されている各指標の配置情報のうち、ステップS2050にて特定した対象指標の識別子を含む配置情報を、対象指標の配置情報として特定する。そして対象指標投影部1070は、この特定した配置情報中の配置位置を、撮像装置100の位置姿勢を用いて対象画像上に投影した投影位置(ux、uy)を求める。ここで、この投影位置(ux、uy)を求める為の処理について説明する。
はじめに透視投影変換について説明する。図6はカメラ座標系(例えば撮像装置100のレンズ位置を原点とし、該原点で直交する3軸をそれぞれx軸、y軸、z軸とする座標系)及び画面座標系(撮像装置100の撮像面内で定義される座標系)を説明する図である。画面座標系の原点oiは視軸と画像面の交点にとり、画像の水平方向をxi軸、垂直方向をyi軸にとる。また、カメラ座標系の原点ocと画像面との距離(焦点距離)をfとし、カメラ座標系のzc軸は視軸の反対方向、xc軸は画像の水平方向と平行に、yc軸は画像の垂直方向と平行にとる。
透視投影変換により、カメラ座標系上の点xc=[xc yc zc]は、以下の式(1)のように画面座標がu=[ux uy]である点に投影される。
Figure 2015219590
式(1)は、図6に示すように、空間中の点と該点の画像上の投影点とカメラ位置(視点)は同一直線上に存在することを示しており、共線条件式とも呼ばれる。世界座標系における撮像装置の位置をt=[tx ty tz]、撮像装置の姿勢(実際には、カメラ座標系に対する世界座標系の姿勢)をω=[ωx ωy ωz]であるとする。ωは3自由度の姿勢表現方法であり、姿勢を回転軸ベクトル及び回転角で表現している。回転角をraとすると、raはωによって、以下の式(2)のように表される。
Figure 2015219590
また、回転軸ベクトルをr=[rx ry rz]とすると、rとωの関係は、以下の式(3)のように表される。
Figure 2015219590
ω(回転角ra、回転軸ベクトルr)と3×3回転変換行列Rとの関係は、以下の式(4)のように表される。
Figure 2015219590
世界座標系上の点xw=[xw yw zw]のカメラ座標xcはt、Rによって、以下の式(5)のように表される。
Figure 2015219590
以上の式(1)、(5)から、透視投影変換によって、世界座標上の点xw=[xw yw zw]は、以下の式(6)のように画像上の点u=[ux uy]に投影される。
Figure 2015219590
以上により、撮像装置の位置及び姿勢と対象指標の配置位置から、対象指標の投影座標(ux,uy)を推定することができる。そして対象指標投影部1070は、このようにして求めた投影位置を、対象画像と共に画像出力部1080に対して送出する。
<ステップS2070>
画像出力部1080は、対象画像上の投影位置を指し示すような情報を該対象画像上に合成した合成画像を生成する。例えば、対象画像上の投影位置に指標を表すマーカ画像を合成しても構わないし、該投影位置を指し示す矢印を該対象画像上に合成しても構わない。要するに、この対象画像上の投影位置を表す情報を見たユーザが、現実空間において対応する箇所が分かるのであれば、この情報として採用可能なものは如何なるものであっても構わない。
このように、本実施形態によれば、指標を現実空間に配置する際に、これから配置しようとしている指標を対象指標として判定し、撮像装置の位置姿勢と対象指標の配置情報から、対象指標の投影位置を推定してユーザに提示するので、現実空間に配置すべき位置を通知することができる。これにより、ユーザが、コンピュータが識別しやすいように設計されているために人が見てもすぐに識別しにくい指標を配置する際に、簡単かつ短時間で指標を配置するための提示を行うことが可能になる。
<変形例>
上記の説明では、フレーム間で動き量が大きい指標を対象指標として特定したが、上記の通り、対象指標の特定方法はこれに限るものではない。例えば、撮像画像中に写っているそれぞれの指標のうち、該指標の検出画像座標と、該指標の配置情報中の配置位置を撮像画像上に投影(第1の実施形態と同様の投影方法で投影)した投影座標と、の間の差が規定値以上である指標を対象指標として特定しても構わない。すなわち、配置位置が予め定められているにもかかわらず、未だユーザが手に持っていたり、すでに間違った位置に配置してしまったりして、指標が該配置位置にはない場合には、この指標については対象指標として特定し、ユーザに配置位置を通知する。
[第2の実施形態]
第1の実施形態では、対象指標の配置位置を、撮像装置100の位置姿勢に基づいて撮像画像上に投影した投影位置若しくはその近傍に何らかの情報を表示していた。しかし、この投影位置が撮像画像外の位置になってしまった場合、この撮像画像上には投影位置を通知するための情報が合成されなくなる。そこで本実施形態ではこのようなケースが発生した場合には、投影位置が含まれるような撮像画像を撮像できるように撮像装置100のパン・チルト・ズームを制御する。然るに本実施形態の場合、撮像装置100は、情報処理装置1000からの制御信号により、パン・チルト・ズームが制御可能な撮像装置である。このような撮像装置としては、例えば、遠隔からパンまたはチルトまたはズームを制御可能なネットワークカメラがある。また、他にも、USBカメラや1394カメラなどのカメラであっても構わない。
パンまたはチルトを制御すると、撮像装置100の位置及び姿勢が変化する。また、ズームを制御すると、レンズ歪み補正のためのパラメータや、焦点距離などのカメラ固有のパラメータが変化する。そこで、撮像装置100のパンまたはチルトまたはズームを変化させた変化量にあわせて、カメラパラメータを変更すればよい。パンまたはチルト量が、撮像の回転となるように予め、キャリブレーションしておく。キャリブレーションの方法は、公知の何れの方法であってもよい。また、ズーム量にあわせて変換する焦点距離や歪み補正係数などのカメラパラメータも、予め、ズーム値ごとのカメラパラメータを求めておき、参照テーブル(Look up table)を作成しておく。それを参照することで、ズーム値ごとのカメラパラメータを利用することができる。
このような構成において、対象指標投影部1070は、投影位置が撮像画像上の画像座標から外れた位置にあると判断した場合には、パン・チルト・ズームの1以上を制御するための制御信号を撮像装置100に送出するので、撮像装置100はこの制御信号に応じてパン・チルト・ズームの1以上を制御することになる。そして以降は、この制御後のカメラパラメータを用いる以外は第1の実施形態と同様の処理を行う。そして未だ投影位置が撮像画像上の画像座標から外れた位置にある場合には、更にパン・チルト・ズームの1以上を制御する。これにより最終的には、投影位置が撮像画像上の画像座標となる。
このように、本実施形態によれば、指標を現実空間に配置する際に、これから配置しようとしている指標を対象指標として判定し、撮像装置の位置姿勢と対象指標の配置情報から推定した対象指標の投影位置が撮像装置の画角内に入っていない場合であっても、該投影位置が該画角に入るように撮像装置のパン・チルト・ズームの1以上を制御することで、画角内に投影位置を納めることができる。
[第3の実施形態]
第1,2の実施形態では、表示部400に表示する画像上に、対象指標の配置位置を示す情報を合成していたが、対象指標の配置位置をユーザに提示することができるのであれば、他の方法を採用しても構わない。本実施形態では、対象指標の配置位置に、該配置位置が該対象指標を配置すべき位置であることを示す情報を投影(投射)する。
先ず、本実施形態に係るシステムの構成例について、図7のブロック図を用いて説明する。なお、図7において図1に示した機能部と同じ機能部には同じ参照番号を付しており、この機能部に係る説明は省略する。また、以下では、第1の実施形態との相違点について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。
また、本実施形態では、情報処理装置1000の代わりに情報処理装置2000を用いており且つ、情報処理装置2000に位置姿勢入力部500が接続されている点が、第1の実施形態に係るシステムと異なる。
本実施形態では、表示部400は画像出力部1080から出力される画像や文字をスクリーンや壁面などに投影する投影装置(プロジェクタ)である。
位置姿勢入力部500は、表示部400の位置姿勢を情報処理装置1000に入力するためのものである。位置姿勢入力部500は、ユーザが表示部400の位置姿勢を入力するために操作するユーザインターフェース(キーボードやマウス)であっても構わないし、予め表示部400の位置姿勢が登録された装置(ハードディスクドライブ装置やサーバ装置)であっても構わない。また、位置姿勢入力部500は、表示部400の位置姿勢を計測するセンサであっても構わない。この場合、表示部400とセンサとの間の位置姿勢関係は予め校正されており、センサによる計測値を表示部400の位置姿勢としても構わないし、センサによる計測値に適当な変換を施すことで得られる位置姿勢を表示部400の位置姿勢としても構わない。また、市松模様などのパターンを表示部400によって平面板に投影し、位置姿勢が既知で且つ外部パラメータ及び内部パラメータが校正された撮像装置で撮影した画像から市松模様を検出し、対応点を求めることで表示部400の位置姿勢を推定しても構わない。なお、表示部400の焦点距離や画像中心やレンズ歪みといった機器固有の内部パラメータは予め公知の方法で求めておき、データ記憶部1020に登録しておく。
このように、情報処理装置1000に表示部400の位置姿勢を供給可能な装置であれば、如何なる装置であっても構わない。換言すれば、情報処理装置1000に表示部400の位置姿勢を入力する方法には様々な方法があり、特定の入力方法に限るものではない。
位置姿勢取得部1090は、位置姿勢入力部500により入力された表示部400の位置姿勢を取得すると、該取得した位置姿勢をデータ記憶部1020に格納する。
対象指標投影部1070は第1の実施形態と同様にして、対象指標の配置位置を表示部400の位置姿勢に基づいて、表示部400内(投影装置内)で投影像を表示する表示面(画像表示面)上に投影した投影位置を求めると、該投影位置を画像出力部1080に送出する。
画像出力部1080は、対象指標投影部1070から投影位置を受けると、該表示部400内の表示面上(画像表示面上)に「該投影位置が対象指標を配置する位置である」ことを示す情報を表示するような表示画像を生成し、該生成した表示画像を表示部400に対して送出する。
次に、本実施形態に係る情報処理装置2000が、対象指標の配置位置に、該配置位置が該対象指標を配置すべき位置であることを投影させるために行う一連の処理について、図8のフローチャートを用いて説明する。なお、図8のフローチャートに従った処理は、撮像装置100から送出される各フレームの画像に対して行われる。
ステップS3010及びS3020のそれぞれのステップにおける処理は、上記のステップS2010及びS2020における処理と同様であるために、これらのステップに係る説明は省略する。
<ステップS3025>
位置姿勢取得部1090は、位置姿勢入力部500によって入力された表示部400の位置姿勢を取得し、該取得した位置姿勢をデータ記憶部1020に格納する。
ステップS3030〜S3050のそれぞれのステップにおける処理は、上記のステップS2030〜S2050における処理と同様であるために、これらのステップに係る説明は省略する。
<ステップS3065>
対象指標投影部1070は、第1の実施形態と同様にして、表示部400の位置姿勢に基づいて、対象指標の配置位置を表示部400内の表示面上に投影した投影位置を求める。より詳しくは、世界座標系における表示部400の位置をt=[tx ty tz]、表示部400の姿勢(実際には、表示部400に固有の座標系に対する世界座標系の姿勢)をω=[ωx ωy ωz]として、上記のステップS2060における処理と同様の処理を行う。このように、撮像装置の位置及び姿勢と対象指標の配置情報から、対象指標の投影座標(ux,uy)を推定する処理と、表示部400の位置及び姿勢と対象指標の配置情報から、対象指標の投影座標を推定する処理と、は同様である。そして対象指標投影部1070は、このようにして求めた投影位置を、画像出力部1080に対して送出する。
<ステップS3070>
画像出力部1080は、表示部400が有する表示面上の投影位置に指標を表すマーカ画像を配置した画像を生成しても構わないし、該投影位置を指し示す矢印を該表示面上に配置した画像を生成しても構わない。要するに、表示部400による投射結果を見たユーザが、現実空間において対象指標の配置位置が分かるのであれば、投射する情報として採用可能なものは如何なるものであっても構わない。
このように、現実空間に重ね合わせるように投影位置を示す情報を投射することで、ユーザは、簡単かつ短時間で指標を配置することができる。
[第4の実施形態]
第3の実施形態では、対象指標の配置位置を表示部400の位置姿勢に基づいて該表示部400の表示面上に投影した投影位置を求めているが、この求めた投影位置が表示面外の位置になってしまった場合、投影位置を示す情報を投射することはできない。そこで本実施形態ではこのようなケースが発生した場合には、投影位置が表示部400の画角内に収まるように表示部400のパン・チルト・ズームを制御する。然るに本実施形態の場合、表示部400は、情報処理装置1000からの制御信号により、パン・チルト・ズームが制御可能な投影装置である。
パンまたはチルトを制御すると、表示部400の位置及び姿勢が変化する。また、ズームを制御すると、レンズ歪み補正のためのパラメータや、焦点距離などの投影装置固有のパラメータが変化する。そこで、表示部400のパンまたはチルトまたはズームを変化させた変化量にあわせて、投影装置パラメータを変更すればよい。パンまたはチルト量が、投射の回転となるように予め、キャリブレーションしておく。これにより、表示部400の回転中心とパンまたはチルトの回転中心のオフセット量を求めておき、そのオフセット量を、パンまたはチルト量に加えることで、表示部400の姿勢を求める。キャリブレーションの方法は、公知の何れの方法であってもよい。また、ズーム量にあわせて変換する焦点距離や歪み補正係数などの投影装置パラメータも、予め、ズーム値ごとの投影装置パラメータを求めておき、参照テーブル(Look up table)を作成しておく。それを参照することで、ズーム値ごとの投影装置パラメータを利用することができる。
このような構成において、対象指標投影部1070は、投影位置が表示面から外れた位置にあると判断した場合には、パン・チルト・ズームの1以上を制御するための制御信号を表示部400に送出するので、表示部400はこの制御信号に応じてパン・チルト・ズームの1以上を制御することになる。そして以降は、この制御後の投影装置パラメータを用いる以外は第3の実施形態と同様の処理を行う。そして未だ投影位置が表示面から外れた位置にある場合には、更にパン・チルト・ズームの1以上を制御する。これにより最終的には、投影位置が表示面上(画像表示面内)の画像座標となる。
このように、本実施形態によれば、投影装置の位置姿勢と対象指標の配置情報から推定した対象指標の投影位置が投影装置の画角内に入っていない場合であっても、該投影位置が該画角に入るように投影装置のパン・チルト・ズームの1以上を制御することで、画角内に投影位置を納めることができる。
[第5の実施形態]
図1,2のそれぞれに示した情報処理装置1000を構成する各機能部、情報処理装置2000を構成する各機能部は何れもハードウェアで構成しても構わないが、データ記憶部1020をメモリ装置で構成し、それ以外の機能部をソフトウェア(コンピュータプログラム)で構成しても構わない。この場合、このようなメモリ装置を有し、且つこのコンピュータプログラムを実行可能なコンピュータであれば、情報処理装置1000や情報処理装置2000に適用することができる。
このようなコンピュータのハードウェア構成例について、図9を用いて説明する。なお、図9に示した構成は、このようなコンピュータのハードウェア構成の一例に過ぎず、このような構成に限るものではない。
CPU4001は、RAM4002やROM4003に格納されているコンピュータプログラムやデータを用いて処理を実行することで、本コンピュータ全体の動作制御を行うと共に、本コンピュータを適用する情報処理装置1000や情報処理装置2000が実行するものとして上述した各処理を実行する。
RAM4002は、外部記憶装置4007や記憶媒体ドライブ4008からロードされたコンピュータプログラムやデータを格納するためのエリアを有する。また、RAM4002は、I/F(インターフェース)4009を介して外部(撮像装置100、配置情報入力部200、位置姿勢入力部300、500等)から入力されたデータを格納するためのエリアも有する。また、RAM4002は、CPU4001が各種の処理を実行する際に用いるワークエリアも有する。このように、RAM4002は、各種のエリアを適宜提供することができる。RAM4002は、例えば、図1,2のデータ記憶部1020としても機能することができる。ROM4003には、本コンピュータの設定データやブートプログラムなど、書き換え不要のコンピュータプログラムやデータが格納されている。
キーボード4004やマウス4005は、本コンピュータのユーザが各種の指示やデータを入力するために操作するユーザインターフェースの一例であり、ユーザはこのようなユーザインターフェースを操作することで、各種の指示やデータをコンピュータに対して入力することができる。
外部記憶装置4007は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置4007には、OS(オペレーティングシステム)や、情報処理装置1000や情報処理装置2000においてデータ記憶部1020以外の各機能部が実行するものとして上述した各処理をCPU4001に実行させるためのコンピュータプログラムやデータが保存されている。このデータには、上記の説明において既知の情報として取り扱ったものも含まれている。外部記憶装置4007に保存されているコンピュータプログラムやデータは、CPU4001による制御に従って適宜RAM4002にロードされ、CPU4001による処理対象となる。
記憶媒体ドライブ4008は、CD−ROMやDVD−ROM等の記憶媒体に記録されているコンピュータプログラムやデータを読み出し、該読み出したコンピュータプログラムやデータをRAM4002や外部記憶装置4007に出力するものである。なお、外部記憶装置4007に保存されているものとして上述したもののうち一部をこの記憶媒体に記録しておいても構わない。
I/F4009は、上記の撮像装置100、配置情報入力部200、位置姿勢入力部300、位置姿勢入力部500、等の機器を本コンピュータに接続するためのインターフェースである。図9では模式的に1つのI/Fしか示していないが、実際には本コンピュータに接続する機器毎にI/Fが設けられている。例えば、本コンピュータに撮像装置100を接続するためのI/Fは、撮像装置100の出力がIEEE1394などのデジタル出力であれば、例えば、IEEE1394インターフェースボードによって実現される。また、撮像装置100の出力がNTSC信号などのアナログ出力であれば、本コンピュータに撮像装置100を接続するためのI/Fは、アナログビデオキャプチャーボードによって実現される。
上記の各部は何れも共通のバス4010に接続されている。また、情報処理装置1000や情報処理装置2000を1つのコンピュータでもって構成することに限らず、2台以上のコンピュータで構成しても構わない。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
1030:配置情報取得部 1060:対象指標判定部 1070:対象指標投影部 1080:画像出力部 400:表示部

Claims (9)

  1. 複数の指標のそれぞれに対して予め設定されている、現実空間中の配置位置を取得する手段と、
    前記現実空間の画像内に写っている指標のうち規定の条件を満たす指標を対象指標として特定する特定手段と、
    前記対象指標の配置位置を通知する通知手段と
    を備えることを特徴とする情報処理装置。
  2. 前記特定手段は、前記画像内に写っている指標のうち該画像内における動き量が規定の閾値より大きい指標を前記対象指標として特定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記特定手段は、前記画像内に写っている指標のうち、該画像上における該指標の位置と該指標の配置位置に対応する該画像上の対応位置との差が規定値以上となる指標を前記対象指標として特定することを特徴とする請求項1に記載の情報処理装置。
  4. 前記通知手段は、前記現実空間の画像を撮像する撮像装置の位置姿勢に基づいて、前記対象指標の配置位置を前記画像上に投影した位置を投影位置として求め、前記画像上の該投影位置若しくはその近傍に前記対象指標に関する情報を合成して表示することを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
  5. 更に、
    前記投影位置が前記画像から外れた位置となった場合には、該位置が前記画像内の位置となるように前記撮像装置のパン、チルト、ズームの1以上を制御する手段を備えることを特徴とする請求項4に記載の情報処理装置。
  6. 前記通知手段は投影装置であり、該投影装置の位置姿勢に基づいて、前記対象指標の配置位置を該投影装置内の画像表示面上に投影した位置を投影位置として求め、該投影位置を示す情報を投影することを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
  7. 更に、
    前記投影位置が前記画像表示面から外れた位置となった場合には、該位置が前記画像表示面内の位置となるように前記投影装置のパン、チルト、ズームの1以上を制御する手段を備えることを特徴とする請求項6に記載の情報処理装置。
  8. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の取得手段が、複数の指標のそれぞれに対して予め設定されている、現実空間中の配置位置を取得する工程と、
    前記情報処理装置の特定手段が、前記現実空間の画像内に写っている指標のうち規定の条件を満たす指標を対象指標として特定する特定工程と、
    前記情報処理装置の通知手段が、前記対象指標の配置位置を通知する通知工程と
    を備えることを特徴とする情報処理方法。
  9. コンピュータを、請求項1乃至7の何れか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。
JP2014100786A 2014-05-14 2014-05-14 情報処理装置、情報処理方法 Active JP6368142B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014100786A JP6368142B2 (ja) 2014-05-14 2014-05-14 情報処理装置、情報処理方法
US14/703,056 US9696543B2 (en) 2014-05-14 2015-05-04 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014100786A JP6368142B2 (ja) 2014-05-14 2014-05-14 情報処理装置、情報処理方法

Publications (3)

Publication Number Publication Date
JP2015219590A true JP2015219590A (ja) 2015-12-07
JP2015219590A5 JP2015219590A5 (ja) 2017-03-30
JP6368142B2 JP6368142B2 (ja) 2018-08-01

Family

ID=54538969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014100786A Active JP6368142B2 (ja) 2014-05-14 2014-05-14 情報処理装置、情報処理方法

Country Status (2)

Country Link
US (1) US9696543B2 (ja)
JP (1) JP6368142B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017129992A (ja) * 2016-01-19 2017-07-27 キヤノン株式会社 情報処理装置およびその制御方法
WO2020012955A1 (ja) * 2018-07-09 2020-01-16 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10281976B2 (en) 2015-07-07 2019-05-07 Seiko Epson Corporation Display device, control method for display device, and computer program
JP6789624B2 (ja) 2015-11-20 2020-11-25 キヤノン株式会社 情報処理装置、情報処理方法
US20170169612A1 (en) 2015-12-15 2017-06-15 N.S. International, LTD Augmented reality alignment system and method
US10603133B2 (en) * 2016-07-11 2020-03-31 Taiwan Main Orthopaedic Biotechnology Co., Ltd. Image guided augmented reality method and a surgical navigation of wearable glasses using the same
US10127727B1 (en) 2017-01-10 2018-11-13 Meta Company Systems and methods to provide an interactive environment over an expanded field-of-view
US20180268614A1 (en) * 2017-03-16 2018-09-20 General Electric Company Systems and methods for aligning pmi object on a model
US10282912B1 (en) 2017-05-26 2019-05-07 Meta View, Inc. Systems and methods to provide an interactive space over an expanded field-of-view with focal distance tuning
US10796477B2 (en) * 2017-06-20 2020-10-06 Edx Technologies, Inc. Methods, devices, and systems for determining field of view and producing augmented reality
US10585284B1 (en) 2017-11-17 2020-03-10 Meta View, Inc. Systems and methods to provide an interactive environment over a wide field of view
JP7360243B2 (ja) 2019-02-15 2023-10-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP7468523B2 (ja) * 2019-06-05 2024-04-16 ソニーグループ株式会社 移動体、位置推定方法、およびプログラム
JP2022133133A (ja) * 2021-03-01 2022-09-13 キヤノン株式会社 生成装置、生成方法、システム、およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209259A (ja) * 2005-01-25 2006-08-10 Fuji Xerox Co Ltd 操作支援システム及び操作支援方法、並びにコンピュータ・プログラム
JP2007064684A (ja) * 2005-08-29 2007-03-15 Canon Inc マーカ配置補助方法及び装置
JP2008275340A (ja) * 2007-04-25 2008-11-13 Canon Inc 情報処理装置、情報処理方法
JP4689380B2 (ja) * 2004-09-28 2011-05-25 キヤノン株式会社 情報処理方法および装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3486613B2 (ja) * 2001-03-06 2004-01-13 キヤノン株式会社 画像処理装置およびその方法並びにプログラム、記憶媒体
JP4739004B2 (ja) * 2005-12-15 2011-08-03 キヤノン株式会社 情報処理装置及び情報処理方法
JP5517397B2 (ja) * 2006-08-11 2014-06-11 キヤノン株式会社 画像処理方法、画像処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4689380B2 (ja) * 2004-09-28 2011-05-25 キヤノン株式会社 情報処理方法および装置
JP2006209259A (ja) * 2005-01-25 2006-08-10 Fuji Xerox Co Ltd 操作支援システム及び操作支援方法、並びにコンピュータ・プログラム
JP2007064684A (ja) * 2005-08-29 2007-03-15 Canon Inc マーカ配置補助方法及び装置
JP2008275340A (ja) * 2007-04-25 2008-11-13 Canon Inc 情報処理装置、情報処理方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017129992A (ja) * 2016-01-19 2017-07-27 キヤノン株式会社 情報処理装置およびその制御方法
WO2020012955A1 (ja) * 2018-07-09 2020-01-16 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11393177B2 (en) 2018-07-09 2022-07-19 Sony Corporation Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
US9696543B2 (en) 2017-07-04
JP6368142B2 (ja) 2018-08-01
US20150332506A1 (en) 2015-11-19

Similar Documents

Publication Publication Date Title
JP6368142B2 (ja) 情報処理装置、情報処理方法
JP2017096725A (ja) 情報処理装置、情報処理方法
JP5777786B1 (ja) 情報処理装置、情報処理方法、プログラム
JP4677281B2 (ja) 画像処理方法、画像処理装置
JP4757115B2 (ja) 画像処理装置、画像処理方法
JP5117418B2 (ja) 情報処理装置及び情報処理方法
JP2004233334A (ja) 位置姿勢計測方法
JP2017129567A (ja) 情報処理装置、情報処理方法、プログラム
US10386633B2 (en) Virtual object display system, and display control method and display control program for the same
KR102539427B1 (ko) 화상 처리장치, 화상 처리방법, 및 기억매체
JPWO2017017790A1 (ja) 画像生成装置、画像生成システム及び画像生成方法
JP2005256232A (ja) 3dデータ表示方法、装置、およびプログラム
JP2007293453A (ja) 画像からの色情報の取得方法
CN112912936A (zh) 混合现实系统、程序、移动终端装置和方法
JP6319804B2 (ja) 投影画像生成装置、投影画像生成方法および投影画像生成プログラム
JP2016162392A (ja) 3次元画像処理装置および3次元画像処理システム
JP2012124839A (ja) 画像監視装置
JP6632298B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2006018444A (ja) 画像処理システム及び付加情報指示装置
JP6210447B2 (ja) 視線計測装置、注視点の表示方法、注視領域の表示方法および注視点のガウス分布の表示方法
JP2015201734A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
CN115311133A (zh) 一种图像处理方法、装置、电子设备及存储介质
JP2008040913A (ja) 情報処理方法、情報処理装置
JP6073121B2 (ja) 立体表示装置及び立体表示システム
JP4810403B2 (ja) 情報処理装置、情報処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180706

R151 Written notification of patent or utility model registration

Ref document number: 6368142

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151