JP2017040542A - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2017040542A JP2017040542A JP2015161993A JP2015161993A JP2017040542A JP 2017040542 A JP2017040542 A JP 2017040542A JP 2015161993 A JP2015161993 A JP 2015161993A JP 2015161993 A JP2015161993 A JP 2015161993A JP 2017040542 A JP2017040542 A JP 2017040542A
- Authority
- JP
- Japan
- Prior art keywords
- image
- index
- information processing
- processing apparatus
- mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、指標の校正を行う情報処理装置、情報処理方法、プログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program for calibrating an index.
現実空間と仮想空間の融合を目的とした複合現実感(Mixed Reality. 以下、「MR」と記述)の技術がある。MRシステムでは、撮影部によって撮像された現実映像に、仮想物体を表すコンピュータグラフィックス(以下、「CG」と記述)を重畳して表示することで、あたかもその場に仮想物体が存在するかのように体感させることができる。 There is a mixed reality (hereinafter referred to as “MR”) technology for the purpose of integrating real space and virtual space. In an MR system, computer graphics representing a virtual object (hereinafter referred to as “CG”) are superimposed and displayed on a real image captured by a photographing unit, so that it is as if a virtual object exists on the spot. Can be experienced.
仮想物体を想定通りの位置姿勢と大きさで表示するためには、撮影部の外部パラメータ(位置姿勢)と内部パラメータ(焦点距離、画像中心、歪曲係数など)に基づいてCGの重畳を行う必要がある。ここで、世界座標系における撮影部の撮像視点位置の位置座標(x、y、z)の3パラメータおよび、ロール(傾斜角)、ピッチ(仰角)、ヨー(方位角)を表す姿勢の3パラメータを合わせた6パラメータのことをいう。 In order to display a virtual object in the position and orientation and size as expected, it is necessary to superimpose CG based on external parameters (position and orientation) and internal parameters (focal length, image center, distortion coefficient, etc.) of the imaging unit. There is. Here, the three parameters of the position coordinates (x, y, z) of the imaging viewpoint position of the imaging unit in the world coordinate system and the three parameters of the posture representing the roll (tilt angle), pitch (elevation angle), and yaw (azimuth angle). Means 6 parameters.
特許文献1では、現実空間の指標の既知の三次元座標と、該指標を撮影した画像内の指標の二次元座標(以下、「画像座標」と記述)との対応を利用することで撮影部の外部パラメータを求めることを開示している。 In Patent Document 1, an imaging unit is used by using a correspondence between a known three-dimensional coordinate of an index in real space and a two-dimensional coordinate of an index in an image obtained by imaging the index (hereinafter referred to as “image coordinates”). It is disclosed that the external parameter of is determined.
また、特許文献2では、相対的な三次元座標が既知である複数の指標を撮影し、指標と撮影部間の射影的幾何の関係を利用して、撮影部の内部パラメータを算出している。 Further, in Patent Document 2, a plurality of indices whose relative three-dimensional coordinates are known are photographed, and internal parameters of the photographing unit are calculated by using a projective geometric relationship between the indices and the photographing unit. .
以下、指標の三次元座標を算出する処理を「指標の校正」と呼び、撮影部の内部パラメータを算出する処理を「撮影部の校正」と呼ぶ。 Hereinafter, the process of calculating the three-dimensional coordinates of the index is referred to as “index calibration”, and the process of calculating the internal parameters of the imaging unit is referred to as “imaging unit calibration”.
しかし、通信帯域の都合などによって撮影画像のデータ量を圧縮する場合、圧縮によって画質が低下するため、校正の精度が低下してしまう。一方、撮影画像のデータ量を圧縮しない場合、フレームレートが低下(コマ落ち)してしまう。高精度に校正を行うためには、画像中の指標の配置や撮影方法などを細かに調整する必要があるが、撮影画像がコマ落ちしていると、そのような細かな調整は難しい。よって、撮影画像のデータ量を圧縮しない場合でも、校正の精度は低下してしまう。 However, when the data amount of the captured image is compressed due to the convenience of the communication band, the image quality is deteriorated by the compression, so that the calibration accuracy is lowered. On the other hand, when the data amount of the photographed image is not compressed, the frame rate is reduced (frame dropping). In order to perform calibration with high accuracy, it is necessary to finely adjust the arrangement of the indices in the image and the photographing method. However, if the photographed image is dropped, such fine adjustment is difficult. Therefore, even when the data amount of the captured image is not compressed, the accuracy of calibration is reduced.
本発明は、上記課題に鑑みてなされたものであり、通信帯域が不足している場合でも、高精度に指標及び撮影部の校正を行うことを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to calibrate an index and an imaging unit with high accuracy even when a communication band is insufficient.
上記課題を解決するために、本発明の情報処理装置は、例えば、撮像装置による撮像に基づき取得される第1の画像と、前記第1の画像よりもデータ量が大きい第2の画像とを取得する画像取得手段と、第1のモードが設定されている場合に、前記第1の画像から指標を検出し、前記第1のモードと異なる第2のモードが設定されている場合に、前記第2の画像から指標を検出する検出手段と、前記指標検出手段による検出結果に基づいて、前記指標の三次元位置情報と前記撮像装置に関するパラメータうち少なくともいずれかを導出する導出手段とを備えることを特徴とする。 In order to solve the above-described problem, for example, an information processing apparatus according to the present invention includes a first image acquired based on imaging by an imaging device, and a second image having a larger data amount than the first image. When an image acquisition means to acquire and a first mode is set, an index is detected from the first image, and when a second mode different from the first mode is set, Detecting means for detecting an index from the second image; and deriving means for deriving at least one of the three-dimensional position information of the index and the parameters relating to the imaging device based on a detection result by the index detecting means. It is characterized by.
本発明によれば、通信帯域が不足している場合でも、高精度に指標及び撮影部の校正を行うことができる。 According to the present invention, it is possible to calibrate the index and the photographing unit with high accuracy even when the communication band is insufficient.
以下、図面を参照しながら、実施形態を説明する。 Hereinafter, embodiments will be described with reference to the drawings.
(第1の実施形態)
まず、第1の実施形態を説明する。
(First embodiment)
First, the first embodiment will be described.
図1は、本発明に係る情報処理装置の構成の一例を示す図である。 FIG. 1 is a diagram showing an example of the configuration of an information processing apparatus according to the present invention.
情報処理装置100は、CPU101、RAM102、ROM103、HDD104、インターフェース105、システムバス106を有する。情報処理装置100には、撮影部107、表示部108、操作部109が接続される。
The
CPU101は、RAM102をワークメモリとして、ROM103に格納されたプログラムを実行し、システムバス106を介して後述する各構成を統括的に制御する。これにより、後述する様々な処理が実行される。
The
HDD104は、二次記憶装置としての役割を持つ。CPU101は、HDD104からのデータ読み出し、およびHDD104へのデータ書き込みが可能である。なお、二次記憶装置は、HDDの他、光ディスクドライブ等の記憶デバイスでもよい。
The HDD 104 has a role as a secondary storage device. The
インターフェース105は、後述する撮影部107、表示部108、操作部109などの外部機器とのデータのやり取りを行う。
The
撮影部107は、現実空間に配置される指標の撮影を行う。本実施形態では現実空間に指標の撮影を行うカメラである。例えば、デジタルカメラや頭部装着型表示装置HMD(Head−Mounted Display)に装着された、ステレオカメラを用いることができる。撮影部107は、撮影された画像を圧縮するエンコーダを有している。なお、圧縮の方法は、圧縮に用いられる符号化方式としては、例えば、JPEG、H.264/AVC又はH.264/MVC等が挙げられるが、これらには限定されない。撮影部107は、エンコーダを介して圧縮した画像を情報処理装置に送出するモードと、非圧縮のまま情報処理装置に送出するモードとを有している。
The
表示部108は、CRT(Cathode Ray Tube)や液晶ディスプレイなどにより構成されており、各種の情報を画像や文字などをもって表示することができる。
The
操作部109は、キーボードやマウスなどにより構成されており、各種の指示をCPU101に対して入力することができる。例えば、後述するGUI(グラフィカルユーザインターフェース)に対する操作指示は、ユーザーがキーボードやマウスを用いることによる行われる。
The
なお、情報処理装置100の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。
In addition, although the component of the
[指標の説明]
図2は、現実空間に配置される指標の例を模式的に示す図である。図2では、異なる色を持つ指標201〜209が現実空間に配置されている。現実空間に配置される指標は、撮影画像上における投影像の二次元座標(画像座標)が検出可能であって、かついずれの指標であるかが識別可能であるような指標であれば、何れの形態であってもよい。例えば、図3に示すような四角形指標301を用いてもよい。四角形指標301は、内部に識別子(識別情報)を表すパターンを持ち、一意に同定可能である。本発明における指標の校正とは、現実空間に配置された指標(図2の例では、指標201〜209)の三次元座標を算出する処理である。
[Explanation of indicators]
FIG. 2 is a diagram schematically illustrating an example of indices arranged in the real space. In FIG. 2,
指標201〜209の校正では、まず、撮影部107が撮影した複数の画像から指標201〜209を検出し、画像座標を算出する。指標の検出と画像座標の算出方法は任意であるが、例えば、撮影画像上から各々のマーカ色に対応する領域を検出し、検出した領域の重心位置をこの領域に対応する指標の画像座標とすればよい。そして、指標201〜209の画像座標と撮影部107の内部パラメータを用いて、バンドル調整と呼ばれる方法で、指標201〜209の現実空間における三次元座標を算出する。バンドル調整の方法は本発明の主眼ではないため説明を省略するが、例えば、特許文献1に記載された方法を用いることができる。
In the calibration of the
指標201〜209の校正は、撮影部107による撮影の仕方によって精度が異なる。例えば、一般的に、指標201〜209が多くの撮影画像に写っている方が校正精度が高くなる。また、指標201〜209が大きく写っているほど校正精度が高くなる。また、指標201〜209にブレやボケがなく、くっきりと写っている方が校正精度が高くなる。また、同じ指標を色々な角度から撮影するほど校正精度が高くなる。このように、指標201〜209を高精度に校正するためには、撮影の際に、指標201〜209の配置や撮影方法などを細かに調整する必要がある。
The accuracy of the calibration of the
[指標構成画面の説明]
図4は、指標校正画面を模式的に示す図である。図4において、指標校正画面401は、指標校正の一連の処理を行うためのGUIである。プレビューウィンドウ402は、プレビュー画像を表示するウィンドウである。ここで、プレビュー画像(第1の画像)とは、撮影部107が現在撮影している画像を示すものである。キャプチャボタン403は、ユーザーがキャプチャ指示を行うためのボタンである。ユーザーは、プレビューウィンドウ402を見ながら校正精度が高くなるように撮影部107の位置姿勢を調整し、キャプチャボタン403を押す。ユーザーによってキャプチャボタン403が押されると、情報処理装置100は、撮影部107から撮影画像を取得する。ここで取得された撮影画像を用いて構成を行う(以下、この撮影画像を校正用画像と呼ぶ)。校正用画像表示ウィンドウ404〜406は、今までに取得した校正用画像(第2の画像)を表示するためのウィンドウである。校正ボタン407は、ユーザーが校正指示を行うためのボタンである。ユーザーは、校正のために必要な撮影画像を取得し終えたら、校正ボタン407を押す。ユーザーによって校正ボタン407が押されると、情報処理装置100は、校正用画像を用いて、指標201〜209の校正を行う。上記のようなGUIを用いることによって、ユーザーが撮影の際に指標201〜209の配置や撮影方法などを細かに調整することができ、指標201〜209の校正が高精度となる。
[Explanation of index composition screen]
FIG. 4 is a diagram schematically showing the index calibration screen. In FIG. 4, an
ここで、撮影画像のデータ量を圧縮する場合について考える。例えば、撮影部107から情報処理装置100へ無線でリアルタイムに撮影画像を送る場合、通信帯域が限られるため、撮影画像のデータを圧縮する必要がある。撮影画像を圧縮すると、撮影画像の画質が低下するため、指標201〜209の画像座標の算出精度が低下し、その結果、指標201〜209の三次元座標(三次元位置情報)の精度も低下してしまう。ここで、指標201〜209の校正に用いる撮影画像(校正用画像)は、ユーザーがキャプチャボタン403を押したタイミングの画像のみであるため、リアルタイムに撮影画像を送り続ける必要は必ずしもない。しかし、プレビューウィンドウ402には、リアルタイムにプレビュー画像を表示し続けないと、ユーザーが指標201〜209の配置や撮影方法などを細かに調整することが難しくなる。つまり、ユーザーが指標201〜209の配置や撮影方法などを細かに調整するためには、撮影画像を圧縮して情報処理装置100へ送り、プレビューウィンドウ402に表示し続ける必要があるが、その撮影画像を校正に用いると校正精度が低下してしまう。
Here, consider the case of compressing the data amount of the captured image. For example, when a captured image is transmitted wirelessly from the
そこで、本実施形態では、プレビュー画像として圧縮画像をリアルタイムに撮影部107から取得し、プレビューウィンドウ402に表示する。そして、ユーザーがキャプチャボタン403を押すと、撮影部107から改めて非圧縮画像を取得し、それを校正用画像として用いる。なお、以下では、プレビュー画像として圧縮画像を取得し、校正用画像として非圧縮画像を取得する例を説明するが、本発明はこれに限定されず、プレビュー画像のデータ量よりも校正用画像のデータ量の方が大きい全てのケースに適用可能である。例えば、プレビュー画像として低解像度の画像を用い、校正用画像としてより高解像度の画像を用いることもできる。また、プレビュー画像として高圧縮率の画像を用い、校正用画像として低圧縮率の画像を用いることもできる。
Therefore, in this embodiment, a compressed image is acquired as a preview image in real time from the photographing
[処理のフローチャート]
図5は、本実施形態の情報処理装置100の機能構成の例を示す図である。図5に示される情報処理装置100を構成する各機能部は、CPU101が、ROM103に格納されたプログラムをRAM102に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU101を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。また、図6は、本実施形態の処理の流れを示すフローチャートである。以下では、図5と図6を参照して、本実施形態の処理の流れを説明する。
[Processing flowchart]
FIG. 5 is a diagram illustrating an example of a functional configuration of the
ステップS601において、モード設定部501は、撮影モードをプレビューモード(第1のモード)に設定する。撮影モードがプレビューモードに設定されている場合、後述する撮影画像取得手段502は、撮影部107からエンコーダで圧縮された圧縮画像を取得する。
In step S601, the
ステップS602において、撮影画像取得部502は、撮影部107から圧縮画像を取得する。そして、撮影画像取得部502は、表示部108に圧縮画像を出力する。
In step S <b> 602, the captured
ステップS603で、指標検出部503が、ステップS602において取得した圧縮画像から指標を検出する。本実施形態においては、指標の検出とは、指標の画像座標、および個々の指標が有する識別情報を取得することをいう。そして表示部108に検出した指標の画像座標、識別情報(検出結果)を出力する。
In step S603, the
ステップS604において、情報処理装置100は、ステップS602において取得した圧縮画像と、指標の画像座標および識別情報を表示部108に表示させる。
In step S604, the
ステップS605において、情報処理装置100は、ユーザからのキャプチャ指示の有無を判定し、キャプチャ指示が無い場合は、キャプチャ指示があるまでステップS602〜S604を繰り返す。
In step S605, the
ステップS606において、モード設定部501は、撮影モードを本撮影モード(第2のモード)に設定する。
In step S606, the
ステップS607において、撮影画像取得部502は、撮影部107から非圧縮画像を取得する。そして、撮影画像取得部502は、指標検出部503に非圧縮画像を出力する。
In step S <b> 607, the captured
ステップS608において、指標検出部503は、ステップS607において取得した非圧縮画像から指標を検出する。そして、検出された指標の画像座標を校正部506に出力する。そして、校正部506は、取得した指標の画像座標に基づいて、指標の三次元座標の導出を行う。
In step S608, the
[第1の実施形態の効果]
本実施形態では、上記の処理によって取得した校正用画像を用いて、校正部506が指標の校正を行う。この校正結果が従来に比べて高精度となる。以下、具体的に述べる。
[Effect of the first embodiment]
In the present embodiment, the
従来、校正用画像として圧縮画像を利用する場合は、指標の画像座標の算出精度が低下するため、校正精度が低下していた。一方、本実施形態によれば、校正用画像として非圧縮画像を利用するので、従来に比べて校正精度が高くなる。また、従来、校正用画像として非圧縮画像を利用する場合、プレビュー画像をリアルタイムに表示できない(コマ落ちしてしまう)ので、ユーザーが指標201〜209の配置や撮影方法などを細かに調整することが難しかった。一方、本実施形態によれば、プレビュー画像をリアルタイムに表示できるので、ユーザーが指標201〜209の配置や撮影方法などを細かに調整することができ、従来に比べて校正精度が高くなる。
Conventionally, when a compressed image is used as a calibration image, the calculation accuracy of the index image coordinates is lowered, and the calibration accuracy is lowered. On the other hand, according to the present embodiment, since an uncompressed image is used as the calibration image, the calibration accuracy is higher than in the conventional case. Conventionally, when an uncompressed image is used as a calibration image, the preview image cannot be displayed in real time (the frame is dropped), and thus the user finely adjusts the arrangement of the
(第2の実施形態)
次に第2の実施形態を説明する。第1の実施形態では、プレビュー画像として圧縮画像をリアルタイムに表示し、キャプチャボタンが押された際に校正用画像として非圧縮画像を取得することで、高精度に指標の校正を行う例を説明した。しかし、第1の実施形態では、ユーザーがキャプチャボタン403を押した瞬間の画像(プレビュー画像)と校正用画像との間にタイムラグが発生し、ユーザーが意図していない校正用画像が取得されてしまう可能性がある。これを解決する手段として、第2の実施形態では、プレビュー画像と校正用画像を比較し、意図していない校正用画像が取得された可能性が高い場合に、ユーザーに対して警告を行う例を説明する。なお、第1の実施形態と重複する部分については説明を省略する。
(Second Embodiment)
Next, a second embodiment will be described. In the first embodiment, an example in which a compressed image is displayed as a preview image in real time, and an uncompressed image is acquired as a calibration image when the capture button is pressed, so that the index is calibrated with high accuracy will be described. did. However, in the first embodiment, a time lag occurs between an image (preview image) at the moment when the user presses the
[処理のフローチャート]
図10は、本実施形態の処理を行う際の機能構成を示す図である。また、図11は、本実施形態の処理の流れを示すフローチャートである。以下では、図10と図11を参照して、本実施形態の処理の流れを説明する。なお、ステップS601〜S608の処理は第1の実施形態と同様であるため、説明を省略する。
[Processing flowchart]
FIG. 10 is a diagram illustrating a functional configuration when performing the processing of the present embodiment. FIG. 11 is a flowchart showing the flow of processing of this embodiment. Hereinafter, the flow of processing of the present embodiment will be described with reference to FIGS. 10 and 11. In addition, since the process of step S601-S608 is the same as that of 1st Embodiment, description is abbreviate | omitted.
ステップS1101において、指標判定部1001は、ステップS603において検出した指標の情報とステップS608において検出した指標の情報とを比較し、ステップS607において取得した画像が校正に適しているか判定する。指標判定部1001の処理の詳細は後述する。
In step S1101, the
ステップS1102において、警告部1002は、指標判定部1001の判定結果に基づいて、表示部108に警告情報を表示させる(警告情報出力)。警告部1002の処理の詳細は後述する。
In step S1102, the
[指標判定部1001の処理の詳細]
図7は、本実施形態における指標判定部1101の処理を説明するための図である。以下では、図7を参照して、本実施形態における指標判定部1101の処理の詳細について説明する。
[Details of processing of index determination unit 1001]
FIG. 7 is a diagram for explaining processing of the
図7(a)はプレビュー画像701を示しており、図7(b)はユーザーがプレビュー画像701を見ながらキャプチャボタン403を押した結果として取得された校正用画像702を示している。プレビュー画像701と校正用画像702は、タイムラグによって撮影部107の位置姿勢がずれ、検出される指標の数が変化している。このように指標の数が変化している場合、校正用画像702がユーザーの想定通りに撮影されていない可能性が高いので、校正用画像702は校正に適していないと判定する。なお、検出される指標の数が変化するのは、撮影部107の位置姿勢がずれた場合に限らない。例えば、撮影画像内にブレやボケが発生すると、指標を検出しにくくなり、検出される指標の数が減少する場合がある。
FIG. 7A shows a
本実施形態では、検出される指標の数を比較することで、撮影部107の位置姿勢がずれていたり、ブレやボケが発生していないか判定することができる。ここで、ボケの発生は、撮影部107と指標との距離か撮影部107のピント距離が変化したことを意味する。つまり、検出される指標の数を比較することで、撮影部107と指標との距離か撮影部107のピント距離が変化したことを検出することができる。なお、指標の増減数のしきい値をあらかじめ設定し、増減数がしきい値を超えた場合にのみ、校正用画像702が校正に適していないと判定してもよい。
In the present embodiment, it is possible to determine whether the position and orientation of the photographing
また、検出される指標の数は同じでも、指標の画像座標がずれていれば、ユーザーの想定通りに撮影されていない可能性がある。そこで、指標の画像座標のずれがあらかじめ設定したしきい値以上の場合に、校正用画像702が校正に適していないと判定してもよい。ここで、しきい値として任意の値を設定することができるが、例えば、画像幅の5%をしきい値とすればよい。更に、指標の識別情報を比較しても良い。これにより、どの指標がどれくらいずれているかということを知ることができるため、校正用画像702についてより確かな判定をすることができる。
Further, even if the number of detected indexes is the same, if the image coordinates of the indexes are deviated, there is a possibility that the image is not taken as expected by the user. Therefore, when the deviation of the image coordinates of the index is greater than or equal to a preset threshold value, it may be determined that the
図7(c)は指標として四角形指標を用いた場合のプレビュー画像703を示しており、図7(d)はユーザーがプレビュー画像703を見ながらキャプチャボタン403を押した結果として取得された校正用画像704を示している。プレビュー画像703と校正用画像704は、タイムラグによって撮影部107と指標との距離が変わり、検出される指標の大きさが変化している。四角形指標では、指標の画像座標だけでなく、画像上における大きさも算出することができるので、画像上における指標の大きさの差があらかじめ設定したしきい値以上の場合に、校正用画像704が校正に適していないと判定することができる。ここで、しきい値として任意の値を設定することができるが、例えば、プレビュー画像701における指標の大きさの10%をしきい値とすればよい。なお、検出される指標の大きさが変化するのは、撮影部107と指標との距離が変わった場合に限らない。例えば、撮影部107の焦点距離が変化した場合も検出される指標の大きさが変化する。本発明では、検出される指標の大きさを比較することで、撮影部107と指標との距離や撮影部107の焦点距離が変化していないか判定することができる。また、指標の大きさと撮影部107の内部パラメータから撮影部107と指標との距離を算出し、その距離に応じて判定を行ってもよい。
FIG. 7C shows a
また、指標を検出する際に信頼度を算出し、その信頼度の差があらかじめ設定したしきい値以上の場合に、校正用画像702、704が校正に適していないと判定してもよい。信頼度の算出には任意の方法を用いることができる。例えば、指標が指標201〜209のような点指標の場合、指標の色としてあらかじめ登録されている色と実際に検出された指標領域の色との差を信頼度として用いることができる。また、指標が指標301のような四角形指標の場合、指標を構成する直線として検出された線の曲がり具合を信頼度として用いることができる。
Alternatively, the reliability may be calculated when detecting the index, and if the difference in reliability is equal to or greater than a preset threshold value, it may be determined that the
[警告部1002の処理の詳細]
指標判定部1001によって校正用画像が校正に適していないと判定された場合、警告部1002は表示部108に警告を表示(通知)させ、再度撮影を促す。警告として、例えば、校正用画像が校正に適していない旨を文字で表示させる。また、これに限られず、音声等の情報を出力することによってユーザに警告しても良い。でまた、校正用画像表示ウィンドウ404〜406のうち、適切でない校正用画像を表示しているウィンドウを強調することで警告してもよい。また、何が原因で校正に適していないと判定されたか、その理由を文字やアイコンなどで示してもよい。さらに、どのように修正すれば校正用画像が適切なものとなるかをユーザーに示してもよい。例えば、撮影部107の移動や回転を矢印で表し、ユーザーによる撮影部107の移動を誘導してもよい。
[Details of processing of warning unit 1002]
When the
[第2の実施形態の効果]
本実施形態では、ユーザーが意図しない校正用画像が撮影された場合にユーザーに対して警告を表示し、再撮影を促すことができるため、第1の実施形態よりもロバストに指標の校正を行うことができる。
[Effects of Second Embodiment]
In this embodiment, when a calibration image that is not intended by the user is captured, a warning is displayed to the user and prompts re-photographing. Therefore, the index is calibrated more robustly than in the first embodiment. be able to.
(第3の実施形態)
次に、第3の実施形態を説明する。第1の実施形態と第2の実施形態では、通信帯域が足りない場合でも、高精度に指標を校正する例を説明した。本実施形態では、通信帯域が足りない場合でも、高精度に撮影部の校正を行う例を説明する。なお、第2の実施形態と重複する部分については説明を省略する。
(Third embodiment)
Next, a third embodiment will be described. In the first embodiment and the second embodiment, the example in which the index is calibrated with high accuracy even when the communication band is insufficient has been described. In the present embodiment, an example in which the photographing unit is calibrated with high accuracy even when the communication band is insufficient will be described. Note that a description of the same parts as those in the second embodiment is omitted.
図8は、撮影部107の校正用パターンの例である。指標801〜820は、指標同士の相対的な三次元位置関係が既知であるとする。なお、本発明は図8の校正用パターンを用いる場合に限定されない。指標同士の相対的な三次元位置関係が既知であり、撮影画像上における投影像の二次元座標(画像座標)が検出可能であって、かついずれの指標であるかが識別可能であるような指標であれば、何れの形態であってもよい。
FIG. 8 is an example of a calibration pattern for the photographing
撮影部107の校正を行う際は、撮影部107によって指標801〜820を撮影し、該撮影された指標の情報を用いて校正を行う。校正の処理内容は本発明の主眼ではないため、説明を省略するが、例えば、特許文献2に記載の方法で校正を行うことができる。
When calibrating the photographing
本実施形態の処理の流れは、第2の実施形態と同様である。第2の実施形態とは、指標判定部1001の処理が異なるため、その点について以下で説明する。
The processing flow of this embodiment is the same as that of the second embodiment. Since the processing of the
[第3の実施形態の指標判定部1101の処理の詳細]
図9は、本実施形態における指標判定部1101の処理を説明するための図である。以下では、図9を参照して、本実施形態における指標判定部1101の処理の詳細について説明する。
[Details of Processing of
FIG. 9 is a diagram for explaining processing of the
領域901〜924は画像上の領域を表している。撮影部107の校正では、歪曲補正を行うために、画像上の各領域でどのような歪曲が発生しているか測定する必要がある。特に、画像端(例えば、領域901、906、919、924など)では大きな歪曲が発生するため、画像端に指標801〜820が写るように校正用パターンを撮影し、画像端でどのような歪曲が発生しているか測定することが重要である。ところが、プレビュー画像と校正用画像との間のタイムラグによって、指標801〜820が画像端から外れて校正用画像が撮影されてしまう可能性がある。そこで、画像端に指標801〜820が写っているほど値が大きくなるような評価値を算出し、プレビュー画像に比べて校正用画像の方が評価値が低くなった場合に警告を出す。なお、本実施形態における指標判定部1101の処理の代わりに第2の実施形態における指標判定部1101の処理を行ってもかまわない。また、第2の実施形態における指標判定部1101の処理と本実施形態における指標判定部1101の処理を組み合わせて実施することも可能である。
[第3の実施形態の効果]
第3の実施形態によれば、撮影部107の校正において、校正の精度が高くなる。特に、歪曲の校正精度が高くなる。
[Effect of the third embodiment]
According to the third embodiment, in the calibration of the photographing
(その他の実施例)
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
Claims (12)
第1のモードが設定されている場合に、前記第1の画像から指標を検出し、前記第1のモードと異なる第2のモードが設定されている場合に、前記第2の画像から指標を検出する検出手段と、
前記指標検出手段による検出結果に基づいて、前記指標の三次元位置情報と前記撮像装置に関するパラメータうち少なくともいずれかを導出する導出手段とを備えることを特徴とする情報処理装置。 Image acquisition means for acquiring a first image acquired based on imaging by an imaging device and a second image having a larger data amount than the first image;
An index is detected from the first image when the first mode is set, and an index is detected from the second image when a second mode different from the first mode is set. Detecting means for detecting;
An information processing apparatus comprising: derivation means for deriving at least one of three-dimensional position information of the index and a parameter related to the imaging device based on a detection result by the index detection means.
第1のモードが設定されている場合に、前記第1の画像から指標を検出し、前記第1のモードと異なる第2のモードが設定されている場合に、前記第2の画像から指標を検出する検出工程と、
前記指標検出工程における検出結果を用いて、前記指標の三次元位置情報と前記撮像装置に関するパラメータうち少なくともいずれかを導出する導出工程とを備えることを特徴とする情報処理方法。 An image acquisition step of acquiring a first image acquired based on imaging by an imaging device and a second image having a larger data amount than the first image;
An index is detected from the first image when the first mode is set, and an index is detected from the second image when a second mode different from the first mode is set. A detection process to detect;
An information processing method comprising: a deriving step of deriving at least one of the three-dimensional position information of the index and a parameter related to the imaging device using a detection result in the index detection step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015161993A JP2017040542A (en) | 2015-08-19 | 2015-08-19 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015161993A JP2017040542A (en) | 2015-08-19 | 2015-08-19 | Information processing device, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017040542A true JP2017040542A (en) | 2017-02-23 |
Family
ID=58203755
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015161993A Pending JP2017040542A (en) | 2015-08-19 | 2015-08-19 | Information processing device, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017040542A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020117007A1 (en) * | 2018-12-07 | 2020-06-11 | Samsung Electronics Co., Ltd. | Apparatus and method for operating multiple cameras for digital photography |
US20220122286A1 (en) * | 2018-11-30 | 2022-04-21 | Casio Computer Co., Ltd. | Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system |
JP7396336B2 (en) | 2018-11-30 | 2023-12-12 | カシオ計算機株式会社 | Location information acquisition device, location information acquisition method, and program |
-
2015
- 2015-08-19 JP JP2015161993A patent/JP2017040542A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220122286A1 (en) * | 2018-11-30 | 2022-04-21 | Casio Computer Co., Ltd. | Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system |
US11816861B2 (en) * | 2018-11-30 | 2023-11-14 | Casio Computer Co., Ltd. | Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system |
JP7396336B2 (en) | 2018-11-30 | 2023-12-12 | カシオ計算機株式会社 | Location information acquisition device, location information acquisition method, and program |
WO2020117007A1 (en) * | 2018-12-07 | 2020-06-11 | Samsung Electronics Co., Ltd. | Apparatus and method for operating multiple cameras for digital photography |
US11412136B2 (en) | 2018-12-07 | 2022-08-09 | Samsung Electronics Co., Ltd. | Apparatus and method for operating multiple cameras for digital photography |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6570296B2 (en) | Image processing apparatus, image processing method, and program | |
JP2016225953A (en) | Camera calibration device, camera system, and camera calibration method | |
JP6502511B2 (en) | Calculation device, control method of calculation device, and calculation program | |
WO2011125937A1 (en) | Calibration data selection device, method of selection, selection program, and three dimensional position measuring device | |
US20160292888A1 (en) | Image measurement device, and recording medium | |
JP6804056B2 (en) | Projection type display device, control method of projection type display device, and program | |
JP6594170B2 (en) | Image processing apparatus, image processing method, image projection system, and program | |
JP2013123123A (en) | Stereo image generation device, stereo image generation method and computer program for stereo image generation | |
US11100699B2 (en) | Measurement method, measurement device, and recording medium | |
JP2017040542A (en) | Information processing device, information processing method, and program | |
JP4696018B2 (en) | Observation position following video presentation device, observation position following video presentation program, video presentation device, and video presentation program | |
JP2016217944A (en) | Measurement device and measurement method | |
US20170061695A1 (en) | Wearable display apparatus, information processing apparatus, and control method therefor | |
JP6752360B2 (en) | Image processing device, imaging device, terminal device, image correction method and image processing program | |
JP5996233B2 (en) | Imaging device | |
CN108260360B (en) | Scene depth calculation method and device and terminal | |
US10432916B2 (en) | Measurement apparatus and operation method of measurement apparatus | |
KR101632514B1 (en) | Method and apparatus for upsampling depth image | |
JP5925109B2 (en) | Image processing apparatus, control method thereof, and control program | |
JP2014086899A (en) | Image processing device, image processing method, and program | |
WO2018061430A1 (en) | Measurement apparatus, measurement method, measurement program, and recording medium | |
JP2015220662A (en) | Information processing apparatus, method for the same, and program | |
JP2015197429A (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2018116039A (en) | Mtf measurement device and program of the same | |
US20230260159A1 (en) | Information processing apparatus, information processing method, and non-transitory computer readable medium |