JP2017040542A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2017040542A
JP2017040542A JP2015161993A JP2015161993A JP2017040542A JP 2017040542 A JP2017040542 A JP 2017040542A JP 2015161993 A JP2015161993 A JP 2015161993A JP 2015161993 A JP2015161993 A JP 2015161993A JP 2017040542 A JP2017040542 A JP 2017040542A
Authority
JP
Japan
Prior art keywords
image
index
information processing
processing apparatus
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015161993A
Other languages
Japanese (ja)
Inventor
澤田 圭一
Keiichi Sawada
圭一 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015161993A priority Critical patent/JP2017040542A/en
Publication of JP2017040542A publication Critical patent/JP2017040542A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To accurately calibrate an index and a photographing unit even if communication bandwidth is running short.SOLUTION: An information processing device comprises: image acquisition means for acquiring a first image obtained on the basis of imaging by an imaging device, and a second image with a larger amount of data than the first image; detection means for detecting an index from the first image when a first mode is set, and for detecting an index from the second image when a second mode different from the first mode is set; and derivation means for deriving at least any of three-dimensional position information on the index and a parameter of the imaging device by using a detection result by the index detection means.SELECTED DRAWING: Figure 5

Description

本発明は、指標の校正を行う情報処理装置、情報処理方法、プログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program for calibrating an index.

現実空間と仮想空間の融合を目的とした複合現実感(Mixed Reality. 以下、「MR」と記述)の技術がある。MRシステムでは、撮影部によって撮像された現実映像に、仮想物体を表すコンピュータグラフィックス(以下、「CG」と記述)を重畳して表示することで、あたかもその場に仮想物体が存在するかのように体感させることができる。   There is a mixed reality (hereinafter referred to as “MR”) technology for the purpose of integrating real space and virtual space. In an MR system, computer graphics representing a virtual object (hereinafter referred to as “CG”) are superimposed and displayed on a real image captured by a photographing unit, so that it is as if a virtual object exists on the spot. Can be experienced.

仮想物体を想定通りの位置姿勢と大きさで表示するためには、撮影部の外部パラメータ(位置姿勢)と内部パラメータ(焦点距離、画像中心、歪曲係数など)に基づいてCGの重畳を行う必要がある。ここで、世界座標系における撮影部の撮像視点位置の位置座標(x、y、z)の3パラメータおよび、ロール(傾斜角)、ピッチ(仰角)、ヨー(方位角)を表す姿勢の3パラメータを合わせた6パラメータのことをいう。   In order to display a virtual object in the position and orientation and size as expected, it is necessary to superimpose CG based on external parameters (position and orientation) and internal parameters (focal length, image center, distortion coefficient, etc.) of the imaging unit. There is. Here, the three parameters of the position coordinates (x, y, z) of the imaging viewpoint position of the imaging unit in the world coordinate system and the three parameters of the posture representing the roll (tilt angle), pitch (elevation angle), and yaw (azimuth angle). Means 6 parameters.

特許文献1では、現実空間の指標の既知の三次元座標と、該指標を撮影した画像内の指標の二次元座標(以下、「画像座標」と記述)との対応を利用することで撮影部の外部パラメータを求めることを開示している。   In Patent Document 1, an imaging unit is used by using a correspondence between a known three-dimensional coordinate of an index in real space and a two-dimensional coordinate of an index in an image obtained by imaging the index (hereinafter referred to as “image coordinates”). It is disclosed that the external parameter of is determined.

また、特許文献2では、相対的な三次元座標が既知である複数の指標を撮影し、指標と撮影部間の射影的幾何の関係を利用して、撮影部の内部パラメータを算出している。   Further, in Patent Document 2, a plurality of indices whose relative three-dimensional coordinates are known are photographed, and internal parameters of the photographing unit are calculated by using a projective geometric relationship between the indices and the photographing unit. .

以下、指標の三次元座標を算出する処理を「指標の校正」と呼び、撮影部の内部パラメータを算出する処理を「撮影部の校正」と呼ぶ。   Hereinafter, the process of calculating the three-dimensional coordinates of the index is referred to as “index calibration”, and the process of calculating the internal parameters of the imaging unit is referred to as “imaging unit calibration”.

特開2007−48068号公報JP 2007-48068 A 特許第5111447号Japanese Patent No. 5111447

しかし、通信帯域の都合などによって撮影画像のデータ量を圧縮する場合、圧縮によって画質が低下するため、校正の精度が低下してしまう。一方、撮影画像のデータ量を圧縮しない場合、フレームレートが低下(コマ落ち)してしまう。高精度に校正を行うためには、画像中の指標の配置や撮影方法などを細かに調整する必要があるが、撮影画像がコマ落ちしていると、そのような細かな調整は難しい。よって、撮影画像のデータ量を圧縮しない場合でも、校正の精度は低下してしまう。   However, when the data amount of the captured image is compressed due to the convenience of the communication band, the image quality is deteriorated by the compression, so that the calibration accuracy is lowered. On the other hand, when the data amount of the photographed image is not compressed, the frame rate is reduced (frame dropping). In order to perform calibration with high accuracy, it is necessary to finely adjust the arrangement of the indices in the image and the photographing method. However, if the photographed image is dropped, such fine adjustment is difficult. Therefore, even when the data amount of the captured image is not compressed, the accuracy of calibration is reduced.

本発明は、上記課題に鑑みてなされたものであり、通信帯域が不足している場合でも、高精度に指標及び撮影部の校正を行うことを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to calibrate an index and an imaging unit with high accuracy even when a communication band is insufficient.

上記課題を解決するために、本発明の情報処理装置は、例えば、撮像装置による撮像に基づき取得される第1の画像と、前記第1の画像よりもデータ量が大きい第2の画像とを取得する画像取得手段と、第1のモードが設定されている場合に、前記第1の画像から指標を検出し、前記第1のモードと異なる第2のモードが設定されている場合に、前記第2の画像から指標を検出する検出手段と、前記指標検出手段による検出結果に基づいて、前記指標の三次元位置情報と前記撮像装置に関するパラメータうち少なくともいずれかを導出する導出手段とを備えることを特徴とする。   In order to solve the above-described problem, for example, an information processing apparatus according to the present invention includes a first image acquired based on imaging by an imaging device, and a second image having a larger data amount than the first image. When an image acquisition means to acquire and a first mode is set, an index is detected from the first image, and when a second mode different from the first mode is set, Detecting means for detecting an index from the second image; and deriving means for deriving at least one of the three-dimensional position information of the index and the parameters relating to the imaging device based on a detection result by the index detecting means. It is characterized by.

本発明によれば、通信帯域が不足している場合でも、高精度に指標及び撮影部の校正を行うことができる。   According to the present invention, it is possible to calibrate the index and the photographing unit with high accuracy even when the communication band is insufficient.

本発明に係る情報処理装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the information processing apparatus which concerns on this invention. 現実空間に配置される指標を模式的に示す図である。It is a figure which shows typically the parameter | index arrange | positioned in real space. 四角形指標を模式的に示す図である。It is a figure showing a quadrilateral index typically. 指標校正画面を模式的に示す図である。It is a figure which shows a parameter | index calibration screen typically. 第1の実施形態の処理を行う際の概要機能構成を示す図である。It is a figure which shows the general | schematic functional structure at the time of performing the process of 1st Embodiment. 第1の実施形態の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of 1st Embodiment. 第2の実施形態における指標判定部1101の処理を説明するための図である。It is a figure for demonstrating the process of the parameter | index determination part 1101 in 2nd Embodiment. 撮影部の校正用パターンを模式的に示す図である。It is a figure which shows typically the pattern for a calibration of an imaging | photography part. 第3の実施形態における指標判定部1101の処理を説明するための図である。It is a figure for demonstrating the process of the parameter | index determination part 1101 in 3rd Embodiment. 第2の実施形態の処理を行う際の概要機能構成を示す図である。It is a figure which shows the general | schematic functional structure at the time of performing the process of 2nd Embodiment. 第2の実施形態の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of 2nd Embodiment.

以下、図面を参照しながら、実施形態を説明する。   Hereinafter, embodiments will be described with reference to the drawings.

(第1の実施形態)
まず、第1の実施形態を説明する。
(First embodiment)
First, the first embodiment will be described.

図1は、本発明に係る情報処理装置の構成の一例を示す図である。   FIG. 1 is a diagram showing an example of the configuration of an information processing apparatus according to the present invention.

情報処理装置100は、CPU101、RAM102、ROM103、HDD104、インターフェース105、システムバス106を有する。情報処理装置100には、撮影部107、表示部108、操作部109が接続される。   The information processing apparatus 100 includes a CPU 101, a RAM 102, a ROM 103, an HDD 104, an interface 105, and a system bus 106. An imaging unit 107, a display unit 108, and an operation unit 109 are connected to the information processing apparatus 100.

CPU101は、RAM102をワークメモリとして、ROM103に格納されたプログラムを実行し、システムバス106を介して後述する各構成を統括的に制御する。これにより、後述する様々な処理が実行される。   The CPU 101 executes a program stored in the ROM 103 using the RAM 102 as a work memory, and comprehensively controls each component to be described later via the system bus 106. Thereby, various processes described later are executed.

HDD104は、二次記憶装置としての役割を持つ。CPU101は、HDD104からのデータ読み出し、およびHDD104へのデータ書き込みが可能である。なお、二次記憶装置は、HDDの他、光ディスクドライブ等の記憶デバイスでもよい。   The HDD 104 has a role as a secondary storage device. The CPU 101 can read data from the HDD 104 and write data to the HDD 104. The secondary storage device may be a storage device such as an optical disk drive in addition to the HDD.

インターフェース105は、後述する撮影部107、表示部108、操作部109などの外部機器とのデータのやり取りを行う。   The interface 105 exchanges data with external devices such as a photographing unit 107, a display unit 108, and an operation unit 109, which will be described later.

撮影部107は、現実空間に配置される指標の撮影を行う。本実施形態では現実空間に指標の撮影を行うカメラである。例えば、デジタルカメラや頭部装着型表示装置HMD(Head−Mounted Display)に装着された、ステレオカメラを用いることができる。撮影部107は、撮影された画像を圧縮するエンコーダを有している。なお、圧縮の方法は、圧縮に用いられる符号化方式としては、例えば、JPEG、H.264/AVC又はH.264/MVC等が挙げられるが、これらには限定されない。撮影部107は、エンコーダを介して圧縮した画像を情報処理装置に送出するモードと、非圧縮のまま情報処理装置に送出するモードとを有している。   The imaging unit 107 captures an index placed in the real space. In the present embodiment, it is a camera that captures an index in a real space. For example, a stereo camera mounted on a digital camera or a head-mounted display device HMD (Head-Mounted Display) can be used. The photographing unit 107 has an encoder that compresses the photographed image. Note that the compression method is, for example, JPEG, H.264, or the like as an encoding method used for compression. H.264 / AVC or H.264 H.264 / MVC and the like, but are not limited thereto. The photographing unit 107 has a mode for sending a compressed image via the encoder to the information processing apparatus and a mode for sending the image to the information processing apparatus without compression.

表示部108は、CRT(Cathode Ray Tube)や液晶ディスプレイなどにより構成されており、各種の情報を画像や文字などをもって表示することができる。   The display unit 108 is configured by a CRT (Cathode Ray Tube), a liquid crystal display, or the like, and can display various types of information as images, characters, and the like.

操作部109は、キーボードやマウスなどにより構成されており、各種の指示をCPU101に対して入力することができる。例えば、後述するGUI(グラフィカルユーザインターフェース)に対する操作指示は、ユーザーがキーボードやマウスを用いることによる行われる。   The operation unit 109 is configured with a keyboard, a mouse, and the like, and can input various instructions to the CPU 101. For example, an operation instruction for a GUI (graphical user interface) to be described later is performed by a user using a keyboard or a mouse.

なお、情報処理装置100の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。   In addition, although the component of the information processing apparatus 100 exists besides the above, since it is not the main point of this invention, description is abbreviate | omitted.

[指標の説明]
図2は、現実空間に配置される指標の例を模式的に示す図である。図2では、異なる色を持つ指標201〜209が現実空間に配置されている。現実空間に配置される指標は、撮影画像上における投影像の二次元座標(画像座標)が検出可能であって、かついずれの指標であるかが識別可能であるような指標であれば、何れの形態であってもよい。例えば、図3に示すような四角形指標301を用いてもよい。四角形指標301は、内部に識別子(識別情報)を表すパターンを持ち、一意に同定可能である。本発明における指標の校正とは、現実空間に配置された指標(図2の例では、指標201〜209)の三次元座標を算出する処理である。
[Explanation of indicators]
FIG. 2 is a diagram schematically illustrating an example of indices arranged in the real space. In FIG. 2, indicators 201 to 209 having different colors are arranged in the real space. The indicator arranged in the real space is any indicator that can detect the two-dimensional coordinates (image coordinates) of the projected image on the captured image and can identify which indicator is the indicator. It may be a form. For example, a square index 301 as shown in FIG. 3 may be used. The square index 301 has a pattern representing an identifier (identification information) inside and can be uniquely identified. The calibration of the index in the present invention is a process of calculating the three-dimensional coordinates of the indices (in the example of FIG. 2, indices 201 to 209) arranged in the real space.

指標201〜209の校正では、まず、撮影部107が撮影した複数の画像から指標201〜209を検出し、画像座標を算出する。指標の検出と画像座標の算出方法は任意であるが、例えば、撮影画像上から各々のマーカ色に対応する領域を検出し、検出した領域の重心位置をこの領域に対応する指標の画像座標とすればよい。そして、指標201〜209の画像座標と撮影部107の内部パラメータを用いて、バンドル調整と呼ばれる方法で、指標201〜209の現実空間における三次元座標を算出する。バンドル調整の方法は本発明の主眼ではないため説明を省略するが、例えば、特許文献1に記載された方法を用いることができる。   In the calibration of the indices 201 to 209, first, the indices 201 to 209 are detected from a plurality of images photographed by the photographing unit 107, and image coordinates are calculated. The detection of the index and the calculation method of the image coordinates are arbitrary. For example, an area corresponding to each marker color is detected from the captured image, and the barycentric position of the detected area is set as the image coordinates of the index corresponding to this area. do it. Then, using the image coordinates of the indicators 201 to 209 and the internal parameters of the photographing unit 107, the three-dimensional coordinates in the real space of the indicators 201 to 209 are calculated by a method called bundle adjustment. Since the bundle adjustment method is not the main point of the present invention, the description thereof is omitted. For example, the method described in Patent Document 1 can be used.

指標201〜209の校正は、撮影部107による撮影の仕方によって精度が異なる。例えば、一般的に、指標201〜209が多くの撮影画像に写っている方が校正精度が高くなる。また、指標201〜209が大きく写っているほど校正精度が高くなる。また、指標201〜209にブレやボケがなく、くっきりと写っている方が校正精度が高くなる。また、同じ指標を色々な角度から撮影するほど校正精度が高くなる。このように、指標201〜209を高精度に校正するためには、撮影の際に、指標201〜209の配置や撮影方法などを細かに調整する必要がある。   The accuracy of the calibration of the indicators 201 to 209 differs depending on how the photographing unit 107 performs photographing. For example, in general, the calibration accuracy is higher when the indices 201 to 209 are shown in many captured images. In addition, the calibration accuracy increases as the indicators 201 to 209 appear larger. Further, the calibration accuracy is higher when the indicators 201 to 209 are not blurred or blurred and are clearly reflected. In addition, the accuracy of calibration increases as the same index is photographed from various angles. As described above, in order to calibrate the indicators 201 to 209 with high accuracy, it is necessary to finely adjust the arrangement of the indicators 201 to 209, the imaging method, and the like during imaging.

[指標構成画面の説明]
図4は、指標校正画面を模式的に示す図である。図4において、指標校正画面401は、指標校正の一連の処理を行うためのGUIである。プレビューウィンドウ402は、プレビュー画像を表示するウィンドウである。ここで、プレビュー画像(第1の画像)とは、撮影部107が現在撮影している画像を示すものである。キャプチャボタン403は、ユーザーがキャプチャ指示を行うためのボタンである。ユーザーは、プレビューウィンドウ402を見ながら校正精度が高くなるように撮影部107の位置姿勢を調整し、キャプチャボタン403を押す。ユーザーによってキャプチャボタン403が押されると、情報処理装置100は、撮影部107から撮影画像を取得する。ここで取得された撮影画像を用いて構成を行う(以下、この撮影画像を校正用画像と呼ぶ)。校正用画像表示ウィンドウ404〜406は、今までに取得した校正用画像(第2の画像)を表示するためのウィンドウである。校正ボタン407は、ユーザーが校正指示を行うためのボタンである。ユーザーは、校正のために必要な撮影画像を取得し終えたら、校正ボタン407を押す。ユーザーによって校正ボタン407が押されると、情報処理装置100は、校正用画像を用いて、指標201〜209の校正を行う。上記のようなGUIを用いることによって、ユーザーが撮影の際に指標201〜209の配置や撮影方法などを細かに調整することができ、指標201〜209の校正が高精度となる。
[Explanation of index composition screen]
FIG. 4 is a diagram schematically showing the index calibration screen. In FIG. 4, an index calibration screen 401 is a GUI for performing a series of index calibration processes. The preview window 402 is a window that displays a preview image. Here, the preview image (first image) indicates an image currently captured by the image capturing unit 107. The capture button 403 is a button for a user to issue a capture instruction. The user adjusts the position and orientation of the photographing unit 107 so as to increase the calibration accuracy while viewing the preview window 402, and presses the capture button 403. When the capture button 403 is pressed by the user, the information processing apparatus 100 acquires a captured image from the imaging unit 107. Configuration is performed using the captured image acquired here (hereinafter, this captured image is referred to as a calibration image). The calibration image display windows 404 to 406 are windows for displaying the calibration images (second images) acquired so far. The calibration button 407 is a button for the user to give a calibration instruction. When the user finishes obtaining a photographed image necessary for calibration, the user presses the calibration button 407. When the calibration button 407 is pressed by the user, the information processing apparatus 100 calibrates the indicators 201 to 209 using the calibration image. By using the GUI as described above, the user can finely adjust the arrangement of the indicators 201 to 209 and the imaging method at the time of shooting, and the calibration of the indicators 201 to 209 becomes highly accurate.

ここで、撮影画像のデータ量を圧縮する場合について考える。例えば、撮影部107から情報処理装置100へ無線でリアルタイムに撮影画像を送る場合、通信帯域が限られるため、撮影画像のデータを圧縮する必要がある。撮影画像を圧縮すると、撮影画像の画質が低下するため、指標201〜209の画像座標の算出精度が低下し、その結果、指標201〜209の三次元座標(三次元位置情報)の精度も低下してしまう。ここで、指標201〜209の校正に用いる撮影画像(校正用画像)は、ユーザーがキャプチャボタン403を押したタイミングの画像のみであるため、リアルタイムに撮影画像を送り続ける必要は必ずしもない。しかし、プレビューウィンドウ402には、リアルタイムにプレビュー画像を表示し続けないと、ユーザーが指標201〜209の配置や撮影方法などを細かに調整することが難しくなる。つまり、ユーザーが指標201〜209の配置や撮影方法などを細かに調整するためには、撮影画像を圧縮して情報処理装置100へ送り、プレビューウィンドウ402に表示し続ける必要があるが、その撮影画像を校正に用いると校正精度が低下してしまう。   Here, consider the case of compressing the data amount of the captured image. For example, when a captured image is transmitted wirelessly from the imaging unit 107 to the information processing apparatus 100 in real time, the data of the captured image needs to be compressed because the communication band is limited. When the captured image is compressed, the image quality of the captured image is reduced, so that the calculation accuracy of the image coordinates of the indicators 201 to 209 is reduced, and as a result, the accuracy of the three-dimensional coordinates (three-dimensional position information) of the indicators 201 to 209 is also reduced. Resulting in. Here, since the captured images (calibration images) used for the calibration of the indicators 201 to 209 are only images at the timing when the user presses the capture button 403, it is not always necessary to continuously send the captured images in real time. However, unless the preview image is continuously displayed in real time in the preview window 402, it is difficult for the user to finely adjust the arrangement of the indicators 201 to 209, the shooting method, and the like. That is, in order for the user to finely adjust the arrangement of the indicators 201 to 209, the shooting method, and the like, the shot image needs to be compressed and sent to the information processing apparatus 100 and continuously displayed in the preview window 402. If the image is used for proofreading, the proofreading accuracy is lowered.

そこで、本実施形態では、プレビュー画像として圧縮画像をリアルタイムに撮影部107から取得し、プレビューウィンドウ402に表示する。そして、ユーザーがキャプチャボタン403を押すと、撮影部107から改めて非圧縮画像を取得し、それを校正用画像として用いる。なお、以下では、プレビュー画像として圧縮画像を取得し、校正用画像として非圧縮画像を取得する例を説明するが、本発明はこれに限定されず、プレビュー画像のデータ量よりも校正用画像のデータ量の方が大きい全てのケースに適用可能である。例えば、プレビュー画像として低解像度の画像を用い、校正用画像としてより高解像度の画像を用いることもできる。また、プレビュー画像として高圧縮率の画像を用い、校正用画像として低圧縮率の画像を用いることもできる。   Therefore, in this embodiment, a compressed image is acquired as a preview image in real time from the photographing unit 107 and displayed on the preview window 402. When the user presses the capture button 403, an uncompressed image is acquired again from the photographing unit 107 and used as a calibration image. In the following, an example in which a compressed image is acquired as a preview image and an uncompressed image is acquired as a calibration image will be described, but the present invention is not limited to this, and the calibration image is more than the data amount of the preview image. It is applicable to all cases where the amount of data is larger. For example, a low-resolution image can be used as the preview image, and a higher-resolution image can be used as the calibration image. It is also possible to use a high compression rate image as the preview image and a low compression rate image as the calibration image.

[処理のフローチャート]
図5は、本実施形態の情報処理装置100の機能構成の例を示す図である。図5に示される情報処理装置100を構成する各機能部は、CPU101が、ROM103に格納されたプログラムをRAM102に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU101を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。また、図6は、本実施形態の処理の流れを示すフローチャートである。以下では、図5と図6を参照して、本実施形態の処理の流れを説明する。
[Processing flowchart]
FIG. 5 is a diagram illustrating an example of a functional configuration of the information processing apparatus 100 according to the present embodiment. Each functional unit configuring the information processing apparatus 100 illustrated in FIG. 5 is realized by the CPU 101 developing a program stored in the ROM 103 in the RAM 102 and executing processing according to each flowchart described below. In addition, for example, when configuring hardware as an alternative to software processing using the CPU 101, it is only necessary to configure arithmetic units and circuits corresponding to the processing of each functional unit described here. FIG. 6 is a flowchart showing the flow of processing of this embodiment. Below, the flow of the process of this embodiment is demonstrated with reference to FIG. 5 and FIG.

ステップS601において、モード設定部501は、撮影モードをプレビューモード(第1のモード)に設定する。撮影モードがプレビューモードに設定されている場合、後述する撮影画像取得手段502は、撮影部107からエンコーダで圧縮された圧縮画像を取得する。   In step S601, the mode setting unit 501 sets the shooting mode to the preview mode (first mode). When the shooting mode is set to the preview mode, a shot image acquisition unit 502 described later acquires a compressed image compressed by the encoder from the shooting unit 107.

ステップS602において、撮影画像取得部502は、撮影部107から圧縮画像を取得する。そして、撮影画像取得部502は、表示部108に圧縮画像を出力する。   In step S <b> 602, the captured image acquisition unit 502 acquires a compressed image from the imaging unit 107. Then, the captured image acquisition unit 502 outputs the compressed image to the display unit 108.

ステップS603で、指標検出部503が、ステップS602において取得した圧縮画像から指標を検出する。本実施形態においては、指標の検出とは、指標の画像座標、および個々の指標が有する識別情報を取得することをいう。そして表示部108に検出した指標の画像座標、識別情報(検出結果)を出力する。   In step S603, the index detection unit 503 detects the index from the compressed image acquired in step S602. In this embodiment, the detection of the index means obtaining the image coordinates of the index and the identification information that each index has. Then, the image coordinates of the detected index and identification information (detection result) are output on the display unit 108.

ステップS604において、情報処理装置100は、ステップS602において取得した圧縮画像と、指標の画像座標および識別情報を表示部108に表示させる。   In step S604, the information processing apparatus 100 causes the display unit 108 to display the compressed image acquired in step S602, the image coordinates of the index, and identification information.

ステップS605において、情報処理装置100は、ユーザからのキャプチャ指示の有無を判定し、キャプチャ指示が無い場合は、キャプチャ指示があるまでステップS602〜S604を繰り返す。   In step S605, the information processing apparatus 100 determines whether there is a capture instruction from the user, and if there is no capture instruction, repeats steps S602 to S604 until there is a capture instruction.

ステップS606において、モード設定部501は、撮影モードを本撮影モード(第2のモード)に設定する。   In step S606, the mode setting unit 501 sets the shooting mode to the main shooting mode (second mode).

ステップS607において、撮影画像取得部502は、撮影部107から非圧縮画像を取得する。そして、撮影画像取得部502は、指標検出部503に非圧縮画像を出力する。   In step S <b> 607, the captured image acquisition unit 502 acquires an uncompressed image from the imaging unit 107. Then, the captured image acquisition unit 502 outputs an uncompressed image to the index detection unit 503.

ステップS608において、指標検出部503は、ステップS607において取得した非圧縮画像から指標を検出する。そして、検出された指標の画像座標を校正部506に出力する。そして、校正部506は、取得した指標の画像座標に基づいて、指標の三次元座標の導出を行う。   In step S608, the index detection unit 503 detects the index from the uncompressed image acquired in step S607. Then, the image coordinates of the detected index are output to the calibration unit 506. Then, the calibration unit 506 derives the three-dimensional coordinates of the index based on the acquired image coordinates of the index.

[第1の実施形態の効果]
本実施形態では、上記の処理によって取得した校正用画像を用いて、校正部506が指標の校正を行う。この校正結果が従来に比べて高精度となる。以下、具体的に述べる。
[Effect of the first embodiment]
In the present embodiment, the calibration unit 506 calibrates the index using the calibration image acquired by the above processing. This calibration result is more accurate than in the past. The details will be described below.

従来、校正用画像として圧縮画像を利用する場合は、指標の画像座標の算出精度が低下するため、校正精度が低下していた。一方、本実施形態によれば、校正用画像として非圧縮画像を利用するので、従来に比べて校正精度が高くなる。また、従来、校正用画像として非圧縮画像を利用する場合、プレビュー画像をリアルタイムに表示できない(コマ落ちしてしまう)ので、ユーザーが指標201〜209の配置や撮影方法などを細かに調整することが難しかった。一方、本実施形態によれば、プレビュー画像をリアルタイムに表示できるので、ユーザーが指標201〜209の配置や撮影方法などを細かに調整することができ、従来に比べて校正精度が高くなる。   Conventionally, when a compressed image is used as a calibration image, the calculation accuracy of the index image coordinates is lowered, and the calibration accuracy is lowered. On the other hand, according to the present embodiment, since an uncompressed image is used as the calibration image, the calibration accuracy is higher than in the conventional case. Conventionally, when an uncompressed image is used as a calibration image, the preview image cannot be displayed in real time (the frame is dropped), and thus the user finely adjusts the arrangement of the indicators 201 to 209 and the shooting method. It was difficult. On the other hand, according to the present embodiment, since the preview image can be displayed in real time, the user can finely adjust the arrangement of the indicators 201 to 209, the photographing method, and the like, and the calibration accuracy is higher than the conventional one.

(第2の実施形態)
次に第2の実施形態を説明する。第1の実施形態では、プレビュー画像として圧縮画像をリアルタイムに表示し、キャプチャボタンが押された際に校正用画像として非圧縮画像を取得することで、高精度に指標の校正を行う例を説明した。しかし、第1の実施形態では、ユーザーがキャプチャボタン403を押した瞬間の画像(プレビュー画像)と校正用画像との間にタイムラグが発生し、ユーザーが意図していない校正用画像が取得されてしまう可能性がある。これを解決する手段として、第2の実施形態では、プレビュー画像と校正用画像を比較し、意図していない校正用画像が取得された可能性が高い場合に、ユーザーに対して警告を行う例を説明する。なお、第1の実施形態と重複する部分については説明を省略する。
(Second Embodiment)
Next, a second embodiment will be described. In the first embodiment, an example in which a compressed image is displayed as a preview image in real time, and an uncompressed image is acquired as a calibration image when the capture button is pressed, so that the index is calibrated with high accuracy will be described. did. However, in the first embodiment, a time lag occurs between an image (preview image) at the moment when the user presses the capture button 403 and a calibration image, and a calibration image that is not intended by the user is acquired. There is a possibility. As a means for solving this, in the second embodiment, an example in which a preview image and a calibration image are compared and a warning is given to the user when there is a high possibility that an unintended calibration image has been acquired. Will be explained. Note that a description of the same parts as those in the first embodiment is omitted.

[処理のフローチャート]
図10は、本実施形態の処理を行う際の機能構成を示す図である。また、図11は、本実施形態の処理の流れを示すフローチャートである。以下では、図10と図11を参照して、本実施形態の処理の流れを説明する。なお、ステップS601〜S608の処理は第1の実施形態と同様であるため、説明を省略する。
[Processing flowchart]
FIG. 10 is a diagram illustrating a functional configuration when performing the processing of the present embodiment. FIG. 11 is a flowchart showing the flow of processing of this embodiment. Hereinafter, the flow of processing of the present embodiment will be described with reference to FIGS. 10 and 11. In addition, since the process of step S601-S608 is the same as that of 1st Embodiment, description is abbreviate | omitted.

ステップS1101において、指標判定部1001は、ステップS603において検出した指標の情報とステップS608において検出した指標の情報とを比較し、ステップS607において取得した画像が校正に適しているか判定する。指標判定部1001の処理の詳細は後述する。   In step S1101, the index determination unit 1001 compares the index information detected in step S603 with the index information detected in step S608, and determines whether the image acquired in step S607 is suitable for calibration. Details of the processing of the index determination unit 1001 will be described later.

ステップS1102において、警告部1002は、指標判定部1001の判定結果に基づいて、表示部108に警告情報を表示させる(警告情報出力)。警告部1002の処理の詳細は後述する。   In step S1102, the warning unit 1002 displays warning information on the display unit 108 based on the determination result of the index determination unit 1001 (warning information output). Details of the processing of the warning unit 1002 will be described later.

[指標判定部1001の処理の詳細]
図7は、本実施形態における指標判定部1101の処理を説明するための図である。以下では、図7を参照して、本実施形態における指標判定部1101の処理の詳細について説明する。
[Details of processing of index determination unit 1001]
FIG. 7 is a diagram for explaining processing of the index determination unit 1101 in the present embodiment. Below, with reference to FIG. 7, the detail of the process of the parameter | index determination part 1101 in this embodiment is demonstrated.

図7(a)はプレビュー画像701を示しており、図7(b)はユーザーがプレビュー画像701を見ながらキャプチャボタン403を押した結果として取得された校正用画像702を示している。プレビュー画像701と校正用画像702は、タイムラグによって撮影部107の位置姿勢がずれ、検出される指標の数が変化している。このように指標の数が変化している場合、校正用画像702がユーザーの想定通りに撮影されていない可能性が高いので、校正用画像702は校正に適していないと判定する。なお、検出される指標の数が変化するのは、撮影部107の位置姿勢がずれた場合に限らない。例えば、撮影画像内にブレやボケが発生すると、指標を検出しにくくなり、検出される指標の数が減少する場合がある。   FIG. 7A shows a preview image 701, and FIG. 7B shows a calibration image 702 acquired as a result of the user pressing the capture button 403 while viewing the preview image 701. In the preview image 701 and the calibration image 702, the position and orientation of the photographing unit 107 are shifted due to a time lag, and the number of detected indices is changed. When the number of indices changes in this way, it is highly likely that the calibration image 702 has not been taken as expected by the user, so it is determined that the calibration image 702 is not suitable for calibration. Note that the number of detected indices changes is not limited to the case where the position and orientation of the photographing unit 107 are deviated. For example, if blurring or blurring occurs in a captured image, it may be difficult to detect an index, and the number of detected indices may decrease.

本実施形態では、検出される指標の数を比較することで、撮影部107の位置姿勢がずれていたり、ブレやボケが発生していないか判定することができる。ここで、ボケの発生は、撮影部107と指標との距離か撮影部107のピント距離が変化したことを意味する。つまり、検出される指標の数を比較することで、撮影部107と指標との距離か撮影部107のピント距離が変化したことを検出することができる。なお、指標の増減数のしきい値をあらかじめ設定し、増減数がしきい値を超えた場合にのみ、校正用画像702が校正に適していないと判定してもよい。   In the present embodiment, it is possible to determine whether the position and orientation of the photographing unit 107 is deviated, or whether blurring or blurring has occurred by comparing the number of detected indices. Here, the occurrence of blur means that the distance between the photographing unit 107 and the index or the focus distance of the photographing unit 107 has changed. That is, by comparing the number of detected indices, it is possible to detect that the distance between the imaging unit 107 and the index or the focus distance of the imaging unit 107 has changed. It should be noted that a threshold value for the increase / decrease number of the index may be set in advance, and it may be determined that the calibration image 702 is not suitable for calibration only when the increase / decrease number exceeds the threshold value.

また、検出される指標の数は同じでも、指標の画像座標がずれていれば、ユーザーの想定通りに撮影されていない可能性がある。そこで、指標の画像座標のずれがあらかじめ設定したしきい値以上の場合に、校正用画像702が校正に適していないと判定してもよい。ここで、しきい値として任意の値を設定することができるが、例えば、画像幅の5%をしきい値とすればよい。更に、指標の識別情報を比較しても良い。これにより、どの指標がどれくらいずれているかということを知ることができるため、校正用画像702についてより確かな判定をすることができる。   Further, even if the number of detected indexes is the same, if the image coordinates of the indexes are deviated, there is a possibility that the image is not taken as expected by the user. Therefore, when the deviation of the image coordinates of the index is greater than or equal to a preset threshold value, it may be determined that the calibration image 702 is not suitable for calibration. Here, an arbitrary value can be set as the threshold value. For example, 5% of the image width may be set as the threshold value. Furthermore, the identification information of the index may be compared. This makes it possible to know which index is how much and how much, so that a more reliable determination can be made for the calibration image 702.

図7(c)は指標として四角形指標を用いた場合のプレビュー画像703を示しており、図7(d)はユーザーがプレビュー画像703を見ながらキャプチャボタン403を押した結果として取得された校正用画像704を示している。プレビュー画像703と校正用画像704は、タイムラグによって撮影部107と指標との距離が変わり、検出される指標の大きさが変化している。四角形指標では、指標の画像座標だけでなく、画像上における大きさも算出することができるので、画像上における指標の大きさの差があらかじめ設定したしきい値以上の場合に、校正用画像704が校正に適していないと判定することができる。ここで、しきい値として任意の値を設定することができるが、例えば、プレビュー画像701における指標の大きさの10%をしきい値とすればよい。なお、検出される指標の大きさが変化するのは、撮影部107と指標との距離が変わった場合に限らない。例えば、撮影部107の焦点距離が変化した場合も検出される指標の大きさが変化する。本発明では、検出される指標の大きさを比較することで、撮影部107と指標との距離や撮影部107の焦点距離が変化していないか判定することができる。また、指標の大きさと撮影部107の内部パラメータから撮影部107と指標との距離を算出し、その距離に応じて判定を行ってもよい。   FIG. 7C shows a preview image 703 when a square index is used as the index. FIG. 7D shows a calibration image acquired as a result of the user pressing the capture button 403 while viewing the preview image 703. An image 704 is shown. In the preview image 703 and the calibration image 704, the distance between the photographing unit 107 and the index changes with time lag, and the size of the detected index changes. In the case of a square index, not only the image coordinates of the index but also the size on the image can be calculated. Therefore, when the difference in the size of the index on the image is equal to or larger than a preset threshold value, the calibration image 704 is displayed. It can be determined that it is not suitable for calibration. Here, an arbitrary value can be set as the threshold value. For example, 10% of the size of the index in the preview image 701 may be set as the threshold value. Note that the size of the detected index changes not only when the distance between the image capturing unit 107 and the index changes. For example, the size of the detected index also changes when the focal length of the photographing unit 107 changes. In the present invention, it is possible to determine whether the distance between the imaging unit 107 and the index or the focal length of the imaging unit 107 has changed by comparing the size of the detected index. Further, the distance between the photographing unit 107 and the index may be calculated from the size of the index and the internal parameters of the photographing unit 107, and the determination may be performed according to the distance.

また、指標を検出する際に信頼度を算出し、その信頼度の差があらかじめ設定したしきい値以上の場合に、校正用画像702、704が校正に適していないと判定してもよい。信頼度の算出には任意の方法を用いることができる。例えば、指標が指標201〜209のような点指標の場合、指標の色としてあらかじめ登録されている色と実際に検出された指標領域の色との差を信頼度として用いることができる。また、指標が指標301のような四角形指標の場合、指標を構成する直線として検出された線の曲がり具合を信頼度として用いることができる。   Alternatively, the reliability may be calculated when detecting the index, and if the difference in reliability is equal to or greater than a preset threshold value, it may be determined that the calibration images 702 and 704 are not suitable for calibration. Any method can be used to calculate the reliability. For example, when the index is a point index such as the indices 201 to 209, the difference between the color registered in advance as the index color and the color of the actually detected index area can be used as the reliability. Further, when the index is a square index such as the index 301, the degree of bending of the line detected as a straight line constituting the index can be used as the reliability.

[警告部1002の処理の詳細]
指標判定部1001によって校正用画像が校正に適していないと判定された場合、警告部1002は表示部108に警告を表示(通知)させ、再度撮影を促す。警告として、例えば、校正用画像が校正に適していない旨を文字で表示させる。また、これに限られず、音声等の情報を出力することによってユーザに警告しても良い。でまた、校正用画像表示ウィンドウ404〜406のうち、適切でない校正用画像を表示しているウィンドウを強調することで警告してもよい。また、何が原因で校正に適していないと判定されたか、その理由を文字やアイコンなどで示してもよい。さらに、どのように修正すれば校正用画像が適切なものとなるかをユーザーに示してもよい。例えば、撮影部107の移動や回転を矢印で表し、ユーザーによる撮影部107の移動を誘導してもよい。
[Details of processing of warning unit 1002]
When the index determination unit 1001 determines that the calibration image is not suitable for calibration, the warning unit 1002 displays (notifies) a warning on the display unit 108 and prompts photographing again. As a warning, for example, a text indicating that the calibration image is not suitable for calibration is displayed. Moreover, it is not restricted to this, You may warn a user by outputting information, such as an audio | voice. Also, the warning may be given by emphasizing a window displaying an inappropriate calibration image among the calibration image display windows 404 to 406. In addition, what is determined to be unsuitable for the calibration may be indicated by characters or icons. Further, it may be shown to the user how to make the correction image suitable for correction. For example, the movement or rotation of the photographing unit 107 may be represented by an arrow to guide the user to move the photographing unit 107.

[第2の実施形態の効果]
本実施形態では、ユーザーが意図しない校正用画像が撮影された場合にユーザーに対して警告を表示し、再撮影を促すことができるため、第1の実施形態よりもロバストに指標の校正を行うことができる。
[Effects of Second Embodiment]
In this embodiment, when a calibration image that is not intended by the user is captured, a warning is displayed to the user and prompts re-photographing. Therefore, the index is calibrated more robustly than in the first embodiment. be able to.

(第3の実施形態)
次に、第3の実施形態を説明する。第1の実施形態と第2の実施形態では、通信帯域が足りない場合でも、高精度に指標を校正する例を説明した。本実施形態では、通信帯域が足りない場合でも、高精度に撮影部の校正を行う例を説明する。なお、第2の実施形態と重複する部分については説明を省略する。
(Third embodiment)
Next, a third embodiment will be described. In the first embodiment and the second embodiment, the example in which the index is calibrated with high accuracy even when the communication band is insufficient has been described. In the present embodiment, an example in which the photographing unit is calibrated with high accuracy even when the communication band is insufficient will be described. Note that a description of the same parts as those in the second embodiment is omitted.

図8は、撮影部107の校正用パターンの例である。指標801〜820は、指標同士の相対的な三次元位置関係が既知であるとする。なお、本発明は図8の校正用パターンを用いる場合に限定されない。指標同士の相対的な三次元位置関係が既知であり、撮影画像上における投影像の二次元座標(画像座標)が検出可能であって、かついずれの指標であるかが識別可能であるような指標であれば、何れの形態であってもよい。   FIG. 8 is an example of a calibration pattern for the photographing unit 107. Assume that the indices 801 to 820 have a known relative three-dimensional positional relationship between the indices. The present invention is not limited to the case where the calibration pattern of FIG. 8 is used. The relative three-dimensional positional relationship between the indices is known, the two-dimensional coordinates (image coordinates) of the projected image on the captured image can be detected, and the index can be identified. Any form may be used as long as it is an index.

撮影部107の校正を行う際は、撮影部107によって指標801〜820を撮影し、該撮影された指標の情報を用いて校正を行う。校正の処理内容は本発明の主眼ではないため、説明を省略するが、例えば、特許文献2に記載の方法で校正を行うことができる。   When calibrating the photographing unit 107, the photographing unit 107 photographs the indicators 801 to 820, and calibrates using information of the photographed indicators. Since the content of the calibration process is not the main point of the present invention, a description thereof will be omitted. For example, the calibration can be performed by the method described in Patent Document 2.

本実施形態の処理の流れは、第2の実施形態と同様である。第2の実施形態とは、指標判定部1001の処理が異なるため、その点について以下で説明する。   The processing flow of this embodiment is the same as that of the second embodiment. Since the processing of the index determination unit 1001 is different from that of the second embodiment, this point will be described below.

[第3の実施形態の指標判定部1101の処理の詳細]
図9は、本実施形態における指標判定部1101の処理を説明するための図である。以下では、図9を参照して、本実施形態における指標判定部1101の処理の詳細について説明する。
[Details of Processing of Index Determination Unit 1101 of Third Embodiment]
FIG. 9 is a diagram for explaining processing of the index determination unit 1101 in the present embodiment. Below, with reference to FIG. 9, the detail of the process of the parameter | index determination part 1101 in this embodiment is demonstrated.

領域901〜924は画像上の領域を表している。撮影部107の校正では、歪曲補正を行うために、画像上の各領域でどのような歪曲が発生しているか測定する必要がある。特に、画像端(例えば、領域901、906、919、924など)では大きな歪曲が発生するため、画像端に指標801〜820が写るように校正用パターンを撮影し、画像端でどのような歪曲が発生しているか測定することが重要である。ところが、プレビュー画像と校正用画像との間のタイムラグによって、指標801〜820が画像端から外れて校正用画像が撮影されてしまう可能性がある。そこで、画像端に指標801〜820が写っているほど値が大きくなるような評価値を算出し、プレビュー画像に比べて校正用画像の方が評価値が低くなった場合に警告を出す。なお、本実施形態における指標判定部1101の処理の代わりに第2の実施形態における指標判定部1101の処理を行ってもかまわない。また、第2の実施形態における指標判定部1101の処理と本実施形態における指標判定部1101の処理を組み合わせて実施することも可能である。   Regions 901 to 924 represent regions on the image. In the calibration of the photographing unit 107, in order to perform distortion correction, it is necessary to measure what kind of distortion is generated in each area on the image. In particular, since large distortion occurs at the edge of the image (for example, areas 901, 906, 919, and 924), a calibration pattern is photographed so that the indicators 801 to 820 appear at the edge of the image, and what kind of distortion occurs at the edge of the image. It is important to measure whether this occurs. However, due to the time lag between the preview image and the calibration image, there is a possibility that the indicators 801 to 820 are disengaged from the image edge and the calibration image is captured. Therefore, an evaluation value that increases as the indices 801 to 820 appear at the edge of the image is calculated, and a warning is issued when the evaluation value of the calibration image is lower than that of the preview image. Note that the processing of the index determination unit 1101 in the second embodiment may be performed instead of the processing of the index determination unit 1101 in the present embodiment. Further, it is possible to combine the processing of the index determination unit 1101 in the second embodiment and the processing of the index determination unit 1101 in the present embodiment.

[第3の実施形態の効果]
第3の実施形態によれば、撮影部107の校正において、校正の精度が高くなる。特に、歪曲の校正精度が高くなる。
[Effect of the third embodiment]
According to the third embodiment, in the calibration of the photographing unit 107, the calibration accuracy is increased. In particular, distortion calibration accuracy is increased.

(その他の実施例)
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (12)

撮像装置による撮像に基づき取得される第1の画像と、前記第1の画像よりもデータ量が大きい第2の画像とを取得する画像取得手段と、
第1のモードが設定されている場合に、前記第1の画像から指標を検出し、前記第1のモードと異なる第2のモードが設定されている場合に、前記第2の画像から指標を検出する検出手段と、
前記指標検出手段による検出結果に基づいて、前記指標の三次元位置情報と前記撮像装置に関するパラメータうち少なくともいずれかを導出する導出手段とを備えることを特徴とする情報処理装置。
Image acquisition means for acquiring a first image acquired based on imaging by an imaging device and a second image having a larger data amount than the first image;
An index is detected from the first image when the first mode is set, and an index is detected from the second image when a second mode different from the first mode is set. Detecting means for detecting;
An information processing apparatus comprising: derivation means for deriving at least one of three-dimensional position information of the index and a parameter related to the imaging device based on a detection result by the index detection means.
更に、前記第1の画像から検出された指標と、前記第2の画像から検出された指標とに基づいて、前記第2の画像が前記導出手段による処理に適しているかを判定する判定手段を備えることを特徴とする請求項1に記載の情報処理装置。   And determining means for determining whether the second image is suitable for processing by the deriving means based on the index detected from the first image and the index detected from the second image. The information processing apparatus according to claim 1, further comprising: 前記判定手段は、前記第1の画像、第2の画像それぞれから検出された指標の数、位置情報、大きさのいずれかを比較することにより、前記第2の画像が前記導出手段による処理に適しているかを判定することを特徴とする請求項2に記載の情報処理装置。   The determination unit compares the number, position information, and size of the indices detected from the first image and the second image, respectively, so that the second image is processed by the deriving unit. The information processing apparatus according to claim 2, wherein the information processing apparatus determines whether it is suitable. 更に、前記判定手段が前記第2の画像が前記導出手段による処理に適していると判定しなかった場合に、ユーザに通知するための警告情報を出力する警告情報出力手段を備えることを特徴とする請求項2または3に記載の情報処理装置。   And a warning information output means for outputting warning information for notifying a user when the determination means does not determine that the second image is suitable for processing by the derivation means. The information processing apparatus according to claim 2 or 3. 更に、前記判定手段が前記第2の画像が前記導出手段による処理に適していると判定しなかった場合に、ユーザに再度撮影を促す情報を出力する出力手段を備えることを特徴とする請求項2乃至4のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising an output unit configured to output information prompting the user to take a picture again when the determination unit does not determine that the second image is suitable for processing by the deriving unit. 5. The information processing apparatus according to any one of 2 to 4. 更に、前記第1のモードと前記第2のモードを設定する設定手段を備えることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising a setting unit that sets the first mode and the second mode. 前記設定手段は、ユーザからの入力により、前記第1のモードまたは前記第2のモードを設定することを特徴とする請求項6に記載の情報処理装置。   The information processing apparatus according to claim 6, wherein the setting unit sets the first mode or the second mode based on an input from a user. 前記第1の画像は、圧縮された画像であり、前記第2の画像は、非圧縮の画像であることを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the first image is a compressed image, and the second image is an uncompressed image. 前記第1の画像の解像度は、前記第2の画像の解像度よりも低いことを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein a resolution of the first image is lower than a resolution of the second image. 前記第1の画像の圧縮率は、前記第2の画像の圧縮率よりも高いことを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein a compression rate of the first image is higher than a compression rate of the second image. 撮像装置による撮像に基づき取得される第1の画像と、前記第1の画像よりもデータ量が大きい第2の画像とを取得する画像取得工程と、
第1のモードが設定されている場合に、前記第1の画像から指標を検出し、前記第1のモードと異なる第2のモードが設定されている場合に、前記第2の画像から指標を検出する検出工程と、
前記指標検出工程における検出結果を用いて、前記指標の三次元位置情報と前記撮像装置に関するパラメータうち少なくともいずれかを導出する導出工程とを備えることを特徴とする情報処理方法。
An image acquisition step of acquiring a first image acquired based on imaging by an imaging device and a second image having a larger data amount than the first image;
An index is detected from the first image when the first mode is set, and an index is detected from the second image when a second mode different from the first mode is set. A detection process to detect;
An information processing method comprising: a deriving step of deriving at least one of the three-dimensional position information of the index and a parameter related to the imaging device using a detection result in the index detection step.
コンピュータを、請求項1乃至10のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the information processing apparatus of any one of Claims 1 thru | or 10.
JP2015161993A 2015-08-19 2015-08-19 Information processing device, information processing method, and program Pending JP2017040542A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015161993A JP2017040542A (en) 2015-08-19 2015-08-19 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015161993A JP2017040542A (en) 2015-08-19 2015-08-19 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2017040542A true JP2017040542A (en) 2017-02-23

Family

ID=58203755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015161993A Pending JP2017040542A (en) 2015-08-19 2015-08-19 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2017040542A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020117007A1 (en) * 2018-12-07 2020-06-11 Samsung Electronics Co., Ltd. Apparatus and method for operating multiple cameras for digital photography
US20220122286A1 (en) * 2018-11-30 2022-04-21 Casio Computer Co., Ltd. Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system
JP7396336B2 (en) 2018-11-30 2023-12-12 カシオ計算機株式会社 Location information acquisition device, location information acquisition method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220122286A1 (en) * 2018-11-30 2022-04-21 Casio Computer Co., Ltd. Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system
US11816861B2 (en) * 2018-11-30 2023-11-14 Casio Computer Co., Ltd. Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system
JP7396336B2 (en) 2018-11-30 2023-12-12 カシオ計算機株式会社 Location information acquisition device, location information acquisition method, and program
WO2020117007A1 (en) * 2018-12-07 2020-06-11 Samsung Electronics Co., Ltd. Apparatus and method for operating multiple cameras for digital photography
US11412136B2 (en) 2018-12-07 2022-08-09 Samsung Electronics Co., Ltd. Apparatus and method for operating multiple cameras for digital photography

Similar Documents

Publication Publication Date Title
JP6570296B2 (en) Image processing apparatus, image processing method, and program
JP2016225953A (en) Camera calibration device, camera system, and camera calibration method
JP6502511B2 (en) Calculation device, control method of calculation device, and calculation program
WO2011125937A1 (en) Calibration data selection device, method of selection, selection program, and three dimensional position measuring device
US20160292888A1 (en) Image measurement device, and recording medium
JP6804056B2 (en) Projection type display device, control method of projection type display device, and program
JP6594170B2 (en) Image processing apparatus, image processing method, image projection system, and program
JP2013123123A (en) Stereo image generation device, stereo image generation method and computer program for stereo image generation
US11100699B2 (en) Measurement method, measurement device, and recording medium
JP2017040542A (en) Information processing device, information processing method, and program
JP4696018B2 (en) Observation position following video presentation device, observation position following video presentation program, video presentation device, and video presentation program
JP2016217944A (en) Measurement device and measurement method
US20170061695A1 (en) Wearable display apparatus, information processing apparatus, and control method therefor
JP6752360B2 (en) Image processing device, imaging device, terminal device, image correction method and image processing program
JP5996233B2 (en) Imaging device
CN108260360B (en) Scene depth calculation method and device and terminal
US10432916B2 (en) Measurement apparatus and operation method of measurement apparatus
KR101632514B1 (en) Method and apparatus for upsampling depth image
JP5925109B2 (en) Image processing apparatus, control method thereof, and control program
JP2014086899A (en) Image processing device, image processing method, and program
WO2018061430A1 (en) Measurement apparatus, measurement method, measurement program, and recording medium
JP2015220662A (en) Information processing apparatus, method for the same, and program
JP2015197429A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2018116039A (en) Mtf measurement device and program of the same
US20230260159A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium