JP5928228B2 - Subject detection apparatus, subject detection method, and program - Google Patents
Subject detection apparatus, subject detection method, and program Download PDFInfo
- Publication number
- JP5928228B2 JP5928228B2 JP2012169406A JP2012169406A JP5928228B2 JP 5928228 B2 JP5928228 B2 JP 5928228B2 JP 2012169406 A JP2012169406 A JP 2012169406A JP 2012169406 A JP2012169406 A JP 2012169406A JP 5928228 B2 JP5928228 B2 JP 5928228B2
- Authority
- JP
- Japan
- Prior art keywords
- respect
- image
- inclination
- imaging unit
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、被写体検出装置、被写体検出方法及びプログラムに関する。 The present invention relates to a subject detection device, a subject detection method, and a program.
従来、拡張現実(augmented reality:AR)技術として、撮像された画像におけるマーカー(実オブジェクト)の画像に対応付けて、仮想オブジェクト(例えば、三次元モデル等)を表示させる画像処理装置が知られている(例えば、特許文献1参照)。
この画像処理装置では、撮像されたフレーム画像の画像解析の結果に基づいて、フレーム画像におけるマーカーの画像の傾き(例えば、表示画面内における正視状態からの回転角度等)を検出して、当該マーカーの画像の傾きを初期値として記録しておく。また、画像処理装置は、逐次撮像されるフレーム画像におけるマーカーの傾きと初期値として記録されている傾きとの相対的な差分、具体的には、座標値の差分を算出する。そして、画像処理装置は、算出された座標値の差分から、所定のベクトルに沿うように仮想オブジェクトの画像を傾けて逐次表示させる処理を行う。
Conventionally, as an augmented reality (AR) technique, an image processing apparatus that displays a virtual object (for example, a three-dimensional model) in association with an image of a marker (real object) in a captured image is known. (For example, refer to Patent Document 1).
In this image processing apparatus, based on the result of image analysis of the captured frame image, the inclination of the image of the marker in the frame image (for example, the rotation angle from the normal viewing state in the display screen) is detected, and the marker Is recorded as an initial value. In addition, the image processing apparatus calculates a relative difference between the inclination of the marker in the sequentially captured frame image and the inclination recorded as the initial value, specifically, a difference in coordinate values. Then, the image processing apparatus performs a process of sequentially displaying the virtual object image tilted along a predetermined vector from the calculated coordinate value difference.
ところで、三次元空間内のマーカーの各点の座標を所定の座標変換式を用いてフレーム画像内の対応する座標に変換する場合、フレーム画像内のマーカー画像を構成する複数の点の座標データから初期値を設定すると、撮像部に対するマーカーの姿勢や位置関係の推定を適正に行うことができない虞がある。この場合、仮想オブジェクトの表示を適正に行うことができなくなってしまう。 By the way, when the coordinates of each point of the marker in the three-dimensional space are converted into corresponding coordinates in the frame image using a predetermined coordinate conversion formula, from the coordinate data of a plurality of points constituting the marker image in the frame image When the initial value is set, there is a possibility that the posture of the marker and the positional relationship with respect to the imaging unit cannot be properly estimated. In this case, the virtual object cannot be displayed properly.
本発明は、このような問題に鑑みてなされたものであり、本発明の課題は、撮像部に対する特定の被写体の姿勢の推定を適正に行うことができる被写体検出装置、被写体検出方法及びプログラムを提供することである。 The present invention has been made in view of such a problem, and an object of the present invention is to provide a subject detection apparatus, a subject detection method, and a program capable of appropriately estimating the posture of a specific subject with respect to an imaging unit. Is to provide.
前記課題を解決するため、本発明に係る被写体検出装置の一様態は、
撮像部により撮像された特定の被写体の画像を逐次取得する取得手段と、前記取得手段により一の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第1検出手段と、前記第1検出手段により検出された前記撮像部の重力方向に対する傾き及び前記一の画像に含まれる前記特定の被写体の画像を構成する複数の点と関連付けられた前記撮像部に対する前記特定の被写体の仮の姿勢に基づいて、前記特定の被写体の重力方向に対する傾きを算出する第1算出手段と、前記取得手段により前記一の画像と異なる他の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第2検出手段と、前記第2検出手段により検出された前記撮像部の重力方向に対する傾き及び前記第1算出手段により算出された前記特定の被写体の重力方向に対する傾きに基づいて、前記特定の被写体の画像を構成する前記複数の点の各点の空間座標を前記他の画像内の平面座標に変換する座標変換式の初期値として、前記撮像部に対する前記特定の被写体の相対的な姿勢を算出する第2算出手段と、を備える、ことを特徴とする。
In order to solve the above problems, an aspect of the subject detection apparatus according to the present invention is as follows.
An acquisition unit that sequentially acquires images of a specific subject imaged by the imaging unit; a first detection unit that detects an inclination of the imaging unit with respect to the gravitational direction when one image is acquired by the acquisition unit; the specific subject relative to the imaging unit associated with a plurality of points constituting the image of a specific subject included in tilt-out及 beauty the one image with respect to the gravity direction of the imaging unit, which is detected by the first detection means A first calculating unit that calculates the inclination of the specific subject with respect to the gravitational direction based on the provisional posture of the image, and the gravity of the imaging unit when another image different from the one image is acquired by the acquiring unit. second detection means, the second said specific object scene calculated by the inclination-out及 beauty said first calculating means with respect to the gravity direction of the imaging unit, which is detected by the detection means for detecting a tilt with respect to the direction On the basis on the inclination with respect to the direction of gravity, the spatial coordinates of each point of the plurality of points constituting the image of the specific object as a coordinate conversion formula initial value to be converted to plane coordinates in the other image, the imaging a second calculating means for calculating a relative posture of the specific subject for parts, Ru provided with, characterized in that.
また、前記課題を解決するため、本発明に係る被写体検出方法の一様態は、
被写体検出装置を用いた被写体検出方法であって、撮像部により撮像された特定の被写体の画像を逐次取得する処理と、一の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する処理と、検出された前記撮像部の重力方向に対する傾き及び前記一の画像に含まれる前記特定の被写体の画像を構成する複数の点と関連付けられた前記撮像部に対する前記特定の被写体の仮の姿勢に基づいて、前記特定の被写体の重力方向に対する傾きを算出する処理と、前記一の画像と異なる他の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する処理と、検出された前記撮像部の重力方向に対する傾き及び前記特定の被写体の重力方向に対する傾きに基づいて、前記特定の被写体の画像を構成する前記複数の点の各点の空間座標を前記他の画像内の平面座標に変換する座標変換式の初期値として、前記撮像部に対する前記特定の被写体の相対的な姿勢を算出する処理と、を含む、ことを特徴とする。
In order to solve the above problem , an aspect of the subject detection method according to the present invention is:
A method for detecting a subject using a subject detection device, which sequentially acquires an image of a specific subject imaged by an imaging unit, and detects an inclination of the imaging unit relative to the gravitational direction when one image is acquired a process for the detected tilt-out with respect to the gravity direction of the imaging unit 及 beauty the of the specific subject with respect to the imaging unit associated with a plurality of points constituting the image of the particular subject included in one image A process of calculating the inclination of the specific subject with respect to the gravitational direction based on a provisional posture; and a process of detecting the inclination of the imaging unit with respect to the gravitational direction when another image different from the one image is acquired. , based on the inclination with respect to the detected tilt-out及 beauty said gravity direction of the specific subject with respect to the gravity direction of the imaging unit, the space locus of points of the plurality of points constituting the image of the specific object As the initial value of the coordinate conversion formula for converting the plane coordinates in the other image, including a process of calculating the relative attitude of the specific subject with respect to the imaging unit, it is characterized.
また、前記課題を解決するため、本発明に係るプログラムの一様態は、
被写体検出装置のコンピュータを、撮像部により撮像された特定の被写体の画像を逐次取得する取得手段、前記取得手段により一の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第1検出手段、前記第1検出手段により検出された前記撮像部の重力方向に対する傾き及び前記一の画像に含まれる前記特定の被写体の画像を構成する複数の点と関連付けられた前記撮像部に対する前記特定の被写体の仮の姿勢に基づいて、前記特定の被写体の重力方向に対する傾きを算出する第1算出手段、前記取得手段により前記一の画像と異なる他の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第2検出手段、前記第2検出手段により検出された前記撮像部の重力方向に対する傾き及び前記第1算出手段により算出された前記特定の被写体の重力方向に対する傾きに基づいて、前記特定の被写体の画像を構成する前記複数の点の各点の空間座標を前記他の画像内の平面座標に変換する座標変換式の初期値として、前記撮像部に対する前記特定の被写体の相対的な姿勢を算出する第2算出手段、として機能させる、ことを特徴とする。
Moreover, in order to solve the said subject, the one aspect | mode of the program which concerns on this invention is:
An acquisition unit that sequentially acquires an image of a specific subject captured by the imaging unit, and a tilt of the imaging unit relative to the gravitational direction when one image is acquired by the acquisition unit. first detecting means, wherein said image pickup unit associated with a plurality of points constituting the image of a specific subject included in tilt-out及 beauty the one image with respect to the gravity direction of the imaging unit, which is detected by the first detection means The first calculation means for calculating the inclination of the specific subject with respect to the gravitational direction based on the provisional posture of the specific subject with respect to the above, when the acquisition means acquires another image different from the one image second detecting means for detecting an inclination relative to the gravity direction of the imaging unit, the inclination-out及 beauty said first calculating means with respect to the gravity direction of the image pickup unit detected by the second detecting means Based on the inclination with respect to the gravity direction of the specific subject issued, coordinate conversion formula for converting the spatial coordinates of each point of the plurality of points constituting the image of the specific object in the plane coordinates in the other image as an initial value, second calculating means for calculating a relative posture of the specific subject with respect to the imaging unit, to function as, and wherein the.
本発明によれば、撮像部に対する特定の被写体の姿勢の推定を適正に行うことができる。 According to the present invention, it is possible to appropriately estimate the posture of a specific subject with respect to the imaging unit.
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。 Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
図1は、本発明を適用した一実施形態の携帯端末100の概略構成を示すブロック図である。
図1に示すように、携帯端末100は、中央制御部1と、メモリ2と、撮像部3と、撮像制御部4と、画像データ生成部5と、傾き検出部6と、マーカー検出処理部7と、表示部8と、表示制御部9と、送受話部10と、通信制御部11と、操作入力部12等を備えている。
なお、携帯端末100は、例えば、通信機能を具備する撮像装置や、携帯電話やPHS(Personal Handy-phone System)などの移動体通信網で用いられる移動局、PDA(Personal Data Assistants)等から構成されている。
FIG. 1 is a block diagram showing a schematic configuration of a
As shown in FIG. 1, the
The
中央制御部1は、携帯端末100の各部を制御する。具体的には、中央制御部1は、携帯端末100の各部を制御するCPU(図示略)を具備し、各種処理プログラム(図示略)に従って各種の制御動作を行う。
The central control unit 1 controls each unit of the
メモリ2は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、画像情報等を一時的に記録するバッファメモリや、中央制御部1などのワーキングメモリ、当該携帯端末100の機能に係る各種プログラムやデータが格納されたプログラムメモリ等(何れも図示略)を備えている。
The memory 2 is composed of, for example, a DRAM (Dynamic Random Access Memory) or the like, and is a buffer memory that temporarily records image information, a working memory such as the central control unit 1, and various programs related to the functions of the
撮像部3は、特定の被写体(例えば、マーカーM)を撮像してフレーム画像F(図3参照)の画像信号を生成する。
ここで、特定の被写体とは、二次元画像であっても良いし、3次元形状の立体であっても良い。例えば、特定の被写体を二次元画像とした場合には、略矩形枠状(額縁状)をなすマーカーM等が挙げられる(図3参照)。
The imaging unit 3 captures a specific subject (for example, the marker M) and generates an image signal of the frame image F (see FIG. 3).
Here, the specific subject may be a two-dimensional image or a three-dimensional solid. For example, when a specific subject is a two-dimensional image, a marker M having a substantially rectangular frame shape (frame shape) may be used (see FIG. 3).
また、撮像部3は、レンズ部3aと、電子撮像部3bとを備えている。
レンズ部3aは、ズームレンズやフォーカスレンズ等の複数のレンズから構成されている。
電子撮像部3bは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部3aの各種レンズを通過した光学像を二次元の画像信号に変換する。
なお、図示は省略するが、撮像部3は、レンズ部3aを通過する光の量を調整する絞りを備えていても良い。
The imaging unit 3 includes a
The
The
In addition, although illustration is abbreviate | omitted, the imaging part 3 may be provided with the aperture_diaphragm | restriction which adjusts the quantity of the light which passes the
撮像制御部4は、撮像部3による被写体の撮像を制御する。即ち、撮像制御部4は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部4は、タイミング発生器、ドライバにより電子撮像部3bを走査駆動して、所定周期毎に光学像を電子撮像部3bにより二次元の画像信号に変換させ、当該電子撮像部3bの撮像領域から1画面分ずつフレーム画像Fを読み出して画像データ生成部5に出力させる。
また、撮像制御部4は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体の撮像条件の調整制御を行う。
The
In addition, the
画像データ生成部5は、電子撮像部3bから転送されたフレーム画像Fのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
また、画像データ生成部5は、生成したフレーム画像FのYUVデータを水平及び垂直ともに所定倍率で縮小処理を行って、ライブビュー表示用の低解像度(例えば、VGAやQVGAサイズ等)の画像データを生成する。具体的には、画像データ生成部5は、表示部8によるライブビュー画像の所定の表示フレームレートに応じた所定のタイミングで、フレーム画像FのYUVデータからライブビュー表示用の低解像度の画像データを生成する。
The image
Further, the image
そして、画像データ生成部5は、生成された各フレーム画像FのYUVデータをメモリ2に順次出力し、当該メモリ2に格納させる。
Then, the image
傾き検出部6は、撮像部3を具備する当該端末本体の重力軸方向に対する姿勢(傾き)を検出する。具体的には、傾き検出部6は、第1検出部6aと、第2検出部6bとを備えている。
The
第1検出部(第1検出手段)6aは、画像取得部7a(後述)により第1画像(一の画像)が取得された際の端末本体の重力軸方向に対する第1姿勢Pac0を検出する。
即ち、第1検出部6aは、例えば、3軸加速度センサ等を備え、この3軸加速度センサによる各軸の検出信号の0Hzの周波数成分に基づいて重力軸方向を特定し、当該重力軸方向に対する各軸の傾きを端末本体の重力軸方向に対する第1姿勢Pac0として検出する。具体的には、第1検出部6aは、複数のフレーム画像F、…のうち、マーカーMの重力軸方向に対する姿勢Pam(後述)の算出に係る第1画像が画像取得部7aにより取得された際に、端末本体の重力軸方向に対する第1姿勢Pac0を検出する。
ここで、端末本体の重力軸方向に対する第1姿勢Pac0は、具体的には、n行m列の行列(n、mは、それぞれ自然数)で表され、例えば、3×3の回転行列等が挙げられる。
The first detection unit (first detection means) 6a detects the first posture Pac0 with respect to the gravity axis direction of the terminal body when the first image (one image) is acquired by the
That is, the first detection unit 6a includes, for example, a triaxial acceleration sensor and the like, specifies the gravity axis direction based on the frequency component of 0 Hz of the detection signal of each axis by the triaxial acceleration sensor, and with respect to the gravity axis direction. The inclination of each axis is detected as the first posture Pac0 with respect to the gravity axis direction of the terminal body. Specifically, the first detection unit 6a acquires, from the plurality of frame images F,..., The first image related to the calculation of the posture Pam (described later) of the marker M with respect to the gravity axis direction by the
Here, the first posture Pac0 with respect to the direction of the gravity axis of the terminal body is specifically represented by an n-by-m matrix (n and m are natural numbers, respectively), for example, a 3 × 3 rotation matrix or the like. Can be mentioned.
第2検出部(第2検出手段)6bは、画像取得部7a(後述)により第1画像と異なる第2画像(他の画像)が取得された際の端末本体の重力軸方向に対する第2姿勢Pac1を検出する。
この第2検出部6bは、第1検出部6aと略同様の構成をなしている。即ち、第2検出部6bは、例えば、3軸加速度センサ等を備え、この3軸加速度センサによる各軸の検出信号の0Hzの周波数成分に基づいて重力軸方向を特定し、当該重力軸方向に対する各軸の傾きを端末本体の重力軸方向に対する第2姿勢Pac1として検出する。具体的には、第2検出部6bは、複数のフレーム画像F、…のうち、端末本体に対するマーカーMの相対的な姿勢Prm1(後述)の算出に係る第2画像が画像取得部7aにより取得された際に、端末本体の重力軸方向に対する第2姿勢Pac1を検出する。
ここで、端末本体の重力軸方向に対する第2姿勢Pac1は、具体的には、n行m列の行列(n、mは、それぞれ自然数)で表され、例えば、3×3の回転行列等が挙げられる。
The second detection unit (second detection unit) 6b has a second posture with respect to the gravity axis direction of the terminal body when a second image (other image) different from the first image is acquired by an
The
Here, the second posture Pac1 with respect to the gravitational axis direction of the terminal body is specifically represented by a matrix of n rows and m columns (n and m are natural numbers, respectively), for example, a 3 × 3 rotation matrix or the like. Can be mentioned.
なお、上記した3軸加速度センサによる重力軸方向の検出手法や、第1検出部6a及び第2検出部6bによる端末本体の重力軸方向に対する姿勢Pac0、Pac1の検出手法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。
また、撮像部3を具備する当該端末本体の重力軸方向に対する傾き(姿勢)を検出するようにしたが、一例であってこれに限られるものではなく、撮像部3自体の重力軸方向に対する傾きを検出するようにしても良い。また、撮像部3に代えて、所定の部材や要素(例えば、光軸の延長線上に設けられた液晶パネル等)の重力軸方向に対する傾きを検出するようにしても良い。
Note that the above-described detection method of the gravity axis direction by the three-axis acceleration sensor and the detection method of the postures Pac0 and Pac1 with respect to the gravity axis direction of the terminal body by the first detection unit 6a and the
In addition, the inclination (posture) of the terminal main body including the imaging unit 3 with respect to the gravity axis direction is detected, but is not limited to this, and the inclination of the imaging unit 3 itself with respect to the gravity axis direction is not limited thereto. May be detected. Further, instead of the imaging unit 3, a tilt of a predetermined member or element (for example, a liquid crystal panel provided on an extension line of the optical axis) with respect to the gravity axis direction may be detected.
マーカー検出処理部7は、画像取得部7aと、第1算出部7bと、第2算出部7cと、座標変換部7dと、画像生成部7eを具備している。
なお、マーカー検出処理部7の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
The marker detection processing unit 7 includes an
In addition, although each part of the marker detection process part 7 is comprised from the predetermined | prescribed logic circuit, for example, the said structure is an example and is not restricted to this.
画像取得部7aは、複数のフレーム画像F、…を逐次取得する。
即ち、画像取得部(取得手段)7aは、マーカー(特定の被写体)Mが連続して撮像された複数の画像を逐次取得する。具体的には、画像取得部7aは、撮像部3によりマーカーMが連続して撮像されて画像データ生成部5により逐次生成された複数のフレーム画像F、…の所定の解像度の画像データをメモリ2から逐次取得する。
The
That is, the image acquisition unit ( acquisition unit ) 7a sequentially acquires a plurality of images in which the marker (specific subject) M is continuously captured. Specifically, the
第1算出部7bは、マーカーMの重力軸方向に対する姿勢Pamを算出する。
即ち、第1算出部(第1算出手段)7bは、第1検出部6aにより検出された端末本体の重力軸方向に対する第1姿勢Pac0、及び第1画像(一の画像)に含まれるマーカー画像(特定の被写体画像)Sを構成する複数の点と関連付けられた端末本体(撮像部3)に対するマーカーMの仮の姿勢Prm0に基づいて、マーカーMの重力軸方向に対する姿勢(傾き)Pamを算出する。
具体的には、第1算出部7bは、画像取得部7aにより取得された複数のフレーム画像F、…のうちの一の第1画像の画像データに対して所定の特徴抽出処理を行って、当該第1画像内から略矩形枠状のマーカー画像Sを抽出する。
続けて、第1算出部7bは、マーカー画像Sを構成する複数の点(例えば、4隅の点等)を検出し、当該複数の点に基づいて端末本体に対するマーカーMの仮の姿勢Prm0を特定する。例えば、第1算出部7bは、所定の記録手段に記録されているデータベース(図示略)等を参照して、マーカー画像Sの4隅の点と幾何学的な位置関係を有する端末本体に対するマーカーMの仮の姿勢Prm0を特定する。
そして、第1算出部7bは、特定された端末本体に対するマーカーMの仮の姿勢Prm0と、第1検出部6aにより検出された端末本体の重力軸方向に対する第1姿勢Pac0とに基づいて、下記式(1)に従って、マーカーMの重力軸方向に対する姿勢Pamを算出する。
That is, the first calculation unit (first calculation unit) 7b includes the first posture Pac0 with respect to the gravity axis direction of the terminal body detected by the first detection unit 6a, and the marker image included in the first image (one image). Based on the provisional posture Prm0 of the marker M with respect to the terminal body (imaging unit 3) associated with a plurality of points constituting the (specific subject image) S, the posture (inclination) Pam of the marker M with respect to the gravity axis direction is calculated. To do.
Specifically, the
Subsequently, the
Then, the
また、第1算出部7bは、画像データ生成部5により逐次生成された複数のフレーム画像F、…が画像取得部7aにより取得される毎に、各フレーム画像Fを第1画像としてマーカーMの重力軸方向に対する姿勢Pamを算出する。そして、第1算出部7bは、所定回数算出されたマーカーMの重力軸方向に対する姿勢Pamに基づいて、当該姿勢Pamの代表値(例えば、平均値や中央値等)を算出しても良い。具体的には、第1算出部7bは、例えば、マーカーMの重力軸方向に対する姿勢Pamの所定回数分を平均して、その結果をマーカーMの重力軸方向に対する姿勢Pamの代表値とする。
なお、マーカーMの重力軸方向に対する姿勢Pamを算出する回数は、適宜任意に変更可能であり、例えば、予め指定されたユーザ所望の値であっても良いし、デフォルトとして設定されている値であっても良い。
Further, the
The number of times of calculating the posture Pam of the marker M with respect to the direction of the gravity axis can be arbitrarily changed as appropriate. For example, it can be a user-specified value specified in advance or a value set as a default. There may be.
また、第1算出部7bは、座標変換部7dにより端末本体に対するマーカーMの相対的な姿勢や位置関係を表す行列R、T(後述)が特定される毎に、マーカーMの重力軸方向に対する姿勢Pamを算出しても良い。即ち、第1算出部7bは、座標変換部7dにより逐次特定された端末本体に対するマーカーMの相対的な姿勢を表す行列Rを端末本体に対するマーカーMの相対的な姿勢Prm1とし、当該姿勢Prm1と第2検出部6bにより検出された端末本体の重力軸方向に対する第2姿勢Pac1とに基づいて、上記式(1)と略同様の所定の演算を行って、マーカーMの重力軸方向に対する姿勢Pamを算出して更新しても良い。
In addition, the
第2算出部7cは、端末本体に対するマーカーMの相対的な姿勢Prm1を算出する。
即ち、第2算出部(第2算出手段)7cは、第2検出部6bにより検出された端末本体の重力軸方向に対する第2姿勢Pac1、及び第1算出部7bにより算出されたマーカーMの重力軸方向に対する姿勢Pamに基づいて、当該マーカーMの各点の三次元空間での座標を第2画像(他の画像)内の対応する二次元の平面座標に変換する座標変換式(例えば、式(3)参照;後述)の初期値として、端末本体(撮像部3)に対するマーカーMの相対的な姿勢Prm1を算出する。
具体的には、第2検出部6bにより端末本体の重力軸方向に対する第2姿勢Pac1が検出される毎に、第2算出部7cは、検出された端末本体の重力軸方向に対する第2姿勢Pac1及びマーカーMの重力軸方向に対する姿勢Pamに基づいて、下記式(2)に従って、端末本体に対するマーカーMの相対的な姿勢Prm1を算出する。算出された端末本体に対するマーカーMの相対的な姿勢Prm1は、後述する座標変換式中の端末本体に対するマーカーMの相対的な姿勢Rの初期値となる。
That is, the second calculation unit (second calculation unit) 7c is configured such that the second posture Pac1 with respect to the gravity axis direction of the terminal body detected by the
Specifically, each time the second posture Pac1 with respect to the gravity axis direction of the terminal body is detected by the
座標変換部7dは、マーカーMの各点の三次元空間での座標を第2画像内の対応する二次元の平面座標に変換する。
即ち、座標変換部(座標変換手段)7dは、第2算出部7cにより初期値として算出された端末本体に対するマーカーMの相対的な姿勢Prm1に基づいて、下記式(3)の座標変換式を解く。具体的には、座標変換部7dは、端末本体に対するマーカーMの相対的な姿勢Prm1を端末本体に対するマーカーMの相対的な姿勢を表す行列Rの初期値として、端末本体に対するマーカーMの相対的な姿勢及び位置関係を表す行列R、Tをバンドル調整(bundle adjustment)により推定して特定する。
ここで、バンドル調整とは、画像から幾何学的なモデルのパラメータを高い推定精度の達成を目指して推定する手法であり、例えば、未知のパラメータの再投影誤差の合計を最小化するような手法等が用いられる。
また、端末本体に対するマーカーMの相対的な姿勢を表す行列Rは、具体的には、n行m列の行列(n、mは、それぞれ自然数)で表され、例えば、3×3の回転行列等が挙げられる。また、端末本体に対するマーカーMの相対的な位置関係を表す行列Tは、具体的には、n行m列の行列(n、mは、それぞれ自然数)で表され、例えば、1×3の並進ベクトル等が挙げられる。
また、式(3)中の「C」は、撮像部3の焦点距離等の内部パラメータを表し、「h」は、第2画像のスケールを表している。
The coordinate
That is, the coordinate conversion unit (coordinate conversion unit) 7d calculates a coordinate conversion formula of the following formula (3) based on the relative posture Prm1 of the marker M with respect to the terminal body calculated as the initial value by the
Here, bundle adjustment is a method for estimating geometric model parameters from an image in order to achieve high estimation accuracy, for example, a method for minimizing the total reprojection error of unknown parameters. Etc. are used.
Further, the matrix R representing the relative posture of the marker M with respect to the terminal body is specifically represented by a matrix of n rows and m columns (n and m are natural numbers, respectively), for example, a 3 × 3 rotation matrix. Etc. Further, the matrix T representing the relative positional relationship of the marker M with respect to the terminal body is specifically represented by a matrix of n rows and m columns (n and m are natural numbers, respectively), for example, 1 × 3 translation Vector etc. are mentioned.
Further, “C” in Expression (3) represents an internal parameter such as a focal length of the imaging unit 3, and “h” represents a scale of the second image.
画像生成部7eは、画像取得部7aにより取得された複数のフレーム画像F、…のうちの第2画像中に、マーカー画像Sと対応する仮想オブジェクト(例えば、三次元モデル等;図示略)を重畳させた仮想画像(図示略)を生成する。
具体的には、例えば、ライブビュー画像等が第2画像として逐次取得される毎に、画像生成部7eは、座標変換部7dにより特定された端末本体に対するマーカーMの相対的な姿勢及び位置関係に基づいて、ライブビュー画像内での当該マーカー画像Sの姿勢や位置を調整し、当該マーカー画像Sと対応する仮想オブジェクトを所定の記録手段から取得して、仮想画像の画像データを生成する。そして、画像生成部7eは、生成された各仮想画像の画像データをメモリ2に順次出力し、当該メモリ2に格納させる。
なお、画像生成部7eにより生成された仮想画像の画像データは、例えば、所定の圧縮形式(例えば、JPEG形式等)で符号化され、不揮発性メモリ(フラッシュメモリ)等の記録媒体(図示略)に記録されても良い。
The
Specifically, for example, every time a live view image or the like is sequentially acquired as the second image, the
Note that the image data of the virtual image generated by the
表示部8は、例えば、液晶表示パネルから構成され、表示制御部9からのビデオ信号に基づいて撮像部3により撮像された画像(例えば、レックビュー画像等)を表示画面に表示する。
The
表示制御部9は、メモリ2に一時的に記憶されている表示用の画像データを読み出して表示部8に表示させる制御を行う。
具体的には、表示制御部9は、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、中央制御部1の制御下にてメモリ2から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから所定の再生フレームレート(例えば、30fps)で読み出して、これらのデータを元にビデオ信号を発生して表示部8に出力する。
例えば、表示制御部9は、撮像部3及び撮像制御部4により撮像され画像データ生成部5により生成された複数のフレーム画像F、…を所定の表示フレームレートで逐次更新しながら表示部8にライブビュー表示させる。また、表示制御部9は、例えば、メモリ2から仮想画像の画像データを逐次取得して、当該仮想画像を表示部8に逐次ライブビュー表示させる。
The
Specifically, the
For example, the
送受話部10は、通信ネットワークNを介して接続された外部機器の外部ユーザとの通話を行う。
具体的には、送受話部10は、マイク10a、スピーカ10b、データ変換部10c等を備えている。そして、送受話部10は、マイク10aから入力されるユーザの送話音声をデータ変換部10cによりA/D変換処理して送話音声データを中央制御部1に出力するとともに、中央制御部1の制御下にて、通信制御部11から出力されて入力される受話音声データ等の音声データをデータ変換部10cによりD/A変換処理してスピーカ10bから出力する。
The transmitter /
Specifically, the transmission /
通信制御部11は、通信ネットワークN及び通信アンテナ11aを介してデータの送受信を行う。
即ち、通信アンテナ11aは、当該携帯端末100が無線基地局(図示略)との通信で採用している所定の通信方式(例えば、W−CDMA(Wideband Code Division Multiple Access)方式、GSM(Global System for Mobile Communications;登録商標)方式等)に対応したデータの送受信が可能なアンテナである。そして、通信制御部11は、所定の通信方式に対応する通信プロトコルに従って、この通信方式で設定される通信チャネルにより無線基地局との間で通信アンテナ11aを介してデータの送受信を行う。
即ち、通信制御部11は、中央制御部1から出力されて入力される指示信号に基づいて、通信相手の外部機器に対して、当該外部機器の外部ユーザとの通話中の音声の送受信や、電子メールのデータの送受信を行う。
なお、通信制御部11の構成は一例であってこれに限られるものではなく、適宜任意に変更可能であり、例えば、図示は省略するが、無線LANモジュールを搭載し、アクセスポイント(Access Point)を介して通信ネットワークNにアクセス可能な構成としても良い。
The communication control unit 11 transmits and receives data via the communication network N and the
That is, the
That is, the communication control unit 11 transmits / receives voice during a call with an external user of the external device to the external device of the communication partner based on the instruction signal output from the central control unit 1 and input, Send and receive e-mail data.
Note that the configuration of the communication control unit 11 is an example and is not limited thereto, and can be arbitrarily changed as appropriate. For example, although not shown, a wireless LAN module is mounted and an access point (Access Point) is provided. It is good also as a structure which can access the communication network N via this.
なお、通信ネットワークNは、携帯端末100を無線基地局やゲートウェイサーバ(図示略)等を介して接続する通信ネットワークである。また、通信ネットワークNは、専用線や既存の一般公衆回線を利用して構築された通信ネットワークであり、LAN(Local Area Network)やWAN(Wide Area Network)等の様々な回線形態を適用することが可能である。また、通信ネットワークNには、例えば、電話回線網、ISDN回線網、専用線、移動体通信網、通信衛星回線、CATV回線網等の各種通信ネットワーク網と、IPネットワーク、VoIP(Voice over Internet Protocol)ゲートウェイ、インターネットサービスプロバイダ等が含まれる。
The communication network N is a communication network that connects the
操作入力部12は、端末本体に対して各種指示を入力するためのものである。
具体的には、操作入力部12は、被写体の撮影指示に係るシャッタボタン、モードや機能等の選択指示に係る上下左右のカーソルボタンや決定ボタン、電話の発着信や電子メールの送受信等の実行指示に係る通信関連ボタン、テキストの入力指示に係る数字ボタンや記号ボタン等の各種ボタン(何れも図示略)を備えている。
そして、ユーザにより各種ボタンが操作されると、操作入力部12は、操作されたボタンに応じた操作指示を中央制御部1に出力する。中央制御部1は、操作入力部12から出力され入力された操作指示に従って所定の動作(例えば、被写体の撮像、電話の発着信、電子メールの送受信等)を各部に実行させる。
The
Specifically, the
When various buttons are operated by the user, the
なお、操作入力部12は、表示部8と一体となって設けられたタッチパネルを有していても良く、ユーザによるタッチパネルの所定操作に基づいて、当該所定操作に応じた操作指示を中央制御部1に出力しても良い。
The
次に、携帯端末100によるマーカー検出処理について図2、図3を参照して説明する。
図2は、マーカー検出処理に係る動作の一例を示すフローチャートである。また、図3は、携帯端末100とマーカーMとの位置関係を模式的に示す図である。
なお、以下のマーカー検出処理にて検出されるマーカーMは、予め所定位置に移動不可の状態で配設(固定)されているものとする。
Next, marker detection processing by the
FIG. 2 is a flowchart illustrating an example of an operation related to the marker detection process. FIG. 3 is a diagram schematically showing the positional relationship between the
It is assumed that the marker M detected in the following marker detection process is previously arranged (fixed) in a state where it cannot move to a predetermined position.
図2に示すように、先ず、撮像制御部4は、撮像部3にマーカーMを撮像させ、画像データ生成部5は、電子撮像部3bから転送された複数のフレーム画像F、…の画像データを生成する(ステップS1)。そして、画像データ生成部5は、生成された各フレーム画像FのYUVデータをメモリ2に順次出力し、当該メモリ2に格納させる。
As shown in FIG. 2, first, the
マーカー検出処理部7の画像取得部7aは、画像データ生成部5により逐次生成された複数のフレーム画像F、…のうち、何れか一の第1画像の画像データをメモリ2から逐次取得する(ステップS2)。そして、傾き検出部6の第1検出部6aは、第1画像の画像データが取得された際の端末本体の重力軸方向に対する第1姿勢Pac0を検出する(ステップS3)。具体的には、第1検出部6aは、3軸加速度センサによる各軸の検出信号に基づいて特定された重力軸方向に対する各軸の傾きを端末本体の重力軸方向に対する第1姿勢Pac0として検出する。
The
次に、マーカー検出処理部7の第1算出部7bは、画像取得部7aにより取得された第1画像の画像データに対して所定の特徴抽出処理を行って、当該第1画像内からマーカー画像Sを抽出する(ステップS4)。続けて、第1算出部7bは、マーカー画像Sの4隅の点と幾何学的な位置関係を有する端末本体に対するマーカーMの仮の姿勢Prm0を特定した後(ステップS5)、当該端末本体に対するマーカーMの仮の姿勢Prm0と端末本体の重力軸方向に対する第1姿勢Pac0とに基づいて、下記式(1)に従って、マーカーMの重力軸方向に対する姿勢Pamを算出する(ステップS6)。
次に、第1算出部7bは、マーカーMの重力軸方向に対する姿勢Pamが所定回数算出されたか否かを判定する(ステップS7)。
ここで、マーカーMの重力軸方向に対する姿勢Pamが所定回数算出されていないと判定されると(ステップS7;NO)、中央制御部1のCPUは、処理をステップS2に戻し、それ以降の各処理を実行させる。
即ち、ステップS2〜S6の各処理は、ステップS7にて、マーカーMの重力軸方向に対する姿勢Pamが所定回数算出されたと判定(ステップS7;YES)されるまで繰り返し行われる。
Next, the
Here, when it is determined that the posture Pam of the marker M with respect to the direction of the gravity axis has not been calculated a predetermined number of times (step S7; NO), the CPU of the central control unit 1 returns the process to step S2, and thereafter Execute the process.
That is, the processes in steps S2 to S6 are repeated until it is determined in step S7 that the posture Pam of the marker M with respect to the gravity axis direction has been calculated a predetermined number of times (step S7; YES).
ステップS7にて、マーカーMの重力軸方向に対する姿勢Pamが所定回数算出されたと判定されると(ステップS7;YES)、第1算出部7bは、マーカーMの重力軸方向に対する姿勢Pamの所定回数分を平均して、その結果をマーカーMの重力軸方向に対する姿勢Pamの代表値として算出する(ステップS8)。
If it is determined in step S7 that the posture Pam of the marker M with respect to the gravity axis direction has been calculated a predetermined number of times (step S7; YES), the
次に、画像取得部7aは、画像データ生成部5により生成された複数のフレーム画像F、…のうち、第2画像の画像データをメモリ2から取得する(ステップS9)。そして、傾き検出部6の第2検出部6bは、第2画像の画像データが取得された際の端末本体の重力軸方向に対する第2姿勢Pac1を検出する(ステップS10)。なお、第2検出部6bによる処理内容は、第1検出部6aによる処理内容と略同様であり、その説明を省略する。
Next, the
次に、第2算出部7cは、第2検出部6bにより検出された端末本体の重力軸方向に対する第2姿勢Pac1、及び第1算出部7bにより算出されたマーカーMの重力軸方向に対する姿勢Pamの代表値に基づいて、下記式(2)に従って、端末本体に対するマーカーMの相対的な姿勢Prm1を算出する(ステップS11)。
次に、座標変換部7dは、第2算出部7cにより算出された端末本体に対するマーカーMの相対的な姿勢Prm1を端末本体に対するマーカーMの相対的な姿勢を表す行列Rの初期値として、下記式(3)に従って、端末本体に対するマーカーMの相対的な姿勢及び位置関係を表す行列R、Tをバンドル調整(bundle adjustment)により推定して特定する(ステップS12)。
その後、第1算出部7bは、座標変換部7dにより特定された端末本体に対するマーカーMの相対的な姿勢を表す行列Rを端末本体に対するマーカーMの相対的な姿勢Prm1とし、当該姿勢Prm1と端末本体の重力軸方向に対する第2姿勢Pac1とに基づいて、マーカーMの重力軸方向に対する姿勢Pamを算出して更新する(ステップS13)。
そして、画像生成部7eは、第2画像中にマーカー画像Sと対応する仮想オブジェクトを重畳させた仮想画像の画像データを生成し、表示制御部9は、当該仮想画像を表示部8にライブビュー表示させる(ステップS14)。
After that, the
Then, the
上記ステップS9〜S14の各処理は、ステップS9にて第2画像が取得される毎に繰り返し実行される。 The processes in steps S9 to S14 are repeatedly executed every time the second image is acquired in step S9.
以上のように、本実施形態の携帯端末100によれば、第1画像が取得された際の撮像部3(端末本体)の重力軸方向に対する傾き(第1姿勢Pac0)、及びマーカー画像Sを構成する複数の点と関連付けられた撮像部3に対するマーカーMの仮の姿勢(仮の姿勢Prm0)に基づいて、マーカーMの重力軸方向に対する傾き(姿勢Pam)を算出し、算出されたマーカーMの重力軸方向に対する傾き、及び第2画像が取得された際の撮像部3の重力軸方向に対する傾き(第2姿勢Pac1)に基づいて、当該マーカーMの各点の三次元の空間座標を第2画像内の二次元の平面座標に変換する座標変換式の初期値として、撮像部3に対するマーカーMの相対的な姿勢(姿勢Prm1)を算出するので、座標変換式の初期値として適正な値を用いることができ、撮像部3に対するマーカーMの姿勢の推定を適正に行うことができる。
As described above, according to the
即ち、例えば、三次元空間内のマーカーMの各点の座標を所定の座標変換式を用いて第2画像内の対応する二次元空間の座標に変換する場合、適当な値を初期値として再投影誤差を最小にするように撮像部3に対するマーカーMの姿勢や位置関係を推定する必要があるが、座標変換式の初期値として設定される値によっては、撮像部3に対するマーカーMの姿勢や位置関係の推定を適正に行うことができず、マーカーMに対応する仮想オブジェクトの表示を適正に行うことができなくなる虞がある。
そこで、第1画像が取得された際の撮像部3の重力軸方向に対する傾きを利用してマーカーMの重力軸方向に対する傾き(姿勢Pam)を予め算出し、当該マーカーMの重力軸方向に対する傾きを利用して撮像部3に対するマーカーMの相対的な姿勢(姿勢Prm1)を算出することで、当該撮像部3に対するマーカーMの相対的な姿勢を座標変換式の初期値として用いることができる。そして、座標変換式の初期値を適正な値として当該座標変換式を解くことで、撮像部3に対するマーカーMの姿勢を推定することができる。具体的には、座標変換式を解いて、撮像部3に対するマーカーMの相対的な姿勢を表す行列Rや撮像部3に対するマーカーMの相対的な位置関係を表す行列Tを特定することができる。
このように、マーカーMの重力軸方向に対する傾きを考慮することで、座標変換式の初期値をより適正な値に設定することができ、撮像部3に対するマーカーMの姿勢の推定を適正に行うことができる。結果として、マーカーMに対応する仮想オブジェクトの表示を適正に行うことができる。
That is, for example, when the coordinates of each point of the marker M in the three-dimensional space are converted into the coordinates of the corresponding two-dimensional space in the second image using a predetermined coordinate conversion formula, an appropriate value is set as an initial value. Although it is necessary to estimate the posture and positional relationship of the marker M with respect to the imaging unit 3 so as to minimize the projection error, depending on the value set as the initial value of the coordinate conversion formula, There is a possibility that the positional relationship cannot be estimated properly and the virtual object corresponding to the marker M cannot be displayed properly.
Therefore, the inclination (posture Pam) of the marker M with respect to the gravity axis direction is calculated in advance using the inclination of the imaging unit 3 with respect to the gravity axis direction when the first image is acquired, and the inclination of the marker M with respect to the gravity axis direction is calculated. By calculating the relative posture (posture Prm1) of the marker M with respect to the imaging unit 3 using the above, the relative posture of the marker M with respect to the imaging unit 3 can be used as the initial value of the coordinate conversion formula. And the attitude | position of the marker M with respect to the imaging part 3 can be estimated by solving the said coordinate conversion formula by making the initial value of a coordinate conversion formula into an appropriate value. Specifically, by solving the coordinate conversion formula, a matrix R representing the relative posture of the marker M with respect to the imaging unit 3 and a matrix T representing the relative positional relationship of the marker M with respect to the imaging unit 3 can be specified. .
Thus, by considering the inclination of the marker M with respect to the direction of the gravity axis, the initial value of the coordinate conversion equation can be set to a more appropriate value, and the posture of the marker M with respect to the imaging unit 3 is appropriately estimated. be able to. As a result, the virtual object corresponding to the marker M can be properly displayed.
また、撮像部3に対するマーカーMの相対的な姿勢を表す行列Rや撮像部3に対するマーカーMの相対的な位置関係を表す行列Tが特定される毎に、当該行列及び撮像部3の重力軸方向に対する傾き(第2姿勢Pac1)に基づいて、マーカーMの重力軸方向に対する傾き(姿勢Pam)を算出するので、当該マーカーMの重力軸方向に対する傾きを利用して撮像部3に対するマーカーMの相対的な姿勢(姿勢Prm1)を逐次算出することができる。即ち、例えば、手ぶれや撮像位置の変位等により第2画像を取得する際の撮像部3の重力軸方向に対する傾きが変化しても、当該傾きの変化に対応させてマーカーMの重力軸方向に対する傾きを更新することができ、撮像部3に対するマーカーMの相対的な姿勢を更新することができる。 Each time the matrix R representing the relative posture of the marker M with respect to the imaging unit 3 or the matrix T representing the relative positional relationship of the marker M with respect to the imaging unit 3 is specified, the matrix and the gravity axis of the imaging unit 3 are specified. Since the inclination (posture Pam) of the marker M with respect to the gravity axis direction is calculated based on the inclination with respect to the direction (second posture Pac1), the inclination of the marker M with respect to the imaging unit 3 using the inclination of the marker M with respect to the gravity axis direction is calculated. The relative posture (posture Prm1) can be calculated sequentially. That is, for example, even if the inclination of the imaging unit 3 with respect to the gravitational axis direction when the second image is acquired due to camera shake, imaging position displacement, or the like, the marker M with respect to the gravitational axis direction of the marker M corresponds to the change of the inclination. The inclination can be updated, and the relative posture of the marker M with respect to the imaging unit 3 can be updated.
また、所定回数算出されたマーカーMの重力軸方向に対する傾き(姿勢Pam)に基づいて当該傾きの代表値を算出するので、第1画像に含まれるマーカー画像Sの検出誤差等により撮像部3に対するマーカーMの仮の姿勢(Prm0)の検出誤差が生じる虞があっても、マーカーMの重力軸方向に対する傾きの代表値を求めることで、マーカーMの重力軸方向に対する姿勢Pamとしてより適正な値を用いて撮像部3に対するマーカーMの相対的な姿勢(姿勢Prm1)を算出することができる。 In addition, since the representative value of the inclination is calculated based on the inclination (posture Pam) of the marker M with respect to the gravity axis direction calculated a predetermined number of times, the detection unit 3 detects the marker image S included in the first image and the like. Even if there is a possibility that a detection error of the provisional posture (Prm0) of the marker M may occur, a more appropriate value for the posture Pam of the marker M with respect to the gravity axis direction is obtained by obtaining a representative value of the inclination of the marker M with respect to the gravity axis direction. Can be used to calculate the relative posture (posture Prm1) of the marker M with respect to the imaging unit 3.
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、座標変換式を解くことで端末本体(撮像部3)に対するマーカーMの相対的な姿勢を表す行列Rを特定するようにしたが、端末本体に対するマーカーMの相対的な姿勢の一例であってこれに限られるものではなく、適宜任意に変更可能である。
また、座標変換式を解くことで端末本体に対するマーカーMの相対的な位置関係を表す行列Tを特定するようにしたが、必ずしも当該端末本体に対するマーカーMの相対的な位置関係を特定する必要はない。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, the matrix R representing the relative posture of the marker M with respect to the terminal body (imaging unit 3) is specified by solving the coordinate conversion formula, but this is an example of the relative posture of the marker M with respect to the terminal body. is not limited to Re lever, it can be appropriately changed.
Further, the matrix T representing the relative positional relationship of the marker M with respect to the terminal body is specified by solving the coordinate conversion formula, but it is not always necessary to specify the relative positional relationship of the marker M with respect to the terminal body. Absent.
また、端末本体に対するマーカーMの相対的な姿勢(姿勢Prm1)を算出する際に、予めマーカーMの一面が上下左右の何れの方向を向いているかを指定しておき、所定の値を初期値として座標変換式を解いた結果、指定済みの方向と異なる方向を向いているか否かを判定して、その判定結果を初期値に反映させるようにしても良い。
例えば、予めマーカーMの一面の法線方向が下向きと指定した場合に、バンドル調整の結果推定された端末本体に対するマーカーMの相対的な姿勢を表す行列Rの所定の要素(例えば、2行目、3列目の要素)の符号を確認することで方向が異なるか否か、即ち、マーカーMが下向きか上向きかを判定する。ここで、マーカーMが指定済みの方向と異なる方向を向いている(マーカーMが上向き)と判定された場合には、端末本体の所定位置とマーカーMの中心を通る軸とマーカーの一面の法線ベクトルの外積を算出し、マーカーMの一面の向きに合わせるように、算出された外積を軸として行列Rを回転させて修正する。その後、修正後の行列Rを用いて座標変換式を解いて、端末本体に対するマーカーMの相対的な姿勢を表す行列Rの推定を再度行う。
Further, when calculating the relative posture (posture Prm1) of the marker M with respect to the terminal body, it is specified in advance which direction the one side of the marker M is facing up, down, left and right, and a predetermined value is set as an initial value. As a result of solving the coordinate conversion formula, it may be determined whether the direction is different from the designated direction, and the determination result may be reflected in the initial value.
For example, when the normal direction of one surface of the marker M is previously designated as a downward direction, predetermined elements (for example, the second row) of the matrix R representing the relative posture of the marker M with respect to the terminal body estimated as a result of bundle adjustment By checking the sign of the element in the third column), it is determined whether the direction is different, that is, whether the marker M is downward or upward. Here, when it is determined that the marker M is pointing in a direction different from the designated direction (the marker M is upward), a predetermined position of the terminal body, an axis passing through the center of the marker M, and a method of one surface of the marker The outer product of the line vectors is calculated, and is corrected by rotating the matrix R around the calculated outer product as an axis so as to match the direction of one surface of the marker M. Thereafter, the coordinate transformation equation is solved using the corrected matrix R, and the matrix R representing the relative posture of the marker M with respect to the terminal body is estimated again.
さらに、携帯端末100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではなく、少なくとも取得手段、第1検出手段、第1算出手段、第2検出手段、第2算出手段を備える構成であれば適宜任意に変更することができる。即ち、携帯端末100は、必ずしも撮像部3を具備する必要はなく、外部の撮像装置により撮像された画像を取得して、特定の被写体(マーカーM)を検出する処理を行うようにしても良い。
Furthermore, the configuration of the
加えて、上記実施形態にあっては、取得手段、第1検出手段、第1算出手段、第2検出手段、第2算出手段としての機能を、携帯端末100の中央制御部1の制御下にて、画像取得部7a、第1検出部6a、第1算出部7b、第2検出部6b、第2算出部7cが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリに、取得処理ルーチン、第1検出処理ルーチン、第1算出処理ルーチン、第2検出処理ルーチン、第2算出処理ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンにより中央制御部1のCPUを、撮像部3により撮像された特定の被写体の画像を逐次取得する手段として機能させるようにしても良い。また、第1検出処理ルーチンにより中央制御部1のCPUを、一の画像が取得された際の撮像部3の重力方向に対する傾きを検出する手段として機能させるようにしても良い。また、第1算出処理ルーチンにより中央制御部1のCPUを、検出された撮像部3の重力方向に対する傾き、及び一の画像に含まれる特定の被写体の画像を構成する複数の点と関連付けられた撮像部3に対する特定の被写体の仮の姿勢に基づいて、特定の被写体の重力方向に対する傾きを算出する手段として機能させるようにしても良い。また、第2検出処理ルーチンにより中央制御部1のCPUを、取得手段により一の画像と異なる他の画像が取得された際の撮像部3の重力方向に対する傾きを検出する手段として機能させるようにしても良い。また、第2算出処理ルーチンにより中央制御部1のCPUを、第2検出手段により検出された撮像部3の重力方向に対する傾き、及び第1算出手段により算出された特定の被写体の重力方向に対する傾きに基づいて、当該特定の被写体の画像を構成する複数の点の各点の空間座標を他の画像内の平面座標に変換する座標変換式の初期値として、撮像部3に対する特定の被写体の相対的な姿勢を算出する手段として機能させるようにしても良い。
In addition, in the above embodiment, the functions as the acquisition unit, the first detection unit, the first calculation unit, the second detection unit, and the second calculation unit are controlled under the control of the central control unit 1 of the
That is, a program including an acquisition process routine, a first detection process routine, a first calculation process routine, a second detection process routine, and a second calculation process routine is stored in a program memory that stores the program. Then, the CPU of the central control unit 1 may function as means for sequentially acquiring images of a specific subject imaged by the imaging unit 3 by an acquisition process routine. Further, the CPU of the central control unit 1 may function as a means for detecting the inclination of the imaging unit 3 with respect to the gravity direction when one image is acquired by the first detection processing routine. Also, the central control unit 1 of the CPU by the first calculation processing routine, the inclination with respect to the detected direction of gravity of the imaging unit 3, and associated with a plurality of points constituting the image of a specific subject included in one image Based on the provisional posture of the specific subject with respect to the imaging unit 3, it may function as a means for calculating the inclination of the specific subject with respect to the direction of gravity. Further, the CPU of the central control unit 1 is caused to function as a means for detecting the inclination of the imaging unit 3 with respect to the gravity direction when another image different from the one image is acquired by the acquisition unit by the second detection processing routine. May be. In addition, the CPU of the central control unit 1 causes the CPU of the central control unit 1 to tilt with respect to the gravity direction of the imaging unit 3 detected by the second detection unit, and the tilt of the specific subject with respect to the gravity direction calculated by the first calculation unit. Based on the above, the relative value of the specific subject with respect to the imaging unit 3 is used as an initial value of a coordinate conversion formula that converts the spatial coordinates of each of a plurality of points constituting the image of the specific subject into plane coordinates in another image. You may make it function as a means to calculate a general attitude | position.
同様に、座標変換手段についても、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。 Similarly, the coordinate conversion means may be realized by executing a predetermined program or the like by the CPU of the central control unit 1.
さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。 Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.
〔付記〕
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
撮像部により撮像された特定の被写体の画像を逐次取得する取得手段と、
前記取得手段により一の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第1検出手段と、
前記第1検出手段により検出された前記撮像部の重力方向に対する傾き、及び前記一の画像に含まれる特定の被写体画像を構成する複数の点と関連付けられた前記撮像部に対する前記特定の被写体の仮の姿勢に基づいて、前記特定の被写体の重力方向に対する傾きを算出する第1算出手段と、
前記取得手段により前記一の画像と異なる他の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第2検出手段と、
前記第2検出手段により検出された前記撮像部の重力方向に対する傾き、及び前記第1算出手段により算出された前記特定の被写体の重力方向に対する傾きに基づいて、当該特定の被写体の各点の空間座標を前記他の画像内の平面座標に変換する座標変換式の初期値として、前記撮像部に対する前記特定の被写体の相対的な姿勢を算出する第2算出手段と、
を備えたことを特徴とする被写体検出装置。
<請求項2>
前記第2算出手段により前記初期値として算出された前記特定の被写体の相対的な姿勢に基づいて、前記座標変換式を解く座標変換手段を更に備えることを特徴とする請求項1に記載の被写体検出装置。
<請求項3>
前記座標変換手段は、更に、前記座標変換式を解いて、前記撮像部に対する前記特定の被写体の相対的な姿勢を表す行列を特定することを特徴とする請求項2に記載の被写体検出装置。
<請求項4>
前記座標変換手段は、更に、前記座標変換式を解いて、前記撮像部に対する前記特定の被写体の相対的な位置関係を表す行列を特定することを特徴とする請求項2又は3に記載の被写体検出装置。
<請求項5>
前記第1算出手段は、更に、前記座標変換手段により前記行列が特定される毎に、当該行列及び前記第2検出手段により検出された前記撮像部の重力方向に対する傾きに基づいて、前記特定の被写体の重力方向に対する傾きを算出することを特徴とする請求項2又は3に記載の被写体検出装置。
<請求項6>
前記第1算出手段は、更に、前記取得手段により画像が取得される毎に、前記特定の被写体の重力方向に対する傾きを算出し、所定回数算出された前記特定の被写体の重力方向に対する傾きに基づいて当該傾きの代表値を算出することを特徴とする請求項1〜5の何れか一項に記載の被写体検出装置。
<請求項7>
被写体検出装置を用いた被写体検出方法であって、
撮像部により撮像された特定の被写体の画像を逐次取得する処理と、
一の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する処理と、
検出された前記撮像部の重力方向に対する傾き、及び前記一の画像に含まれる特定の被写体画像を構成する複数の点と関連付けられた前記撮像部に対する前記特定の被写体の仮の姿勢に基づいて、前記特定の被写体の重力方向に対する傾きを算出する処理と、
前記一の画像と異なる他の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する処理と、
検出された前記撮像部の重力方向に対する傾き、及び前記特定の被写体の重力方向に対する傾きに基づいて、当該特定の被写体の各点の空間座標を前記他の画像内の平面座標に変換する座標変換式の初期値として、前記撮像部に対する前記特定の被写体の相対的な姿勢を算出する処理と、
を含むことを特徴とする被写体検出方法。
<請求項8>
被写体検出装置のコンピュータを、
撮像部により撮像された特定の被写体の画像を逐次取得する取得手段、
前記取得手段により一の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第1検出手段、
前記第1検出手段により検出された前記撮像部の重力方向に対する傾き、及び前記一の画像に含まれる特定の被写体画像を構成する複数の点と関連付けられた前記撮像部に対する前記特定の被写体の仮の姿勢に基づいて、前記特定の被写体の重力方向に対する傾きを算出する第1算出手段、
前記取得手段により前記一の画像と異なる他の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第2検出手段、
前記第2検出手段により検出された前記撮像部の重力方向に対する傾き、及び前記第1算出手段により算出された前記特定の被写体の重力方向に対する傾きに基づいて、当該特定の被写体の各点の空間座標を前記他の画像内の平面座標に変換する座標変換式の初期値として、前記撮像部に対する前記特定の被写体の相対的な姿勢を算出する第2算出手段、
として機能させることを特徴とするプログラム。
[Appendix]
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
<Claim 1>
Acquisition means for sequentially acquiring images of a specific subject imaged by the imaging unit;
First detection means for detecting an inclination of the imaging unit with respect to the gravitational direction when one image is acquired by the acquisition means;
The inclination of the image pickup unit with respect to the direction of gravity detected by the first detection unit and the provisional image of the specific subject with respect to the image pickup unit associated with a plurality of points constituting the specific object image included in the one image. First calculating means for calculating the inclination of the specific subject with respect to the direction of gravity based on the posture of
Second detection means for detecting an inclination of the imaging unit with respect to the gravitational direction when another image different from the one image is acquired by the acquisition means;
The space of each point of the specific subject based on the inclination of the imaging unit detected by the second detection unit with respect to the direction of gravity and the inclination of the specific subject calculated with respect to the direction of gravity calculated by the first calculation unit. Second calculation means for calculating a relative posture of the specific subject with respect to the imaging unit, as an initial value of a coordinate conversion formula for converting coordinates into plane coordinates in the other image;
A subject detection apparatus comprising:
<Claim 2>
2. The subject according to claim 1, further comprising coordinate conversion means for solving the coordinate conversion formula based on a relative posture of the specific subject calculated as the initial value by the second calculation means. Detection device.
<Claim 3>
The subject detection apparatus according to claim 2, wherein the coordinate conversion unit further specifies a matrix representing a relative posture of the specific subject with respect to the imaging unit by solving the coordinate conversion formula.
<Claim 4>
4. The subject according to claim 2, wherein the coordinate conversion unit further specifies a matrix representing a relative positional relationship of the specific subject with respect to the imaging unit by solving the coordinate conversion formula. 5. Detection device.
<Claim 5>
The first calculating unit is further configured to identify the specific matrix based on the matrix and the inclination of the imaging unit with respect to the gravitational direction detected by the second detecting unit each time the matrix is specified by the coordinate converting unit. The subject detection apparatus according to claim 2, wherein an inclination of the subject with respect to the direction of gravity is calculated.
<Claim 6>
The first calculation means further calculates an inclination of the specific subject with respect to the gravity direction every time an image is acquired by the acquisition means, and based on the inclination of the specific subject with respect to the gravity direction calculated a predetermined number of times. 6. The subject detection apparatus according to claim 1, wherein a representative value of the inclination is calculated.
<Claim 7>
A subject detection method using a subject detection device,
A process of sequentially acquiring images of a specific subject imaged by the imaging unit;
Processing for detecting the inclination of the imaging unit with respect to the gravitational direction when one image is acquired;
Based on the detected inclination of the imaging unit with respect to the direction of gravity and the provisional posture of the specific subject with respect to the imaging unit associated with a plurality of points constituting the specific subject image included in the one image, Processing for calculating the inclination of the specific subject with respect to the direction of gravity;
A process of detecting an inclination of the imaging unit with respect to the gravitational direction when another image different from the one image is acquired;
Coordinate transformation that converts the spatial coordinates of each point of the specific subject to plane coordinates in the other image based on the detected inclination of the imaging unit with respect to the gravity direction and the inclination of the specific subject with respect to the gravity direction A process of calculating a relative posture of the specific subject with respect to the imaging unit as an initial value of the equation;
A method for detecting a subject, comprising:
<Claim 8>
The computer of the subject detection device
Acquisition means for sequentially acquiring images of a specific subject imaged by the imaging unit;
First detection means for detecting an inclination of the imaging unit with respect to the gravitational direction when one image is acquired by the acquisition means;
The inclination of the image pickup unit with respect to the direction of gravity detected by the first detection unit and the provisional image of the specific subject with respect to the image pickup unit associated with a plurality of points constituting the specific object image included in the one image. First calculating means for calculating the inclination of the specific subject with respect to the direction of gravity based on the posture of
Second detection means for detecting an inclination of the imaging unit with respect to the gravitational direction when another image different from the one image is acquired by the acquisition means;
The space of each point of the specific subject based on the inclination of the imaging unit detected by the second detection unit with respect to the direction of gravity and the inclination of the specific subject calculated with respect to the direction of gravity calculated by the first calculation unit. Second calculating means for calculating a relative posture of the specific subject with respect to the imaging unit, as an initial value of a coordinate conversion formula for converting coordinates into plane coordinates in the other image;
A program characterized by functioning as
100 携帯端末
1 中央制御部
3 撮像部
6 傾き検出部
6a 第1検出部
6b 第2検出部
7 マーカー検出処理部
7a 画像取得部
7b 第1算出部
7c 第2算出部
7d 座標変換部
DESCRIPTION OF
Claims (8)
前記取得手段により一の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第1検出手段と、
前記第1検出手段により検出された前記撮像部の重力方向に対する傾き及び前記一の画像に含まれる前記特定の被写体の画像を構成する複数の点と関連付けられた前記撮像部に対する前記特定の被写体の仮の姿勢に基づいて、前記特定の被写体の重力方向に対する傾きを算出する第1算出手段と、
前記取得手段により前記一の画像と異なる他の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第2検出手段と、
前記第2検出手段により検出された前記撮像部の重力方向に対する傾き及び前記第1算出手段により算出された前記特定の被写体の重力方向に対する傾きに基づいて、前記特定の被写体の画像を構成する前記複数の点の各点の空間座標を前記他の画像内の平面座標に変換する座標変換式の初期値として、前記撮像部に対する前記特定の被写体の相対的な姿勢を算出する第2算出手段と、
を備える、
ことを特徴とする被写体検出装置。 Acquisition means for sequentially acquiring images of a specific subject imaged by the imaging unit;
First detection means for detecting an inclination of the imaging unit with respect to the gravitational direction when one image is acquired by the acquisition means;
The specific with respect to the imaging unit associated with a plurality of points constituting the image of a specific subject included in tilt-out及 beauty the one image with respect to the gravity direction of the image pickup unit detected by said first detection means First calculating means for calculating an inclination of the specific subject with respect to the direction of gravity based on a provisional posture of the subject;
Second detection means for detecting an inclination of the imaging unit with respect to the gravitational direction when another image different from the one image is acquired by the acquisition means;
Based on the inclination with respect to the second detecting means the direction of gravity of the specific object which is calculated by the inclination-out及 beauty said first calculating means with respect to the gravity direction of the image pickup unit detected by, construct an image of said specific object A second calculation for calculating a relative posture of the specific subject with respect to the imaging unit as an initial value of a coordinate conversion formula for converting the spatial coordinates of each of the plurality of points to the plane coordinates in the other image Means,
Ru with a,
An object detection apparatus characterized by the above.
撮像部により撮像された特定の被写体の画像を逐次取得する処理と、
一の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する処理と、
検出された前記撮像部の重力方向に対する傾き及び前記一の画像に含まれる前記特定の被写体の画像を構成する複数の点と関連付けられた前記撮像部に対する前記特定の被写体の仮の姿勢に基づいて、前記特定の被写体の重力方向に対する傾きを算出する処理と、
前記一の画像と異なる他の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する処理と、
検出された前記撮像部の重力方向に対する傾き及び前記特定の被写体の重力方向に対する傾きに基づいて、前記特定の被写体の画像を構成する前記複数の点の各点の空間座標を前記他の画像内の平面座標に変換する座標変換式の初期値として、前記撮像部に対する前記特定の被写体の相対的な姿勢を算出する処理と、
を含む、
ことを特徴とする被写体検出方法。 A subject detection method using a subject detection device,
A process of sequentially acquiring images of a specific subject imaged by the imaging unit;
Processing for detecting the inclination of the imaging unit with respect to the gravitational direction when one image is acquired;
Wherein the specific temporary position of the object relative to the imaging unit associated with a plurality of points constituting the image of a specific subject included in tilt-out及 beauty the one image for the detected direction of gravity of the imaging unit Based on the process of calculating the inclination of the specific subject with respect to the direction of gravity;
A process of detecting an inclination of the imaging unit with respect to the gravitational direction when another image different from the one image is acquired;
Based on the inclination with respect to the detected tilt-out with respect to the gravity direction of the imaging unit 及 beauty the gravity direction of the specific subject, the plurality of points of the spatial coordinates of the other points constituting the image of the specific object A process of calculating a relative posture of the specific subject with respect to the imaging unit as an initial value of a coordinate conversion formula for converting into plane coordinates in an image;
Including,
An object detection method characterized by the above.
撮像部により撮像された特定の被写体の画像を逐次取得する取得手段、
前記取得手段により一の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第1検出手段、
前記第1検出手段により検出された前記撮像部の重力方向に対する傾き及び前記一の画像に含まれる前記特定の被写体の画像を構成する複数の点と関連付けられた前記撮像部に対する前記特定の被写体の仮の姿勢に基づいて、前記特定の被写体の重力方向に対する傾きを算出する第1算出手段、
前記取得手段により前記一の画像と異なる他の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第2検出手段、
前記第2検出手段により検出された前記撮像部の重力方向に対する傾き及び前記第1算出手段により算出された前記特定の被写体の重力方向に対する傾きに基づいて、前記特定の被写体の画像を構成する前記複数の点の各点の空間座標を前記他の画像内の平面座標に変換する座標変換式の初期値として、前記撮像部に対する前記特定の被写体の相対的な姿勢を算出する第2算出手段、
として機能させる、
ことを特徴とするプログラム。 The computer of the subject detection device
Acquisition means for sequentially acquiring images of a specific subject imaged by the imaging unit;
First detection means for detecting an inclination of the imaging unit with respect to the gravitational direction when one image is acquired by the acquisition means;
The specific with respect to the imaging unit associated with a plurality of points constituting the image of a specific subject included in tilt-out及 beauty the one image with respect to the gravity direction of the image pickup unit detected by said first detection means First calculating means for calculating an inclination of the specific subject with respect to the direction of gravity based on a provisional posture of the subject;
Second detection means for detecting an inclination of the imaging unit with respect to the gravitational direction when another image different from the one image is acquired by the acquisition means;
Based on the inclination with respect to the second detecting means the direction of gravity of the specific object which is calculated by the inclination-out及 beauty said first calculating means with respect to the gravity direction of the image pickup unit detected by, construct an image of said specific object A second calculation for calculating a relative posture of the specific subject with respect to the imaging unit as an initial value of a coordinate conversion formula for converting the spatial coordinates of each of the plurality of points to the plane coordinates in the other image means,
To function as,
A program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012169406A JP5928228B2 (en) | 2012-07-31 | 2012-07-31 | Subject detection apparatus, subject detection method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012169406A JP5928228B2 (en) | 2012-07-31 | 2012-07-31 | Subject detection apparatus, subject detection method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014030093A JP2014030093A (en) | 2014-02-13 |
JP5928228B2 true JP5928228B2 (en) | 2016-06-01 |
Family
ID=50202409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012169406A Expired - Fee Related JP5928228B2 (en) | 2012-07-31 | 2012-07-31 | Subject detection apparatus, subject detection method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5928228B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105446690B (en) * | 2015-12-22 | 2019-07-16 | 中国电子科技集团公司第十一研究所 | Information fusion and multi information display methods with target positioning function |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3372926B2 (en) * | 1999-03-26 | 2003-02-04 | キヤノン株式会社 | Head mounted display device and head mounted display system |
JP4282216B2 (en) * | 2000-09-19 | 2009-06-17 | オリンパス株式会社 | 3D position and orientation sensing device |
JP4985516B2 (en) * | 2008-03-27 | 2012-07-25 | ソニー株式会社 | Information processing apparatus, information processing method, and computer program |
JP5554654B2 (en) * | 2010-07-13 | 2014-07-23 | キヤノン電子株式会社 | Image processing method, portable information terminal, and program |
-
2012
- 2012-07-31 JP JP2012169406A patent/JP5928228B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014030093A (en) | 2014-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5799928B2 (en) | Threshold setting device, subject detection device, threshold setting method and program | |
US10027909B2 (en) | Imaging device, imaging method, and image processing device | |
US9473725B2 (en) | Image-processing and encoded aperture pattern setting device and method, and image pickup device comprising same | |
JP5775977B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
KR101856947B1 (en) | Photographing apparatus, motion estimation apparatus, method for image compensation, method for motion estimation, computer-readable recording medium | |
CN105144687A (en) | Image processing device, image processing method and program | |
JP5532026B2 (en) | Display device, display method, and program | |
US11184523B2 (en) | Imaging apparatus with phase difference detecting element | |
JP2004056789A (en) | Resolution and picture quality improving method for small image sensor | |
US11290635B2 (en) | Imaging apparatus and image processing method | |
JP2013081091A (en) | Image processing device, image processing method, image processing program, and recording medium | |
CN113574856A (en) | Image processing apparatus, image processing method, and program | |
JP2013162287A (en) | Image processing apparatus, image processing method, and program | |
WO2016154873A1 (en) | Terminal device and photographing method | |
CN108810326B (en) | Photographing method and device and mobile terminal | |
JP5928228B2 (en) | Subject detection apparatus, subject detection method, and program | |
JP5798696B2 (en) | Image processing apparatus, method, recording medium, program, and imaging apparatus | |
US20210397005A1 (en) | Image processing apparatus, head-mounted display, and image displaying method | |
JP5906745B2 (en) | Image display device, image display method, and program | |
US20200310128A1 (en) | Image processing apparatus, head-mounted display, and image displaying method | |
JP6079102B2 (en) | Subject detection apparatus, subject detection method, and program | |
KR101763938B1 (en) | A method for processing image data based on location information related on view-point and apparatus for the same | |
CN107087114B (en) | Shooting method and device | |
WO2018181163A1 (en) | Image processing device, image processing method and program | |
US10911676B2 (en) | Memory card and moving image reproduction device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150612 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160307 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160411 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5928228 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |