JP2014030093A - Photogenic subject detector, and method and program for detecting photogenic subject - Google Patents

Photogenic subject detector, and method and program for detecting photogenic subject Download PDF

Info

Publication number
JP2014030093A
JP2014030093A JP2012169406A JP2012169406A JP2014030093A JP 2014030093 A JP2014030093 A JP 2014030093A JP 2012169406 A JP2012169406 A JP 2012169406A JP 2012169406 A JP2012169406 A JP 2012169406A JP 2014030093 A JP2014030093 A JP 2014030093A
Authority
JP
Japan
Prior art keywords
respect
image
unit
inclination
imaging unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012169406A
Other languages
Japanese (ja)
Other versions
JP5928228B2 (en
Inventor
Yoshihiro Tejima
義裕 手島
Rei Hamada
玲 浜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012169406A priority Critical patent/JP5928228B2/en
Publication of JP2014030093A publication Critical patent/JP2014030093A/en
Application granted granted Critical
Publication of JP5928228B2 publication Critical patent/JP5928228B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a photogenic subject detector, and method and program for detecting a photogenic subject, capable of estimating the posture of a target photogenic subject relative to a photographing unit.SOLUTION: A portable terminal 100 includes: a first detector 6a for detecting an inclination of a photographing unit 3 in the gravity direction when a first image is obtained; a first calculation unit 7b for calculating an inclination of a target photogenic subject in the gravity direction on the basis of the inclination of the photographing unit in the gravity direction and a tentative posture of the target photogenic subject with respect to the imaging unit; a second detection unit 6b for detecting an inclination of the photographing unit in the gravity direction when a second image is obtained; and a second calculation unit 7c for calculating a relative posture of the target photogenic subject with respect to the photographing unit as an initial value of coordinate conversion formula in which a spatial coordinate of each point of the target photogenic subject is converted into a plane coordinate within a second image on the basis of the inclination of the photographing unit in the gravity direction and the inclination of the target photogenic subject in the gravity direction.

Description

本発明は、被写体検出装置、被写体検出方法及びプログラムに関する。   The present invention relates to a subject detection device, a subject detection method, and a program.

従来、拡張現実(augmented reality:AR)技術として、撮像された画像におけるマーカー(実オブジェクト)の画像に対応付けて、仮想オブジェクト(例えば、三次元モデル等)を表示させる画像処理装置が知られている(例えば、特許文献1参照)。
この画像処理装置では、撮像されたフレーム画像の画像解析の結果に基づいて、フレーム画像におけるマーカーの画像の傾き(例えば、表示画面内における正視状態からの回転角度等)を検出して、当該マーカーの画像の傾きを初期値として記録しておく。また、画像処理装置は、逐次撮像されるフレーム画像におけるマーカーの傾きと初期値として記録されている傾きとの相対的な差分、具体的には、座標値の差分を算出する。そして、画像処理装置は、算出された座標値の差分から、所定のベクトルに沿うように仮想オブジェクトの画像を傾けて逐次表示させる処理を行う。
Conventionally, as an augmented reality (AR) technique, an image processing apparatus that displays a virtual object (for example, a three-dimensional model) in association with an image of a marker (real object) in a captured image is known. (For example, refer to Patent Document 1).
In this image processing apparatus, based on the result of image analysis of the captured frame image, the inclination of the image of the marker in the frame image (for example, the rotation angle from the normal viewing state in the display screen) is detected, and the marker Is recorded as an initial value. In addition, the image processing apparatus calculates a relative difference between the inclination of the marker in the sequentially captured frame image and the inclination recorded as the initial value, specifically, a difference in coordinate values. Then, the image processing apparatus performs a process of sequentially displaying the virtual object image tilted along a predetermined vector from the calculated coordinate value difference.

特開2006−72667号公報JP 2006-72667 A

ところで、三次元空間内のマーカーの各点の座標を所定の座標変換式を用いてフレーム画像内の対応する座標に変換する場合、フレーム画像内のマーカー画像を構成する複数の点の座標データから初期値を設定すると、撮像部に対するマーカーの姿勢や位置関係の推定を適正に行うことができない虞がある。この場合、仮想オブジェクトの表示を適正に行うことができなくなってしまう。   By the way, when the coordinates of each point of the marker in the three-dimensional space are converted into corresponding coordinates in the frame image using a predetermined coordinate conversion formula, from the coordinate data of a plurality of points constituting the marker image in the frame image When the initial value is set, there is a possibility that the posture of the marker and the positional relationship with respect to the imaging unit cannot be properly estimated. In this case, the virtual object cannot be displayed properly.

本発明は、このような問題に鑑みてなされたものであり、本発明の課題は、撮像部に対する特定の被写体の姿勢の推定を適正に行うことができる被写体検出装置、被写体検出方法及びプログラムを提供することである。   The present invention has been made in view of such a problem, and an object of the present invention is to provide a subject detection apparatus, a subject detection method, and a program capable of appropriately estimating the posture of a specific subject with respect to an imaging unit. Is to provide.

上記課題を解決するため、本発明に係る被写体検出装置は、
撮像部により撮像された特定の被写体の画像を逐次取得する取得手段と、前記取得手段により一の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第1検出手段と、前記第1検出手段により検出された前記撮像部の重力方向に対する傾き、及び前記一の画像に含まれる特定の被写体画像を構成する複数の点と関連付けられた前記撮像部に対する前記特定の被写体の仮の姿勢に基づいて、前記特定の被写体の重力方向に対する傾きを算出する第1算出手段と、前記取得手段により前記一の画像と異なる他の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第2検出手段と、前記第2検出手段により検出された前記撮像部の重力方向に対する傾き、及び前記第1算出手段により算出された前記特定の被写体の重力方向に対する傾きに基づいて、当該特定の被写体の各点の空間座標を前記他の画像内の平面座標に変換する座標変換式の初期値として、前記撮像部に対する前記特定の被写体の相対的な姿勢を算出する第2算出手段と、を備えたことを特徴としている。
In order to solve the above problems, a subject detection apparatus according to the present invention provides:
An acquisition unit that sequentially acquires images of a specific subject imaged by the imaging unit; a first detection unit that detects an inclination of the imaging unit with respect to the gravitational direction when one image is acquired by the acquisition unit; The inclination of the imaging unit detected by the first detection unit with respect to the direction of gravity and the provisional provisional of the specific subject with respect to the imaging unit associated with a plurality of points constituting the specific subject image included in the one image. A first calculating unit that calculates a tilt of the specific subject with respect to the direction of gravity based on a posture; and a tilt of the imaging unit with respect to the direction of gravity when the acquiring unit acquires another image different from the one image. A second detection means for detecting the inclination, the inclination of the imaging unit detected by the second detection means with respect to the gravitational direction, and the specific subject calculated by the first calculation means Based on the inclination with respect to the direction of gravity, the relative value of the specific subject relative to the imaging unit is used as an initial value of a coordinate conversion formula that converts the spatial coordinates of each point of the specific subject into plane coordinates in the other image. And a second calculating means for calculating a posture.

また、本発明に係る被写体検出方法は、
被写体検出装置を用いた被写体検出方法であって、撮像部により撮像された特定の被写体の画像を逐次取得する処理と、一の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する処理と、検出された前記撮像部の重力方向に対する傾き、及び前記一の画像に含まれる特定の被写体画像を構成する複数の点と関連付けられた前記撮像部に対する前記特定の被写体の仮の姿勢に基づいて、前記特定の被写体の重力方向に対する傾きを算出する処理と、前記一の画像と異なる他の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する処理と、検出された前記撮像部の重力方向に対する傾き、及び前記特定の被写体の重力方向に対する傾きに基づいて、当該特定の被写体の各点の空間座標を前記他の画像内の平面座標に変換する座標変換式の初期値として、前記撮像部に対する前記特定の被写体の相対的な姿勢を算出する処理と、を含むことを特徴としている。
The subject detection method according to the present invention includes:
A method for detecting a subject using a subject detection device, which sequentially acquires an image of a specific subject imaged by an imaging unit, and detects an inclination of the imaging unit relative to the gravitational direction when one image is acquired And the detected inclination of the imaging unit with respect to the direction of gravity, and the provisional posture of the specific subject with respect to the imaging unit associated with a plurality of points constituting the specific subject image included in the one image A process for calculating the inclination of the specific subject with respect to the gravity direction, a process for detecting the inclination of the imaging unit with respect to the gravity direction when another image different from the one image is acquired, and Further, based on the inclination of the imaging unit with respect to the gravitational direction and the inclination of the specific subject with respect to the gravitational direction, the spatial coordinates of each point of the specific subject are converted into plane coordinates in the other image. As an initial value of the coordinate conversion formula for conversion, it is characterized by including a process of calculating the relative attitude of the specific subject with respect to the imaging unit.

また、本発明に係るプログラムは、
被写体検出装置のコンピュータを、撮像部により撮像された特定の被写体の画像を逐次取得する取得手段、前記取得手段により一の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第1検出手段、前記第1検出手段により検出された前記撮像部の重力方向に対する傾き、及び前記一の画像に含まれる特定の被写体画像を構成する複数の点と関連付けられた前記撮像部に対する前記特定の被写体の仮の姿勢に基づいて、前記特定の被写体の重力方向に対する傾きを算出する第1算出手段、前記取得手段により前記一の画像と異なる他の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第2検出手段、前記第2検出手段により検出された前記撮像部の重力方向に対する傾き、及び前記第1算出手段により算出された前記特定の被写体の重力方向に対する傾きに基づいて、当該特定の被写体の各点の空間座標を前記他の画像内の平面座標に変換する座標変換式の初期値として、前記撮像部に対する前記特定の被写体の相対的な姿勢を算出する第2算出手段、として機能させることを特徴としている。
The program according to the present invention is
An acquisition unit that sequentially acquires an image of a specific subject captured by the imaging unit, and a tilt of the imaging unit relative to the gravitational direction when one image is acquired by the acquisition unit. 1 detection unit, the inclination of the imaging unit detected by the first detection unit with respect to the direction of gravity, and the specification for the imaging unit associated with a plurality of points constituting a specific subject image included in the one image A first calculating unit that calculates an inclination of the specific subject with respect to the direction of gravity based on a provisional posture of the subject, and the imaging unit when another image different from the one image is acquired by the acquiring unit. Second detection means for detecting the inclination with respect to the direction of gravity, the inclination with respect to the gravity direction of the imaging unit detected by the second detection means, and the calculation by the first calculation means. Based on the inclination of the specific subject with respect to the direction of gravity, the initial value of the coordinate conversion formula for converting the spatial coordinates of each point of the specific subject to the plane coordinates in the other image is used for the imaging unit. It is characterized by functioning as second calculation means for calculating the relative posture of a specific subject.

本発明によれば、撮像部に対する特定の被写体の姿勢の推定を適正に行うことができる。   According to the present invention, it is possible to appropriately estimate the posture of a specific subject with respect to the imaging unit.

本発明を適用した一実施形態の携帯端末の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the portable terminal of one Embodiment to which this invention is applied. 図1の携帯端末によるマーカー検出処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the marker detection process by the portable terminal of FIG. 図1の携帯端末とマーカーとの位置関係を模式的に示す図である。It is a figure which shows typically the positional relationship of the portable terminal of FIG. 1, and a marker.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

図1は、本発明を適用した一実施形態の携帯端末100の概略構成を示すブロック図である。
図1に示すように、携帯端末100は、中央制御部1と、メモリ2と、撮像部3と、撮像制御部4と、画像データ生成部5と、傾き検出部6と、マーカー検出処理部7と、表示部8と、表示制御部9と、送受話部10と、通信制御部11と、操作入力部12等を備えている。
なお、携帯端末100は、例えば、通信機能を具備する撮像装置や、携帯電話やPHS(Personal Handy-phone System)などの移動体通信網で用いられる移動局、PDA(Personal Data Assistants)等から構成されている。
FIG. 1 is a block diagram showing a schematic configuration of a mobile terminal 100 according to an embodiment to which the present invention is applied.
As shown in FIG. 1, the mobile terminal 100 includes a central control unit 1, a memory 2, an imaging unit 3, an imaging control unit 4, an image data generation unit 5, an inclination detection unit 6, and a marker detection processing unit. 7, a display unit 8, a display control unit 9, a transmission / reception unit 10, a communication control unit 11, an operation input unit 12, and the like.
The mobile terminal 100 includes, for example, an imaging device having a communication function, a mobile station used in a mobile communication network such as a mobile phone or a PHS (Personal Handy-phone System), a PDA (Personal Data Assistants), and the like. Has been.

中央制御部1は、携帯端末100の各部を制御する。具体的には、中央制御部1は、携帯端末100の各部を制御するCPU(図示略)を具備し、各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 1 controls each unit of the mobile terminal 100. Specifically, the central control unit 1 includes a CPU (not shown) that controls each part of the mobile terminal 100, and performs various control operations according to various processing programs (not shown).

メモリ2は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、画像情報等を一時的に記録するバッファメモリや、中央制御部1などのワーキングメモリ、当該携帯端末100の機能に係る各種プログラムやデータが格納されたプログラムメモリ等(何れも図示略)を備えている。   The memory 2 is composed of, for example, a DRAM (Dynamic Random Access Memory) or the like, and is a buffer memory that temporarily records image information, a working memory such as the central control unit 1, and various programs related to the functions of the mobile terminal 100 And a program memory (not shown) in which data is stored.

撮像部3は、特定の被写体(例えば、マーカーM)を撮像してフレーム画像F(図3参照)の画像信号を生成する。
ここで、特定の被写体とは、二次元画像であっても良いし、3次元形状の立体であっても良い。例えば、特定の被写体を二次元画像とした場合には、略矩形枠状(額縁状)をなすマーカーM等が挙げられる(図3参照)。
The imaging unit 3 captures a specific subject (for example, the marker M) and generates an image signal of the frame image F (see FIG. 3).
Here, the specific subject may be a two-dimensional image or a three-dimensional solid. For example, when a specific subject is a two-dimensional image, a marker M having a substantially rectangular frame shape (frame shape) may be used (see FIG. 3).

また、撮像部3は、レンズ部3aと、電子撮像部3bとを備えている。
レンズ部3aは、ズームレンズやフォーカスレンズ等の複数のレンズから構成されている。
電子撮像部3bは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部3aの各種レンズを通過した光学像を二次元の画像信号に変換する。
なお、図示は省略するが、撮像部3は、レンズ部3aを通過する光の量を調整する絞りを備えていても良い。
The imaging unit 3 includes a lens unit 3a and an electronic imaging unit 3b.
The lens unit 3a includes a plurality of lenses such as a zoom lens and a focus lens.
The electronic imaging unit 3b is composed of, for example, an image sensor such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), and converts an optical image that has passed through various lenses of the lens unit 3a into a two-dimensional image signal. To do.
In addition, although illustration is abbreviate | omitted, the imaging part 3 may be provided with the aperture_diaphragm | restriction which adjusts the quantity of the light which passes the lens part 3a.

撮像制御部4は、撮像部3による被写体の撮像を制御する。即ち、撮像制御部4は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部4は、タイミング発生器、ドライバにより電子撮像部3bを走査駆動して、所定周期毎に光学像を電子撮像部3bにより二次元の画像信号に変換させ、当該電子撮像部3bの撮像領域から1画面分ずつフレーム画像Fを読み出して画像データ生成部5に出力させる。
また、撮像制御部4は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体の撮像条件の調整制御を行う。
The imaging control unit 4 controls the imaging of the subject by the imaging unit 3. That is, the imaging control unit 4 includes a timing generator, a driver, and the like, although not illustrated. Then, the imaging control unit 4 scans and drives the electronic imaging unit 3b with a timing generator and a driver, converts the optical image into a two-dimensional image signal with the electronic imaging unit 3b at a predetermined period, and the electronic imaging unit 3b. The frame image F is read out from the imaging area for each screen and is output to the image data generation unit 5.
In addition, the imaging control unit 4 performs adjustment control of imaging conditions of the subject such as AF (automatic focusing process), AE (automatic exposure process), AWB (automatic white balance), and the like.

画像データ生成部5は、電子撮像部3bから転送されたフレーム画像Fのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
また、画像データ生成部5は、生成したフレーム画像FのYUVデータを水平及び垂直ともに所定倍率で縮小処理を行って、ライブビュー表示用の低解像度(例えば、VGAやQVGAサイズ等)の画像データを生成する。具体的には、画像データ生成部5は、表示部8によるライブビュー画像の所定の表示フレームレートに応じた所定のタイミングで、フレーム画像FのYUVデータからライブビュー表示用の低解像度の画像データを生成する。
The image data generation unit 5 appropriately adjusts the gain for each RGB color component with respect to the analog value signal of the frame image F transferred from the electronic image pickup unit 3b, and then samples and holds it by a sample hold circuit (not shown). The digital data is converted into digital data by an A / D converter (not shown), color processing including pixel interpolation processing and γ correction processing is performed by a color process circuit (not shown), and then a digital luminance signal Y and color difference signal Cb, Cr (YUV data) is generated.
Further, the image data generation unit 5 reduces the YUV data of the generated frame image F at a predetermined magnification in both horizontal and vertical directions, and generates low-resolution (for example, VGA, QVGA size, etc.) image data for live view display. Is generated. Specifically, the image data generation unit 5 has low resolution image data for live view display from the YUV data of the frame image F at a predetermined timing according to a predetermined display frame rate of the live view image by the display unit 8. Is generated.

そして、画像データ生成部5は、生成された各フレーム画像FのYUVデータをメモリ2に順次出力し、当該メモリ2に格納させる。   Then, the image data generation unit 5 sequentially outputs the generated YUV data of each frame image F to the memory 2 and stores it in the memory 2.

傾き検出部6は、撮像部3を具備する当該端末本体の重力軸方向に対する姿勢(傾き)を検出する。具体的には、傾き検出部6は、第1検出部6aと、第2検出部6bとを備えている。   The inclination detection unit 6 detects the posture (inclination) of the terminal main body including the imaging unit 3 with respect to the gravity axis direction. Specifically, the inclination detection unit 6 includes a first detection unit 6a and a second detection unit 6b.

第1検出部(第1検出手段)6aは、画像取得部7a(後述)により第1画像(一の画像)が取得された際の端末本体の重力軸方向に対する第1姿勢Pac0を検出する。
即ち、第1検出部6aは、例えば、3軸加速度センサ等を備え、この3軸加速度センサによる各軸の検出信号の0Hzの周波数成分に基づいて重力軸方向を特定し、当該重力軸方向に対する各軸の傾きを端末本体の重力軸方向に対する第1姿勢Pac0として検出する。具体的には、第1検出部6aは、複数のフレーム画像F、…のうち、マーカーMの重力軸方向に対する姿勢Pam(後述)の算出に係る第1画像が画像取得部7aにより取得された際に、端末本体の重力軸方向に対する第1姿勢Pac0を検出する。
ここで、端末本体の重力軸方向に対する第1姿勢Pac0は、具体的には、n行m列の行列(n、mは、それぞれ自然数)で表され、例えば、3×3の回転行列等が挙げられる。
The first detection unit (first detection means) 6a detects the first posture Pac0 with respect to the gravity axis direction of the terminal body when the first image (one image) is acquired by the image acquisition unit 7a (described later).
That is, the first detection unit 6a includes, for example, a triaxial acceleration sensor and the like, specifies the gravity axis direction based on the frequency component of 0 Hz of the detection signal of each axis by the triaxial acceleration sensor, and with respect to the gravity axis direction. The inclination of each axis is detected as the first posture Pac0 with respect to the gravity axis direction of the terminal body. Specifically, the first detection unit 6a acquires, from the plurality of frame images F,..., The first image related to the calculation of the posture Pam (described later) of the marker M with respect to the gravity axis direction by the image acquisition unit 7a. At this time, the first posture Pac0 with respect to the gravity axis direction of the terminal body is detected.
Here, the first posture Pac0 with respect to the direction of the gravity axis of the terminal body is specifically represented by an n-by-m matrix (n and m are natural numbers, respectively), for example, a 3 × 3 rotation matrix or the like. Can be mentioned.

第2検出部(第2検出手段)6bは、画像取得部7a(後述)により第1画像と異なる第2画像(他の画像)が取得された際の端末本体の重力軸方向に対する第2姿勢Pac1を検出する。
この第2検出部6bは、第1検出部6aと略同様の構成をなしている。即ち、第2検出部6bは、例えば、3軸加速度センサ等を備え、この3軸加速度センサによる各軸の検出信号の0Hzの周波数成分に基づいて重力軸方向を特定し、当該重力軸方向に対する各軸の傾きを端末本体の重力軸方向に対する第2姿勢Pac1として検出する。具体的には、第2検出部6bは、複数のフレーム画像F、…のうち、端末本体に対するマーカーMの相対的な姿勢Prm1(後述)の算出に係る第2画像が画像取得部7aにより取得された際に、端末本体の重力軸方向に対する第2姿勢Pac1を検出する。
ここで、端末本体の重力軸方向に対する第2姿勢Pac1は、具体的には、n行m列の行列(n、mは、それぞれ自然数)で表され、例えば、3×3の回転行列等が挙げられる。
The second detection unit (second detection unit) 6b has a second posture with respect to the gravity axis direction of the terminal body when a second image (other image) different from the first image is acquired by an image acquisition unit 7a (described later). Detect Pac1.
The second detection unit 6b has substantially the same configuration as the first detection unit 6a. That is, the second detection unit 6b includes, for example, a triaxial acceleration sensor and the like, specifies the gravitational axis direction based on the frequency component of 0 Hz of the detection signal of each axis by the triaxial acceleration sensor, and with respect to the gravitational axis direction. The inclination of each axis is detected as the second posture Pac1 with respect to the gravity axis direction of the terminal body. Specifically, the second detection unit 6b acquires, from the plurality of frame images F,..., The second image related to the calculation of the relative posture Prm1 (described later) of the marker M with respect to the terminal body by the image acquisition unit 7a. When this is done, the second posture Pac1 with respect to the gravitational axis direction of the terminal body is detected.
Here, the second posture Pac1 with respect to the gravitational axis direction of the terminal body is specifically represented by a matrix of n rows and m columns (n and m are natural numbers, respectively), for example, a 3 × 3 rotation matrix or the like. Can be mentioned.

なお、上記した3軸加速度センサによる重力軸方向の検出手法や、第1検出部6a及び第2検出部6bによる端末本体の重力軸方向に対する姿勢Pac0、Pac1の検出手法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。
また、撮像部3を具備する当該端末本体の重力軸方向に対する傾き(姿勢)を検出するようにしたが、一例であってこれに限られるものではなく、撮像部3自体の重力軸方向に対する傾きを検出するようにしても良い。また、撮像部3に代えて、所定の部材や要素(例えば、光軸の延長線上に設けられた液晶パネル等)の重力軸方向に対する傾きを検出するようにしても良い。
Note that the above-described detection method of the gravity axis direction by the three-axis acceleration sensor and the detection method of the postures Pac0 and Pac1 with respect to the gravity axis direction of the terminal body by the first detection unit 6a and the second detection unit 6b are examples. The present invention is not limited to this, and can be arbitrarily changed as appropriate.
In addition, the inclination (posture) of the terminal main body including the imaging unit 3 with respect to the gravity axis direction is detected, but is not limited to this, and the inclination of the imaging unit 3 itself with respect to the gravity axis direction is not limited thereto. May be detected. Further, instead of the imaging unit 3, a tilt of a predetermined member or element (for example, a liquid crystal panel provided on an extension line of the optical axis) with respect to the gravity axis direction may be detected.

マーカー検出処理部7は、画像取得部7aと、第1算出部7bと、第2算出部7cと、座標変換部7dと、画像生成部7eを具備している。
なお、マーカー検出処理部7の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
The marker detection processing unit 7 includes an image acquisition unit 7a, a first calculation unit 7b, a second calculation unit 7c, a coordinate conversion unit 7d, and an image generation unit 7e.
In addition, although each part of the marker detection process part 7 is comprised from the predetermined | prescribed logic circuit, for example, the said structure is an example and is not restricted to this.

画像取得部7aは、複数のフレーム画像F、…を逐次取得する。
即ち、画像取得部(第1取得手段)7aは、マーカー(特定の被写体)Mが連続して撮像された複数の画像を逐次取得する。具体的には、画像取得部7aは、撮像部3によりマーカーMが連続して撮像されて画像データ生成部5により逐次生成された複数のフレーム画像F、…の所定の解像度の画像データをメモリ2から逐次取得する。
The image acquisition unit 7a sequentially acquires a plurality of frame images F,.
That is, the image acquisition unit (first acquisition unit) 7a sequentially acquires a plurality of images in which the marker (specific subject) M is continuously captured. Specifically, the image acquisition unit 7 a stores image data with a predetermined resolution of a plurality of frame images F,..., Which are continuously captured by the image data generation unit 5 after the marker M is continuously captured by the image capturing unit 3. Obtain sequentially from 2.

第1算出部7bは、マーカーMの重力軸方向に対する姿勢Pamを算出する。
即ち、第1算出部(第1算出手段)7bは、第1検出部6aにより検出された端末本体の重力軸方向に対する第1姿勢Pac0、及び第1画像(一の画像)に含まれるマーカー画像(特定の被写体画像)Sを構成する複数の点と関連付けられた端末本体(撮像部3)に対するマーカーMの仮の姿勢Prm0に基づいて、マーカーMの重力軸方向に対する姿勢(傾き)Pamを算出する。
具体的には、第1算出部7bは、画像取得部7aにより取得された複数のフレーム画像F、…のうちの一の第1画像の画像データに対して所定の特徴抽出処理を行って、当該第1画像内から略矩形枠状のマーカー画像Sを抽出する。
続けて、第1算出部7bは、マーカー画像Sを構成する複数の点(例えば、4隅の点等)を検出し、当該複数の点に基づいて端末本体に対するマーカーMの仮の姿勢Prm0を特定する。例えば、第1算出部7bは、所定の記録手段に記録されているデータベース(図示略)等を参照して、マーカー画像Sの4隅の点と幾何学的な位置関係を有する端末本体に対するマーカーMの仮の姿勢Prm0を特定する。
そして、第1算出部7bは、特定された端末本体に対するマーカーMの仮の姿勢Prm0と、第1検出部6aにより検出された端末本体の重力軸方向に対する第1姿勢Pac0とに基づいて、下記式(1)に従って、マーカーMの重力軸方向に対する姿勢Pamを算出する。

Figure 2014030093
ここで、端末本体に対するマーカーMの仮の姿勢Prm0及びマーカーMの重力軸方向に対する姿勢Pamは、具体的には、n行m列の行列(n、mは、それぞれ自然数)で表され、例えば、3×3の回転行列等が挙げられる。 The first calculator 7b calculates the posture Pam of the marker M with respect to the gravity axis direction.
That is, the first calculation unit (first calculation unit) 7b includes the first posture Pac0 with respect to the gravity axis direction of the terminal body detected by the first detection unit 6a, and the marker image included in the first image (one image). Based on the provisional posture Prm0 of the marker M with respect to the terminal body (imaging unit 3) associated with a plurality of points constituting the (specific subject image) S, the posture (inclination) Pam of the marker M with respect to the gravity axis direction is calculated. To do.
Specifically, the first calculation unit 7b performs a predetermined feature extraction process on the image data of one of the plurality of frame images F acquired by the image acquisition unit 7a,. A marker image S having a substantially rectangular frame shape is extracted from the first image.
Subsequently, the first calculation unit 7b detects a plurality of points (for example, four corner points) constituting the marker image S, and based on the plurality of points, determines the temporary posture Prm0 of the marker M with respect to the terminal body. Identify. For example, the first calculation unit 7b refers to a database (not shown) or the like recorded in a predetermined recording unit, and the marker for the terminal body having a geometric positional relationship with the four corner points of the marker image S. The provisional posture Prm0 of M is specified.
Then, the first calculation unit 7b is based on the provisional posture Prm0 of the marker M with respect to the identified terminal body and the first posture Pac0 with respect to the gravity axis direction of the terminal body detected by the first detection unit 6a. In accordance with Expression (1), the posture Pam of the marker M with respect to the gravity axis direction is calculated.
Figure 2014030093
Here, the temporary posture Prm0 of the marker M with respect to the terminal body and the posture Pam of the marker M with respect to the gravity axis direction are specifically represented by a matrix of n rows and m columns (n and m are natural numbers, respectively), for example, For example, a 3 × 3 rotation matrix is used.

また、第1算出部7bは、画像データ生成部5により逐次生成された複数のフレーム画像F、…が画像取得部7aにより取得される毎に、各フレーム画像Fを第1画像としてマーカーMの重力軸方向に対する姿勢Pamを算出する。そして、第1算出部7bは、所定回数算出されたマーカーMの重力軸方向に対する姿勢Pamに基づいて、当該姿勢Pamの代表値(例えば、平均値や中央値等)を算出しても良い。具体的には、第1算出部7bは、例えば、マーカーMの重力軸方向に対する姿勢Pamの所定回数分を平均して、その結果をマーカーMの重力軸方向に対する姿勢Pamの代表値とする。
なお、マーカーMの重力軸方向に対する姿勢Pamを算出する回数は、適宜任意に変更可能であり、例えば、予め指定されたユーザ所望の値であっても良いし、デフォルトとして設定されている値であっても良い。
Further, the first calculation unit 7b uses each frame image F as a first image each time a plurality of frame images F,... Sequentially generated by the image data generation unit 5 are acquired by the image acquisition unit 7a. Posture Pam with respect to the gravity axis direction is calculated. Then, the first calculation unit 7b may calculate a representative value (for example, an average value or a median value) of the posture Pam based on the posture Pam of the marker M with respect to the gravity axis direction calculated a predetermined number of times. Specifically, for example, the first calculation unit 7b averages a predetermined number of postures Pam of the marker M with respect to the gravity axis direction, and sets the result as a representative value of the posture Pam of the marker M with respect to the gravity axis direction.
The number of times of calculating the posture Pam of the marker M with respect to the direction of the gravity axis can be arbitrarily changed as appropriate. For example, it can be a user-specified value specified in advance or a value set as a default. There may be.

また、第1算出部7bは、座標変換部7dにより端末本体に対するマーカーMの相対的な姿勢や位置関係を表す行列R、T(後述)が特定される毎に、マーカーMの重力軸方向に対する姿勢Pamを算出しても良い。即ち、第1算出部7bは、座標変換部7dにより逐次特定された端末本体に対するマーカーMの相対的な姿勢を表す行列Rを端末本体に対するマーカーMの相対的な姿勢Prm1とし、当該姿勢Prm1と第2検出部6bにより検出された端末本体の重力軸方向に対する第2姿勢Pac1とに基づいて、上記式(1)と略同様の所定の演算を行って、マーカーMの重力軸方向に対する姿勢Pamを算出して更新しても良い。   In addition, the first calculation unit 7b determines the marker M with respect to the gravity axis direction every time the coordinate conversion unit 7d specifies matrices R and T (described later) representing the relative posture and positional relationship of the marker M with respect to the terminal body. The posture Pam may be calculated. That is, the first calculation unit 7b sets the matrix R representing the relative posture of the marker M with respect to the terminal body sequentially identified by the coordinate conversion unit 7d as the relative posture Prm1 of the marker M with respect to the terminal body, and the posture Prm1. Based on the second posture Pac1 with respect to the gravity axis direction of the terminal body detected by the second detection unit 6b, a predetermined calculation substantially similar to the above equation (1) is performed, and the posture Pam of the marker M with respect to the gravity axis direction is performed. May be calculated and updated.

第2算出部7cは、端末本体に対するマーカーMの相対的な姿勢Prm1を算出する。
即ち、第2算出部(第2算出手段)7cは、第2検出部6bにより検出された端末本体の重力軸方向に対する第2姿勢Pac1、及び第1算出部7bにより算出されたマーカーMの重力軸方向に対する姿勢Pamに基づいて、当該マーカーMの各点の三次元空間での座標を第2画像(他の画像)内の対応する二次元の平面座標に変換する座標変換式(例えば、式(3)参照;後述)の初期値として、端末本体(撮像部3)に対するマーカーMの相対的な姿勢Prm1を算出する。
具体的には、第2検出部6bにより端末本体の重力軸方向に対する第2姿勢Pac1が検出される毎に、第2算出部7cは、検出された端末本体の重力軸方向に対する第2姿勢Pac1及びマーカーMの重力軸方向に対する姿勢Pamに基づいて、下記式(2)に従って、端末本体に対するマーカーMの相対的な姿勢Prm1を算出する。算出された端末本体に対するマーカーMの相対的な姿勢Prm1は、後述する座標変換式中の端末本体に対するマーカーMの相対的な姿勢Rの初期値となる。

Figure 2014030093
ここで、端末本体に対するマーカーMの相対的な姿勢Prm1は、具体的には、n行m列の行列(n、mは、それぞれ自然数)で表され、例えば、3×3の回転行列等が挙げられる。 The second calculator 7c calculates the relative posture Prm1 of the marker M with respect to the terminal body.
That is, the second calculation unit (second calculation unit) 7c is configured such that the second posture Pac1 with respect to the gravity axis direction of the terminal body detected by the second detection unit 6b and the gravity of the marker M calculated by the first calculation unit 7b. Based on the posture Pam with respect to the axial direction, a coordinate conversion expression (for example, an expression) that converts the coordinates of each point of the marker M in the three-dimensional space into the corresponding two-dimensional plane coordinates in the second image (other image). As an initial value of (3) (see below), a relative posture Prm1 of the marker M with respect to the terminal body (imaging unit 3) is calculated.
Specifically, each time the second posture Pac1 with respect to the gravity axis direction of the terminal body is detected by the second detection unit 6b, the second calculation unit 7c detects the second posture Pac1 with respect to the detected gravity direction of the terminal body. Based on the posture Pam of the marker M with respect to the gravity axis direction, the relative posture Prm1 of the marker M with respect to the terminal body is calculated according to the following equation (2). The calculated relative posture Prm1 of the marker M with respect to the terminal body is an initial value of the relative posture R of the marker M with respect to the terminal body in a coordinate conversion formula described later.
Figure 2014030093
Here, the relative posture Prm1 of the marker M with respect to the terminal body is specifically represented by an n-by-m matrix (n and m are natural numbers, respectively), for example, a 3 × 3 rotation matrix or the like. Can be mentioned.

座標変換部7dは、マーカーMの各点の三次元空間での座標を第2画像内の対応する二次元の平面座標に変換する。
即ち、座標変換部(座標変換手段)7dは、第2算出部7cにより初期値として算出された端末本体に対するマーカーMの相対的な姿勢Prm1に基づいて、下記式(3)の座標変換式を解く。具体的には、座標変換部7dは、端末本体に対するマーカーMの相対的な姿勢Prm1を端末本体に対するマーカーMの相対的な姿勢を表す行列Rの初期値として、端末本体に対するマーカーMの相対的な姿勢及び位置関係を表す行列R、Tをバンドル調整(bundle adjustment)により推定して特定する。
ここで、バンドル調整とは、画像から幾何学的なモデルのパラメータを高い推定精度の達成を目指して推定する手法であり、例えば、未知のパラメータの再投影誤差の合計を最小化するような手法等が用いられる。

Figure 2014030093
なお、式(3)の座標変換式は、同次座標変換行列である。また、当該式(3)中、「X」、「Y」及び「Z」は、互いに直交するX軸、Y軸及びZ軸により規定される三次元空間でのマーカーMを構成する各点の座標位置を表し、「x」及び「y」は、X軸及びY軸により規定される二次元平面である第2画像内でマーカーMの各点の対応する座標位置を表している。
また、端末本体に対するマーカーMの相対的な姿勢を表す行列Rは、具体的には、n行m列の行列(n、mは、それぞれ自然数)で表され、例えば、3×3の回転行列等が挙げられる。また、端末本体に対するマーカーMの相対的な位置関係を表す行列Tは、具体的には、n行m列の行列(n、mは、それぞれ自然数)で表され、例えば、1×3の並進ベクトル等が挙げられる。
また、式(3)中の「C」は、撮像部3の焦点距離等の内部パラメータを表し、「h」は、第2画像のスケールを表している。 The coordinate conversion unit 7d converts the coordinates of each point of the marker M in the three-dimensional space into corresponding two-dimensional plane coordinates in the second image.
That is, the coordinate conversion unit (coordinate conversion unit) 7d calculates a coordinate conversion formula of the following formula (3) based on the relative posture Prm1 of the marker M with respect to the terminal body calculated as the initial value by the second calculation unit 7c. solve. Specifically, the coordinate conversion unit 7d uses the relative posture Prm1 of the marker M with respect to the terminal body as an initial value of a matrix R representing the relative posture of the marker M with respect to the terminal body, and the relative position of the marker M with respect to the terminal body. Matrixes R and T representing a proper posture and positional relationship are estimated and specified by bundle adjustment.
Here, bundle adjustment is a method for estimating geometric model parameters from an image in order to achieve high estimation accuracy, for example, a method for minimizing the total reprojection error of unknown parameters. Etc. are used.
Figure 2014030093
In addition, the coordinate conversion formula of Formula (3) is a homogeneous coordinate conversion matrix. Moreover, in the said Formula (3), " Xw ", " Yw ", and " Zw " comprise the marker M in the three-dimensional space prescribed | regulated by the mutually orthogonal X-axis, Y-axis, and Z-axis. Represents the coordinate position of each point, and “x i ” and “y i ” represent the corresponding coordinate position of each point of the marker M in the second image which is a two-dimensional plane defined by the X axis and the Y axis. ing.
Further, the matrix R representing the relative posture of the marker M with respect to the terminal body is specifically represented by a matrix of n rows and m columns (n and m are natural numbers, respectively), for example, a 3 × 3 rotation matrix. Etc. Further, the matrix T representing the relative positional relationship of the marker M with respect to the terminal body is specifically represented by a matrix of n rows and m columns (n and m are natural numbers, respectively), for example, 1 × 3 translation Vector etc. are mentioned.
Further, “C” in Expression (3) represents an internal parameter such as a focal length of the imaging unit 3, and “h” represents a scale of the second image.

画像生成部7eは、画像取得部7aにより取得された複数のフレーム画像F、…のうちの第2画像中に、マーカー画像Sと対応する仮想オブジェクト(例えば、三次元モデル等;図示略)を重畳させた仮想画像(図示略)を生成する。
具体的には、例えば、ライブビュー画像等が第2画像として逐次取得される毎に、画像生成部7eは、座標変換部7dにより特定された端末本体に対するマーカーMの相対的な姿勢及び位置関係に基づいて、ライブビュー画像内での当該マーカー画像Sの姿勢や位置を調整し、当該マーカー画像Sと対応する仮想オブジェクトを所定の記録手段から取得して、仮想画像の画像データを生成する。そして、画像生成部7eは、生成された各仮想画像の画像データをメモリ2に順次出力し、当該メモリ2に格納させる。
なお、画像生成部7eにより生成された仮想画像の画像データは、例えば、所定の圧縮形式(例えば、JPEG形式等)で符号化され、不揮発性メモリ(フラッシュメモリ)等の記録媒体(図示略)に記録されても良い。
The image generation unit 7e displays a virtual object (for example, a three-dimensional model; not shown) corresponding to the marker image S in the second image among the plurality of frame images F acquired by the image acquisition unit 7a. A superimposed virtual image (not shown) is generated.
Specifically, for example, every time a live view image or the like is sequentially acquired as the second image, the image generation unit 7e determines the relative posture and positional relationship of the marker M with respect to the terminal body specified by the coordinate conversion unit 7d. Based on the above, the posture and position of the marker image S in the live view image are adjusted, a virtual object corresponding to the marker image S is acquired from a predetermined recording means, and image data of the virtual image is generated. Then, the image generation unit 7 e sequentially outputs the generated image data of each virtual image to the memory 2 and stores it in the memory 2.
Note that the image data of the virtual image generated by the image generation unit 7e is encoded in, for example, a predetermined compression format (eg, JPEG format), and is a recording medium (not shown) such as a nonvolatile memory (flash memory). May be recorded.

表示部8は、例えば、液晶表示パネルから構成され、表示制御部9からのビデオ信号に基づいて撮像部3により撮像された画像(例えば、レックビュー画像等)を表示画面に表示する。   The display unit 8 is composed of, for example, a liquid crystal display panel, and displays an image (for example, a REC view image) captured by the imaging unit 3 based on a video signal from the display control unit 9 on a display screen.

表示制御部9は、メモリ2に一時的に記憶されている表示用の画像データを読み出して表示部8に表示させる制御を行う。
具体的には、表示制御部9は、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、中央制御部1の制御下にてメモリ2から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから所定の再生フレームレート(例えば、30fps)で読み出して、これらのデータを元にビデオ信号を発生して表示部8に出力する。
例えば、表示制御部9は、撮像部3及び撮像制御部4により撮像され画像データ生成部5により生成された複数のフレーム画像F、…を所定の表示フレームレートで逐次更新しながら表示部8にライブビュー表示させる。また、表示制御部9は、例えば、メモリ2から仮想画像の画像データを逐次取得して、当該仮想画像を表示部8に逐次ライブビュー表示させる。
The display control unit 9 performs control to read out display image data temporarily stored in the memory 2 and display it on the display unit 8.
Specifically, the display control unit 9 includes a VRAM (Video Random Access Memory), a VRAM controller, a digital video encoder, and the like. The digital video encoder reads the luminance signal Y and the color difference signals Cb and Cr read from the memory 2 and stored in the VRAM (not shown) under the control of the central control unit 1 through the VRAM controller. Are read out at a predetermined playback frame rate (for example, 30 fps), and a video signal is generated based on these data and output to the display unit 8.
For example, the display control unit 9 updates the plurality of frame images F captured by the imaging unit 3 and the imaging control unit 4 and generated by the image data generation unit 5 to the display unit 8 while sequentially updating at a predetermined display frame rate. Display live view. For example, the display control unit 9 sequentially acquires image data of virtual images from the memory 2 and sequentially displays the virtual images on the display unit 8 in live view.

送受話部10は、通信ネットワークNを介して接続された外部機器の外部ユーザとの通話を行う。
具体的には、送受話部10は、マイク10a、スピーカ10b、データ変換部10c等を備えている。そして、送受話部10は、マイク10aから入力されるユーザの送話音声をデータ変換部10cによりA/D変換処理して送話音声データを中央制御部1に出力するとともに、中央制御部1の制御下にて、通信制御部11から出力されて入力される受話音声データ等の音声データをデータ変換部10cによりD/A変換処理してスピーカ10bから出力する。
The transmitter / receiver unit 10 performs a call with an external user of an external device connected via the communication network N.
Specifically, the transmission / reception unit 10 includes a microphone 10a, a speaker 10b, a data conversion unit 10c, and the like. The transmission / reception unit 10 performs A / D conversion processing on the user's transmission voice input from the microphone 10a by the data conversion unit 10c and outputs the transmission voice data to the central control unit 1. Under the control, voice data such as received voice data outputted and inputted from the communication control unit 11 is D / A converted by the data conversion unit 10c and outputted from the speaker 10b.

通信制御部11は、通信ネットワークN及び通信アンテナ11aを介してデータの送受信を行う。
即ち、通信アンテナ11aは、当該携帯端末100が無線基地局(図示略)との通信で採用している所定の通信方式(例えば、W−CDMA(Wideband Code Division Multiple Access)方式、GSM(Global System for Mobile Communications;登録商標)方式等)に対応したデータの送受信が可能なアンテナである。そして、通信制御部11は、所定の通信方式に対応する通信プロトコルに従って、この通信方式で設定される通信チャネルにより無線基地局との間で通信アンテナ11aを介してデータの送受信を行う。
即ち、通信制御部11は、中央制御部1から出力されて入力される指示信号に基づいて、通信相手の外部機器に対して、当該外部機器の外部ユーザとの通話中の音声の送受信や、電子メールのデータの送受信を行う。
なお、通信制御部11の構成は一例であってこれに限られるものではなく、適宜任意に変更可能であり、例えば、図示は省略するが、無線LANモジュールを搭載し、アクセスポイント(Access Point)を介して通信ネットワークNにアクセス可能な構成としても良い。
The communication control unit 11 transmits and receives data via the communication network N and the communication antenna 11a.
That is, the communication antenna 11a is connected to a predetermined communication method (for example, W-CDMA (Wideband Code Division Multiple Access) method, GSM (Global System)) used by the mobile terminal 100 for communication with a radio base station (not shown). for Mobile Communications (registered trademark) system, etc.). The communication control unit 11 transmits / receives data to / from the radio base station via the communication antenna 11a through a communication channel set in the communication method according to a communication protocol corresponding to a predetermined communication method.
That is, the communication control unit 11 transmits / receives voice during a call with an external user of the external device to the external device of the communication partner based on the instruction signal output from the central control unit 1 and input, Send and receive e-mail data.
Note that the configuration of the communication control unit 11 is an example and is not limited thereto, and can be arbitrarily changed as appropriate. For example, although not shown, a wireless LAN module is mounted and an access point (Access Point) is provided. It is good also as a structure which can access the communication network N via this.

なお、通信ネットワークNは、携帯端末100を無線基地局やゲートウェイサーバ(図示略)等を介して接続する通信ネットワークである。また、通信ネットワークNは、専用線や既存の一般公衆回線を利用して構築された通信ネットワークであり、LAN(Local Area Network)やWAN(Wide Area Network)等の様々な回線形態を適用することが可能である。また、通信ネットワークNには、例えば、電話回線網、ISDN回線網、専用線、移動体通信網、通信衛星回線、CATV回線網等の各種通信ネットワーク網と、IPネットワーク、VoIP(Voice over Internet Protocol)ゲートウェイ、インターネットサービスプロバイダ等が含まれる。   The communication network N is a communication network that connects the mobile terminal 100 via a wireless base station, a gateway server (not shown), or the like. The communication network N is a communication network constructed by using a dedicated line or an existing general public line, and applies various line forms such as a LAN (Local Area Network) and a WAN (Wide Area Network). Is possible. The communication network N includes, for example, various communication network networks such as a telephone line network, ISDN line network, dedicated line, mobile communication network, communication satellite line, CATV line network, IP network, VoIP (Voice over Internet Protocol). ) Gateways, Internet service providers, etc. are included.

操作入力部12は、端末本体に対して各種指示を入力するためのものである。
具体的には、操作入力部12は、被写体の撮影指示に係るシャッタボタン、モードや機能等の選択指示に係る上下左右のカーソルボタンや決定ボタン、電話の発着信や電子メールの送受信等の実行指示に係る通信関連ボタン、テキストの入力指示に係る数字ボタンや記号ボタン等の各種ボタン(何れも図示略)を備えている。
そして、ユーザにより各種ボタンが操作されると、操作入力部12は、操作されたボタンに応じた操作指示を中央制御部1に出力する。中央制御部1は、操作入力部12から出力され入力された操作指示に従って所定の動作(例えば、被写体の撮像、電話の発着信、電子メールの送受信等)を各部に実行させる。
The operation input unit 12 is for inputting various instructions to the terminal body.
Specifically, the operation input unit 12 executes a shutter button related to a subject photographing instruction, up / down / left / right cursor buttons and a determination button related to a selection instruction of a mode, a function, etc., making / receiving a call, sending / receiving an e-mail, etc. Various buttons (not shown) such as communication-related buttons related to instructions and numeric buttons and symbol buttons related to text input instructions are provided.
When various buttons are operated by the user, the operation input unit 12 outputs an operation instruction corresponding to the operated button to the central control unit 1. The central control unit 1 causes each unit to execute a predetermined operation (for example, imaging of a subject, incoming / outgoing calls, transmission / reception of an e-mail, etc.) according to an operation instruction output from the operation input unit 12 and input.

なお、操作入力部12は、表示部8と一体となって設けられたタッチパネルを有していても良く、ユーザによるタッチパネルの所定操作に基づいて、当該所定操作に応じた操作指示を中央制御部1に出力しても良い。   The operation input unit 12 may include a touch panel provided integrally with the display unit 8, and an operation instruction corresponding to the predetermined operation is given to the central control unit based on a predetermined operation of the touch panel by the user. 1 may be output.

次に、携帯端末100によるマーカー検出処理について図2、図3を参照して説明する。
図2は、マーカー検出処理に係る動作の一例を示すフローチャートである。また、図3は、携帯端末100とマーカーMとの位置関係を模式的に示す図である。
なお、以下のマーカー検出処理にて検出されるマーカーMは、予め所定位置に移動不可の状態で配設(固定)されているものとする。
Next, marker detection processing by the mobile terminal 100 will be described with reference to FIGS.
FIG. 2 is a flowchart illustrating an example of an operation related to the marker detection process. FIG. 3 is a diagram schematically showing the positional relationship between the mobile terminal 100 and the marker M.
It is assumed that the marker M detected in the following marker detection process is previously arranged (fixed) in a state where it cannot move to a predetermined position.

図2に示すように、先ず、撮像制御部4は、撮像部3にマーカーMを撮像させ、画像データ生成部5は、電子撮像部3bから転送された複数のフレーム画像F、…の画像データを生成する(ステップS1)。そして、画像データ生成部5は、生成された各フレーム画像FのYUVデータをメモリ2に順次出力し、当該メモリ2に格納させる。   As shown in FIG. 2, first, the imaging control unit 4 causes the imaging unit 3 to image the marker M, and the image data generation unit 5 sets the image data of a plurality of frame images F,... Transferred from the electronic imaging unit 3b. Is generated (step S1). Then, the image data generation unit 5 sequentially outputs the generated YUV data of each frame image F to the memory 2 and stores it in the memory 2.

マーカー検出処理部7の画像取得部7aは、画像データ生成部5により逐次生成された複数のフレーム画像F、…のうち、何れか一の第1画像の画像データをメモリ2から逐次取得する(ステップS2)。そして、傾き検出部6の第1検出部6aは、第1画像の画像データが取得された際の端末本体の重力軸方向に対する第1姿勢Pac0を検出する(ステップS3)。具体的には、第1検出部6aは、3軸加速度センサによる各軸の検出信号に基づいて特定された重力軸方向に対する各軸の傾きを端末本体の重力軸方向に対する第1姿勢Pac0として検出する。   The image acquisition unit 7a of the marker detection processing unit 7 sequentially acquires, from the memory 2, image data of any one of the plurality of frame images F,... Sequentially generated by the image data generation unit 5. Step S2). And the 1st detection part 6a of the inclination detection part 6 detects the 1st attitude | position Pac0 with respect to the gravity-axis direction of a terminal main body when the image data of a 1st image is acquired (step S3). Specifically, the first detection unit 6a detects the inclination of each axis with respect to the gravity axis direction specified based on the detection signal of each axis by the triaxial acceleration sensor as the first posture Pac0 with respect to the gravity axis direction of the terminal body. To do.

次に、マーカー検出処理部7の第1算出部7bは、画像取得部7aにより取得された第1画像の画像データに対して所定の特徴抽出処理を行って、当該第1画像内からマーカー画像Sを抽出する(ステップS4)。続けて、第1算出部7bは、マーカー画像Sの4隅の点と幾何学的な位置関係を有する端末本体に対するマーカーMの仮の姿勢Prm0を特定した後(ステップS5)、当該端末本体に対するマーカーMの仮の姿勢Prm0と端末本体の重力軸方向に対する第1姿勢Pac0とに基づいて、下記式(1)に従って、マーカーMの重力軸方向に対する姿勢Pamを算出する(ステップS6)。

Figure 2014030093
Next, the first calculation unit 7b of the marker detection processing unit 7 performs a predetermined feature extraction process on the image data of the first image acquired by the image acquisition unit 7a, and the marker image is extracted from the first image. S is extracted (step S4). Subsequently, after the first calculation unit 7b specifies the provisional posture Prm0 of the marker M with respect to the terminal body having a geometric positional relationship with the four corner points of the marker image S (step S5), Based on the provisional posture Prm0 of the marker M and the first posture Pac0 with respect to the gravity axis direction of the terminal body, the posture Pam of the marker M with respect to the gravity axis direction is calculated according to the following equation (1) (step S6).
Figure 2014030093

次に、第1算出部7bは、マーカーMの重力軸方向に対する姿勢Pamが所定回数算出されたか否かを判定する(ステップS7)。
ここで、マーカーMの重力軸方向に対する姿勢Pamが所定回数算出されていないと判定されると(ステップS7;NO)、中央制御部1のCPUは、処理をステップS2に戻し、それ以降の各処理を実行させる。
即ち、ステップS2〜S6の各処理は、ステップS7にて、マーカーMの重力軸方向に対する姿勢Pamが所定回数算出されたと判定(ステップS7;YES)されるまで繰り返し行われる。
Next, the first calculator 7b determines whether or not the posture Pam of the marker M with respect to the direction of the gravity axis has been calculated a predetermined number of times (step S7).
Here, when it is determined that the posture Pam of the marker M with respect to the direction of the gravity axis has not been calculated a predetermined number of times (step S7; NO), the CPU of the central control unit 1 returns the process to step S2, and thereafter Execute the process.
That is, the processes in steps S2 to S6 are repeated until it is determined in step S7 that the posture Pam of the marker M with respect to the gravity axis direction has been calculated a predetermined number of times (step S7; YES).

ステップS7にて、マーカーMの重力軸方向に対する姿勢Pamが所定回数算出されたと判定されると(ステップS7;YES)、第1算出部7bは、マーカーMの重力軸方向に対する姿勢Pamの所定回数分を平均して、その結果をマーカーMの重力軸方向に対する姿勢Pamの代表値として算出する(ステップS8)。   If it is determined in step S7 that the posture Pam of the marker M with respect to the gravity axis direction has been calculated a predetermined number of times (step S7; YES), the first calculation unit 7b determines the predetermined number of times of the posture Pam of the marker M with respect to the gravity axis direction. The minutes are averaged, and the result is calculated as a representative value of the posture Pam with respect to the gravity axis direction of the marker M (step S8).

次に、画像取得部7aは、画像データ生成部5により生成された複数のフレーム画像F、…のうち、第2画像の画像データをメモリ2から取得する(ステップS9)。そして、傾き検出部6の第2検出部6bは、第2画像の画像データが取得された際の端末本体の重力軸方向に対する第2姿勢Pac1を検出する(ステップS10)。なお、第2検出部6bによる処理内容は、第1検出部6aによる処理内容と略同様であり、その説明を省略する。   Next, the image acquisition unit 7a acquires the image data of the second image from the memory 2 among the plurality of frame images F generated by the image data generation unit 5 (step S9). And the 2nd detection part 6b of the inclination detection part 6 detects the 2nd attitude | position Pac1 with respect to the gravity-axis direction of a terminal main body at the time of the image data of a 2nd image being acquired (step S10). Note that the processing content of the second detection unit 6b is substantially the same as the processing content of the first detection unit 6a, and a description thereof is omitted.

次に、第2算出部7cは、第2検出部6bにより検出された端末本体の重力軸方向に対する第2姿勢Pac1、及び第1算出部7bにより算出されたマーカーMの重力軸方向に対する姿勢Pamの代表値に基づいて、下記式(2)に従って、端末本体に対するマーカーMの相対的な姿勢Prm1を算出する(ステップS11)。

Figure 2014030093
Next, the second calculation unit 7c includes the second posture Pac1 with respect to the gravity axis direction of the terminal body detected by the second detection unit 6b, and the posture Pam of the marker M calculated by the first calculation unit 7b with respect to the gravity axis direction. Based on the representative value, a relative posture Prm1 of the marker M with respect to the terminal body is calculated according to the following equation (2) (step S11).
Figure 2014030093

次に、座標変換部7dは、第2算出部7cにより算出された端末本体に対するマーカーMの相対的な姿勢Prm1を端末本体に対するマーカーMの相対的な姿勢を表す行列Rの初期値として、下記式(3)に従って、端末本体に対するマーカーMの相対的な姿勢及び位置関係を表す行列R、Tをバンドル調整(bundle adjustment)により推定して特定する(ステップS12)。

Figure 2014030093
これにより、座標変換部7dにより特定された端末本体に対するマーカーMの相対的な姿勢及び位置関係に基づいて、第2画像内での当該マーカー画像Sの姿勢や位置が調整される。 Next, the coordinate conversion unit 7d uses the relative orientation Prm1 of the marker M with respect to the terminal body calculated by the second calculation unit 7c as the initial value of the matrix R representing the relative orientation of the marker M with respect to the terminal body, as follows. According to Equation (3), matrices R and T representing the relative posture and positional relationship of the marker M with respect to the terminal body are estimated and specified by bundle adjustment (step S12).
Figure 2014030093
Thereby, the attitude | position and position of the said marker image S in a 2nd image are adjusted based on the relative attitude | position and positional relationship of the marker M with respect to the terminal main body specified by the coordinate transformation part 7d.

その後、第1算出部7bは、座標変換部7dにより特定された端末本体に対するマーカーMの相対的な姿勢を表す行列Rを端末本体に対するマーカーMの相対的な姿勢Prm1とし、当該姿勢Prm1と端末本体の重力軸方向に対する第2姿勢Pac1とに基づいて、マーカーMの重力軸方向に対する姿勢Pamを算出して更新する(ステップS13)。
そして、画像生成部7eは、第2画像中にマーカー画像Sと対応する仮想オブジェクトを重畳させた仮想画像の画像データを生成し、表示制御部9は、当該仮想画像を表示部8にライブビュー表示させる(ステップS14)。
After that, the first calculation unit 7b sets the matrix R representing the relative posture of the marker M with respect to the terminal body specified by the coordinate conversion unit 7d as the relative posture Prm1 of the marker M with respect to the terminal body, and the posture Prm1 and the terminal Based on the second posture Pac1 with respect to the gravity axis direction of the main body, the posture Pam of the marker M with respect to the gravity axis direction is calculated and updated (step S13).
Then, the image generation unit 7e generates image data of a virtual image in which a virtual object corresponding to the marker image S is superimposed on the second image, and the display control unit 9 performs live view of the virtual image on the display unit 8. It is displayed (step S14).

上記ステップS9〜S14の各処理は、ステップS9にて第2画像が取得される毎に繰り返し実行される。   The processes in steps S9 to S14 are repeatedly executed every time the second image is acquired in step S9.

以上のように、本実施形態の携帯端末100によれば、第1画像が取得された際の撮像部3(端末本体)の重力軸方向に対する傾き(第1姿勢Pac0)、及びマーカー画像Sを構成する複数の点と関連付けられた撮像部3に対するマーカーMの仮の姿勢(仮の姿勢Prm0)に基づいて、マーカーMの重力軸方向に対する傾き(姿勢Pam)を算出し、算出されたマーカーMの重力軸方向に対する傾き、及び第2画像が取得された際の撮像部3の重力軸方向に対する傾き(第2姿勢Pac1)に基づいて、当該マーカーMの各点の三次元の空間座標を第2画像内の二次元の平面座標に変換する座標変換式の初期値として、撮像部3に対するマーカーMの相対的な姿勢(姿勢Prm1)を算出するので、座標変換式の初期値として適正な値を用いることができ、撮像部3に対するマーカーMの姿勢の推定を適正に行うことができる。   As described above, according to the mobile terminal 100 of the present embodiment, the inclination (first posture Pac0) of the imaging unit 3 (terminal body) with respect to the gravity axis direction when the first image is acquired, and the marker image S are obtained. Based on the temporary posture (provisional posture Prm0) of the marker M with respect to the imaging unit 3 associated with a plurality of constituent points, the inclination (posture Pam) of the marker M with respect to the gravitational axis direction is calculated, and the calculated marker M 3D spatial coordinates of each point of the marker M based on the inclination with respect to the gravity axis direction and the inclination with respect to the gravity axis direction of the imaging unit 3 when the second image is acquired (second posture Pac1). Since the relative posture (posture Prm1) of the marker M with respect to the imaging unit 3 is calculated as the initial value of the coordinate conversion equation for conversion into two-dimensional plane coordinates in the two images, an appropriate value as the initial value of the coordinate conversion equation The imaging unit 3 can be used. The posture of the marker M with respect to can be estimated appropriately.

即ち、例えば、三次元空間内のマーカーMの各点の座標を所定の座標変換式を用いて第2画像内の対応する二次元空間の座標に変換する場合、適当な値を初期値として再投影誤差を最小にするように撮像部3に対するマーカーMの姿勢や位置関係を推定する必要があるが、座標変換式の初期値として設定される値によっては、撮像部3に対するマーカーMの姿勢や位置関係の推定を適正に行うことができず、マーカーMに対応する仮想オブジェクトの表示を適正に行うことができなくなる虞がある。
そこで、第1画像が取得された際の撮像部3の重力軸方向に対する傾きを利用してマーカーMの重力軸方向に対する傾き(姿勢Pam)を予め算出し、当該マーカーMの重力軸方向に対する傾きを利用して撮像部3に対するマーカーMの相対的な姿勢(姿勢Prm1)を算出することで、当該撮像部3に対するマーカーMの相対的な姿勢を座標変換式の初期値として用いることができる。そして、座標変換式の初期値を適正な値として当該座標変換式を解くことで、撮像部3に対するマーカーMの姿勢を推定することができる。具体的には、座標変換式を解いて、撮像部3に対するマーカーMの相対的な姿勢を表す行列Rや撮像部3に対するマーカーMの相対的な位置関係を表す行列Tを特定することができる。
このように、マーカーMの重力軸方向に対する傾きを考慮することで、座標変換式の初期値をより適正な値に設定することができ、撮像部3に対するマーカーMの姿勢の推定を適正に行うことができる。結果として、マーカーMに対応する仮想オブジェクトの表示を適正に行うことができる。
That is, for example, when the coordinates of each point of the marker M in the three-dimensional space are converted into the coordinates of the corresponding two-dimensional space in the second image using a predetermined coordinate conversion formula, an appropriate value is set as an initial value. Although it is necessary to estimate the posture and positional relationship of the marker M with respect to the imaging unit 3 so as to minimize the projection error, depending on the value set as the initial value of the coordinate conversion formula, There is a possibility that the positional relationship cannot be estimated properly and the virtual object corresponding to the marker M cannot be displayed properly.
Therefore, the inclination (posture Pam) of the marker M with respect to the gravity axis direction is calculated in advance using the inclination of the imaging unit 3 with respect to the gravity axis direction when the first image is acquired, and the inclination of the marker M with respect to the gravity axis direction is calculated. By calculating the relative posture (posture Prm1) of the marker M with respect to the imaging unit 3 using the above, the relative posture of the marker M with respect to the imaging unit 3 can be used as the initial value of the coordinate conversion formula. And the attitude | position of the marker M with respect to the imaging part 3 can be estimated by solving the said coordinate conversion formula by making the initial value of a coordinate conversion formula into an appropriate value. Specifically, by solving the coordinate conversion formula, a matrix R representing the relative posture of the marker M with respect to the imaging unit 3 and a matrix T representing the relative positional relationship of the marker M with respect to the imaging unit 3 can be specified. .
Thus, by considering the inclination of the marker M with respect to the direction of the gravity axis, the initial value of the coordinate conversion equation can be set to a more appropriate value, and the posture of the marker M with respect to the imaging unit 3 is appropriately estimated. be able to. As a result, the virtual object corresponding to the marker M can be properly displayed.

また、撮像部3に対するマーカーMの相対的な姿勢を表す行列Rや撮像部3に対するマーカーMの相対的な位置関係を表す行列Tが特定される毎に、当該行列及び撮像部3の重力軸方向に対する傾き(第2姿勢Pac1)に基づいて、マーカーMの重力軸方向に対する傾き(姿勢Pam)を算出するので、当該マーカーMの重力軸方向に対する傾きを利用して撮像部3に対するマーカーMの相対的な姿勢(姿勢Prm1)を逐次算出することができる。即ち、例えば、手ぶれや撮像位置の変位等により第2画像を取得する際の撮像部3の重力軸方向に対する傾きが変化しても、当該傾きの変化に対応させてマーカーMの重力軸方向に対する傾きを更新することができ、撮像部3に対するマーカーMの相対的な姿勢を更新することができる。   Each time the matrix R representing the relative posture of the marker M with respect to the imaging unit 3 or the matrix T representing the relative positional relationship of the marker M with respect to the imaging unit 3 is specified, the matrix and the gravity axis of the imaging unit 3 are specified. Since the inclination (posture Pam) of the marker M with respect to the gravity axis direction is calculated based on the inclination with respect to the direction (second posture Pac1), the inclination of the marker M with respect to the imaging unit 3 using the inclination of the marker M with respect to the gravity axis direction is calculated. The relative posture (posture Prm1) can be calculated sequentially. That is, for example, even if the inclination of the imaging unit 3 with respect to the gravitational axis direction when the second image is acquired due to camera shake, imaging position displacement, or the like, the marker M with respect to the gravitational axis direction of the marker M corresponds to the change of the inclination. The inclination can be updated, and the relative posture of the marker M with respect to the imaging unit 3 can be updated.

また、所定回数算出されたマーカーMの重力軸方向に対する傾き(姿勢Pam)に基づいて当該傾きの代表値を算出するので、第1画像に含まれるマーカー画像Sの検出誤差等により撮像部3に対するマーカーMの仮の姿勢(Prm0)の検出誤差が生じる虞があっても、マーカーMの重力軸方向に対する傾きの代表値を求めることで、マーカーMの重力軸方向に対する姿勢Pamとしてより適正な値を用いて撮像部3に対するマーカーMの相対的な姿勢(姿勢Prm1)を算出することができる。   In addition, since the representative value of the inclination is calculated based on the inclination (posture Pam) of the marker M with respect to the gravity axis direction calculated a predetermined number of times, the detection unit 3 detects the marker image S included in the first image and the like. Even if there is a possibility that a detection error of the provisional posture (Prm0) of the marker M may occur, a more appropriate value for the posture Pam of the marker M with respect to the gravity axis direction is obtained by obtaining a representative value of the inclination of the marker M with respect to the gravity axis direction. Can be used to calculate the relative posture (posture Prm1) of the marker M with respect to the imaging unit 3.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、座標変換式を解くことで端末本体(撮像部3)に対するマーカーMの相対的な姿勢を表す行列Rを特定するようにしたが、端末本体に対するマーカーMの相対的な姿勢の一例であって一例であってこれに限られるものではなく、適宜任意に変更可能である。
また、座標変換式を解くことで端末本体に対するマーカーMの相対的な位置関係を表す行列Tを特定するようにしたが、必ずしも当該端末本体に対するマーカーMの相対的な位置関係を特定する必要はない。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, the matrix R representing the relative posture of the marker M with respect to the terminal body (imaging unit 3) is specified by solving the coordinate conversion formula, but this is an example of the relative posture of the marker M with respect to the terminal body. However, the present invention is not limited to this example, and can be arbitrarily changed as appropriate.
Further, the matrix T representing the relative positional relationship of the marker M with respect to the terminal body is specified by solving the coordinate conversion formula, but it is not always necessary to specify the relative positional relationship of the marker M with respect to the terminal body. Absent.

また、端末本体に対するマーカーMの相対的な姿勢(姿勢Prm1)を算出する際に、予めマーカーMの一面が上下左右の何れの方向を向いているかを指定しておき、所定の値を初期値として座標変換式を解いた結果、指定済みの方向と異なる方向を向いているか否かを判定して、その判定結果を初期値に反映させるようにしても良い。
例えば、予めマーカーMの一面の法線方向が下向きと指定した場合に、バンドル調整の結果推定された端末本体に対するマーカーMの相対的な姿勢を表す行列Rの所定の要素(例えば、2行目、3列目の要素)の符号を確認することで方向が異なるか否か、即ち、マーカーMが下向きか上向きかを判定する。ここで、マーカーMが指定済みの方向と異なる方向を向いている(マーカーMが上向き)と判定された場合には、端末本体の所定位置とマーカーMの中心を通る軸とマーカーの一面の法線ベクトルの外積を算出し、マーカーMの一面の向きに合わせるように、算出された外積を軸として行列Rを回転させて修正する。その後、修正後の行列Rを用いて座標変換式を解いて、端末本体に対するマーカーMの相対的な姿勢を表す行列Rの推定を再度行う。
Further, when calculating the relative posture (posture Prm1) of the marker M with respect to the terminal body, it is specified in advance which direction the one side of the marker M is facing up, down, left and right, and a predetermined value is set as an initial value. As a result of solving the coordinate conversion formula, it may be determined whether the direction is different from the designated direction, and the determination result may be reflected in the initial value.
For example, when the normal direction of one surface of the marker M is previously designated as a downward direction, predetermined elements (for example, the second row) of the matrix R representing the relative posture of the marker M with respect to the terminal body estimated as a result of bundle adjustment By checking the sign of the element in the third column), it is determined whether the direction is different, that is, whether the marker M is downward or upward. Here, when it is determined that the marker M is pointing in a direction different from the designated direction (the marker M is upward), a predetermined position of the terminal body, an axis passing through the center of the marker M, and a method of one surface of the marker The outer product of the line vectors is calculated, and is corrected by rotating the matrix R around the calculated outer product as an axis so as to match the direction of one surface of the marker M. Thereafter, the coordinate transformation equation is solved using the corrected matrix R, and the matrix R representing the relative posture of the marker M with respect to the terminal body is estimated again.

さらに、携帯端末100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではなく、少なくとも取得手段、第1検出手段、第1算出手段、第2検出手段、第2算出手段を備える構成であれば適宜任意に変更することができる。即ち、携帯端末100は、必ずしも撮像部3を具備する必要はなく、外部の撮像装置により撮像された画像を取得して、特定の被写体(マーカーM)を検出する処理を行うようにしても良い。   Furthermore, the configuration of the mobile terminal 100 is merely an example illustrated in the above embodiment, and is not limited thereto. At least the acquisition unit, the first detection unit, the first calculation unit, the second detection unit, and the second Any configuration provided with calculation means can be arbitrarily changed. That is, the mobile terminal 100 does not necessarily include the imaging unit 3, and may acquire the image captured by an external imaging device and perform processing for detecting a specific subject (marker M). .

加えて、上記実施形態にあっては、取得手段、第1検出手段、第1算出手段、第2検出手段、第2算出手段としての機能を、携帯端末100の中央制御部1の制御下にて、画像取得部7a、第1検出部6a、第1算出部7b、第2検出部6b、第2算出部7cが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリに、取得処理ルーチン、第1検出処理ルーチン、第1算出処理ルーチン、第2検出処理ルーチン、第2算出処理ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンにより中央制御部1のCPUを、撮像部3により撮像された特定の被写体の画像を逐次取得する手段として機能させるようにしても良い。また、第1検出処理ルーチンにより中央制御部1のCPUを、一の画像が取得された際の撮像部3の重力方向に対する傾きを検出する手段として機能させるようにしても良い。また、第1算出処理ルーチンにより中央制御部1のCPUを、検出された撮像部3の重力方向に対する傾き、及び一の画像に含まれる特定の被写体画像を構成する複数の点と関連付けられた撮像部3に対する特定の被写体の仮の姿勢に基づいて、特定の被写体の重力方向に対する傾きを算出する手段として機能させるようにしても良い。また、第2検出処理ルーチンにより中央制御部1のCPUを、取得手段により一の画像と異なる他の画像が取得された際の撮像部3の重力方向に対する傾きを検出する手段として機能させるようにしても良い。また、第2算出処理ルーチンにより中央制御部1のCPUを、第2検出手段により検出された撮像部3の重力方向に対する傾き、及び第1算出手段により算出された特定の被写体の重力方向に対する傾きに基づいて、当該特定の被写体の各点の空間座標を他の画像内の平面座標に変換する座標変換式の初期値として、撮像部3に対する特定の被写体の相対的な姿勢を算出する手段として機能させるようにしても良い。
In addition, in the above embodiment, the functions as the acquisition unit, the first detection unit, the first calculation unit, the second detection unit, and the second calculation unit are controlled under the control of the central control unit 1 of the mobile terminal 100. The image acquisition unit 7a, the first detection unit 6a, the first calculation unit 7b, the second detection unit 6b, and the second calculation unit 7c are driven. However, the present invention is not limited to this. The CPU may be configured such that a predetermined program or the like is executed by the CPU of the central control unit 1.
That is, a program including an acquisition process routine, a first detection process routine, a first calculation process routine, a second detection process routine, and a second calculation process routine is stored in a program memory that stores the program. Then, the CPU of the central control unit 1 may function as means for sequentially acquiring images of a specific subject imaged by the imaging unit 3 by an acquisition process routine. Further, the CPU of the central control unit 1 may function as a means for detecting the inclination of the imaging unit 3 with respect to the gravity direction when one image is acquired by the first detection processing routine. In addition, the CPU of the central control unit 1 in the first calculation processing routine causes the detected inclination of the imaging unit 3 with respect to the gravity direction and imaging associated with a plurality of points constituting a specific subject image included in one image. Based on the provisional posture of the specific subject with respect to the unit 3, it may function as a means for calculating the inclination of the specific subject with respect to the direction of gravity. Further, the CPU of the central control unit 1 is caused to function as a means for detecting the inclination of the imaging unit 3 with respect to the gravity direction when another image different from the one image is acquired by the acquisition unit by the second detection processing routine. May be. In addition, the CPU of the central control unit 1 causes the CPU of the central control unit 1 to tilt with respect to the gravity direction of the imaging unit 3 detected by the second detection unit, and the tilt of the specific subject with respect to the gravity direction calculated by the first calculation unit. As a means for calculating the relative posture of the specific subject with respect to the imaging unit 3 as an initial value of a coordinate conversion formula for converting the spatial coordinates of each point of the specific subject into plane coordinates in another image based on You may make it function.

同様に、座標変換手段についても、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。   Similarly, the coordinate conversion means may be realized by executing a predetermined program or the like by the CPU of the central control unit 1.

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

〔付記〕
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
撮像部により撮像された特定の被写体の画像を逐次取得する取得手段と、
前記取得手段により一の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第1検出手段と、
前記第1検出手段により検出された前記撮像部の重力方向に対する傾き、及び前記一の画像に含まれる特定の被写体画像を構成する複数の点と関連付けられた前記撮像部に対する前記特定の被写体の仮の姿勢に基づいて、前記特定の被写体の重力方向に対する傾きを算出する第1算出手段と、
前記取得手段により前記一の画像と異なる他の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第2検出手段と、
前記第2検出手段により検出された前記撮像部の重力方向に対する傾き、及び前記第1算出手段により算出された前記特定の被写体の重力方向に対する傾きに基づいて、当該特定の被写体の各点の空間座標を前記他の画像内の平面座標に変換する座標変換式の初期値として、前記撮像部に対する前記特定の被写体の相対的な姿勢を算出する第2算出手段と、
を備えたことを特徴とする被写体検出装置。
<請求項2>
前記第2算出手段により前記初期値として算出された前記特定の被写体の相対的な姿勢に基づいて、前記座標変換式を解く座標変換手段を更に備えることを特徴とする請求項1に記載の被写体検出装置。
<請求項3>
前記座標変換手段は、更に、前記座標変換式を解いて、前記撮像部に対する前記特定の被写体の相対的な姿勢を表す行列を特定することを特徴とする請求項2に記載の被写体検出装置。
<請求項4>
前記座標変換手段は、更に、前記座標変換式を解いて、前記撮像部に対する前記特定の被写体の相対的な位置関係を表す行列を特定することを特徴とする請求項2又は3に記載の被写体検出装置。
<請求項5>
前記第1算出手段は、更に、前記座標変換手段により前記行列が特定される毎に、当該行列及び前記第2検出手段により検出された前記撮像部の重力方向に対する傾きに基づいて、前記特定の被写体の重力方向に対する傾きを算出することを特徴とする請求項2又は3に記載の被写体検出装置。
<請求項6>
前記第1算出手段は、更に、前記取得手段により画像が取得される毎に、前記特定の被写体の重力方向に対する傾きを算出し、所定回数算出された前記特定の被写体の重力方向に対する傾きに基づいて当該傾きの代表値を算出することを特徴とする請求項1〜5の何れか一項に記載の被写体検出装置。
<請求項7>
被写体検出装置を用いた被写体検出方法であって、
撮像部により撮像された特定の被写体の画像を逐次取得する処理と、
一の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する処理と、
検出された前記撮像部の重力方向に対する傾き、及び前記一の画像に含まれる特定の被写体画像を構成する複数の点と関連付けられた前記撮像部に対する前記特定の被写体の仮の姿勢に基づいて、前記特定の被写体の重力方向に対する傾きを算出する処理と、
前記一の画像と異なる他の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する処理と、
検出された前記撮像部の重力方向に対する傾き、及び前記特定の被写体の重力方向に対する傾きに基づいて、当該特定の被写体の各点の空間座標を前記他の画像内の平面座標に変換する座標変換式の初期値として、前記撮像部に対する前記特定の被写体の相対的な姿勢を算出する処理と、
を含むことを特徴とする被写体検出方法。
<請求項8>
被写体検出装置のコンピュータを、
撮像部により撮像された特定の被写体の画像を逐次取得する取得手段、
前記取得手段により一の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第1検出手段、
前記第1検出手段により検出された前記撮像部の重力方向に対する傾き、及び前記一の画像に含まれる特定の被写体画像を構成する複数の点と関連付けられた前記撮像部に対する前記特定の被写体の仮の姿勢に基づいて、前記特定の被写体の重力方向に対する傾きを算出する第1算出手段、
前記取得手段により前記一の画像と異なる他の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第2検出手段、
前記第2検出手段により検出された前記撮像部の重力方向に対する傾き、及び前記第1算出手段により算出された前記特定の被写体の重力方向に対する傾きに基づいて、当該特定の被写体の各点の空間座標を前記他の画像内の平面座標に変換する座標変換式の初期値として、前記撮像部に対する前記特定の被写体の相対的な姿勢を算出する第2算出手段、
として機能させることを特徴とするプログラム。
[Appendix]
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
<Claim 1>
Acquisition means for sequentially acquiring images of a specific subject imaged by the imaging unit;
First detection means for detecting an inclination of the imaging unit with respect to the gravitational direction when one image is acquired by the acquisition means;
The inclination of the image pickup unit with respect to the direction of gravity detected by the first detection unit and the provisional image of the specific subject with respect to the image pickup unit associated with a plurality of points constituting the specific object image included in the one image. First calculating means for calculating the inclination of the specific subject with respect to the direction of gravity based on the posture of
Second detection means for detecting an inclination of the imaging unit with respect to the gravitational direction when another image different from the one image is acquired by the acquisition means;
The space of each point of the specific subject based on the inclination of the imaging unit detected by the second detection unit with respect to the direction of gravity and the inclination of the specific subject calculated with respect to the direction of gravity calculated by the first calculation unit. Second calculation means for calculating a relative posture of the specific subject with respect to the imaging unit, as an initial value of a coordinate conversion formula for converting coordinates into plane coordinates in the other image;
A subject detection apparatus comprising:
<Claim 2>
2. The subject according to claim 1, further comprising coordinate conversion means for solving the coordinate conversion formula based on a relative posture of the specific subject calculated as the initial value by the second calculation means. Detection device.
<Claim 3>
The subject detection apparatus according to claim 2, wherein the coordinate conversion unit further specifies a matrix representing a relative posture of the specific subject with respect to the imaging unit by solving the coordinate conversion formula.
<Claim 4>
4. The subject according to claim 2, wherein the coordinate conversion unit further specifies a matrix representing a relative positional relationship of the specific subject with respect to the imaging unit by solving the coordinate conversion formula. 5. Detection device.
<Claim 5>
The first calculating unit is further configured to identify the specific matrix based on the matrix and the inclination of the imaging unit with respect to the gravitational direction detected by the second detecting unit each time the matrix is specified by the coordinate converting unit. The subject detection apparatus according to claim 2, wherein an inclination of the subject with respect to the direction of gravity is calculated.
<Claim 6>
The first calculation means further calculates an inclination of the specific subject with respect to the gravity direction every time an image is acquired by the acquisition means, and based on the inclination of the specific subject with respect to the gravity direction calculated a predetermined number of times. 6. The subject detection apparatus according to claim 1, wherein a representative value of the inclination is calculated.
<Claim 7>
A subject detection method using a subject detection device,
A process of sequentially acquiring images of a specific subject imaged by the imaging unit;
Processing for detecting the inclination of the imaging unit with respect to the gravitational direction when one image is acquired;
Based on the detected inclination of the imaging unit with respect to the direction of gravity and the provisional posture of the specific subject with respect to the imaging unit associated with a plurality of points constituting the specific subject image included in the one image, Processing for calculating the inclination of the specific subject with respect to the direction of gravity;
A process of detecting an inclination of the imaging unit with respect to the gravitational direction when another image different from the one image is acquired;
Coordinate transformation that converts the spatial coordinates of each point of the specific subject to plane coordinates in the other image based on the detected inclination of the imaging unit with respect to the gravity direction and the inclination of the specific subject with respect to the gravity direction A process of calculating a relative posture of the specific subject with respect to the imaging unit as an initial value of the equation;
A method for detecting a subject, comprising:
<Claim 8>
The computer of the subject detection device
Acquisition means for sequentially acquiring images of a specific subject imaged by the imaging unit;
First detection means for detecting an inclination of the imaging unit with respect to the gravitational direction when one image is acquired by the acquisition means;
The inclination of the image pickup unit with respect to the direction of gravity detected by the first detection unit and the provisional image of the specific subject with respect to the image pickup unit associated with a plurality of points constituting the specific object image included in the one image. First calculating means for calculating the inclination of the specific subject with respect to the direction of gravity based on the posture of
Second detection means for detecting an inclination of the imaging unit with respect to the gravitational direction when another image different from the one image is acquired by the acquisition means;
The space of each point of the specific subject based on the inclination of the imaging unit detected by the second detection unit with respect to the direction of gravity and the inclination of the specific subject calculated with respect to the direction of gravity calculated by the first calculation unit. Second calculating means for calculating a relative posture of the specific subject with respect to the imaging unit, as an initial value of a coordinate conversion formula for converting coordinates into plane coordinates in the other image;
A program characterized by functioning as

100 携帯端末
1 中央制御部
3 撮像部
6 傾き検出部
6a 第1検出部
6b 第2検出部
7 マーカー検出処理部
7a 画像取得部
7b 第1算出部
7c 第2算出部
7d 座標変換部
DESCRIPTION OF SYMBOLS 100 Portable terminal 1 Central control part 3 Imaging part 6 Inclination detection part 6a 1st detection part 6b 2nd detection part 7 Marker detection process part 7a Image acquisition part 7b 1st calculation part 7c 2nd calculation part 7d Coordinate conversion part

Claims (8)

撮像部により撮像された特定の被写体の画像を逐次取得する取得手段と、
前記取得手段により一の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第1検出手段と、
前記第1検出手段により検出された前記撮像部の重力方向に対する傾き、及び前記一の画像に含まれる特定の被写体画像を構成する複数の点と関連付けられた前記撮像部に対する前記特定の被写体の仮の姿勢に基づいて、前記特定の被写体の重力方向に対する傾きを算出する第1算出手段と、
前記取得手段により前記一の画像と異なる他の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第2検出手段と、
前記第2検出手段により検出された前記撮像部の重力方向に対する傾き、及び前記第1算出手段により算出された前記特定の被写体の重力方向に対する傾きに基づいて、当該特定の被写体の各点の空間座標を前記他の画像内の平面座標に変換する座標変換式の初期値として、前記撮像部に対する前記特定の被写体の相対的な姿勢を算出する第2算出手段と、
を備えたことを特徴とする被写体検出装置。
Acquisition means for sequentially acquiring images of a specific subject imaged by the imaging unit;
First detection means for detecting an inclination of the imaging unit with respect to the gravitational direction when one image is acquired by the acquisition means;
The inclination of the image pickup unit with respect to the direction of gravity detected by the first detection unit and the provisional image of the specific subject with respect to the image pickup unit associated with a plurality of points constituting the specific object image included in the one image. First calculating means for calculating the inclination of the specific subject with respect to the direction of gravity based on the posture of
Second detection means for detecting an inclination of the imaging unit with respect to the gravitational direction when another image different from the one image is acquired by the acquisition means;
The space of each point of the specific subject based on the inclination of the imaging unit detected by the second detection unit with respect to the direction of gravity and the inclination of the specific subject calculated with respect to the direction of gravity calculated by the first calculation unit. Second calculation means for calculating a relative posture of the specific subject with respect to the imaging unit, as an initial value of a coordinate conversion formula for converting coordinates into plane coordinates in the other image;
A subject detection apparatus comprising:
前記第2算出手段により前記初期値として算出された前記特定の被写体の相対的な姿勢に基づいて、前記座標変換式を解く座標変換手段を更に備えることを特徴とする請求項1に記載の被写体検出装置。   2. The subject according to claim 1, further comprising coordinate conversion means for solving the coordinate conversion formula based on a relative posture of the specific subject calculated as the initial value by the second calculation means. Detection device. 前記座標変換手段は、更に、前記座標変換式を解いて、前記撮像部に対する前記特定の被写体の相対的な姿勢を表す行列を特定することを特徴とする請求項2に記載の被写体検出装置。   The subject detection apparatus according to claim 2, wherein the coordinate conversion unit further specifies a matrix representing a relative posture of the specific subject with respect to the imaging unit by solving the coordinate conversion formula. 前記座標変換手段は、更に、前記座標変換式を解いて、前記撮像部に対する前記特定の被写体の相対的な位置関係を表す行列を特定することを特徴とする請求項2又は3に記載の被写体検出装置。   4. The subject according to claim 2, wherein the coordinate conversion unit further specifies a matrix representing a relative positional relationship of the specific subject with respect to the imaging unit by solving the coordinate conversion formula. 5. Detection device. 前記第1算出手段は、更に、前記座標変換手段により前記行列が特定される毎に、当該行列及び前記第2検出手段により検出された前記撮像部の重力方向に対する傾きに基づいて、前記特定の被写体の重力方向に対する傾きを算出することを特徴とする請求項2又は3に記載の被写体検出装置。   The first calculating unit is further configured to identify the specific matrix based on the matrix and the inclination of the imaging unit with respect to the gravitational direction detected by the second detecting unit each time the matrix is specified by the coordinate converting unit. The subject detection apparatus according to claim 2, wherein an inclination of the subject with respect to the direction of gravity is calculated. 前記第1算出手段は、更に、前記取得手段により画像が取得される毎に、前記特定の被写体の重力方向に対する傾きを算出し、所定回数算出された前記特定の被写体の重力方向に対する傾きに基づいて当該傾きの代表値を算出することを特徴とする請求項1〜5の何れか一項に記載の被写体検出装置。   The first calculation means further calculates an inclination of the specific subject with respect to the gravity direction every time an image is acquired by the acquisition means, and based on the inclination of the specific subject with respect to the gravity direction calculated a predetermined number of times. 6. The subject detection apparatus according to claim 1, wherein a representative value of the inclination is calculated. 被写体検出装置を用いた被写体検出方法であって、
撮像部により撮像された特定の被写体の画像を逐次取得する処理と、
一の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する処理と、
検出された前記撮像部の重力方向に対する傾き、及び前記一の画像に含まれる特定の被写体画像を構成する複数の点と関連付けられた前記撮像部に対する前記特定の被写体の仮の姿勢に基づいて、前記特定の被写体の重力方向に対する傾きを算出する処理と、
前記一の画像と異なる他の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する処理と、
検出された前記撮像部の重力方向に対する傾き、及び前記特定の被写体の重力方向に対する傾きに基づいて、当該特定の被写体の各点の空間座標を前記他の画像内の平面座標に変換する座標変換式の初期値として、前記撮像部に対する前記特定の被写体の相対的な姿勢を算出する処理と、
を含むことを特徴とする被写体検出方法。
A subject detection method using a subject detection device,
A process of sequentially acquiring images of a specific subject imaged by the imaging unit;
Processing for detecting the inclination of the imaging unit with respect to the gravitational direction when one image is acquired;
Based on the detected inclination of the imaging unit with respect to the direction of gravity and the provisional posture of the specific subject with respect to the imaging unit associated with a plurality of points constituting the specific subject image included in the one image, Processing for calculating the inclination of the specific subject with respect to the direction of gravity;
A process of detecting an inclination of the imaging unit with respect to the gravitational direction when another image different from the one image is acquired;
Coordinate transformation that converts the spatial coordinates of each point of the specific subject to plane coordinates in the other image based on the detected inclination of the imaging unit with respect to the gravity direction and the inclination of the specific subject with respect to the gravity direction A process of calculating a relative posture of the specific subject with respect to the imaging unit as an initial value of the equation;
A method for detecting a subject, comprising:
被写体検出装置のコンピュータを、
撮像部により撮像された特定の被写体の画像を逐次取得する取得手段、
前記取得手段により一の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第1検出手段、
前記第1検出手段により検出された前記撮像部の重力方向に対する傾き、及び前記一の画像に含まれる特定の被写体画像を構成する複数の点と関連付けられた前記撮像部に対する前記特定の被写体の仮の姿勢に基づいて、前記特定の被写体の重力方向に対する傾きを算出する第1算出手段、
前記取得手段により前記一の画像と異なる他の画像が取得された際の前記撮像部の重力方向に対する傾きを検出する第2検出手段、
前記第2検出手段により検出された前記撮像部の重力方向に対する傾き、及び前記第1算出手段により算出された前記特定の被写体の重力方向に対する傾きに基づいて、当該特定の被写体の各点の空間座標を前記他の画像内の平面座標に変換する座標変換式の初期値として、前記撮像部に対する前記特定の被写体の相対的な姿勢を算出する第2算出手段、
として機能させることを特徴とするプログラム。
The computer of the subject detection device
Acquisition means for sequentially acquiring images of a specific subject imaged by the imaging unit;
First detection means for detecting an inclination of the imaging unit with respect to the gravitational direction when one image is acquired by the acquisition means;
The inclination of the image pickup unit with respect to the direction of gravity detected by the first detection unit and the provisional image of the specific subject with respect to the image pickup unit associated with a plurality of points constituting the specific object image included in the one image. First calculating means for calculating the inclination of the specific subject with respect to the direction of gravity based on the posture of
Second detection means for detecting an inclination of the imaging unit with respect to the gravitational direction when another image different from the one image is acquired by the acquisition means;
The space of each point of the specific subject based on the inclination of the imaging unit detected by the second detection unit with respect to the direction of gravity and the inclination of the specific subject calculated with respect to the direction of gravity calculated by the first calculation unit. Second calculating means for calculating a relative posture of the specific subject with respect to the imaging unit, as an initial value of a coordinate conversion formula for converting coordinates into plane coordinates in the other image;
A program characterized by functioning as
JP2012169406A 2012-07-31 2012-07-31 Subject detection apparatus, subject detection method, and program Expired - Fee Related JP5928228B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012169406A JP5928228B2 (en) 2012-07-31 2012-07-31 Subject detection apparatus, subject detection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012169406A JP5928228B2 (en) 2012-07-31 2012-07-31 Subject detection apparatus, subject detection method, and program

Publications (2)

Publication Number Publication Date
JP2014030093A true JP2014030093A (en) 2014-02-13
JP5928228B2 JP5928228B2 (en) 2016-06-01

Family

ID=50202409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012169406A Expired - Fee Related JP5928228B2 (en) 2012-07-31 2012-07-31 Subject detection apparatus, subject detection method, and program

Country Status (1)

Country Link
JP (1) JP5928228B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105446690A (en) * 2015-12-22 2016-03-30 中国电子科技集团公司第十一研究所 Information fusion and multi-information display method with target positioning function

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000347128A (en) * 1999-03-26 2000-12-15 Mr System Kenkyusho:Kk Head mount display device and head mount display system
JP2002090118A (en) * 2000-09-19 2002-03-27 Olympus Optical Co Ltd Three-dimensional position and attitude sensing device
JP2009237845A (en) * 2008-03-27 2009-10-15 Sony Corp Information processor, information processing method, and computer program
JP2012022474A (en) * 2010-07-13 2012-02-02 Canon Electronics Inc Image processing method, portable information terminal and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000347128A (en) * 1999-03-26 2000-12-15 Mr System Kenkyusho:Kk Head mount display device and head mount display system
JP2002090118A (en) * 2000-09-19 2002-03-27 Olympus Optical Co Ltd Three-dimensional position and attitude sensing device
JP2009237845A (en) * 2008-03-27 2009-10-15 Sony Corp Information processor, information processing method, and computer program
JP2012022474A (en) * 2010-07-13 2012-02-02 Canon Electronics Inc Image processing method, portable information terminal and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105446690A (en) * 2015-12-22 2016-03-30 中国电子科技集团公司第十一研究所 Information fusion and multi-information display method with target positioning function
CN105446690B (en) * 2015-12-22 2019-07-16 中国电子科技集团公司第十一研究所 Information fusion and multi information display methods with target positioning function

Also Published As

Publication number Publication date
JP5928228B2 (en) 2016-06-01

Similar Documents

Publication Publication Date Title
JP4479679B2 (en) Captured image display system, image receiving apparatus and control method thereof
JP5799928B2 (en) Threshold setting device, subject detection device, threshold setting method and program
JP5775977B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
KR102314594B1 (en) Image display method and electronic device
US9794500B2 (en) Imaging device, imaging method, and image processing device
JP5532026B2 (en) Display device, display method, and program
CN105144687A (en) Image processing device, image processing method and program
US11184523B2 (en) Imaging apparatus with phase difference detecting element
US11290635B2 (en) Imaging apparatus and image processing method
WO2014098143A1 (en) Image processing device, imaging device, image processing method, and image processing program
WO2016154873A1 (en) Terminal device and photographing method
CN114449151A (en) Image processing method and related device
JP5928228B2 (en) Subject detection apparatus, subject detection method, and program
JP5798696B2 (en) Image processing apparatus, method, recording medium, program, and imaging apparatus
WO2014097792A1 (en) Imaging device, signal processing method, and signal processing program
JP5906745B2 (en) Image display device, image display method, and program
JP6079102B2 (en) Subject detection apparatus, subject detection method, and program
JP2015035070A (en) Image collation device, image collation method, and program
KR101763938B1 (en) A method for processing image data based on location information related on view-point and apparatus for the same
CN107087114B (en) Shooting method and device
WO2018181163A1 (en) Image processing device, image processing method and program
WO2018079043A1 (en) Information processing device, image pickup device, information processing system, information processing method, and program
JP6237201B2 (en) Imaging apparatus, imaging system, imaging method, and program
WO2017006772A1 (en) Image processing device and method
JP2010022061A (en) Photographed image display system, image receiving apparatus, and method of controlling the same and server

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160411

R150 Certificate of patent or registration of utility model

Ref document number: 5928228

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees