JP2013197803A - Image processing device and image processing method and program - Google Patents

Image processing device and image processing method and program Download PDF

Info

Publication number
JP2013197803A
JP2013197803A JP2012061883A JP2012061883A JP2013197803A JP 2013197803 A JP2013197803 A JP 2013197803A JP 2012061883 A JP2012061883 A JP 2012061883A JP 2012061883 A JP2012061883 A JP 2012061883A JP 2013197803 A JP2013197803 A JP 2013197803A
Authority
JP
Japan
Prior art keywords
image
unit
matching
detected
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012061883A
Other languages
Japanese (ja)
Other versions
JP5891879B2 (en
Inventor
Tetsuji Makino
哲司 牧野
Shinichi Matsui
紳一 松井
Yoshihiro Tejima
義裕 手島
Masahiro Oda
将宏 織田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012061883A priority Critical patent/JP5891879B2/en
Publication of JP2013197803A publication Critical patent/JP2013197803A/en
Application granted granted Critical
Publication of JP5891879B2 publication Critical patent/JP5891879B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To lighten processing burdens when other images are displayed on top of the image of a specific subject in shot images by correlating them to that image.SOLUTION: An image processing device 1 comprises a target identification unit 63, an inclination detection unit 65, a matching unit 64, and an image synthesis unit 66. The target identification unit 63 identifies features of the image of a target object to be detected. The inclination detection unit 65 detects the attitude of a display unit 16 which displays a shot image. The matching unit 64 detects a portion of the shot image which conforms to the features identified by the target identification unit 63. Then, when a portion conforming to the identified features is detected by the matching unit 64, the image synthesis unit 66 sets the display angle of the image of a character to be superposed on the shot image on the basis of the attitude of the display unit 16 detected by the inclination detection unit 65, and combines the image of the object into the shot image displayed on the display unit 16 at the set display angle by correlating it to the portion conforming to features in the shot image.

Description

本発明は、撮像画像に他の画像を重畳表示する画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program that superimpose and display another image on a captured image.

昨今、撮像画像における特定の被写体(実オブジェクト)の画像に対応付けて、キャラクタの画像を重畳して表示する画像処理装置が存在する。このような画像処理装置では、撮像されたフレーム画像に基づいて画像解析をした結果をもとに、フレーム画像における実オブジェクトの画像の傾き(例えば、表示画面内における正視状態からの回転角度)を検出する。画像処理装置は、検出した実オブジェクトの画像の傾きを、実オブジェクト画像の座標データの初期状態として記録しておく。画像処理装置は、初期状態として記録した傾きと、以後の撮像画像における実オブジェクトの傾きと、の相対的な差分、即ち、座標値の差分を求める。そして、画像処理装置は、求めた座標値の差分から、所定のベクトルに沿うようにキャラクタの画像を傾けて重畳して表示する処理を実行する(例えば、特許文献1参照)。これにより、撮像画像において実オブジェクトの画像が傾くと、その傾きに追随してキャラクタの画像の角度を補正して表示することができる。   In recent years, there exists an image processing apparatus that displays a character image superimposed in association with an image of a specific subject (real object) in a captured image. In such an image processing device, based on the result of image analysis based on the captured frame image, the inclination of the image of the real object in the frame image (for example, the rotation angle from the normal viewing state in the display screen) is determined. To detect. The image processing apparatus records the detected inclination of the real object image as an initial state of the coordinate data of the real object image. The image processing apparatus obtains a relative difference between the inclination recorded as the initial state and the inclination of the real object in the subsequent captured image, that is, a difference in coordinate values. Then, the image processing apparatus executes a process of tilting and superimposing the character image so as to follow a predetermined vector from the obtained coordinate value difference (see, for example, Patent Document 1). As a result, when the image of the real object is tilted in the captured image, the angle of the character image can be corrected and displayed following the tilt.

特開2006−72667号公報JP 2006-72667 A

しかしながら、特許文献1に記載の技術を適用した場合にあっては、キャラクタの画像の角度を補正するためには、フレーム画像ごとに画像解析によりオブジェクトの画像の傾きを検出する必要があり、オブジェクト画像に対する画像処理の負担が増大する可能性がある。   However, in the case where the technique described in Patent Document 1 is applied, in order to correct the angle of the character image, it is necessary to detect the inclination of the object image by image analysis for each frame image. There is a possibility that the burden of image processing on the image increases.

本発明は、このような状況に鑑みてなされたものであり、撮像画像における特定の被写体の画像に対応付けて、他の画像を重畳表示する際の処理負担を軽減することを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to reduce a processing burden when another image is superimposed and displayed in association with an image of a specific subject in a captured image.

上記目的を達成するため、本発明の一態様の画像処理装置は、
検出対象となる物体の画像の特徴を特定する対象特定手段と、
撮像画像を表示する表示部の姿勢を検出する傾き検出手段と、
前記撮像画像において、前記対象特定手段によって特定された前記特徴と適合する部分を検出するマッチング手段と、
前記マッチング手段によって前記特徴と適合する部分が検出された場合に、前記傾き検出手段により検出された前記表示部の姿勢に基づいて、前記撮像画像に重畳するオブジェクトの画像の表示角度を設定し、前記撮像画像における前記特徴と適合する部分と対応付けて、前記オブジェクトの画像を前記設定した表示角度で前記表示部に表示される前記撮像画像に合成する画像合成手段と、
を備えることを特徴とする。
In order to achieve the above object, an image processing apparatus according to an aspect of the present invention includes:
Target specifying means for specifying the characteristics of the image of the object to be detected;
Tilt detecting means for detecting the attitude of the display unit for displaying the captured image;
In the captured image, a matching unit that detects a portion that matches the feature specified by the target specifying unit;
When a matching part is detected by the matching unit, the display angle of the object image to be superimposed on the captured image is set based on the orientation of the display unit detected by the tilt detection unit, Image synthesizing means for synthesizing the image of the object with the captured image displayed on the display unit at the set display angle in association with a portion that matches the feature in the captured image;
It is characterized by providing.

本発明によれば、撮像画像における特定の被写体の画像に対応付けて、他の画像を重畳表示する際の処理負担を軽減することができる。   According to the present invention, it is possible to reduce a processing burden when displaying another image in a superimposed manner in association with an image of a specific subject in a captured image.

本発明の第1実施形態に係る画像処理装置のハードウェアの構成を示すブロック図である。1 is a block diagram illustrating a hardware configuration of an image processing apparatus according to a first embodiment of the present invention. 図1の画像処理装置の機能的構成のうち、メイン処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing a main process among the functional structures of the image processing apparatus of FIG. 図2の機能的構成を有する図1の画像処理装置が実行する第1実施形態のメイン処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the main process of 1st Embodiment which the image processing apparatus of FIG. 1 which has the functional structure of FIG. 2 performs. 図3のメイン処理のうち、対象オブジェクト特徴記憶処理の詳細を説明するフローチャートである。4 is a flowchart illustrating details of a target object feature storage process in the main process of FIG. 3. 図3のメイン処理のうち、マッチング処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of a matching process among the main processes of FIG. 図3のメイン処理のうち、領域変動評価処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of an area | region fluctuation evaluation process among the main processes of FIG. 図1の画像処理装置により撮像が開始された状態を示している図である。FIG. 2 is a diagram illustrating a state where imaging is started by the image processing apparatus of FIG. 1. 図1の画像処理装置の表示部にキャラクタを表示している状態を示す図である。It is a figure which shows the state which is displaying the character on the display part of the image processing apparatus of FIG. 図2の機能的構成を有する図1の画像処理装置が実行する第2実施形態のメイン処理の流れを説明するフローチャートである。3 is a flowchart illustrating a flow of main processing of a second embodiment executed by the image processing apparatus of FIG. 1 having the functional configuration of FIG. 2.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
図1は、本発明の第1実施形態に係る画像処理装置のハードウェアの構成を示すブロック図である。
画像処理装置1は、例えばスマートフォンとして構成される。
[First Embodiment]
FIG. 1 is a block diagram showing a hardware configuration of the image processing apparatus according to the first embodiment of the present invention.
The image processing apparatus 1 is configured as a smartphone, for example.

画像処理装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、表示部16と、センサ17と、入力部18と、撮像部19と、記憶部20と、通信部21と、ドライブ22と、を備えている。   The image processing apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, a display unit 16, and a sensor 17. An input unit 18, an imaging unit 19, a storage unit 20, a communication unit 21, and a drive 22.

CPU11は、ROM12に記録されているプログラム、又は、記憶部20からRAM13にロードされたプログラムに従って各種の処理を実行する。   The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 20 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータなども適宜記憶される。   The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、表示部16、センサ17,入力部18、撮像部19、記憶部20、通信部21及びドライブ22が接続されている。   The CPU 11, ROM 12, and RAM 13 are connected to each other via a bus 14. An input / output interface 15 is also connected to the bus 14. A display unit 16, a sensor 17, an input unit 18, an imaging unit 19, a storage unit 20, a communication unit 21, and a drive 22 are connected to the input / output interface 15.

表示部16は、ディスプレイにより構成され撮像部19により撮像された画像を表示する。   The display unit 16 includes a display and displays an image captured by the imaging unit 19.

センサ17は、例えば、6軸加速度センサ或いはジャイロセンサなどで構成され、表示部16が設けられた画像処理装置1の装置本体の傾きを検出する。即ち、センサ17は、任意の姿勢(傾斜角度)状態においても方位及び傾斜の計測が可能であるので、センサ17を画像処理装置1の装置本体に内蔵或いは付属させることにより、表示部16の位置や姿勢の変化の情報を計測することができる。
入力部18は、ユーザの指示操作に応じて各種情報を入力する。
The sensor 17 is composed of, for example, a six-axis acceleration sensor or a gyro sensor, and detects the inclination of the apparatus main body of the image processing apparatus 1 provided with the display unit 16. That is, since the sensor 17 can measure the azimuth and the tilt even in an arbitrary posture (tilt angle) state, the position of the display unit 16 can be obtained by incorporating the sensor 17 in the apparatus main body of the image processing apparatus 1. And posture change information can be measured.
The input unit 18 inputs various types of information according to user instruction operations.

撮像部19は、被写体を撮像し、当該被写体の像を含む画像(以下、「撮像画像」と称する)のデータをCPU11に供給する。   The imaging unit 19 images a subject and supplies data of an image including the image of the subject (hereinafter referred to as “captured image”) to the CPU 11.

記憶部20は、ハードディスク或いはDRAM(Dynamic Random Access Memory)などで構成され、撮像画像に合成するキャラクタなどの各種画像のデータ、撮像画像のデータの他、アプリケーションプログラムなどの各種プログラムなどを記憶する。
通信部21は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The storage unit 20 is configured by a hard disk or a DRAM (Dynamic Random Access Memory), and stores various image data such as a character to be combined with a captured image, captured image data, and various programs such as an application program.
The communication unit 21 controls communication with other devices (not shown) via a network including the Internet.

ドライブ22には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなる、リムーバブルメディア41が適宜装着される。ドライブ22によってリムーバブルメディア41から読み出されたプログラムは、必要に応じて記憶部20にインストールされる。また、リムーバブルメディア41は、記憶部20に記憶されている画像のデータなどの各種データも、記憶部20と同様に記憶することができる。   A removable medium 41 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 22. The program read from the removable medium 41 by the drive 22 is installed in the storage unit 20 as necessary. The removable medium 41 can also store various data such as image data stored in the storage unit 20 in the same manner as the storage unit 20.

図2は、このような画像処理装置1の機能的構成のうち、メイン処理を実行するための機能的構成を示す機能ブロック図である。
メイン処理とは、ユーザにより図示せぬ電源ボタンが押下されたことを契機として開始される、次のような処理をいう。即ち、メイン処理とは、センサ17により検出した傾きに基づいて傾きを反映したキャラクタの画像を撮像画像に合成して表示するまでの一連の処理をいう。
FIG. 2 is a functional block diagram showing a functional configuration for executing main processing among the functional configurations of the image processing apparatus 1.
The main process refers to the following process that is started when the user presses a power button (not shown). That is, the main process refers to a series of processes until a character image reflecting a tilt is combined with a captured image and displayed based on the tilt detected by the sensor 17.

CPU11においては、メイン処理の実行が制御される場合、撮像制御部61と、表示制御部62と、対象特定部63と、マッチング部64と、傾き検出部65と、画像合成部66と、が機能する。   In the CPU 11, when the execution of the main process is controlled, the imaging control unit 61, the display control unit 62, the target specifying unit 63, the matching unit 64, the tilt detection unit 65, and the image composition unit 66 are included. Function.

メイン処理が開始されると、検出対象画像が登録された後に、ライブビュー撮像処理及びライブビュー表示処理が開始される。
即ち、撮像制御部61は、撮像部19による撮像動作を開始させて、当該撮像動作を継続させる。その間、撮像制御部61は、当該撮像部19から順次出力される撮像画像のデータを、記憶部20に一時的に記憶させる。このような一連の処理が、ここでいう「ライブビュー撮像処理」である。なお、ライブビュー撮像処理により記憶部20に一時的に記憶されている撮像画像を、以下、「ライブビュー画像」と呼ぶ。
また、表示制御部62は、ライブビュー撮像処理時に記憶部20に一時的に記録された各撮像画像のデータを順次読み出して、各々に対応する撮像画像を表示部16に順次表示させる。このような一連の制御処理が、ここでいう「ライブビュー表示処理」である。また、表示制御部62は、画像合成部66により生成された合成画像を表示部16において表示する制御を行う。画像合成部66による合成画像のデータの生成については、後述する。
When the main process is started, the live view imaging process and the live view display process are started after the detection target image is registered.
That is, the imaging control unit 61 starts the imaging operation by the imaging unit 19 and continues the imaging operation. In the meantime, the imaging control unit 61 temporarily stores the captured image data sequentially output from the imaging unit 19 in the storage unit 20. Such a series of processes is a “live view imaging process” referred to herein. The captured image temporarily stored in the storage unit 20 by the live view imaging process is hereinafter referred to as “live view image”.
In addition, the display control unit 62 sequentially reads the data of each captured image temporarily recorded in the storage unit 20 during the live view imaging process, and sequentially displays the corresponding captured image on the display unit 16. Such a series of control processes is the “live view display process” referred to herein. In addition, the display control unit 62 performs control to display the composite image generated by the image composition unit 66 on the display unit 16. The generation of composite image data by the image composition unit 66 will be described later.

対象特定部63は、撮像部19により撮像された検出対象となるオブジェクト(以下、対象オブジェクトと呼ぶ)の撮像画像を基に、対象オブジェクトの特徴を特定する。対象オブジェクトの特徴は、対象オブジェクトの画像における有効な特徴点及びその特徴量によって定義される。有効な特徴点とは、コントラストの急峻な変化(閾値以上のコントラスト変化)を生じている部分など、画素値の変化によって特定される部分であり、その特徴量とは、有効な特徴点における変化の度合い(コントラストの大きさなど)である。本実施形態では、対象特定部63は、対象オブジェクトの特徴として、有効な特徴点の配置と、有効な特徴点それぞれにおける変化の度合いとを対応付けて記憶部20に記憶する。   The target specifying unit 63 specifies the characteristics of the target object based on a captured image of an object to be detected (hereinafter referred to as a target object) imaged by the imaging unit 19. The feature of the target object is defined by effective feature points and feature quantities in the image of the target object. An effective feature point is a part specified by a change in pixel value, such as a part where a sharp contrast change (contrast change above a threshold value) occurs, and the feature amount is a change in an effective feature point. Degree of contrast (magnitude of contrast, etc.). In the present embodiment, the target specifying unit 63 stores the effective feature point arrangement and the degree of change in each of the effective feature points in the storage unit 20 in association with each other as the feature of the target object.

マッチング部64は、時間的に離間して撮像された複数の撮像画像に対して、対象オブジェクトの特徴とのマッチングを行う。具体的には、マッチング部64は、対象特定部63により特定された対象オブジェクトの特徴(特徴点の配置及びその変化の度合い)と一致する部分が撮像画像に含まれているか、即ち、対象オブジェクトの特徴と適合する部分があるか否かを検出する。そして、マッチング部64は、対象オブジェクトの特徴と一致する部分が撮像画像から検出されると、検出された部分を初期状態の対象オブジェクトの領域として特定する。
また、マッチング部64は、対象オブジェクトの領域が特定された撮像画像に続いて入力される撮像画像のフレームにおいて、対象オブジェクトの領域の画像に変動があるか否かを評価する。即ち、対象オブジェクトの特徴と適合する部分が検出されたフレーム内の位置において、フレームの遷移による画像の変動を評価する。具体的には、マッチング部64は、初期状態の対象オブジェクトの領域における画素値の変化(例えば輝度値のヒストグラムの変化など)から、対象オブジェクトが一定以上、初期状態の対象オブジェクトの領域から移動したか否かを判定する。そして、マッチング部64は、対象オブジェクトの領域における変動の判定結果(対象オブジェクトが継続して撮像されているか否か)を傾き検出部65及び画像合成部66に出力する。なお、マッチングできない場合、即ち対象オブジェクトの領域が特定されない場合は、マッチング部64は、ライブビュー表示処理を継続して行う。
The matching unit 64 matches the characteristics of the target object with respect to a plurality of captured images that are captured with time separation. Specifically, the matching unit 64 includes, in the captured image, a portion that matches the feature of the target object specified by the target specifying unit 63 (arrangement of feature points and the degree of change thereof), that is, the target object. It is detected whether or not there is a part that matches the feature. Then, when a portion that matches the feature of the target object is detected from the captured image, the matching unit 64 specifies the detected portion as the region of the target object in the initial state.
In addition, the matching unit 64 evaluates whether or not there is a change in the image of the target object region in the frame of the captured image that is input following the captured image in which the target object region is specified. That is, image fluctuation due to frame transition is evaluated at a position in the frame where a portion matching the characteristics of the target object is detected. Specifically, the matching unit 64 has moved from the target object region in the initial state by a certain amount or more due to a change in the pixel value in the target object region in the initial state (for example, a change in the histogram of luminance values). It is determined whether or not. Then, the matching unit 64 outputs the determination result of the fluctuation in the target object region (whether the target object is continuously imaged) to the tilt detection unit 65 and the image composition unit 66. When matching is not possible, that is, when the target object area is not specified, the matching unit 64 continues the live view display process.

傾き検出部65は、画像処理装置1に内蔵されたセンサ17において計測された傾きの情報に基づいて、表示部16の姿勢、即ち、表示部16の傾きの状態を検出する。具体的には、傾き検出部65は、ライブビュー画像が表示部16に表示されるタイミングにおける画像処理装置1の装置本体の傾き量を検出する。傾き検出部65は、ライブビュー画像撮像処理時の画像処理装置1の傾き量をセンサ17から所定時間ごとに取得する。傾き検出部65は、取得した傾き量を画像合成部66へ供給する。   The tilt detection unit 65 detects the attitude of the display unit 16, that is, the tilt state of the display unit 16, based on tilt information measured by the sensor 17 built in the image processing apparatus 1. Specifically, the tilt detection unit 65 detects the tilt amount of the apparatus main body of the image processing apparatus 1 at the timing when the live view image is displayed on the display unit 16. The tilt detection unit 65 acquires the tilt amount of the image processing apparatus 1 at the time of live view image capturing processing from the sensor 17 at predetermined time intervals. The inclination detection unit 65 supplies the acquired inclination amount to the image composition unit 66.

画像合成部66は、傾き検出部65により検出された傾きに基づいて、所定のキャラクタ(オブジェクトの一種)の画像を、対象特定部63により特定された検出対象画像の位置に設定された角度で重畳して合成する。具体的には、画像合成部66は、傾き検出部65により検出された傾きに基づいて、キャラクタの画像を表示部16に表示される実空間上の鉛直方向に沿うように傾ける。そして、画像合成部66は、実空間上の鉛直方向に沿うように傾けられたキャラクタの画像と、対象特定部63により特定された検出対象画像と、を合成する。この場合、画像合成部66は、キャラクタの画像が対象オブジェクトの画像の位置に重畳するように合成して、合成画像のデータを生成する。上述のように、一度マッチングができた後は、マッチング部64は、対象オブジェクトの領域内の画像の変動を評価する。そして、対象オブジェクトの領域内の画像の変動が所定の閾値以下の場合には、画像合成部66は、継続して、傾き検出部65により検出された傾き、即ち、センサ17で検出した傾きに基づいてキャラクタの画像の表示角度を逐次変えつつ、合成画像のデータを生成する。そして、表示制御部62は、対応する合成画像を表示部16で逐次表示する制御を実行することで、キャラクタの表示角度を常に所定の方向(例えば、実空間上の鉛直方向)に沿うように傾けつつ、表示を行うことができる。これに対し、対象オブジェクトの領域の画像の変動が大きい場合には、検出対象が消えたと判断されるため、画像合成部66は、キャラクタの画像をライブビュー画像に合成する処理を停止する。合成する処理が停止した場合には、通常のライブビュー表示処理のみが継続して行われる。   Based on the inclination detected by the inclination detection unit 65, the image composition unit 66 sets an image of a predetermined character (a kind of object) at an angle set at the position of the detection target image specified by the target specification unit 63. Superimpose and compose. Specifically, the image composition unit 66 tilts the character image along the vertical direction in the real space displayed on the display unit 16 based on the tilt detected by the tilt detection unit 65. Then, the image combining unit 66 combines the character image tilted along the vertical direction in the real space and the detection target image specified by the target specifying unit 63. In this case, the image composition unit 66 performs composition so that the character image is superimposed on the position of the image of the target object, and generates composite image data. As described above, once the matching is performed, the matching unit 64 evaluates the fluctuation of the image in the target object region. When the variation in the image in the target object area is equal to or smaller than the predetermined threshold value, the image composition unit 66 continues to the inclination detected by the inclination detection unit 65, that is, the inclination detected by the sensor 17. The composite image data is generated while sequentially changing the display angle of the character image. Then, the display control unit 62 executes control to sequentially display the corresponding composite image on the display unit 16 so that the display angle of the character always follows a predetermined direction (for example, the vertical direction in the real space). Display can be performed while tilting. On the other hand, when the variation in the image of the target object region is large, it is determined that the detection target has disappeared, so the image composition unit 66 stops the process of composing the character image with the live view image. When the combining process is stopped, only the normal live view display process is continuously performed.

次に、図3を参照して、このような図2の機能的構成の画像処理装置1が実行するメイン処理について説明する。
図3は、図2の機能的構成を有する図1の画像処理装置1が実行するメイン処理の流れを説明するフローチャートである。
画像処理装置1によりメイン処理が実行されると、CPU11において図2の各機能ブロックが機能して、次のような処理が行われる。即ち、以下の各ステップの処理の動作主体は、ハードウェアではCPU11が該当する。但し、本発明の理解を容易なものとすべく、CPU11において機能する各機能ブロックが動作主体であるものとして、以下の各ステップの処理の説明をする。
Next, a main process executed by the image processing apparatus 1 having the functional configuration shown in FIG. 2 will be described with reference to FIG.
FIG. 3 is a flowchart illustrating the flow of main processing executed by the image processing apparatus 1 of FIG. 1 having the functional configuration of FIG.
When the main processing is executed by the image processing apparatus 1, the functional blocks shown in FIG. 2 function in the CPU 11, and the following processing is performed. That is, the operation subject of the following steps corresponds to the CPU 11 in hardware. However, in order to facilitate the understanding of the present invention, the processing of the following steps will be described on the assumption that each functional block functioning in the CPU 11 is an operation subject.

メイン処理は、ユーザにより画像処理装置1の電源ボタン(図示せず)が押下されたことを契機として開始され、次のような処理が繰り返し実行される。   The main process is started when a power button (not shown) of the image processing apparatus 1 is pressed by the user, and the following process is repeatedly executed.

ステップS11において、対象特定部63は、後述の図4を参照して説明する対象オブジェクト特徴記憶処理を実行する。対象オブジェクト特徴記憶処理では、検出対象画像を読み込んでから、検出対象画像の特徴量を登録するまでの処理を行う。   In step S <b> 11, the target specifying unit 63 performs a target object feature storage process described with reference to FIG. 4 described later. In the target object feature storing process, the process from reading the detection target image to registering the feature amount of the detection target image is performed.

ステップS12において、撮像制御部61は、ライブビュー撮像処理を開始する。そして、表示制御部62は、撮像制御部61により開始されたライブビュー画像に基づいて、ライブビュー表示処理を開始する。   In step S12, the imaging control unit 61 starts live view imaging processing. The display control unit 62 starts live view display processing based on the live view image started by the imaging control unit 61.

ステップS13において、対象特定部63は、ステップS12のライブビュー撮像処理により記憶部20に記憶されたライブビュー画像を取得する。   In step S13, the target specifying unit 63 acquires the live view image stored in the storage unit 20 by the live view imaging process in step S12.

ステップS14において、マッチング部64は、後述の図5を参照して説明するマッチング処理を実行する。マッチング処理では、ライブビュー画像内の有効な特徴点を抽出して特徴量を算出し、算出した特徴量と、ステップS11において登録した検出対象画像の特徴量とをマッチングする処理を行う。   In step S14, the matching unit 64 executes a matching process described with reference to FIG. In the matching process, a feature amount is extracted by extracting effective feature points in the live view image, and a process of matching the calculated feature amount with the feature amount of the detection target image registered in step S11 is performed.

ステップS15において、マッチング部64は、ステップS14においてマッチングした結果、マッチングしたか否かを判定する。マッチングするものがなかった場合には、ステップS15においてNOであると判定されて、処理はステップS13に戻される。即ち、マッチングするまでの間、ステップS13乃至S15の処理が繰り返し実行されて、メイン処理は待機状態となる。その後、マッチングした場合には、ステップS15においてYESであると判定されて、処理はステップS16に進む。   In step S15, the matching unit 64 determines whether or not the result of matching in step S14 is matching. If there is no match, it is determined as NO in step S15, and the process returns to step S13. That is, until the matching is performed, the processes of steps S13 to S15 are repeatedly executed, and the main process is in a standby state. Thereafter, in the case of matching, it is determined as YES in Step S15, and the process proceeds to Step S16.

ステップS16において、マッチング部64は、マッチングした当該対象オブジェクトの領域を記憶部20に登録する。   In step S <b> 16, the matching unit 64 registers the matched area of the target object in the storage unit 20.

ステップS17において、傾き検出部65は、センサ17からの傾きの情報を取得し、表示部16の傾きを検出する。   In step S <b> 17, the tilt detection unit 65 acquires tilt information from the sensor 17 and detects the tilt of the display unit 16.

ステップS18において、画像合成部66は、キャラクタの画像の表示角度を傾き検出部65により検出された傾きに基づいて設定して反映する。そして、画像合成部66は、設定した表示角度のキャラクタの画像を、対象特定部63により特定された検出対象の画像のうち、ステップS16において登録した対象オブジェクトの領域に重畳して表示されるように合成し、合成画像のデータを生成する。キャラクタの画像の表示角度を傾ける具体例については、後述の図7及び図8を参照して説明する。   In step S18, the image composition unit 66 sets and reflects the display angle of the character image based on the inclination detected by the inclination detection unit 65. Then, the image composition unit 66 displays the character image of the set display angle so as to be superimposed on the target object area registered in step S16 among the detection target images specified by the target specifying unit 63. And composite image data is generated. A specific example of inclining the display angle of the character image will be described with reference to FIGS.

ステップS19において、表示制御部62は、ステップS18において合成して生成した合成画像のデータに基づいて、表示部16に合成画像を表示する制御を実行する。   In step S19, the display control unit 62 executes control for displaying the synthesized image on the display unit 16 based on the synthesized image data generated by synthesizing in step S18.

ステップS20において、対象特定部63は、ライブビュー画像を取得する。本ステップにおいて取得するライブビュー画像は、ステップS13において取得したライブビュー画像と時間的に1/60〜数秒間程離間したフレーム画像である。この時間はユーザが任意に設定することができる。   In step S20, the target specifying unit 63 acquires a live view image. The live view image acquired in this step is a frame image that is temporally separated from the live view image acquired in step S13 by about 1/60 to several seconds. This time can be arbitrarily set by the user.

ステップS21において、マッチング部64は、後述の図6を参照して説明する領域変動評価処理を実行する。領域変動評価処理では、対象オブジェクトの領域の画像に変動があるか否かを評価する処理を行う。   In step S <b> 21, the matching unit 64 executes a region variation evaluation process described with reference to FIG. 6 described later. In the region variation evaluation process, a process for evaluating whether or not there is a variation in the image of the region of the target object is performed.

ステップS22において、マッチング部64は、ステップS21の処理において比較したライブビュー画像から取得した対象オブジェクトの領域の画像と、ステップS16において登録した対象オブジェクトの領域の画像と、の変動が所定の閾値以上であるか否かを判定する。対象オブジェクトの領域の変動が所定の閾値以下である場合には、ステップS22においてNOであると判定されて、処理はステップS17に戻される。即ち、対象オブジェクトの領域の変動が所定の閾値以上となるまでの間、ステップS17乃至S22の処理が繰り返し実行される。これに対し、対象オブジェクトの領域の変動が所定の閾値以上である場合には、ステップS22においてYESであると判定されて、処理はステップS23に進む。   In step S22, the matching unit 64 has a variation between the target object region image acquired from the live view image compared in step S21 and the target object region image registered in step S16 greater than or equal to a predetermined threshold. It is determined whether or not. If the change in the area of the target object is equal to or less than the predetermined threshold, it is determined NO in step S22, and the process returns to step S17. That is, the processes in steps S17 to S22 are repeatedly executed until the change in the area of the target object becomes equal to or greater than a predetermined threshold. On the other hand, if the change in the area of the target object is equal to or greater than the predetermined threshold, it is determined as YES in Step S22, and the process proceeds to Step S23.

ステップS23において、画像合成部66は、キャラクタの画像の合成を終了する。即ち、対象オブジェクトの領域の変動が所定以上である場合、即ち、変動が大きい場合には、検出対象が消えたと判断してキャラクタの表示を中止する。   In step S23, the image composition unit 66 ends the composition of the character image. That is, when the variation of the area of the target object is greater than or equal to a predetermined value, that is, when the variation is large, it is determined that the detection target has disappeared and the character display is stopped.

ステップS24において、CPU11は、ライブビュー表示処理の終了指示を受けたか否かを判定する。終了指示を受けていない場合、ステップS24においてNOであると判定されて、処理は再度ステップS13に戻される。これに対し、終了指示を受けた場合、ステップS24においてYESであると判定されて処理はステップS25に進む。   In step S24, the CPU 11 determines whether or not an instruction to end the live view display process has been received. If an end instruction has not been received, it is determined as NO in step S24, and the process returns to step S13 again. On the other hand, when an end instruction is received, it is determined as YES in Step S24, and the process proceeds to Step S25.

ステップS25において、表示制御部62は、ライブビュー画像表示処理を終了する。この処理が終了すると、メイン処理が終了となる。   In step S25, the display control unit 62 ends the live view image display process. When this process ends, the main process ends.

次に、このようなメイン処理のステップS11の対象オブジェクト特徴記憶処理の詳細について説明する。
図4は、図3のメイン処理のうち、ステップS11の対象オブジェクト特徴記憶処理の詳細を説明するフローチャートである。
上述したように、対象オブジェクト特徴記憶処理は、ユーザにより画像処理装置1の電源ボタン(図示せず)が押下されたことを契機として、ステップS11の処理として開始される。
Next, details of the target object feature storing process in step S11 of the main process will be described.
FIG. 4 is a flowchart for explaining the details of the target object feature storing process of step S11 in the main process of FIG.
As described above, the target object feature storage process is started as the process of step S11 when the power button (not shown) of the image processing apparatus 1 is pressed by the user.

ステップS41において、対象特定部63は、ユーザによる入力部18の操作に基づき、対象オブジェクトの記憶操作を受け付けたか否かを判定する。対象オブジェクトの記憶操作を受け付けていない場合、ステップS41においてNOであると判定されて、処理はステップS41に戻される。即ち、対象オブジェクトの記憶操作を受け付けるまでの間、ステップS41の処理が繰り返し実行されて、対象オブジェクト特徴記憶処理は待機状態となる。その後、対象オブジェクトの記憶操作を受け付けた場合には、ステップS41においてYESであると判定されて、処理はステップS42に進む。   In step S <b> 41, the target specifying unit 63 determines whether a storage operation for the target object has been received based on the operation of the input unit 18 by the user. When the storage operation of the target object is not accepted, it is determined as NO in Step S41, and the process returns to Step S41. That is, until the storage operation of the target object is accepted, the process of step S41 is repeatedly executed, and the target object feature storage process enters a standby state. Thereafter, when the storage operation of the target object is accepted, it is determined as YES in Step S41, and the process proceeds to Step S42.

ステップS42において、対象特定部63は、撮像部19から出力される撮像画像のうち、対象オブジェクトの記憶操作を受け付けた時点における対象オブジェクトの画像の読み込みを行う。   In step S <b> 42, the target specifying unit 63 reads the image of the target object at the time when the storage operation of the target object is received from the captured image output from the imaging unit 19.

ステップS43において、対象特定部63は、ステップS42において読み込んだ対象オブジェクトの画像内の有効な特徴点を抽出する。   In step S43, the target specifying unit 63 extracts effective feature points in the image of the target object read in step S42.

ステップS44において、対象特定部63は、対象オブジェクトの特徴としてステップS43において抽出した特徴点及びその特徴量を対応付けて記憶する。この処理が終了すると、対象オブジェクト特徴記憶処理が終了となる。   In step S44, the target specifying unit 63 stores the feature points extracted in step S43 as the features of the target object and their feature amounts in association with each other. When this process ends, the target object feature storage process ends.

次に、図3のメイン処理のステップS14のマッチング処理の詳細について説明する。
図5は、図3のメイン処理のうち、ステップS14のマッチング処理の詳細を説明するフローチャートである。
上述したように、マッチング処理は、ライブビュー画像が取得されたことを契機として、ステップS14の処理として開始される。
Next, details of the matching process in step S14 of the main process in FIG. 3 will be described.
FIG. 5 is a flowchart for explaining the details of the matching process in step S14 in the main process of FIG.
As described above, the matching process is started as the process of step S14 when the live view image is acquired.

ステップS61において、対象特定部63は、図3のステップS13において取得したライブビュー画像内の有効な特徴点を抽出する。   In step S61, the target specifying unit 63 extracts effective feature points in the live view image acquired in step S13 of FIG.

ステップS62において、対象特定部63は、ステップS61において抽出した有効な特徴点に対応する特徴量を算出する。   In step S62, the target specifying unit 63 calculates a feature amount corresponding to the effective feature point extracted in step S61.

ステップS63において、マッチング部64は、対象オブジェクトの特徴とのマッチングを行う。具体的には、マッチング部64は、図4のステップS44において記憶した対象オブジェクトの特徴が、ステップS61において抽出した特徴点及びステップS62において算出した特徴量に一致する部分が含まれているか否かを検出することで対象オブジェクトの特徴のマッチングを行う。この処理が終了すると、マッチング処理が終了となる。   In step S63, the matching unit 64 performs matching with the characteristics of the target object. Specifically, the matching unit 64 determines whether or not the feature of the target object stored in step S44 of FIG. 4 includes a portion that matches the feature point extracted in step S61 and the feature amount calculated in step S62. Is detected, and the feature of the target object is matched. When this process ends, the matching process ends.

次に、図3のメイン処理のステップS21の領域変動評価処理の詳細について説明する。
図6は、図3のメイン処理のうち、ステップS21の領域変動評価処理の詳細を説明するフローチャートである。
上述したように、領域変動評価処理は、キャラクタ画像が重畳表示された後に、ライブビュー画像が取得されたことを契機として、ステップS21の処理として開始される。
Next, details of the region variation evaluation process in step S21 of the main process of FIG. 3 will be described.
FIG. 6 is a flowchart for explaining the details of the region variation evaluation process of step S21 in the main process of FIG.
As described above, the region variation evaluation process is started as the process of step S21 when the live view image is acquired after the character image is superimposed and displayed.

ステップS81において、マッチング部64は、ステップS16で登録した対象オブジェクトの領域の画像を取得する。   In step S81, the matching unit 64 acquires an image of the area of the target object registered in step S16.

ステップS82において、マッチング部64は、ステップS16で登録した対象オブジェクトの領域の画像に変動があるか否かを評価する。具体的には、図3のステップS20で取得したライブビュー画像において、対象オブジェクトの領域における画素値の変化があるか否かを評価する。対象オブジェクトの領域の評価は、予め任意に定めたn(nは1以上の自然数)フレームごとに行われる。この処理が終了すると、領域変動評価処理が終了となる。   In step S82, the matching unit 64 evaluates whether there is a change in the image of the region of the target object registered in step S16. Specifically, it is evaluated whether or not there is a change in the pixel value in the region of the target object in the live view image acquired in step S20 of FIG. The evaluation of the area of the target object is performed for each n (n is a natural number of 1 or more) frames arbitrarily determined in advance. When this process ends, the region variation evaluation process ends.

次に、キャラクタ(オブジェクトの一種)の表示角度をセンサで検出した傾きに基づいて反映した画像を撮像画像に合成する処理の具体例について図7及び図8を参照して説明する。
図7は、図1の画像処理装置1により撮像が開始された状態を示している図である。
Next, a specific example of processing for combining an image reflecting a display angle of a character (a kind of object) based on an inclination detected by a sensor with a captured image will be described with reference to FIGS.
FIG. 7 is a diagram illustrating a state in which imaging is started by the image processing apparatus 1 of FIG.

ユーザにより電源ボタン(図示せず)が押し下げられると、図7(a)に示すように、撮像部19により撮像された撮像画像が、画像処理装置1の表示部16に表示される。本実施形態では、表示部16には、被写体として腕時計101が表示されている。   When a user presses a power button (not shown), the captured image captured by the imaging unit 19 is displayed on the display unit 16 of the image processing apparatus 1 as shown in FIG. In the present embodiment, the display unit 16 displays a wristwatch 101 as a subject.

ユーザによる入力部18の操作に基づき、検出オブジェクトの記憶操作を受け付けた場合、記憶操作を受け付けた時点において撮像部19により撮像された撮像画像が読み込まれる。そして、検出オブジェクトの撮像画像に含まれる特徴点が複数抽出され、当該抽出された特徴点の特徴量がそれぞれ算出される。そして、抽出された特徴点と、算出された特徴量とに基づいて検出オブジェクトの特徴が記憶される。即ち、ユーザは、キャラクタ(オブジェクトの一種)の画像を重畳表示したいと所望する被写体が含まれる撮像画像を検出オブジェクトの画像として登録し、その検出オブジェクトの特徴が対応付けられて記憶される。   When a storage operation for the detected object is received based on the operation of the input unit 18 by the user, a captured image captured by the imaging unit 19 at the time when the storage operation is received is read. Then, a plurality of feature points included in the captured image of the detected object are extracted, and feature amounts of the extracted feature points are calculated. Then, the feature of the detected object is stored based on the extracted feature point and the calculated feature amount. That is, the user registers a captured image including a desired subject to be superimposed and displayed as an image of a character (a type of object) as a detection object image, and the features of the detection object are stored in association with each other.

検出オブジェクトの特徴の記憶後、ライブビュー撮像処理により、ライブビュー画像が撮像されると、予め記憶した対象オブジェクトの特徴が、当該ライブビュー画像内の有効な特徴点及び当該特徴点の特徴量に一致するか否かを検出するマッチングが行われる。マッチングが成功した場合、図7(b)に示すように、当該マッチングした対象オブジェクトの領域110が登録される。なお、図7(b)の例では、対象オブジェクトの領域110の枠を図示しているが、対象オブジェクトの領域110の枠は領域のイメージ例であって、実際には表示されない。
この際、センサ17によって検出された画像処理装置1の装置本体の傾き(即ち、画像処理装置1に設けられた表示部16の傾き)に基づいて傾けられたキャラクタの画像がライブビュー画像に合成されて、表示部16に表示される。続いて、センサによって検出された傾きに基づいて傾けられたキャラクタの画像が表示部16に表示される例について図8を参照して説明する。
After storing the feature of the detected object, when a live view image is captured by live view imaging processing, the feature of the target object stored in advance becomes the effective feature point in the live view image and the feature amount of the feature point. Matching is performed to detect whether or not they match. When the matching is successful, as shown in FIG. 7B, the region 110 of the matched target object is registered. In the example of FIG. 7B, the frame of the target object area 110 is illustrated, but the frame of the target object area 110 is an example of an area image and is not actually displayed.
At this time, the image of the character tilted based on the tilt of the apparatus main body of the image processing apparatus 1 detected by the sensor 17 (that is, the tilt of the display unit 16 provided in the image processing apparatus 1) is combined with the live view image. And displayed on the display unit 16. Next, an example in which an image of a character tilted based on the tilt detected by the sensor is displayed on the display unit 16 will be described with reference to FIG.

図8は、図1の画像処理装置1の表示部16にキャラクタ120(オブジェクトの一種)を表示している状態を示す図である。
図8(a)に示すように、キャラクタ120の画像は、登録された対象オブジェクトの領域110(図7(b)参照)の画像に重畳するように合成されて、表示部16に表示される。
この場合、画像処理装置1に内蔵された物理的なセンサ17により表示部16の傾きが検出され、そのセンサ17により検出された傾きに基づいて、キャラクタ120の画像の表示角度を設定する。本実施形態では、キャラクタ120は、実空間上の略鉛直方向となるように表示角度が設定されている。これにより、図8(b)に示すように、表示角度が設定されたキャラクタ120の画像が、ライブビュー画像に重畳して合成されて、表示部16に表示される。なお、本実施形態では、オブジェクトの画像の一種として猫のキャラクタ120の画像が表示部16に表示されているが、これに限られるものではない。例えば、オブジェクトの画像として、女子高生風のキャラクタや、人間の画像、花の画像、果物の画像など、様々なオブジェクトが複数記憶部20に記憶されていてもよい。この場合、入力部18は、複数のオブジェクトのうち、ユーザが選択した一のオブジェクトの選択を受け付ける。そして、画像合成部66は、選択されたオブジェクトの画像を、ライブビュー画像に合成する。
FIG. 8 is a diagram illustrating a state in which a character 120 (a kind of object) is displayed on the display unit 16 of the image processing apparatus 1 in FIG. 1.
As shown in FIG. 8A, the image of the character 120 is synthesized so as to be superimposed on the image of the registered target object area 110 (see FIG. 7B) and displayed on the display unit 16. .
In this case, the inclination of the display unit 16 is detected by the physical sensor 17 built in the image processing apparatus 1, and the display angle of the image of the character 120 is set based on the inclination detected by the sensor 17. In the present embodiment, the display angle of the character 120 is set so as to be in a substantially vertical direction in real space. As a result, as shown in FIG. 8B, the image of the character 120 with the display angle set is superimposed on the live view image and displayed on the display unit 16. In the present embodiment, the image of the cat character 120 is displayed on the display unit 16 as a kind of object image, but the present invention is not limited to this. For example, various objects such as a high school girl character, a human image, a flower image, and a fruit image may be stored in the storage unit 20 as the object image. In this case, the input unit 18 accepts selection of one object selected by the user from among a plurality of objects. Then, the image composition unit 66 composes the image of the selected object with the live view image.

以上説明したように、本実施形態の画像処理装置1は、対象特定部63と、傾き検出部65と、マッチング部64、画像合成部66と、を備える。対象特定部63は、検出対象となる物体(例えば、腕時計)の画像の特徴を特定する。傾き検出部65は、撮像画像を表示する表示部16の姿勢を検出する。マッチング部64は、撮像画像において、対象特定部63によって特定された特徴と適合する部分を検出する。そして、画像合成部66は、マッチング部64によって、特定された特徴と適合する部分が検出された場合に、傾き検出部65により検出された表示部16の姿勢に基づいて、撮像画像に重畳するオブジェクト(例えば、キャラクタ)の画像の表示角度を設定し、撮像画像における特徴と適合する部分と対応付けて、オブジェクトの画像を設定した表示角度で表示部16に表示される撮像画像に合成する。
これにより、画像合成部66は、傾き検出部65により検出された表示部16の姿勢、即ち、センサ17などで検出した傾きに基づいて表示角度を設定したキャラクタの画像を撮像画像に重畳するように合成画像を生成することができる。通常、平面マーカー以外を検出対象とした場合には、検出対象となる物体の動きを特定するための処理に対する負担が大きくなるため、検出対象が高速で動く場合には、検出対象に対するオブジェクトの画像の追尾が困難となる。しかしながら、本実施形態においては、一度検出対象を特定してしまえば、後は、物理的なセンサ17などにより表示部16の姿勢を検出して、オブジェクトの画像の表示角度を設定することができるため、検出対象に対する処理の負担を軽減することができる。従って、検出対象を平面マーカーに限定することなく、センサ17による簡易な計測だけでオブジェクトの追尾を行うことができ、画像処理に対する処理の負担を軽減することができる。これにより、撮像画像における特定の被写体の画像に対応付けて、他の画像を重畳表示する際の処理負担を軽減することができる。
As described above, the image processing apparatus 1 according to the present embodiment includes the target specifying unit 63, the inclination detection unit 65, the matching unit 64, and the image composition unit 66. The target specifying unit 63 specifies the characteristics of an image of an object (for example, a wristwatch) to be detected. The inclination detection unit 65 detects the posture of the display unit 16 that displays the captured image. The matching unit 64 detects a portion that matches the feature specified by the target specifying unit 63 in the captured image. Then, when the matching unit 64 detects a portion that matches the specified feature, the image composition unit 66 superimposes the captured image on the captured image based on the orientation of the display unit 16 detected by the inclination detection unit 65. The display angle of the image of the object (for example, character) is set, and the image of the object is combined with the captured image displayed on the display unit 16 at the set display angle in association with the portion that matches the feature in the captured image.
As a result, the image composition unit 66 superimposes the character image in which the display angle is set based on the posture of the display unit 16 detected by the tilt detection unit 65, that is, the tilt detected by the sensor 17 or the like, on the captured image. A composite image can be generated. Normally, when a detection target other than a flat marker is used, the burden on the processing for specifying the motion of the object to be detected increases, so when the detection target moves at high speed, the image of the object with respect to the detection target Tracking becomes difficult. However, in this embodiment, once the detection target is specified, the display angle of the display unit 16 can be detected by the physical sensor 17 and the like, and the display angle of the object image can be set. Therefore, the processing burden on the detection target can be reduced. Therefore, the object can be tracked only by simple measurement by the sensor 17 without limiting the detection target to the plane marker, and the processing load on the image processing can be reduced. Thereby, it is possible to reduce the processing load when other images are superimposed and displayed in association with the image of a specific subject in the captured image.

さらに、本実施形態の画像処理装置1のマッチング部64は、対象特定部63によって特定された特徴と適合する部分が検出されたフレーム内の位置において、フレームの遷移による画像の変動を評価する。そして、画像合成部66は、マッチング部64による評価の結果に応じて、オブジェクト(例えば、キャラクタ)の画像を重畳して表示するか否かを決定する。
これにより、例えば、フレームの遷移による画像の変動が大きい場合、検出対象が撮像画像の画角から消えたと判断し、画像合成部66による画像の合成を中止することができる。
Further, the matching unit 64 of the image processing apparatus 1 according to the present embodiment evaluates image variation due to frame transition at a position in the frame where a portion matching the feature specified by the target specifying unit 63 is detected. Then, the image composition unit 66 determines whether or not to superimpose and display an image of an object (for example, a character) according to the evaluation result by the matching unit 64.
Thereby, for example, when the variation of the image due to the frame transition is large, it is determined that the detection target has disappeared from the angle of view of the captured image, and the image composition by the image composition unit 66 can be stopped.

さらに、本実施形態の画像処理装置1の画像合成部66は、傾き検出部65により検出された表示部16の姿勢に基づいて、オブジェクト(例えば、キャラクタ)の画像の鉛直方向に対する表示角度が一定となるように合成する。
これにより、一度検出対象を特定してしまえば、後は、物理的なセンサ17などにより検出対象の姿勢を推測して、オブジェクトの画像の表示角度を設定することができるため、検出対象に対する処理の負担を軽減することができる。
Furthermore, the image composition unit 66 of the image processing apparatus 1 according to the present embodiment has a constant display angle with respect to the vertical direction of the image of the object (for example, a character) based on the attitude of the display unit 16 detected by the inclination detection unit 65. Synthesize so that
Thus, once the detection target is specified, the orientation of the detection target can be estimated by the physical sensor 17 and the like, and the display angle of the object image can be set. Can be reduced.

さらに、本実施形態の画像処理装置1は、入力部18をさらに備える。入力部18は、オブジェクト(例えば、キャラクタ)のうち、いずれかの選択を受け付ける。
これにより、ユーザは、所望のオブジェクトを選択して、撮像画像に重畳した画像を合成することができる。
Furthermore, the image processing apparatus 1 according to the present embodiment further includes an input unit 18. The input unit 18 accepts selection of any one of the objects (for example, characters).
Accordingly, the user can select a desired object and synthesize an image superimposed on the captured image.

以上、本発明の第1実施形態に係る画像処理装置1について説明した。
次に、本発明の第2実施形態に係る画像処理装置1について説明する。
The image processing apparatus 1 according to the first embodiment of the present invention has been described above.
Next, an image processing apparatus 1 according to the second embodiment of the present invention will be described.

[第2実施形態]
本発明の第2実施形態に係る画像処理装置1は、第1実施形態に係る画像処理装置1と基本的に同様のハードウェア構成及び機能的構成を取ることができる。
従って、図1は、第2実施形態に係る画像処理装置1のハードウェアの構成を示すブロック図でもある。
[Second Embodiment]
The image processing apparatus 1 according to the second embodiment of the present invention can have basically the same hardware configuration and functional configuration as the image processing apparatus 1 according to the first embodiment.
Therefore, FIG. 1 is also a block diagram showing a hardware configuration of the image processing apparatus 1 according to the second embodiment.

さらに、第2実施形態に係る画像処理装置1が実行するメイン処理は、第1実施形態に係るメイン処理と基本的に同様の流れとなる。従って、図3は、第2実施形態に係るメイン処理の流れを説明するフローチャートでもある。
さらに、第2実施形態に係る画像処理装置1が実行する対象オブジェクト特徴記憶処理は、第1実施形態に係る対象オブジェクト特徴記憶処理と基本的に同様の流れとなる。従って、図4は、第2実施形態に係る対象オブジェクト特徴記憶処理の流れを説明するフローチャートでもある。
さらに、第2実施形態に係る画像処理装置1が実行するマッチング処理は、第1実施形態に係るマッチング処理と基本的に同様の流れとなる。従って、図5は、第2実施形態に係るマッチング処理の流れを説明するフローチャートでもある。
但し、第2実施形態では、メイン処理のうちステップS16、S18、S21、S22の処理については、第1実施形態で採用された図3のフローチャートではなく、図9のフローチャートが採用される。
図9は、図2の機能的構成を有する図1の画像処理装置1が実行する、第2実施形態に係るメイン処理の流れを説明するフローチャートである。
Furthermore, the main process executed by the image processing apparatus 1 according to the second embodiment is basically the same flow as the main process according to the first embodiment. Therefore, FIG. 3 is also a flowchart for explaining the flow of the main processing according to the second embodiment.
Furthermore, the target object feature storage process executed by the image processing apparatus 1 according to the second embodiment is basically the same flow as the target object feature storage process according to the first embodiment. Therefore, FIG. 4 is also a flowchart for explaining the flow of the target object feature storing process according to the second embodiment.
Furthermore, the matching process executed by the image processing apparatus 1 according to the second embodiment is basically the same as the matching process according to the first embodiment. Therefore, FIG. 5 is also a flowchart for explaining the flow of matching processing according to the second embodiment.
However, in the second embodiment, steps S16, S18, S21, and S22 of the main process are not the flowchart of FIG. 3 employed in the first embodiment but the flowchart of FIG.
FIG. 9 is a flowchart for explaining the flow of main processing according to the second embodiment, which is executed by the image processing apparatus 1 of FIG. 1 having the functional configuration of FIG.

上述した第1実施形態における図3のメイン処理では、登録した対象オブジェクトの領域の位置に基づいてキャラクタを合成しているのに対して、第2実施形態における図9のメイン処理では、特定した対象の位置に基づいてキャラクタを合成している点が差異点である。詳細には、第2実施形態では、第1実施形態に係るステップS16、S18、S21、S22の処理に代えて、ステップS116、S118、S121、S122の処理が実行される点が差異点である。
そこで、以下、このような差異点について主に説明し、一致点の説明は適宜省略する。
In the main process of FIG. 3 in the first embodiment described above, characters are synthesized based on the registered position of the target object area, whereas in the main process of FIG. 9 in the second embodiment, the character is specified. The difference is that the characters are synthesized based on the target position. Specifically, the second embodiment is different from the first embodiment in that steps S116, S118, S121, and S122 are executed instead of the steps S16, S18, S21, and S22 according to the first embodiment. .
Thus, hereinafter, such differences will be mainly described, and description of the coincident points will be omitted as appropriate.

ステップS116において、マッチング部64は、マッチングした当該対象オブジェクトの画像に含まれる位置のうち、所定の座標を対象の位置として特定する。対象位置の特定は、マッチングした当該オブジェクトの画像に含まれる位置に限られるものではなく、ユーザが任意に選択した座標を対象の位置として特定することもできる。   In step S116, the matching unit 64 specifies a predetermined coordinate as the target position among the positions included in the image of the target object that has been matched. The specification of the target position is not limited to the position included in the image of the matched object, and the coordinates arbitrarily selected by the user can be specified as the target position.

ステップS118において、画像合成部66は、キャラクタの画像の表示角度を傾き検出部65により検出された傾きに基づいて設定して反映する。そして、画像合成部66は、設定した表示角度のキャラクタの画像を、対象特定部63により特定された検出対象の画像のうち、ステップS116において特定した対象の位置に重畳して表示されるように合成し、合成画像のデータを生成する。   In step S118, the image composition unit 66 sets and reflects the display angle of the character image based on the inclination detected by the inclination detection unit 65. Then, the image composition unit 66 displays the image of the character having the set display angle so as to be superimposed on the target position specified in step S116 among the detection target images specified by the target specifying unit 63. Compositing to generate composite image data.

ステップS121において、マッチング部64は、ステップS116において特定した対象の位置に対応する座標からの動きベクトルを検出して、対象オブジェクトを追尾する処理を行う。   In step S121, the matching unit 64 detects the motion vector from the coordinates corresponding to the target position specified in step S116, and performs processing for tracking the target object.

ステップS122において、マッチング部64は、ステップS121において追尾した対象オブジェクトがフレームアウトしたか否かを判定する。対象オブジェクトがフレームアウトしていない場合には、ステップS122においてNOであると判定されて、処理はステップS118に戻される。即ち、対象オブジェクトが表示部16に表示されている間は、ステップS118乃至S122の処理が繰り返し実行される。これに対し、対象オブジェクトがフレームアウトした場合には、ステップS122においてYESであると判定されて、処理はステップS123に進む。   In step S122, the matching unit 64 determines whether the target object tracked in step S121 is out of frame. If the target object is not out of frame, it is determined as NO in Step S122, and the process returns to Step S118. That is, while the target object is displayed on the display unit 16, the processes in steps S118 to S122 are repeatedly executed. On the other hand, when the target object is out of the frame, it is determined as YES in Step S122, and the process proceeds to Step S123.

ステップS123において、画像合成部66は、キャラクタの画像の合成を終了する。即ち、対象オブジェクトが表示部16から消えた場合には、キャラクタの表示を中止する。   In step S123, the image composition unit 66 ends the composition of the character image. That is, when the target object disappears from the display unit 16, the character display is stopped.

ステップS124において、CPU11は、ライブビュー表示処理の終了指示を受けたか否かを判定する。終了指示を受けていない場合、ステップS124においてNOであると判定されて、処理は再度ステップS113に戻される。これに対し、終了指示を受けた場合、ステップS124においてYESであると判定されて処理はステップS125に進む。   In step S124, the CPU 11 determines whether or not an instruction to end the live view display process has been received. If the end instruction has not been received, it is determined as NO in step S124, and the process returns to step S113 again. On the other hand, if an end instruction is received, it is determined as YES in step S124, and the process proceeds to step S125.

ステップS125において、表示制御部62は、ライブビュー画像表示処理を終了する。この処理が終了すると、第2実施形態のメイン処理が終了となる。   In step S125, the display control unit 62 ends the live view image display process. When this process ends, the main process of the second embodiment ends.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良などは本発明に含まれるものである。   It should be noted that the present invention is not limited to the above-described embodiment, and modifications, improvements, and the like within the scope that can achieve the object of the present invention are included in the present invention.

上述の実施形態では、ステップS20において、対象特定部63は、ステップS13において取得したライブビュー画像と時間的に1/60〜数秒間程離間したフレーム画像を取得していたがこれに限られるものではない。例えば、時間的に離間する画像として、1〜数フレーム後の任意のフレームに対応するライブビュー画像を取得とするようにすることもできる。   In the above-described embodiment, in step S20, the target specifying unit 63 has acquired a frame image that is temporally separated from the live view image acquired in step S13 by about 1/60 to several seconds. is not. For example, a live view image corresponding to an arbitrary frame after one to several frames may be acquired as an image that is separated in time.

また、上述の実施形態では、キャラクタ120の画像は、実空間上の略鉛直方向となるように表示角度が設定されているがこれに限られるものではなく、表示角度の設定の方向は実空間上の鉛直方向以外にも、例えば、水平方向やユーザが予め設定した任意の方向で表示されるようにキャラクタ120の角度を設定することができる。   In the above-described embodiment, the display angle is set so that the image of the character 120 is in a substantially vertical direction in the real space. However, the display angle is not limited to this, and the display angle setting direction is the real space. In addition to the upper vertical direction, for example, the angle of the character 120 can be set so as to be displayed in a horizontal direction or an arbitrary direction preset by the user.

また、上述の実施形態では、本発明が適用される画像処理装置1は、スマートフォンを例として説明したが、特にこれに限定されない。
例えば、本発明は、表示機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、デジタルカメラ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機などに適用可能である。
In the above-described embodiment, the image processing apparatus 1 to which the present invention is applied has been described using a smartphone as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having a display function. Specifically, for example, the present invention can be applied to a notebook personal computer, a digital camera, a television receiver, a video camera, a portable navigation device, a mobile phone, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が画像処理装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 2 is merely an example and is not particularly limited. That is, it is sufficient that the image processing apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional blocks are used to realize this function is not particularly limited to the example of FIG. .
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータなどにネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア41により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体などで構成される。リムーバブルメディア41は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスクなどにより構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)などにより構成される。光磁気ディスクは、MD(Mini−Disk)などにより構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部20に含まれるハードディスクなどで構成される。   The recording medium including such a program is not only configured by the removable medium 41 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. For example, a recording medium provided in The removable medium 41 is configured by, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body includes, for example, the ROM 12 in FIG. 1 in which a program is recorded, the hard disk included in the storage unit 20 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換など種々の変更を行うことができる。これら実施形態やその変形は、本明細書などに記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalent scope thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
検出対象となる物体の画像の特徴を特定する対象特定手段と、
撮像画像を表示する表示部の姿勢を検出する傾き検出手段と、
前記撮像画像において、前記対象特定手段によって特定された前記特徴と適合する部分を検出するマッチング手段と、
前記マッチング手段によって前記特徴と適合する部分が検出された場合に、前記傾き検出手段により検出された前記表示部の姿勢に基づいて、前記撮像画像に重畳するオブジェクトの画像の表示角度を設定し、前記撮像画像における前記特徴と適合する部分と対応付けて、前記オブジェクトの画像を前記設定した表示角度で前記表示部に表示される前記撮像画像に合成する画像合成手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記マッチング手段は、前記特徴と適合する部分が検出されたフレーム内の位置において、フレームの遷移による画像の変動を評価し、
前記画像合成手段は、前記マッチング手段による評価の結果に応じて、前記オブジェクトの画像を重畳して表示するか否かを決定することを特徴とする付記1に記載の画像処理装置。
[付記3]
前記画像合成手段は、
前記傾き検出手段により検出された表示部の姿勢に基づいて、前記オブジェクトの画像の鉛直方向に対する表示角度が一定となるように合成することを特徴とする付記1又は2に記載の画像処理装置。
[付記4]
複数の前記オブジェクトのうち、いずれかの選択を受け付ける入力手段をさらに備え、
前記画像合成手段は、前記入力手段により受け付けられたオブジェクトの画像を合成することを特徴とする付記1乃至3のうち何れか1つに記載の画像処理装置。
[付記5]
オブジェクトの画像を合成する処理を制御する画像処理装置が実行する画像処理方法において、
検出対象となる物体の画像の特徴を特定する対象特定ステップと、
撮像画像を表示する表示部の姿勢を検出する傾き検出ステップと、
前記撮像画像において、前記対象特定ステップにおいて特定された前記特徴と適合する部分を検出するマッチングステップと、
前記マッチングステップにおいて前記特徴と適合する部分が検出された場合に、前記傾き検出ステップにおいて検出された前記表示部の姿勢に基づいて、前記撮像画像に重畳するオブジェクトの画像の表示角度を設定し、前記撮像画像における前記特徴と適合する部分と対応付けて、前記オブジェクトの画像を前記設定した表示角度で前記表示部に表示される前記撮像画像に合成する画像合成ステップと、
を含む画像処理方法。
[付記6]
オブジェクトの画像を合成するコンピュータを、
検出対象となる物体の画像の特徴を特定する対象特定手段、
撮像画像を表示する表示部の姿勢を検出する傾き検出手段、
前記撮像画像において、前記対象特定手段によって特定された前記特徴と適合する部分を検出するマッチング手段、
前記マッチング手段によって前記特徴と適合する部分が検出された場合に、前記傾き検出手段により検出された前記表示部の姿勢に基づいて、前記撮像画像に重畳するオブジェクトの画像の表示角度を設定し、前記撮像画像における前記特徴と適合する部分と対応付けて、前記オブジェクトの画像を前記設定した表示角度で前記表示部に表示される前記撮像画像に合成する画像合成手段、
として機能させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
Target specifying means for specifying the characteristics of the image of the object to be detected;
Tilt detecting means for detecting the attitude of the display unit for displaying the captured image;
In the captured image, a matching unit that detects a portion that matches the feature specified by the target specifying unit;
When a matching part is detected by the matching unit, the display angle of the object image to be superimposed on the captured image is set based on the orientation of the display unit detected by the tilt detection unit, Image synthesizing means for synthesizing the image of the object with the captured image displayed on the display unit at the set display angle in association with a portion that matches the feature in the captured image;
An image processing apparatus comprising:
[Appendix 2]
The matching means evaluates image variation due to frame transition at a position in the frame where a portion matching the feature is detected;
The image processing apparatus according to appendix 1, wherein the image composition unit determines whether or not to superimpose and display the image of the object according to a result of evaluation by the matching unit.
[Appendix 3]
The image composition means includes
The image processing apparatus according to appendix 1 or 2, wherein the image processing apparatus synthesizes the images so that a display angle with respect to a vertical direction of the image of the object is constant based on an attitude of the display unit detected by the tilt detection unit.
[Appendix 4]
An input unit that accepts selection of any of the plurality of objects;
The image processing apparatus according to any one of appendices 1 to 3, wherein the image synthesizing unit synthesizes an image of the object received by the input unit.
[Appendix 5]
In an image processing method executed by an image processing apparatus that controls processing for combining images of an object,
A target identifying step for identifying the characteristics of the image of the object to be detected;
A tilt detection step for detecting the orientation of the display unit that displays the captured image;
In the captured image, a matching step for detecting a portion that matches the feature specified in the target specifying step;
When a matching part is detected in the matching step, the display angle of the object image to be superimposed on the captured image is set based on the orientation of the display unit detected in the tilt detection step. An image combining step of combining the image of the object with the captured image displayed on the display unit at the set display angle in association with a portion that matches the feature in the captured image;
An image processing method including:
[Appendix 6]
A computer that synthesizes images of objects
Target specifying means for specifying the characteristics of the image of the object to be detected;
Inclination detecting means for detecting the attitude of the display unit for displaying the captured image;
In the captured image, a matching unit that detects a part that matches the feature specified by the target specifying unit;
When a matching part is detected by the matching unit, the display angle of the object image to be superimposed on the captured image is set based on the orientation of the display unit detected by the tilt detection unit, Image synthesizing means for synthesizing the image of the object with the captured image displayed on the display unit at the set display angle in association with a portion that matches the feature in the captured image;
A program characterized by functioning as

1・・・画像処理装置、11・・・CPU、12・・・ROM、13・・・RAM、14・・・バス、15・・・入出力インターフェース、16・・・表示部、17・・・センサ、18・・・入力部、19・・・撮像部、20・・・記憶部、21・・・通信部、22・・・ドライブ、41・・・リムーバブルメディア、61・・・撮像制御部、62・・・表示制御部、63・・・対象特定部、64・・・マッチング部、65・・・傾き検出部、66・・・画像合成部   DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Bus, 15 ... Input / output interface, 16 ... Display part, 17 ... Sensor 18 ... Input unit 19 ... Imaging unit 20 ... Storage unit 21 ... Communication unit 22 ... Drive 41 ... Removable media 61 ... Imaging control 62, display control unit, 63 ... target specifying unit, 64 ... matching unit, 65 ... tilt detection unit, 66 ... image composition unit

Claims (6)

検出対象となる物体の画像の特徴を特定する対象特定手段と、
撮像画像を表示する表示部の姿勢を検出する傾き検出手段と、
前記撮像画像において、前記対象特定手段によって特定された前記特徴と適合する部分を検出するマッチング手段と、
前記マッチング手段によって前記特徴と適合する部分が検出された場合に、前記傾き検出手段により検出された前記表示部の姿勢に基づいて、前記撮像画像に重畳するオブジェクトの画像の表示角度を設定し、前記撮像画像における前記特徴と適合する部分と対応付けて、前記オブジェクトの画像を前記設定した表示角度で前記表示部に表示される前記撮像画像に合成する画像合成手段と、
を備えることを特徴とする画像処理装置。
Target specifying means for specifying the characteristics of the image of the object to be detected;
Tilt detecting means for detecting the attitude of the display unit for displaying the captured image;
In the captured image, a matching unit that detects a portion that matches the feature specified by the target specifying unit;
When a matching part is detected by the matching unit, the display angle of the object image to be superimposed on the captured image is set based on the orientation of the display unit detected by the tilt detection unit, Image synthesizing means for synthesizing the image of the object with the captured image displayed on the display unit at the set display angle in association with a portion that matches the feature in the captured image;
An image processing apparatus comprising:
前記マッチング手段は、前記特徴と適合する部分が検出されたフレーム内の位置において、フレームの遷移による画像の変動を評価し、
前記画像合成手段は、前記マッチング手段による評価の結果に応じて、前記オブジェクトの画像を重畳して表示するか否かを決定することを特徴とする請求項1に記載の画像処理装置。
The matching means evaluates image variation due to frame transition at a position in the frame where a portion matching the feature is detected;
The image processing apparatus according to claim 1, wherein the image synthesizing unit determines whether to superimpose and display the image of the object according to a result of evaluation by the matching unit.
前記画像合成手段は、
前記傾き検出手段により検出された表示部の姿勢に基づいて、前記オブジェクトの画像の鉛直方向に対する表示角度が一定となるように合成することを特徴とする請求項1又は2に記載の画像処理装置。
The image composition means includes
3. The image processing apparatus according to claim 1, wherein the image processing apparatus synthesizes the image so that a display angle with respect to a vertical direction of the image of the object is constant based on a posture of the display unit detected by the inclination detection unit. .
複数の前記オブジェクトのうち、いずれかの選択を受け付ける入力手段をさらに備え、
前記画像合成手段は、前記入力手段により受け付けられたオブジェクトの画像を合成することを特徴とする請求項1乃至3のうち何れか1項に記載の画像処理装置。
An input unit that accepts selection of any of the plurality of objects;
The image processing apparatus according to claim 1, wherein the image synthesizing unit synthesizes an image of an object received by the input unit.
オブジェクトの画像を合成する処理を制御する画像処理装置が実行する画像処理方法において、
検出対象となる物体の画像の特徴を特定する対象特定ステップと、
撮像画像を表示する表示部の姿勢を検出する傾き検出ステップと、
前記撮像画像において、前記対象特定ステップにおいて特定された前記特徴と適合する部分を検出するマッチングステップと、
前記マッチングステップにおいて前記特徴と適合する部分が検出された場合に、前記傾き検出ステップにおいて検出された前記表示部の姿勢に基づいて、前記撮像画像に重畳するオブジェクトの画像の表示角度を設定し、前記撮像画像における前記特徴と適合する部分と対応付けて、前記オブジェクトの画像を前記設定した表示角度で前記表示部に表示される前記撮像画像に合成する画像合成ステップと、
を含む画像処理方法。
In an image processing method executed by an image processing apparatus that controls processing for combining images of an object,
A target identifying step for identifying the characteristics of the image of the object to be detected;
A tilt detection step for detecting the orientation of the display unit that displays the captured image;
In the captured image, a matching step for detecting a portion that matches the feature specified in the target specifying step;
When a matching part is detected in the matching step, the display angle of the object image to be superimposed on the captured image is set based on the orientation of the display unit detected in the tilt detection step. An image combining step of combining the image of the object with the captured image displayed on the display unit at the set display angle in association with a portion that matches the feature in the captured image;
An image processing method including:
オブジェクトの画像を合成するコンピュータを、
検出対象となる物体の画像の特徴を特定する対象特定手段、
撮像画像を表示する表示部の姿勢を検出する傾き検出手段、
前記撮像画像において、前記対象特定手段によって特定された前記特徴と適合する部分を検出するマッチング手段、
前記マッチング手段によって前記特徴と適合する部分が検出された場合に、前記傾き検出手段により検出された前記表示部の姿勢に基づいて、前記撮像画像に重畳するオブジェクトの画像の表示角度を設定し、前記撮像画像における前記特徴と適合する部分と対応付けて、前記オブジェクトの画像を前記設定した表示角度で前記表示部に表示される前記撮像画像に合成する画像合成手段、
として機能させることを特徴とするプログラム。
A computer that synthesizes images of objects
Target specifying means for specifying the characteristics of the image of the object to be detected;
Inclination detecting means for detecting the attitude of the display unit for displaying the captured image;
In the captured image, a matching unit that detects a part that matches the feature specified by the target specifying unit;
When a matching part is detected by the matching unit, the display angle of the object image to be superimposed on the captured image is set based on the orientation of the display unit detected by the tilt detection unit, Image synthesizing means for synthesizing the image of the object with the captured image displayed on the display unit at the set display angle in association with a portion that matches the feature in the captured image;
A program characterized by functioning as
JP2012061883A 2012-03-19 2012-03-19 Image processing apparatus, image processing method, and program Active JP5891879B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012061883A JP5891879B2 (en) 2012-03-19 2012-03-19 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012061883A JP5891879B2 (en) 2012-03-19 2012-03-19 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2013197803A true JP2013197803A (en) 2013-09-30
JP5891879B2 JP5891879B2 (en) 2016-03-23

Family

ID=49396255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012061883A Active JP5891879B2 (en) 2012-03-19 2012-03-19 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5891879B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018159678A (en) * 2017-03-23 2018-10-11 セイコーエプソン株式会社 Method for display information, system, program, and information display device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101861129B1 (en) 2016-03-23 2018-05-29 스튜디오모비딕(주) 3D Animation production methods

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072667A (en) * 2004-09-01 2006-03-16 Sony Computer Entertainment Inc Image processor, game device, and image processing method
JP4869430B1 (en) * 2010-09-24 2012-02-08 任天堂株式会社 Image processing program, image processing apparatus, image processing system, and image processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072667A (en) * 2004-09-01 2006-03-16 Sony Computer Entertainment Inc Image processor, game device, and image processing method
JP4869430B1 (en) * 2010-09-24 2012-02-08 任天堂株式会社 Image processing program, image processing apparatus, image processing system, and image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018159678A (en) * 2017-03-23 2018-10-11 セイコーエプソン株式会社 Method for display information, system, program, and information display device

Also Published As

Publication number Publication date
JP5891879B2 (en) 2016-03-23

Similar Documents

Publication Publication Date Title
CN111602140B (en) Method of analyzing objects in images recorded by a camera of a head-mounted device
US9516223B2 (en) Motion-based image stitching
KR102529120B1 (en) Method and device for acquiring image and recordimg medium thereof
US9781341B2 (en) Image processing system, information processing device, information storage device, and image processing method
US8908991B2 (en) Image processing apparatus, image processing method and storage medium
US8994785B2 (en) Method for generating video data and image photographing device thereof
JP6417797B2 (en) Information terminal device, information processing method, system, and program
US9781340B2 (en) Image processing system, information processing device, information storage device, and image processing method
US20140363044A1 (en) Efficient Machine-Readable Object Detection and Tracking
JP2012151796A (en) Image processing device, image processing method, and program
EP2866088B1 (en) Information processing apparatus and method
JP5774226B2 (en) Resolving ambiguity of homography decomposition based on orientation sensor
JP5928386B2 (en) Display control apparatus, display control method, and program
US20170374256A1 (en) Method and apparatus for rolling shutter compensation
US10275917B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
US20190098250A1 (en) Information processing apparatus, imaging apparatus, information processing method, and recording medium
JP5769755B2 (en) Image processing system, image processing apparatus, and image processing method
JP2009010888A (en) Image processing device, imaging apparatus, image processing method and program
JP2020042206A (en) Image display control apparatus and image display control program
JP5891879B2 (en) Image processing apparatus, image processing method, and program
WO2015072091A1 (en) Image processing device, image processing method, and program storage medium
KR20180017591A (en) Camera apparatus, display apparatus and method of correcting a movement therein
CN107767712B (en) Method and device for adjusting matching degree, storage medium and electronic equipment
JP6756103B2 (en) Electronic devices, display systems, display devices, imaging devices, display control methods and programs
JP4878396B2 (en) Image recognition program, image recognition apparatus, image recognition system, and image recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160208

R150 Certificate of patent or registration of utility model

Ref document number: 5891879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150