JP5891879B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP5891879B2
JP5891879B2 JP2012061883A JP2012061883A JP5891879B2 JP 5891879 B2 JP5891879 B2 JP 5891879B2 JP 2012061883 A JP2012061883 A JP 2012061883A JP 2012061883 A JP2012061883 A JP 2012061883A JP 5891879 B2 JP5891879 B2 JP 5891879B2
Authority
JP
Japan
Prior art keywords
image
unit
display
feature
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012061883A
Other languages
English (en)
Other versions
JP2013197803A (ja
Inventor
哲司 牧野
哲司 牧野
紳一 松井
紳一 松井
義裕 手島
義裕 手島
将宏 織田
将宏 織田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012061883A priority Critical patent/JP5891879B2/ja
Publication of JP2013197803A publication Critical patent/JP2013197803A/ja
Application granted granted Critical
Publication of JP5891879B2 publication Critical patent/JP5891879B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像画像に他の画像を重畳表示する画像処理装置、画像処理方法及びプログラムに関する。
昨今、撮像画像における特定の被写体(実オブジェクト)の画像に対応付けて、キャラクタの画像を重畳して表示する画像処理装置が存在する。このような画像処理装置では、撮像されたフレーム画像に基づいて画像解析をした結果をもとに、フレーム画像における実オブジェクトの画像の傾き(例えば、表示画面内における正視状態からの回転角度)を検出する。画像処理装置は、検出した実オブジェクトの画像の傾きを、実オブジェクト画像の座標データの初期状態として記録しておく。画像処理装置は、初期状態として記録した傾きと、以後の撮像画像における実オブジェクトの傾きと、の相対的な差分、即ち、座標値の差分を求める。そして、画像処理装置は、求めた座標値の差分から、所定のベクトルに沿うようにキャラクタの画像を傾けて重畳して表示する処理を実行する(例えば、特許文献1参照)。これにより、撮像画像において実オブジェクトの画像が傾くと、その傾きに追随してキャラクタの画像の角度を補正して表示することができる。
特開2006−72667号公報
しかしながら、特許文献1に記載の技術を適用した場合にあっては、キャラクタの画像の角度を補正するためには、フレーム画像ごとに画像解析によりオブジェクトの画像の傾きを検出する必要があり、オブジェクト画像に対する画像処理の負担が増大する可能性がある。
本発明は、このような状況に鑑みてなされたものであり、撮像画像における特定の被写体の画像に対応付けて、他の画像を重畳表示する際の処理負担を軽減することを目的とする。
上記目的を達成するため、本発明の一態様の画像処理装置は、検出対象となる物体の画像の特徴を特定する対象特定手段と、撮像画像を表示する表示部の姿勢をセンサにより検出する傾き検出手段と、前記撮像画像において、前記対象特定手段によって特定された前記特徴と適合する部分を検出するマッチング手段と、前記マッチング手段によって前記特徴と適合する部分が検出された後に、前記傾き検出手段により検出された前記表示部の姿勢に基づいて、前記撮像画像に重畳するオブジェクトの画像の前記表示部に対する表示角度を前記表示部の傾きに追尾しながら設定し、前記撮像画像における前記特徴と適合する部分と対応付けて、前記オブジェクトの画像を前記設定した表示角度で前記表示部に表示される前記撮像画像の上に、前記特徴と適合する部分と前記オブジェクトの画像の両方が見える形で重畳するように合成する画像合成手段と、を備えることを特徴とする。
本発明によれば、撮像画像における特定の被写体の画像に対応付けて、他の画像を重畳表示する際の処理負担を軽減することができる。
本発明の第1実施形態に係る画像処理装置のハードウェアの構成を示すブロック図である。 図1の画像処理装置の機能的構成のうち、メイン処理を実行するための機能的構成を示す機能ブロック図である。 図2の機能的構成を有する図1の画像処理装置が実行する第1実施形態のメイン処理の流れを説明するフローチャートである。 図3のメイン処理のうち、対象オブジェクト特徴記憶処理の詳細を説明するフローチャートである。 図3のメイン処理のうち、マッチング処理の詳細を説明するフローチャートである。 図3のメイン処理のうち、領域変動評価処理の詳細を説明するフローチャートである。 図1の画像処理装置により撮像が開始された状態を示している図である。 図1の画像処理装置の表示部にキャラクタを表示している状態を示す図である。 図2の機能的構成を有する図1の画像処理装置が実行する第2実施形態のメイン処理の流れを説明するフローチャートである。
以下、本発明の実施形態について、図面を用いて説明する。
[第1実施形態]
図1は、本発明の第1実施形態に係る画像処理装置のハードウェアの構成を示すブロック図である。
画像処理装置1は、例えばスマートフォンとして構成される。
画像処理装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、表示部16と、センサ17と、入力部18と、撮像部19と、記憶部20と、通信部21と、ドライブ22と、を備えている。
CPU11は、ROM12に記録されているプログラム、又は、記憶部20からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、表示部16、センサ17,入力部18、撮像部19、記憶部20、通信部21及びドライブ22が接続されている。
表示部16は、ディスプレイにより構成され撮像部19により撮像された画像を表示する。
センサ17は、例えば、6軸加速度センサ或いはジャイロセンサなどで構成され、表示部16が設けられた画像処理装置1の装置本体の傾きを検出する。即ち、センサ17は、任意の姿勢(傾斜角度)状態においても方位及び傾斜の計測が可能であるので、センサ17を画像処理装置1の装置本体に内蔵或いは付属させることにより、表示部16の位置や姿勢の変化の情報を計測することができる。
入力部18は、ユーザの指示操作に応じて各種情報を入力する。
撮像部19は、被写体を撮像し、当該被写体の像を含む画像(以下、「撮像画像」と称する)のデータをCPU11に供給する。
記憶部20は、ハードディスク或いはDRAM(Dynamic Random Access Memory)などで構成され、撮像画像に合成するキャラクタなどの各種画像のデータ、撮像画像のデータの他、アプリケーションプログラムなどの各種プログラムなどを記憶する。
通信部21は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
ドライブ22には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなる、リムーバブルメディア41が適宜装着される。ドライブ22によってリムーバブルメディア41から読み出されたプログラムは、必要に応じて記憶部20にインストールされる。また、リムーバブルメディア41は、記憶部20に記憶されている画像のデータなどの各種データも、記憶部20と同様に記憶することができる。
図2は、このような画像処理装置1の機能的構成のうち、メイン処理を実行するための機能的構成を示す機能ブロック図である。
メイン処理とは、ユーザにより図示せぬ電源ボタンが押下されたことを契機として開始される、次のような処理をいう。即ち、メイン処理とは、センサ17により検出した傾きに基づいて傾きを反映したキャラクタの画像を撮像画像に合成して表示するまでの一連の処理をいう。
CPU11においては、メイン処理の実行が制御される場合、撮像制御部61と、表示制御部62と、対象特定部63と、マッチング部64と、傾き検出部65と、画像合成部66と、が機能する。
メイン処理が開始されると、検出対象画像が登録された後に、ライブビュー撮像処理及びライブビュー表示処理が開始される。
即ち、撮像制御部61は、撮像部19による撮像動作を開始させて、当該撮像動作を継続させる。その間、撮像制御部61は、当該撮像部19から順次出力される撮像画像のデータを、記憶部20に一時的に記憶させる。このような一連の処理が、ここでいう「ライブビュー撮像処理」である。なお、ライブビュー撮像処理により記憶部20に一時的に記憶されている撮像画像を、以下、「ライブビュー画像」と呼ぶ。
また、表示制御部62は、ライブビュー撮像処理時に記憶部20に一時的に記録された各撮像画像のデータを順次読み出して、各々に対応する撮像画像を表示部16に順次表示させる。このような一連の制御処理が、ここでいう「ライブビュー表示処理」である。また、表示制御部62は、画像合成部66により生成された合成画像を表示部16において表示する制御を行う。画像合成部66による合成画像のデータの生成については、後述する。
対象特定部63は、撮像部19により撮像された検出対象となるオブジェクト(以下、対象オブジェクトと呼ぶ)の撮像画像を基に、対象オブジェクトの特徴を特定する。対象オブジェクトの特徴は、対象オブジェクトの画像における有効な特徴点及びその特徴量によって定義される。有効な特徴点とは、コントラストの急峻な変化(閾値以上のコントラスト変化)を生じている部分など、画素値の変化によって特定される部分であり、その特徴量とは、有効な特徴点における変化の度合い(コントラストの大きさなど)である。本実施形態では、対象特定部63は、対象オブジェクトの特徴として、有効な特徴点の配置と、有効な特徴点それぞれにおける変化の度合いとを対応付けて記憶部20に記憶する。
マッチング部64は、時間的に離間して撮像された複数の撮像画像に対して、対象オブジェクトの特徴とのマッチングを行う。具体的には、マッチング部64は、対象特定部63により特定された対象オブジェクトの特徴(特徴点の配置及びその変化の度合い)と一致する部分が撮像画像に含まれているか、即ち、対象オブジェクトの特徴と適合する部分があるか否かを検出する。そして、マッチング部64は、対象オブジェクトの特徴と一致する部分が撮像画像から検出されると、検出された部分を初期状態の対象オブジェクトの領域として特定する。
また、マッチング部64は、対象オブジェクトの領域が特定された撮像画像に続いて入力される撮像画像のフレームにおいて、対象オブジェクトの領域の画像に変動があるか否かを評価する。即ち、対象オブジェクトの特徴と適合する部分が検出されたフレーム内の位置において、フレームの遷移による画像の変動を評価する。具体的には、マッチング部64は、初期状態の対象オブジェクトの領域における画素値の変化(例えば輝度値のヒストグラムの変化など)から、対象オブジェクトが一定以上、初期状態の対象オブジェクトの領域から移動したか否かを判定する。そして、マッチング部64は、対象オブジェクトの領域における変動の判定結果(対象オブジェクトが継続して撮像されているか否か)を傾き検出部65及び画像合成部66に出力する。なお、マッチングできない場合、即ち対象オブジェクトの領域が特定されない場合は、マッチング部64は、ライブビュー表示処理を継続して行う。
傾き検出部65は、画像処理装置1に内蔵されたセンサ17において計測された傾きの情報に基づいて、表示部16の姿勢、即ち、表示部16の傾きの状態を検出する。具体的には、傾き検出部65は、ライブビュー画像が表示部16に表示されるタイミングにおける画像処理装置1の装置本体の傾き量を検出する。傾き検出部65は、ライブビュー画像撮像処理時の画像処理装置1の傾き量をセンサ17から所定時間ごとに取得する。傾き検出部65は、取得した傾き量を画像合成部66へ供給する。
画像合成部66は、傾き検出部65により検出された傾きに基づいて、所定のキャラクタ(オブジェクトの一種)の画像を、対象特定部63により特定された検出対象画像の位置に設定された角度で重畳して合成する。具体的には、画像合成部66は、傾き検出部65により検出された傾きに基づいて、キャラクタの画像を表示部16に表示される実空間上の鉛直方向に沿うように傾ける。そして、画像合成部66は、実空間上の鉛直方向に沿うように傾けられたキャラクタの画像と、対象特定部63により特定された検出対象画像と、を合成する。この場合、画像合成部66は、キャラクタの画像が対象オブジェクトの画像の位置に重畳するように合成して、合成画像のデータを生成する。上述のように、一度マッチングができた後は、マッチング部64は、対象オブジェクトの領域内の画像の変動を評価する。そして、対象オブジェクトの領域内の画像の変動が所定の閾値以下の場合には、画像合成部66は、継続して、傾き検出部65により検出された傾き、即ち、センサ17で検出した傾きに基づいてキャラクタの画像の表示角度を逐次変えつつ、合成画像のデータを生成する。そして、表示制御部62は、対応する合成画像を表示部16で逐次表示する制御を実行することで、キャラクタの表示角度を常に所定の方向(例えば、実空間上の鉛直方向)に沿うように傾けつつ、表示を行うことができる。これに対し、対象オブジェクトの領域の画像の変動が大きい場合には、検出対象が消えたと判断されるため、画像合成部66は、キャラクタの画像をライブビュー画像に合成する処理を停止する。合成する処理が停止した場合には、通常のライブビュー表示処理のみが継続して行われる。
次に、図3を参照して、このような図2の機能的構成の画像処理装置1が実行するメイン処理について説明する。
図3は、図2の機能的構成を有する図1の画像処理装置1が実行するメイン処理の流れを説明するフローチャートである。
画像処理装置1によりメイン処理が実行されると、CPU11において図2の各機能ブロックが機能して、次のような処理が行われる。即ち、以下の各ステップの処理の動作主体は、ハードウェアではCPU11が該当する。但し、本発明の理解を容易なものとすべく、CPU11において機能する各機能ブロックが動作主体であるものとして、以下の各ステップの処理の説明をする。
メイン処理は、ユーザにより画像処理装置1の電源ボタン(図示せず)が押下されたことを契機として開始され、次のような処理が繰り返し実行される。
ステップS11において、対象特定部63は、後述の図4を参照して説明する対象オブジェクト特徴記憶処理を実行する。対象オブジェクト特徴記憶処理では、検出対象画像を読み込んでから、検出対象画像の特徴量を登録するまでの処理を行う。
ステップS12において、撮像制御部61は、ライブビュー撮像処理を開始する。そして、表示制御部62は、撮像制御部61により開始されたライブビュー画像に基づいて、ライブビュー表示処理を開始する。
ステップS13において、対象特定部63は、ステップS12のライブビュー撮像処理により記憶部20に記憶されたライブビュー画像を取得する。
ステップS14において、マッチング部64は、後述の図5を参照して説明するマッチング処理を実行する。マッチング処理では、ライブビュー画像内の有効な特徴点を抽出して特徴量を算出し、算出した特徴量と、ステップS11において登録した検出対象画像の特徴量とをマッチングする処理を行う。
ステップS15において、マッチング部64は、ステップS14においてマッチングした結果、マッチングしたか否かを判定する。マッチングするものがなかった場合には、ステップS15においてNOであると判定されて、処理はステップS13に戻される。即ち、マッチングするまでの間、ステップS13乃至S15の処理が繰り返し実行されて、メイン処理は待機状態となる。その後、マッチングした場合には、ステップS15においてYESであると判定されて、処理はステップS16に進む。
ステップS16において、マッチング部64は、マッチングした当該対象オブジェクトの領域を記憶部20に登録する。
ステップS17において、傾き検出部65は、センサ17からの傾きの情報を取得し、表示部16の傾きを検出する。
ステップS18において、画像合成部66は、キャラクタの画像の表示角度を傾き検出部65により検出された傾きに基づいて設定して反映する。そして、画像合成部66は、設定した表示角度のキャラクタの画像を、対象特定部63により特定された検出対象の画像のうち、ステップS16において登録した対象オブジェクトの領域に重畳して表示されるように合成し、合成画像のデータを生成する。キャラクタの画像の表示角度を傾ける具体例については、後述の図7及び図8を参照して説明する。
ステップS19において、表示制御部62は、ステップS18において合成して生成した合成画像のデータに基づいて、表示部16に合成画像を表示する制御を実行する。
ステップS20において、対象特定部63は、ライブビュー画像を取得する。本ステップにおいて取得するライブビュー画像は、ステップS13において取得したライブビュー画像と時間的に1/60〜数秒間程離間したフレーム画像である。この時間はユーザが任意に設定することができる。
ステップS21において、マッチング部64は、後述の図6を参照して説明する領域変動評価処理を実行する。領域変動評価処理では、対象オブジェクトの領域の画像に変動があるか否かを評価する処理を行う。
ステップS22において、マッチング部64は、ステップS21の処理において比較したライブビュー画像から取得した対象オブジェクトの領域の画像と、ステップS16において登録した対象オブジェクトの領域の画像と、の変動が所定の閾値以上であるか否かを判定する。対象オブジェクトの領域の変動が所定の閾値以下である場合には、ステップS22においてNOであると判定されて、処理はステップS17に戻される。即ち、対象オブジェクトの領域の変動が所定の閾値以上となるまでの間、ステップS17乃至S22の処理が繰り返し実行される。これに対し、対象オブジェクトの領域の変動が所定の閾値以上である場合には、ステップS22においてYESであると判定されて、処理はステップS23に進む。
ステップS23において、画像合成部66は、キャラクタの画像の合成を終了する。即ち、対象オブジェクトの領域の変動が所定以上である場合、即ち、変動が大きい場合には、検出対象が消えたと判断してキャラクタの表示を中止する。
ステップS24において、CPU11は、ライブビュー表示処理の終了指示を受けたか否かを判定する。終了指示を受けていない場合、ステップS24においてNOであると判定されて、処理は再度ステップS13に戻される。これに対し、終了指示を受けた場合、ステップS24においてYESであると判定されて処理はステップS25に進む。
ステップS25において、表示制御部62は、ライブビュー画像表示処理を終了する。この処理が終了すると、メイン処理が終了となる。
次に、このようなメイン処理のステップS11の対象オブジェクト特徴記憶処理の詳細について説明する。
図4は、図3のメイン処理のうち、ステップS11の対象オブジェクト特徴記憶処理の詳細を説明するフローチャートである。
上述したように、対象オブジェクト特徴記憶処理は、ユーザにより画像処理装置1の電源ボタン(図示せず)が押下されたことを契機として、ステップS11の処理として開始される。
ステップS41において、対象特定部63は、ユーザによる入力部18の操作に基づき、対象オブジェクトの記憶操作を受け付けたか否かを判定する。対象オブジェクトの記憶操作を受け付けていない場合、ステップS41においてNOであると判定されて、処理はステップS41に戻される。即ち、対象オブジェクトの記憶操作を受け付けるまでの間、ステップS41の処理が繰り返し実行されて、対象オブジェクト特徴記憶処理は待機状態となる。その後、対象オブジェクトの記憶操作を受け付けた場合には、ステップS41においてYESであると判定されて、処理はステップS42に進む。
ステップS42において、対象特定部63は、撮像部19から出力される撮像画像のうち、対象オブジェクトの記憶操作を受け付けた時点における対象オブジェクトの画像の読み込みを行う。
ステップS43において、対象特定部63は、ステップS42において読み込んだ対象オブジェクトの画像内の有効な特徴点を抽出する。
ステップS44において、対象特定部63は、対象オブジェクトの特徴としてステップS43において抽出した特徴点及びその特徴量を対応付けて記憶する。この処理が終了すると、対象オブジェクト特徴記憶処理が終了となる。
次に、図3のメイン処理のステップS14のマッチング処理の詳細について説明する。
図5は、図3のメイン処理のうち、ステップS14のマッチング処理の詳細を説明するフローチャートである。
上述したように、マッチング処理は、ライブビュー画像が取得されたことを契機として、ステップS14の処理として開始される。
ステップS61において、対象特定部63は、図3のステップS13において取得したライブビュー画像内の有効な特徴点を抽出する。
ステップS62において、対象特定部63は、ステップS61において抽出した有効な特徴点に対応する特徴量を算出する。
ステップS63において、マッチング部64は、対象オブジェクトの特徴とのマッチングを行う。具体的には、マッチング部64は、図4のステップS44において記憶した対象オブジェクトの特徴が、ステップS61において抽出した特徴点及びステップS62において算出した特徴量に一致する部分が含まれているか否かを検出することで対象オブジェクトの特徴のマッチングを行う。この処理が終了すると、マッチング処理が終了となる。
次に、図3のメイン処理のステップS21の領域変動評価処理の詳細について説明する。
図6は、図3のメイン処理のうち、ステップS21の領域変動評価処理の詳細を説明するフローチャートである。
上述したように、領域変動評価処理は、キャラクタ画像が重畳表示された後に、ライブビュー画像が取得されたことを契機として、ステップS21の処理として開始される。
ステップS81において、マッチング部64は、ステップS16で登録した対象オブジェクトの領域の画像を取得する。
ステップS82において、マッチング部64は、ステップS16で登録した対象オブジェクトの領域の画像に変動があるか否かを評価する。具体的には、図3のステップS20で取得したライブビュー画像において、対象オブジェクトの領域における画素値の変化があるか否かを評価する。対象オブジェクトの領域の評価は、予め任意に定めたn(nは1以上の自然数)フレームごとに行われる。この処理が終了すると、領域変動評価処理が終了となる。
次に、キャラクタ(オブジェクトの一種)の表示角度をセンサで検出した傾きに基づいて反映した画像を撮像画像に合成する処理の具体例について図7及び図8を参照して説明する。
図7は、図1の画像処理装置1により撮像が開始された状態を示している図である。
ユーザにより電源ボタン(図示せず)が押し下げられると、図7(a)に示すように、撮像部19により撮像された撮像画像が、画像処理装置1の表示部16に表示される。本実施形態では、表示部16には、被写体として腕時計101が表示されている。
ユーザによる入力部18の操作に基づき、検出オブジェクトの記憶操作を受け付けた場合、記憶操作を受け付けた時点において撮像部19により撮像された撮像画像が読み込まれる。そして、検出オブジェクトの撮像画像に含まれる特徴点が複数抽出され、当該抽出された特徴点の特徴量がそれぞれ算出される。そして、抽出された特徴点と、算出された特徴量とに基づいて検出オブジェクトの特徴が記憶される。即ち、ユーザは、キャラクタ(オブジェクトの一種)の画像を重畳表示したいと所望する被写体が含まれる撮像画像を検出オブジェクトの画像として登録し、その検出オブジェクトの特徴が対応付けられて記憶される。
検出オブジェクトの特徴の記憶後、ライブビュー撮像処理により、ライブビュー画像が撮像されると、予め記憶した対象オブジェクトの特徴が、当該ライブビュー画像内の有効な特徴点及び当該特徴点の特徴量に一致するか否かを検出するマッチングが行われる。マッチングが成功した場合、図7(b)に示すように、当該マッチングした対象オブジェクトの領域110が登録される。なお、図7(b)の例では、対象オブジェクトの領域110の枠を図示しているが、対象オブジェクトの領域110の枠は領域のイメージ例であって、実際には表示されない。
この際、センサ17によって検出された画像処理装置1の装置本体の傾き(即ち、画像処理装置1に設けられた表示部16の傾き)に基づいて傾けられたキャラクタの画像がライブビュー画像に合成されて、表示部16に表示される。続いて、センサによって検出された傾きに基づいて傾けられたキャラクタの画像が表示部16に表示される例について図8を参照して説明する。
図8は、図1の画像処理装置1の表示部16にキャラクタ120(オブジェクトの一種)を表示している状態を示す図である。
図8(a)に示すように、キャラクタ120の画像は、登録された対象オブジェクトの領域110(図7(b)参照)の画像に重畳するように合成されて、表示部16に表示される。
この場合、画像処理装置1に内蔵された物理的なセンサ17により表示部16の傾きが検出され、そのセンサ17により検出された傾きに基づいて、キャラクタ120の画像の表示角度を設定する。本実施形態では、キャラクタ120は、実空間上の略鉛直方向となるように表示角度が設定されている。これにより、図8(b)に示すように、表示角度が設定されたキャラクタ120の画像が、ライブビュー画像に重畳して合成されて、表示部16に表示される。なお、本実施形態では、オブジェクトの画像の一種として猫のキャラクタ120の画像が表示部16に表示されているが、これに限られるものではない。例えば、オブジェクトの画像として、女子高生風のキャラクタや、人間の画像、花の画像、果物の画像など、様々なオブジェクトが複数記憶部20に記憶されていてもよい。この場合、入力部18は、複数のオブジェクトのうち、ユーザが選択した一のオブジェクトの選択を受け付ける。そして、画像合成部66は、選択されたオブジェクトの画像を、ライブビュー画像に合成する。
以上説明したように、本実施形態の画像処理装置1は、対象特定部63と、傾き検出部65と、マッチング部64、画像合成部66と、を備える。対象特定部63は、検出対象となる物体(例えば、腕時計)の画像の特徴を特定する。傾き検出部65は、撮像画像を表示する表示部16の姿勢を検出する。マッチング部64は、撮像画像において、対象特定部63によって特定された特徴と適合する部分を検出する。そして、画像合成部66は、マッチング部64によって、特定された特徴と適合する部分が検出された場合に、傾き検出部65により検出された表示部16の姿勢に基づいて、撮像画像に重畳するオブジェクト(例えば、キャラクタ)の画像の表示角度を設定し、撮像画像における特徴と適合する部分と対応付けて、オブジェクトの画像を設定した表示角度で表示部16に表示される撮像画像に合成する。
これにより、画像合成部66は、傾き検出部65により検出された表示部16の姿勢、即ち、センサ17などで検出した傾きに基づいて表示角度を設定したキャラクタの画像を撮像画像に重畳するように合成画像を生成することができる。通常、平面マーカー以外を検出対象とした場合には、検出対象となる物体の動きを特定するための処理に対する負担が大きくなるため、検出対象が高速で動く場合には、検出対象に対するオブジェクトの画像の追尾が困難となる。しかしながら、本実施形態においては、一度検出対象を特定してしまえば、後は、物理的なセンサ17などにより表示部16の姿勢を検出して、オブジェクトの画像の表示角度を設定することができるため、検出対象に対する処理の負担を軽減することができる。従って、検出対象を平面マーカーに限定することなく、センサ17による簡易な計測だけでオブジェクトの追尾を行うことができ、画像処理に対する処理の負担を軽減することができる。これにより、撮像画像における特定の被写体の画像に対応付けて、他の画像を重畳表示する際の処理負担を軽減することができる。
さらに、本実施形態の画像処理装置1のマッチング部64は、対象特定部63によって特定された特徴と適合する部分が検出されたフレーム内の位置において、フレームの遷移による画像の変動を評価する。そして、画像合成部66は、マッチング部64による評価の結果に応じて、オブジェクト(例えば、キャラクタ)の画像を重畳して表示するか否かを決定する。
これにより、例えば、フレームの遷移による画像の変動が大きい場合、検出対象が撮像画像の画角から消えたと判断し、画像合成部66による画像の合成を中止することができる。
さらに、本実施形態の画像処理装置1の画像合成部66は、傾き検出部65により検出された表示部16の姿勢に基づいて、オブジェクト(例えば、キャラクタ)の画像の鉛直方向に対する表示角度が一定となるように合成する。
これにより、一度検出対象を特定してしまえば、後は、物理的なセンサ17などにより検出対象の姿勢を推測して、オブジェクトの画像の表示角度を設定することができるため、検出対象に対する処理の負担を軽減することができる。
さらに、本実施形態の画像処理装置1は、入力部18をさらに備える。入力部18は、オブジェクト(例えば、キャラクタ)のうち、いずれかの選択を受け付ける。
これにより、ユーザは、所望のオブジェクトを選択して、撮像画像に重畳した画像を合成することができる。
以上、本発明の第1実施形態に係る画像処理装置1について説明した。
次に、本発明の第2実施形態に係る画像処理装置1について説明する。
[第2実施形態]
本発明の第2実施形態に係る画像処理装置1は、第1実施形態に係る画像処理装置1と基本的に同様のハードウェア構成及び機能的構成を取ることができる。
従って、図1は、第2実施形態に係る画像処理装置1のハードウェアの構成を示すブロック図でもある。
さらに、第2実施形態に係る画像処理装置1が実行するメイン処理は、第1実施形態に係るメイン処理と基本的に同様の流れとなる。従って、図3は、第2実施形態に係るメイン処理の流れを説明するフローチャートでもある。
さらに、第2実施形態に係る画像処理装置1が実行する対象オブジェクト特徴記憶処理は、第1実施形態に係る対象オブジェクト特徴記憶処理と基本的に同様の流れとなる。従って、図4は、第2実施形態に係る対象オブジェクト特徴記憶処理の流れを説明するフローチャートでもある。
さらに、第2実施形態に係る画像処理装置1が実行するマッチング処理は、第1実施形態に係るマッチング処理と基本的に同様の流れとなる。従って、図5は、第2実施形態に係るマッチング処理の流れを説明するフローチャートでもある。
但し、第2実施形態では、メイン処理のうちステップS16、S18、S21、S22の処理については、第1実施形態で採用された図3のフローチャートではなく、図9のフローチャートが採用される。
図9は、図2の機能的構成を有する図1の画像処理装置1が実行する、第2実施形態に係るメイン処理の流れを説明するフローチャートである。
上述した第1実施形態における図3のメイン処理では、登録した対象オブジェクトの領域の位置に基づいてキャラクタを合成しているのに対して、第2実施形態における図9のメイン処理では、特定した対象の位置に基づいてキャラクタを合成している点が差異点である。詳細には、第2実施形態では、第1実施形態に係るステップS16、S18、S21、S22の処理に代えて、ステップS116、S118、S121、S122の処理が実行される点が差異点である。
そこで、以下、このような差異点について主に説明し、一致点の説明は適宜省略する。
ステップS116において、マッチング部64は、マッチングした当該対象オブジェクトの画像に含まれる位置のうち、所定の座標を対象の位置として特定する。対象位置の特定は、マッチングした当該オブジェクトの画像に含まれる位置に限られるものではなく、ユーザが任意に選択した座標を対象の位置として特定することもできる。
ステップS118において、画像合成部66は、キャラクタの画像の表示角度を傾き検出部65により検出された傾きに基づいて設定して反映する。そして、画像合成部66は、設定した表示角度のキャラクタの画像を、対象特定部63により特定された検出対象の画像のうち、ステップS116において特定した対象の位置に重畳して表示されるように合成し、合成画像のデータを生成する。
ステップS121において、マッチング部64は、ステップS116において特定した対象の位置に対応する座標からの動きベクトルを検出して、対象オブジェクトを追尾する処理を行う。
ステップS122において、マッチング部64は、ステップS121において追尾した対象オブジェクトがフレームアウトしたか否かを判定する。対象オブジェクトがフレームアウトしていない場合には、ステップS122においてNOであると判定されて、処理はステップS118に戻される。即ち、対象オブジェクトが表示部16に表示されている間は、ステップS118乃至S122の処理が繰り返し実行される。これに対し、対象オブジェクトがフレームアウトした場合には、ステップS122においてYESであると判定されて、処理はステップS123に進む。
ステップS123において、画像合成部66は、キャラクタの画像の合成を終了する。即ち、対象オブジェクトが表示部16から消えた場合には、キャラクタの表示を中止する。
ステップS124において、CPU11は、ライブビュー表示処理の終了指示を受けたか否かを判定する。終了指示を受けていない場合、ステップS124においてNOであると判定されて、処理は再度ステップS113に戻される。これに対し、終了指示を受けた場合、ステップS124においてYESであると判定されて処理はステップS125に進む。
ステップS125において、表示制御部62は、ライブビュー画像表示処理を終了する。この処理が終了すると、第2実施形態のメイン処理が終了となる。
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良などは本発明に含まれるものである。
上述の実施形態では、ステップS20において、対象特定部63は、ステップS13において取得したライブビュー画像と時間的に1/60〜数秒間程離間したフレーム画像を取得していたがこれに限られるものではない。例えば、時間的に離間する画像として、1〜数フレーム後の任意のフレームに対応するライブビュー画像を取得とするようにすることもできる。
また、上述の実施形態では、キャラクタ120の画像は、実空間上の略鉛直方向となるように表示角度が設定されているがこれに限られるものではなく、表示角度の設定の方向は実空間上の鉛直方向以外にも、例えば、水平方向やユーザが予め設定した任意の方向で表示されるようにキャラクタ120の角度を設定することができる。
また、上述の実施形態では、本発明が適用される画像処理装置1は、スマートフォンを例として説明したが、特にこれに限定されない。
例えば、本発明は、表示機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、デジタルカメラ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機などに適用可能である。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が画像処理装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータなどにネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア41により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体などで構成される。リムーバブルメディア41は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスクなどにより構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)などにより構成される。光磁気ディスクは、MD(Mini−Disk)などにより構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部20に含まれるハードディスクなどで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換など種々の変更を行うことができる。これら実施形態やその変形は、本明細書などに記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
検出対象となる物体の画像の特徴を特定する対象特定手段と、
撮像画像を表示する表示部の姿勢を検出する傾き検出手段と、
前記撮像画像において、前記対象特定手段によって特定された前記特徴と適合する部分を検出するマッチング手段と、
前記マッチング手段によって前記特徴と適合する部分が検出された場合に、前記傾き検出手段により検出された前記表示部の姿勢に基づいて、前記撮像画像に重畳するオブジェクトの画像の表示角度を設定し、前記撮像画像における前記特徴と適合する部分と対応付けて、前記オブジェクトの画像を前記設定した表示角度で前記表示部に表示される前記撮像画像に合成する画像合成手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記マッチング手段は、前記特徴と適合する部分が検出されたフレーム内の位置において、フレームの遷移による画像の変動を評価し、
前記画像合成手段は、前記マッチング手段による評価の結果に応じて、前記オブジェクトの画像を重畳して表示するか否かを決定することを特徴とする付記1に記載の画像処理装置。
[付記3]
前記画像合成手段は、
前記傾き検出手段により検出された表示部の姿勢に基づいて、前記オブジェクトの画像の鉛直方向に対する表示角度が一定となるように合成することを特徴とする付記1又は2に記載の画像処理装置。
[付記4]
複数の前記オブジェクトのうち、いずれかの選択を受け付ける入力手段をさらに備え、
前記画像合成手段は、前記入力手段により受け付けられたオブジェクトの画像を合成することを特徴とする付記1乃至3のうち何れか1つに記載の画像処理装置。
[付記5]
オブジェクトの画像を合成する処理を制御する画像処理装置が実行する画像処理方法において、
検出対象となる物体の画像の特徴を特定する対象特定ステップと、
撮像画像を表示する表示部の姿勢を検出する傾き検出ステップと、
前記撮像画像において、前記対象特定ステップにおいて特定された前記特徴と適合する部分を検出するマッチングステップと、
前記マッチングステップにおいて前記特徴と適合する部分が検出された場合に、前記傾き検出ステップにおいて検出された前記表示部の姿勢に基づいて、前記撮像画像に重畳するオブジェクトの画像の表示角度を設定し、前記撮像画像における前記特徴と適合する部分と対応付けて、前記オブジェクトの画像を前記設定した表示角度で前記表示部に表示される前記撮像画像に合成する画像合成ステップと、
を含む画像処理方法。
[付記6]
オブジェクトの画像を合成するコンピュータを、
検出対象となる物体の画像の特徴を特定する対象特定手段、
撮像画像を表示する表示部の姿勢を検出する傾き検出手段、
前記撮像画像において、前記対象特定手段によって特定された前記特徴と適合する部分を検出するマッチング手段、
前記マッチング手段によって前記特徴と適合する部分が検出された場合に、前記傾き検出手段により検出された前記表示部の姿勢に基づいて、前記撮像画像に重畳するオブジェクトの画像の表示角度を設定し、前記撮像画像における前記特徴と適合する部分と対応付けて、前記オブジェクトの画像を前記設定した表示角度で前記表示部に表示される前記撮像画像に合成する画像合成手段、
として機能させることを特徴とするプログラム。
1・・・画像処理装置、11・・・CPU、12・・・ROM、13・・・RAM、14・・・バス、15・・・入出力インターフェース、16・・・表示部、17・・・センサ、18・・・入力部、19・・・撮像部、20・・・記憶部、21・・・通信部、22・・・ドライブ、41・・・リムーバブルメディア、61・・・撮像制御部、62・・・表示制御部、63・・・対象特定部、64・・・マッチング部、65・・・傾き検出部、66・・・画像合成部

Claims (6)

  1. 検出対象となる物体の画像の特徴を特定する対象特定手段と、
    撮像画像を表示する表示部の姿勢をセンサにより検出する傾き検出手段と、
    前記撮像画像において、前記対象特定手段によって特定された前記特徴と適合する部分を検出するマッチング手段と、
    前記マッチング手段によって前記特徴と適合する部分が検出された後に、前記傾き検出手段により検出された前記表示部の姿勢に基づいて、前記撮像画像に重畳するオブジェクトの画像の前記表示部に対する表示角度を前記表示部の傾きに追尾しながら所定の方向になるように設定し、前記撮像画像における前記特徴と適合する部分と対応付けて、前記オブジェクトの画像を前記設定した表示角度で前記表示部に表示される前記撮像画像の上に、前記特徴と適合する部分と前記オブジェクトの画像の両方が見える形で重畳するように合成する画像合成手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記マッチング手段は、前記特徴と適合する部分が検出されたフレーム内の位置において、フレームの遷移による画像の変動を評価し、
    前記画像合成手段は、前記マッチング手段による評価の結果に応じて、前記オブジェクトの画像を重畳して表示するか否かを決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像合成手段は、
    前記傾き検出手段により検出された表示部の姿勢に基づいて、前記オブジェクトの画像の鉛直方向に対する表示角度が一定となるように合成することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 複数の前記オブジェクトのうち、いずれかの選択を受け付ける入力手段をさらに備え、
    前記画像合成手段は、前記入力手段により受け付けられたオブジェクトの画像を合成することを特徴とする請求項1乃至3のうち何れか1項に記載の画像処理装置。
  5. オブジェクトの画像を合成する処理を制御する画像処理装置が実行する画像処理方法において、
    検出対象となる物体の画像の特徴を特定する対象特定ステップと、
    撮像画像を表示する表示部の姿勢をセンサにより検出する傾き検出ステップと、
    前記撮像画像において、前記対象特定ステップにおいて特定された前記特徴と適合する部分を検出するマッチングステップと、
    前記マッチングステップにおいて前記特徴と適合する部分が検出された後に、前記傾き検出ステップにおいて検出された前記表示部の姿勢に基づいて、前記撮像画像に重畳するオブジェクトの画像の前記表示部に対する表示角度を前記表示部の傾きに追尾しながら設定し、前記撮像画像における前記特徴と適合する部分と対応付けて、前記オブジェクトの画像を前記設定した表示角度で前記表示部に表示される前記撮像画像の上に、前記特徴と適合する部分と前記オブジェクトの画像の両方が見える形で重畳するように合成する画像合成ステップと、
    を含む画像処理方法。
  6. オブジェクトの画像を合成するコンピュータを、
    検出対象となる物体の画像の特徴を特定する対象特定手段、
    撮像画像を表示する表示部の姿勢をセンサにより検出する傾き検出手段、
    前記撮像画像において、前記対象特定手段によって特定された前記特徴と適合する部分を検出するマッチング手段、
    前記マッチング手段によって前記特徴と適合する部分が検出された後に、前記傾き検出手段により検出された前記表示部の姿勢に基づいて、前記撮像画像に重畳するオブジェクトの画像の前記表示部に対する表示角度を前記表示部の傾きに追尾しながら設定し、前記撮像画像における前記特徴と適合する部分と対応付けて、前記オブジェクトの画像を前記設定した表示角度で前記表示部に表示される前記撮像画像の上に、前記特徴と適合する部分と前記オブジェクトの画像の両方が見える形で重畳するように合成する画像合成手段、
    として機能させることを特徴とするプログラム。
JP2012061883A 2012-03-19 2012-03-19 画像処理装置、画像処理方法及びプログラム Active JP5891879B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012061883A JP5891879B2 (ja) 2012-03-19 2012-03-19 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012061883A JP5891879B2 (ja) 2012-03-19 2012-03-19 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2013197803A JP2013197803A (ja) 2013-09-30
JP5891879B2 true JP5891879B2 (ja) 2016-03-23

Family

ID=49396255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012061883A Active JP5891879B2 (ja) 2012-03-19 2012-03-19 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5891879B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101861129B1 (ko) 2016-03-23 2018-05-29 스튜디오모비딕(주) 데이터 용량 감축 기능을 갖는 삼차원 애니메이션 제작방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6874457B2 (ja) * 2017-03-23 2021-05-19 セイコーエプソン株式会社 情報表示方法、システム、プログラム、および情報表示装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3841806B2 (ja) * 2004-09-01 2006-11-08 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
JP4869430B1 (ja) * 2010-09-24 2012-02-08 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101861129B1 (ko) 2016-03-23 2018-05-29 스튜디오모비딕(주) 데이터 용량 감축 기능을 갖는 삼차원 애니메이션 제작방법

Also Published As

Publication number Publication date
JP2013197803A (ja) 2013-09-30

Similar Documents

Publication Publication Date Title
CN111602140B (zh) 分析由头戴式设备的相机记录的图像中的对象的方法
KR102529120B1 (ko) 영상을 획득하는 방법, 디바이스 및 기록매체
US10681270B2 (en) Electronic device for creating panoramic image or motion picture and method for the same
US9516223B2 (en) Motion-based image stitching
US8908991B2 (en) Image processing apparatus, image processing method and storage medium
US9781341B2 (en) Image processing system, information processing device, information storage device, and image processing method
US8994785B2 (en) Method for generating video data and image photographing device thereof
JP6417797B2 (ja) 情報端末装置、情報処理方法、システムおよびプログラム
US9781340B2 (en) Image processing system, information processing device, information storage device, and image processing method
US20140363044A1 (en) Efficient Machine-Readable Object Detection and Tracking
JP5774226B2 (ja) 方位センサに基づくホモグラフィ分解の曖昧性の解決
JP2012151796A (ja) 画像処理装置と画像処理方法およびプログラム
JP6208431B2 (ja) 情報処理システム、情報処理装置、情報処理プログラム、および、情報処理方法
US10275917B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP5159189B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5769755B2 (ja) 画像処理システム、画像処理装置及び画像処理方法
JP5891879B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2015072091A1 (ja) 画像処理装置、画像処理方法及びプログラム記憶媒体
KR20180017591A (ko) 카메라 장치, 디스플레이 장치 및 그 장치에서 움직임을 보정하는 방법
US10839549B2 (en) Apparatus and method for estimating position of image capturing unit
JP2021507332A (ja) ナビゲーションガイドを生成するための方法および装置
JP6756103B2 (ja) 電子機器、表示システム、表示装置、撮像装置、表示制御方法及びプログラム
CN107767712B (zh) 调整匹配度的方法、装置、存储介质及电子设备
JP4878396B2 (ja) 画像認識プログラム、画像認識装置、画像認識システム、および画像認識方法
JP6514386B1 (ja) プログラム、記録媒体及び画像生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160208

R150 Certificate of patent or registration of utility model

Ref document number: 5891879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150