JP5477349B2 - 画像合成装置、及び画像検索方法、プログラム - Google Patents

画像合成装置、及び画像検索方法、プログラム Download PDF

Info

Publication number
JP5477349B2
JP5477349B2 JP2011185936A JP2011185936A JP5477349B2 JP 5477349 B2 JP5477349 B2 JP 5477349B2 JP 2011185936 A JP2011185936 A JP 2011185936A JP 2011185936 A JP2011185936 A JP 2011185936A JP 5477349 B2 JP5477349 B2 JP 5477349B2
Authority
JP
Japan
Prior art keywords
image
parallax
background image
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011185936A
Other languages
English (en)
Other versions
JP2012095277A (ja
Inventor
清志 荻島
良尚 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011185936A priority Critical patent/JP5477349B2/ja
Priority to CN201110295691.9A priority patent/CN102572459B/zh
Priority to US13/247,150 priority patent/US8995750B2/en
Publication of JP2012095277A publication Critical patent/JP2012095277A/ja
Application granted granted Critical
Publication of JP5477349B2 publication Critical patent/JP5477349B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Description

本発明は、立体画像データに対して他の立体画像データを合成する画像合成装置、及び画像検索方法、プログラムに関する。
従来、デジタルカメラなどで撮影した画像に素材画像を合成する技術が知られている(特許文献1参照)。また、双方間に視差が存在する左右一対の画像、すなわち画像内における同一の物体の位置が左右にずれた左目用画像と右目用画像とを用意し、観察者に左目用画像を左目で観察させ、かつ右目用画像を右目で観察させることによって、画像を立体的に視認(立体視)させる技術が知られている(特許文献2参照)。
特開2004−134950号公報 特開平11−341522号公報
ところで、特許文献2に記載された技術により立体視される画像(以下、立体画像という。)であっても、それを構成する左目用画像と右目用画像とは、デジタルカメラなどで撮影した画像と同様の静止画像である。したがって、ある立体画像に対して、例えば他の立体画像から、人物等のような独立した物体として認識される部分(以下、オブジェクトという。)に相当する部分画像(以下、オブジェクト画像という。)を切り出し、切り出した部分画像を合成することができる。すなわち背景となる立体画像を構成する左目用画像にオブジェクト画像の左目用画像を上書き合成し、かつ背景となる立体画像を構成する右目用画像にオブジェクト画像の右目用画像を上書き合成すれば、新たな立体画像を得ることができる。
しかしながら、立体画像に、当該立体画像を立体視したときの距離感が互いに異なる複数のオブジェクトが存在するときには、相対的に手前に存在するように知覚されるオブジェクトの一部が、相対的に奥に存在するように知覚される他のオブジェクトによって隠れていると、立体画像が非常に違和感のあるものとなってしまう。そのため、予め用意されている複数のオブジェクト画像の何れかを、背景となる立体画像の任意の箇所に合成する場合には、合成後の立体画像における他のオブジェクトとの距離感の違い等を考慮して合成に適したオブジェクト画像を選択する必要がある。
係ることから、オブジェクト画像の選択に際しては、例えば、作業者が背景となる立体画像と個々のオブジェクト画像とを立体視することによって、オブジェクト画像毎に合成後の立体画像における違和感の有無を確認する必要がある。したがって、オブジェクト画像の選択に多大な労力を費やすこととなり、作業者の負担が大きくなるという問題があった。
そこで、本発明は、立体画像に他の立体画像である素材画像を合成する際、合成に適した素材画像を作業者が容易に選択することができる画像合成装置、及び画像検索方法、プログラムを提供すること目的とする。
上記の目的を達成するために、請求項1記載の発明に係る画像合成装置にあっては、第一立体画像である背景画像内に存在する1つのオブジェクトに対応する一の領域の視差と他のオブジェクトに対応する他の領域の視差とを導出する視差導出手段と、各々が特定のオブジェクトとして立体視される複数の第二立体画像のうちから、前記背景画像における前記一の領域の視差とは異なる視差を有する画像を素材画像の選択候補として検索する選択候補検索手段と、前記選択候補検索手段により検索された選択候補から前記素材画像を選択する画像選択手段と、前記画像選択手段により選択された前記素材画像を前記背景画像に合成する画像合成手段と、を備え、前記選択候補検索手段は、前記背景画像における前記一の領域の視差が前記他の領域の視差よりも小さい場合、前記複数の第二立体画像のうちから、前記背景画像における前記他の領域に重ならないように配置可能なサイズを有する画像を前記素材画像の選択候補として検索することを特徴とする。
また、請求項13記載の発明に係る画像検索方法にあっては、第一立体画像である背景画像内に存在する1つのオブジェクトに対応する一の領域の視差と他のオブジェクトに対応する他の領域の視差とを導出する工程と、各々が特定のオブジェクトとして立体視される複数の第二立体画像のうちから、前記背景画像における前記一の領域の視差とは異なる視差を有する画像を素材画像の選択候補として検索する工程と、検索された選択候補から前記素材画像を選択する工程と、を含み、前記検索候補として検索する工程は、前記背景画像における前記一の領域の視差が前記他の領域の視差よりも小さい場合、前記複数の第二立体画像のうちから、前記背景画像における前記他の領域に重ならないように配置可能なサイズを有する画像を前記素材画像の選択候補として検索することを特徴とする。
また、請求項14記載の発明に係るプログラムにあっては、コンピュータに、第一立体画像である背景画像内に存在する1つのオブジェクトに対応する一の領域の視差と他のオブジェクトに対応する他の領域の視差とを導出する処理と、各々が特定のオブジェクトとして立体視される複数の第二立体画像のうちから、前記背景画像における前記一の領域の視差とは異なる視差を有する画像を素材画像の選択候補として検索する処理と、検索された選択候補から前記素材画像を選択する処理と、を実行させ、前記検索候補として検索する処理は、前記背景画像における前記一の領域の視差が前記他の領域の視差よりも小さい場合、前記複数の第二立体画像のうちから、前記背景画像における前記他の領域に重ならないように配置可能なサイズを有する画像を前記素材画像の選択候補として検索することを特徴とする。
本発明によれば、立体画像に他の立体画像である素材画像を合成する際、合成に適した素材画像を作業者が容易に選択することが可能となる。
デジタルフォトフレームの外観図であり、(a)は正面図、(b)は側面図。 デジタルフォトフレームのシステム構成図。 表示部に表示される画面の説明図であり、(a)は電源がオン状態にされたとき、(b)は画像編集が選択されているときの説明図。 画像合成処理を説明するためのフローチャート。 表示部に表示される画面の説明図であり、(a)は背景画像選択画面、(b)は画像合成領域選択画面、(c)は前景画像選択画面、(d)は画像配置調整画面をそれぞれ例示した図。 視差の導出処理を説明するためのフローチャート。 ラプラシアンフィルタの説明図であり、(a)は3×3マトリクスのフィルタ構成図、(b)は5×5マトリクスのフィルタ構成図。 二値化処理によって得られたエッジ画像データの説明図。 オブジェクト画像作成処理を説明するためのフローチャート。 表示部に表示される画面の説明図であり、(a)は被抽出画像選択画面、(b)はオブジェクト画像選択画面をそれぞれ例示した図。
<第一実施形態>
以下、本発明を実施するための形態について説明する。本実施形態は、本発明の画像合成装置としての機能を備えたデジタルフォトフレームに関するものである。ここで、デジタルフォトフレームは、例えばデジタルカメラにより撮影され画像データとして記録された画像を鑑賞用として表示することを主たる目的とした装置である。また、本実施形態のデジタルフォトフレームは、立体画像として表示する機能、及び立体画像を合成する機能も備えている。以下、本実施形態のデジタルフォトフレーム1を、図面を参照して説明する。
図1に示すように、本実施形態のデジタルフォトフレーム1は、本体部20の前面に設けられた表示部2と、電源スイッチ3aと、表示部2に対して重なるように配置されたタッチパネル3bと、種々の画像データが記憶されたカード型の記憶メディア4が装着されるメディア装着部5とを備えている。また、デジタルフォトフレーム1の本体部20の背面には、本体部20を後方にわずかに傾斜させて据え置くことが可能なように、本体部20に対して開閉自在なスタンド21が備え付けられている。
図2は、デジタルフォトフレーム1の電気的構成を示すシステム構成図である。図2に示すように、デジタルフォトフレーム1は、前述した表示部2と、電源スイッチ3aと、タッチパネル3bと、メディア装着部5との他に、内蔵メモリ6と、制御部7とを備えている。
メディア装着部5は、具体的には、記憶メディア4と制御部7との間におけるデータの入出力を制御する入出力インターフェースであり、そのための回路から構成される。記憶メディア4には複数の画像データが記憶されている。
記憶メディア4に記憶されている画像データは、例えばデジタルカメラにより撮影により取得された画像データと、立体画像データとが含まれる。
デジタルカメラにより取得された画像データは、例えばJPEG(Joint Photographic Expert Group)方式により圧縮された画像データ本体に、当該画像データ本体のサイズ(縦、及び横方向の画素数)等の基本情報と共に、撮影日時や、サムネイル画像(縮小画像)データ等の付加情報が付加され、画像ファイルとして記憶されているデータである。
また、立体画像データは、立体画像を表す画像データであり、例えばステレオカメラにより撮影された左右一対の写真(左目用画像と右目用画像)をそれぞれデジタルデータ化した左目用画像データと右目用画像データや、単一の画像データから画像処理技術を用いて生成された左目用画像データと右目用画像データである。
左目用画像データ、及び右目用画像データも、例えばJPEG方式により圧縮された画像データ本体に付加情報が付加され、画像ファイルとして記憶されているデータである。但し、双方の画像データには、付加情報として、画像データ本体のサイズ等の基本情報と共に、それが立体画像データであることを示す識別情報や、左目用画像と右目用画像とのいずれのデータであるのかを示す識別情報等が付加されている。
表示部2は、例えば液晶表示モジュールや有機EL表示モジュールである。表示部2は、メディア装着部5を介して記憶メディア4から読み込まれた画像データに基づく通常の2次元画像や立体画像、及び1又は複数の操作用の画像(以下、ソフトキーという。)を含む各種の表示メニュー等を表示する。さらに表示部2は、制御部7により生成された立体画像データに基づく立体画像も表示する。
ここで、デジタルフォトフレーム1において用いられる立体画像の表示方式は、例えば所謂パララックスバリア方式や時分割表示方式である。
パララックスバリア方式は、左目用画像データに基づいて階調制御される第1の画素と、右目用画像データに基づいて階調制御される第2の画素とを左右方向に交互に配置して表示する一方、所定の観察位置にいるユーザに、視差バリアを介して第1の画素を左目のみで視認させ、且つ視差バリアを介して第2の画素を右目のみで視認させる方式である。したがって、パララックスバリア方式を採用したものでは、表示部2が、表示画面の手前に、視差バリアを表示(形成)する液晶パネル等のバリア表示素子を備えた構成となる。
また、時分割表示方式は、左目用画像データに基づいた左目用画像と右目用画像データに基づいた右目用画像とを交互に時分割的に表示する一方、左目用画像と右目用画像との表示タイミングに同期してユーザの左目の視界と右目の視界とを交互に遮断する方式である。したがって、時分割表示方式を採用したものでは、立体画像の観察時に、左目用画像と右目用画像との表示タイミングに同期して左右の視界を交互に遮断するメガネ等の視界制御手段を別途ユーザに着用させる必要がある。
タッチパネル3bは、表示部2に1又は複数のソフトキーが表示された状態において、表示部2の表示画面内におけるユーザのタッチ位置を入力情報として検出する入力装置である。タッチパネル3bには、例えば公知の抵抗膜方式のタッチパネルや静電容量方式のタッチパネルを適用することができる。
抵抗膜方式は、比較的透明度の高いITO(Indium Tin Oxide)からなる透明電極の抵抗による分圧比を測定することによりタッチ位置を検出する方式である。静電容量方式は、ITO膜によって形成された互いに交差して延在する複数本の透明な電極パターンをセンサとして、表面電荷の変化を捕らえることによりタッチ位置を検出する方式である。
内蔵メモリ6は、電源が切られても記憶内容が保持され、且つ記憶データが書き換え可能なフラッシュメモリであり、より具体的にはEEPROM(Electric Erasable Programmable Read Only Memory)である。内蔵メモリ6には、後述するようにデジタルフォトフレーム1において生成される立体画像データやオブジェクト画像データ等が記憶されている。
なお、詳細については後述するが、オブジェクト画像データは、人物等のような特定の物体として立体視される立体画像(素材画像)を表す立体画像データであり、左目用画像データと右目用画像データとからなる一組の画像データである。また、左目用画像データと右目用画像データとは、それぞれが表示座標毎に、色成分として赤色成分、緑色成分及び青色成分の階調値を有しているカラー画像データである。
制御部7は、CPU(Central Processing Unit)8や、CPU8で実行される制御プログラムが記憶されたROM9(Read Only Memory)、さらには作業領域になるRAM10(Random Access memory)等から構成される。
ROM9は、CPU8にシステム全体を制御させるための複数種のプログラムやデータが記憶されているメモリである。ROM9に記憶されているプログラムには、本実施形態においてCPU8を視差導出手段と、検索手段と、合成手段として機能させる立体画像合成プログラムが含まれる。
RAM10は、CPU8がデジタルフォトフレーム1の制御に際し、種々のデータを一時記憶する作業用のメモリであり、具体的にはSDRAM(Synchronous dynamic random-access memory)等である。
次に、以上の構成からなるデジタルフォトフレーム1における動作について説明する。デジタルフォトフレーム1においては、ユーザにより電源スイッチ3aが操作されて電源がオン状態になると、CPU8が、ROM9に記憶されているプログラムに基づいた制御を開始し、直ちに機能選択メニューを表示部2に表示させる。
図3(a)は、表示部2に表示される機能選択メニューG1の一例を示したものである。機能選択メニューG1は、画像検索機能が割り当てられたソフトキー11aと、スライドショー機能が割り当てられたソフトキー11bと、画像編集機能が割り当てられたソフトキー11cとから構成される。
ここで、画像検索機能は、記憶メディア4に画像データとして記憶されている画像から、好みの画像をユーザに選択させ、選択された画像を表示部2に表示させる機能であり、スライドショー機能は、記憶メディア4に画像データとして記憶されている複数の画像を所定の順にスライドショー表示する機能である。また、画像編集機能は、画像データとして記憶されている画像を編集する機能ある。
機能選択メニューG1を表示している間は、ユーザにより何れかのソフトキー11a,11b,11cがタッチされると、つまりタッチパネル3bにおいて何れかのソフトキー11a,11b,11cに対応する領域内の位置がタッチ位置として検出されると、CPU8が、タッチされたソフトキーに割り当てられた機能に応じた処理に移行する。
このとき、ユーザにより画像編集機能が割り当てられたソフトキー11cがタッチされると、CPU8が、図3(b)に示すような編集内容選択メニューG2を表示部2に表示させる。編集内容選択メニューG2は、絵画調変換機能が割り当てられたソフトキー11dや、画像合成機能が割り当てられたソフトキー11e、及び「戻る」が記載されたソフトキー11fから構成される。
絵画調変換機能とは、記憶メディア4に画像データとして記憶されている画像から、好みの画像をユーザに選択させ、選択された画像(画像データ)に画像処理を施すことにより、元の画像を絵画調画像に変換する機能である。なお、絵画調画像は、日本画調、西洋画調、水彩画調、水墨画調、ペン画調等の特定の画調(絵画的な特徴)を備えた画像である。画像合成機能とは、記憶メディア4に立体画像データとして記憶されている異なる2つの立体画像を合成する機能である。なお、画像合成機能の詳細については後述する。
引き続き、デジタルフォトフレーム1においては、編集内容選択メニューG2においてユーザにより絵画調変換機能が割り当てられたソフトキー11dがタッチされると、CPU8が絵画調変換機能に応じた処理に移行する。また、「戻る」と記載されたソフトキー11fがタッチされると、CPU8が機能選択メニューG1を再び表示部2に表示させる。そして、編集内容選択メニューG2においてユーザにより画像合成機能が割り当てられたソフトキー11eがタッチされると、CPU8が画像合成機能に応じた以下に説明する画像合成処理を実行する。
本実施の形態における画像合成処理は、ユーザにより背景用として選択された立体画像に、他の立体画像から抽出したオブジェクト画像を前景画像として上書き合成する処理である。以下、CPU8が実行する画像合成処理の具体的な処理手順を、図4に示したフローチャートに基づいて説明する。
画像合成処理においてCPU8は、まず図5(a)に示した背景画像選択画面G3を表示部2に表示させる(ステップSA1)。背景画像選択画面G3は、例えば「背景画像を選択してください」等のメッセージ12aと、背景画像の選択候補を示す画像リスト14aと、「戻る」と記載されたソフトキー11gと、「決定」と記載されたソフトキー11hと、「オブジェクト作成」と記載されたソフトキー11iとから構成される。
ここで、背景画像選択画面G3の表示に際してCPU8は、記憶メディア4に記憶されている立体画像データのみを選択対象として画像リスト14aにリスト表示する。なお、図5(a)には、便宜上、画像リスト14aとして、立体画像データを構成する左目用画像データ、又は右目用画像データのうち予め決められている一方の画像ファイル名をリスト表示するものを示した。しかし、実際には、立体画像データを構成する左目用画像データ、又は右目用画像データの予め決められている一方の画像データにより表される画像の縮小画像であるサムネイル画像をリスト表示することが好ましい。
なお、CPU8は、背景画像選択画面G3を表示している間において、タッチパネル3bのタッチ操作によりユーザによって、画像リスト14aに表示中のいずれかの画像ファイル名が選択されると、選択された画像ファイル名を白抜き表示する。
そして、CPU8は、ユーザによって「戻る」と記載されたソフトキー11gがタッチ(操作)されたときには(ステップSA3:YES)、直ちに画像合成処理を終了して編集内容選択メニューG2を再び表示部2に表示させる。
また、CPU8は、ユーザによって「オブジェクト作成」と記載されたソフトキー11iがタッチされたときには(ステップSA4:YES)、オブジェクト画像作成処理を実行する(ステップSA7)。
詳細については後述するが、オブジェクト画像作成処理は、記憶メディア4に記憶されている立体画像データからオブジェクト画像データを切り出し、切り出したオブジェクト画像データを、予め内蔵メモリ6に記憶させておくための処理である。
そして、CPU8は、画像リスト14aに表示されている何れかの画像ファイル名(立体画像データ)が選択された状態で、「決定」と記載されたソフトキー11hがタッチされると(ステップSA2:YES)、図5(b)に示した画像合成領域選択画面G4を表示部2に表示させる(ステップSA5)。画像合成領域選択画面G4は、「合成領域を選択してください」等のメッセージ12bと、選択された立体画像データに基づいた立体画像13aと、「戻る」と記載されたソフトキー11jから構成される。
引き続き、CPU8は、ユーザに選択された立体画像データから、立体画像データにより表される立体画像内に存在するオブジェクト毎に、立体画像データを構成する左目用画像データと右目用画像データとの間に存在する視差を取得するための視差導出処理を実行する(ステップSA6)。ここで、CPU8がオブジェクト毎に取得する視差は、立体画像を観察したときの立体画像内の個々のオブジェクトについて知覚される距離感を定量化した情報である。
以下、CPU8が実行する視差導出処理の具体的な処理手順を、図6に示したフローチャートに基づいて詳述する。ここでは、主として立体画像データがカラー画像データである場合について説明する。
視差導出処理においてCPU8は、例えば下記の〔数1〕を用いて左目用画像データと右目用画像データとを個別にグレースケール変換する(ステップSB1)。
〔数1〕
Y(i)=0.298912×R(i)+0.586611×G(i)+0.114478×B(i)
なお、〔数1〕において、Y(i)は整数に丸め処理され、また、iは階調制御される画素の座標位置を示している。
次に、CPU8は、グレースケール変換した左目用画像データと右目用画像データに対して、個別にラプラシアンフィルタ処理を施し、画像のエッジが強調された左目用画像データと右目用画像データを生成する(ステップSB2)。ラプラシアンフィルタとしては、例えば、図7(a)に示したような3×3マトリクスのデジタルフィルタや、図7(b)に示したような5×5マトリクスのデジタルフィルタを用いることができる。
次に、CPU8は、エッジが強調された左目用画像データと右目用画像データに対して、所定の階調閾値を境に個別に二値化処理することによって、画像のエッジが抽出されたエッジ画像データとしての左目用画像データと右目用画像データを生成する(ステップSB3)。以下の説明においては、左目用画像データに基づいて生成されたエッジ画像データを左目側エッジ画像データと呼び、右目用画像データに基づいて生成されたエッジ画像データを右目側エッジ画像データと呼ぶことにより両者を区別する。
図8は、二値化処理によって得られる左目側エッジ画像データ13Lと、右目側エッジ画像データ13Rとの例を示した図である。ここで、左目側エッジ画像データ13Lと、右目側エッジ画像データ13Rとにおいては、互いに対応するオブジェクト(人物等の独立した物体として認識される部分領域)を表す輪郭として枠状のエッジをそれぞれ得ることができる。即ち、図8に示したように、立体画像内に2つのオブジェクトが存在していた場合には、左目側エッジ画像データ13Lにおいては2つの枠状のエッジLfa、Lfbが得られ、かつ右目側エッジ画像データ13Rにおいては2つの枠状のエッジRfa、Rfbが得られる。
ここで、左目側エッジ画像データ13Lと右目側エッジ画像データ13Rとの間においては、エッジLfaで表される領域Ldaと、エッジRfaで表される領域Rdaとが、立体画像に存在する同一のオブジェクトAに対応し、また、エッジLfbで表される領域Ldbと、エッジRfbで表される領域Rdbとが立体画像に存在する同一のオブジェクトBに対応することとなる。
そして、互いに対応するエッジLfaとエッジRfaとの間に存在する画像内における左右方向の位置ずれ量が一方のオブジェクトAの視差であり、同様に互いに対応するエッジLfbとエッジRfbとの間に存在する画像内における左右方向の位置ずれ量が他方のオブジェクトBの視差である。
係ることから、二値化処理を行った後、CPU8は、例えば左目側エッジ画像データ13Lに存在するエッジLfa,Lfbの座標位置を個別に取得すると共に、ブロックマッチング等の手法を用いたパターンマッチング処理によって、右目側エッジ画像データ13Rに存在する、エッジLfa,Lfbに対応するエッジRfa,Rfbの座標位置を個別に取得する(ステップSB4)。
しかる後、CPU8は、エッジLfaとエッジRfaとの座標位置から、エッジLfaとエッジRfaとの間における左右方向の位置ずれ量を演算し、演算結果を一方のオブジェクトAの視差として導出し、かつエッジLfbとエッジRfbとの座標位置から、エッジLfbとエッジRfbとの間における左右方向の位置ずれ量を演算し、演算結果を他方のオブジェクトAの視差として導出する(ステップSB5)。
なお、二値化処理によって得られるエッジ画像データが、図8に示したような左目側エッジ画像データ13Lと右目側エッジ画像データ13Rとである場合、枠状のエッジで囲まれていない領域Ln、Rnについては視差のない画像領域としてシフト量をゼロとする。
図4に戻り、視差導出処理が終了すると、引き続きCPU8は、図5(b)に示した画像合成領域選択画面G4において、ユーザにより立体画像13aの任意の座標位置がタッチ(指定)されたか否か、及び「戻る」と記載されたソフトキー11jがタッチされたいか否かを逐次確認する(ステップSA8,SA9)。
そして、CPU8は、ユーザにより立体画像13aの任意の座標位置がタッチされると(ステップSA8:YES)、ユーザによりタッチされた座標位置に基づいて、内蔵メモリ6に予め記憶されている複数のオブジェクト画像データの中から、立体画像13aへの合成に適したオブジェクト画像データを検索する(ステップSA10)。
ここで、検索対象となるオブジェクト画像データは、後述するステップSA7のオブジェクト画像作成処理でCPU8により作成されて内蔵メモリ6に記憶されているものであり、ユーザにより背景用として選択された立体画像に、前景画像として上書き合成するために使用される素材画像を表すデータである。より具体的には、例えば記憶メディア4に記憶されている立体画像データ(左目用画像データ、及び右目用画像データ)から切り出されたデータであり、立体画像データにより表される立体画像に存在する任意のオブジェクトに対応する領域の画像、つまりオブジェクト画像を表す画像データである。
また、オブジェクト画像データには、付加情報としてオブジェクト画像データのサイズと、形状と、視差とをそれぞれ示すデータが付加されている。サイズを示すデータは、オブジェクト画像データの画素数(面積)である。また、形状を示すデータは、オブジェクト画像データが切り出された立体画像データ(左目用画像データと右目用画像データの何れか一方)においてオブジェクトのエッジを表現していた画素群の画素毎の座標位置データである。また視差を示すデータは、先に説明したオブジェクト画像データが切り出された左目用画像データにより表される左目用画像と、右目用画像データにより表される右目用画像との間におけるオブジェクトの左右方向の位置ずれ量である。
そして、ステップSA10の処理に際してCPU8は、内蔵メモリ6に記憶されているオブジェクト画像データのうちから、各々に付加情報として付加されているデータによって示されるサイズと、形状と、視差とを確認することによって、次に述べる第1の条件と第2の条件とを共に満足する特定のオブジェクト画像データを検索する。
第1の条件は、CPU8が前述したステップSA6の視差導出処理で取得した個々のオブジェクトのうち、上述したステップSA8においてユーザによりタッチされた座標位置を領域内に含むオブジェクトの視差よりも大きな視差を有し、且つ、上述したステップSA8においてユーザによりタッチされた座標位置を領域内に含まない各オブジェクトのいずれの視差よりも大きな視差を有することである。また、第2の条件は、背景用として選択されている立体画像に存在する、より大きな視差を有する他のオブジェクトに重なることなく配置可能なオブジェクト画像を表すものであることである。
ここで、ステップSA10の処理においてCPU8により検索される特定のオブジェクト画像データを具体的には説明する。特定のオブジェクト画像データは、例えば図5(b)に示した画像合成領域選択画面G4の立体画像13aにおいて、一方のオブジェクトAの視差がP(ただし、P>0)、他方のオブジェクトBの視差がQ(ただし、Q>P)、2つのオブジェクトA,Bを除いた背景部分Cの視差が”0”であり、かつユーザが一方のオブジェクトA上の座標位置を指定した場合には以下のものである。
即ち特定のオブジェクト画像データは、一方のオブジェクトAと背景部分Cとからなる領域に収まるサイズを有するとともに、一方のオブジェクトAの視差Pよりも大きく且つ他方のオブジェクトBの視差Qよりも小さな視差を有するものである。また、特定のオブジェクト画像データは、一方のオブジェクトAと背景部分Cとからなる領域に収まるサイズ及び形状を有するとともに、一方のオブジェクトAの視差Pよりも大きく且つ他方のオブジェクトBの視差Qよりも小さな視差を有するものである。
また、特定のオブジェクト画像データは、2つのオブジェクトA,B及び背景部分Cからなる領域に収まるサイズを有し、かつ他方のオブジェクトBの視差Qよりも大きな視差を有するものである。また、特定のオブジェクト画像データは、2つのオブジェクトA,B及び背景部分Cからなる領域に収まるサイズ及び形状を有し、かつ他方のオブジェクトBの視差Qよりも大きな視差を有するものである。
なお、特定のオブジェクト画像データには、背景部分Cに収まるサイズを有する全てのオブジェクト画像データと、背景部分Cに収まるサイズ及び形状を有する全てのオブジェクト画像データとが含まれる。
つまり、特定のオブジェクト画像データは、それを立体画像13a内のユーザが指定した位置を含む領域に上書き合成したとき、合成後の立体画像においてユーザ(観察者)が他のオブジェクトA,Bとの関係において自然な距離感を知覚することができるオブジェクト画像を表す、合成に適したオブジェクト画像データである。
換言すると、特定のオブジェクト画像データは、視差がP以下の値を有するオブジェクト画像データと、視差がPからQの間で、かつ一方のオブジェクトAと背景部分Cとからなる領域に収まらないサイズを有するオブジェクト画像データと、視差がPからQの間で、かつ一方のオブジェクトAと背景部分Cとからなる領域に収まらないサイズ及び形状を有するオブジェクト画像データとを除いたものである。
つまり、特定のオブジェクト画像データは、それを立体画像13aにおいてユーザが指定した位置を含む領域に上書き合成したとき、合成後の立体画像においてユーザ(観察者)が他のオブジェクトA,Bとの関係において不自然な距離感を覚えるオブジェクト画像を表すオブジェクト画像データを除いたものである。
その後、CPU8は、ステップSA10の処理における検索が完了すると、その段階で図5(c)に示した前景画像選択画面G5を表示部2に表示させる。前景画像選択画面G5は、「オブジェクト画像を選択してください」等のメッセージ12cと、ステップSA10の処理において検索した特定のオブジェクト画像を選択候補として示す画像リスト14bと、「決定」と記載されたソフトキー11kと、「戻る」と記載されたソフトキー11mとから構成される。
なお、図5(c)においても、便宜上、画像リスト14bとして、オブジェクト画像データを構成する左目用画像データ、又は右目用画像データのうち予め決められている一方の画像ファイル名をリスト表示するものを示した。しかし、実際には、立体画像データを構成する左目用画像データ、又は右目用画像データの予め決められている一方の画像データにより表される画像の縮小画像であるサムネイル画像をリスト表示することが好ましい。
ここで、画像リスト14bに画像ファイル名でリスト表示されるオブジェクト画像データは、先に説明した第1の条件と第2の条件とを共に満足する特定のオブジェクト画像データにより表されるものだけである。つまり背景画像として選択中の立体画像におけるユーザに指定された位置への合成に適した特定のオブジェクト画像データである。
従って、ユーザは、例えば背景となる立体画像と内蔵メモリ6に記憶されている個々のオブジェクト画像とを立体視することによって、オブジェクト画像毎に、合成後の立体画像における違和感の有無を確認するといった煩雑な作業を行う必要がない。そのため、この合成処理の際に必要な時間や手間を大幅に削減することができるようになる。
なお、CPU8は、前景画像選択画面G5を表示している間、タッチパネル3bのタッチ操作によりユーザによって、画像リスト14bに表示中のいずれかの画像ファイル名が選択されると、選択された画像ファイル名を白抜き表示する。
そして、CPU8は、タッチパネル3bを介してユーザにより、前景画像として何れかの立体画像データが選択された状態で、「決定」と記載されたソフトキー11kがタッチされると(ステップSA12:YES)、図5(d)に示した画像配置調整画面G6を表示部2に表示させる(ステップSA14)。
画像配置調整画面G6には、例えば「画像配置を調整してください」等のメッセージ12dと、前景画像選択画面G5でユーザにより選択されたオブジェクト画像データに基づくオブジェクト画像13bを、背景画像選択画面G3でユーザにより選択された立体画像データに基づく背景となる立体画像13a上に重なった画像が含まれる。また、画像配置調整画面G6には、「決定」と記載されたソフトキー11n、及び「戻る」と記載されたソフトキー11pが含まれる。
なお、前景画像選択画面G5で「戻る」と記載されたソフトキー11mが操作されたときには(ステップSA13:YES)、画像合成領域選択画面G4を表示部2に表示させる。
画像配置調整画面G6を表示している間、CPU8は、オブジェクト画像13bが表示されている位置に指を当てて該指をタッチパネル3上でスライドするように動かすことにより、その動作に応じるようにして、立体画像13aに対するオブジェクト画像13bの配置位置を調整する。即ち、このとき、指の動作に応じるようにして、オブジェクト画像13bの描画位置を逐次変更する。
そして、CPU8は、「決定」と記載されたソフトキー11nがタッチされると(ステップSA15:YES)、最終的にオブジェクト画像13bが重ねられていた領域の立体画像13aにおける各画素の階調値を、元の階調値からオブジェクト画像の画素の階調値に置換処理することにより、立体画像13aにオブジェクト画像13bが合成された新たな立体画像を表す立体画像データを生成し、生成した立体画像データに所定のファイル名を付与して内蔵メモリ6に記憶させる(ステップSA17)。
これにより、CPU8は画像合成処理を終了し、デジタルフォトフレーム1においては、図3(a)に示した画面表示を表示した状態に戻る。なお、CPU8は、画像配置調整画面G6で、「戻る」と記載されたソフトキー11pが操作されたときには(ステップSA16:YES)、前景画像選択画面G5を表示部2に表示させる。
次に、背景画像選択画面G3において「オブジェクト作成」と記載されたソフトキー11iが操作されときCPU8が実行するオブジェクト画像作成処理の処理手順を、図9に示したフローチャートに基づいて詳述する。
オブジェクト画像作成処理においてCPU8は、図10(a)に示した被抽出画像選択画面G7を表示部2に直ちに表示させる(ステップSC1)。被抽出画像選択画面G7は、例えば「オブジェクトを抽出する画像を選択してください」等のメッセージ15aと、記憶メディア4に記憶されている立体画像データを、被抽出画像の選択候補として示す画像リスト16aと、「決定」と記載されたソフトキー17aと、「戻る」と記載されたソフトキー17bとから構成される。
なお、図10(a)においても、便宜上、画像リスト16aとして、立体画像データを構成する左目用画像データ、又は右目用画像データのうち予め決められている一方の画像ファイル名をリスト表示するものを示した。しかし、実際には、立体画像データを構成する左目用画像データ、又は右目用画像データの予め決められている一方の画像データにより表される画像の縮小画像であるサムネイル画像をリスト表示することが好ましい。
また、被抽出画像選択画面G7で表示される画像リスト16aの内容は、上述の画像合成処理のときから記憶メディア4に記憶されている立体画像データに変化がないときには、図5(a)に示した背景画像選択画面G3で表示される画像リスト14aの内容と一致する。
また、CPU8は、被抽出画像選択画面G7を表示している間において、タッチパネル3bのタッチ操作によりユーザによって、画像リスト16aに表示中のいずれかの画像ファイル名が被抽出画像として選択されると、選択された画像ファイル名を白抜き表示する。なお、被抽出画像選択画面G7で、「戻る」と記載されたソフトキー17bがタッチされたときには(ステップSC3:YES))、CPU8は、オブジェクト画像作成処理を直ちに終了し、背景画像選択画面G3を表示部2に表示させる(ステップSA1)。
そして、CPU8は、画像リスト14aに表示されている何れかの画像ファイル名(立体画像データ)が被抽出画像として選択された状態で、「決定」と記載されたソフトキー17aがタッチされると(ステップSC2:YES)、オブジェクト検出処理を実行する(ステップSC4)。オブジェクト検出処理は、立体画像データにより表される被抽出画像(立体画像)に存在する、立体画像データを構成する左目用画像データと右目用画像データとの間に視差を有するオブジェクトを検出する処理である。
オブジェクト検出処理においてCPU8は、まず、被抽出画像として選択された立体画像データを対象として、ステップSA6の処理と同様の視差導出処理(図6参照)を行うことにより、被抽出画像に存在する1又は複数のオブジェクトをいったん検出し、検出したオブジェクト毎に視差を導出する。しかる後、CPU8は、視差が”0”でないオブジェクトのみを、最終的にオブジェクトとして抽出する。
次に、CPU8は、図10(b)に示したオブジェクト画像選択画面G8を表示部2に表示させる(ステップSC5)。オブジェクト画像選択画面G8は、「オブジェクトを選択してください」等のメッセージ15bと、オブジェクト検出処理で抽出されたオブジェクト18a,18bが強調表示された状態の被抽出画像18と、「戻る」と記載されたソフトキー17cとから構成される。
なお、CPU8は、被抽出画像18におけるオブジェクトの強調表示を、例えば、オブジェクトのみに対してカラー表示を維持し、オブジェクト以外の画像領域をグレースケール表示することによって、オブジェクトをより他の画像領域と区別し易くする。
引き続き、オブジェクト画像選択画面G8で、タッチパネル3bを介してユーザにより、何れかのオブジェクトが指定されると(ステップSC:YES)、CPU8は、指定されたオブジェクトに対応する領域の画像データを維持するとともに、他の画像領域の画像データを削除したオブジェクト画像データを生成し、さらには、該オブジェクト画像データに所定のファイル名を付与して内蔵メモリ6に記憶させる(ステップSC8)。
これにより、CPU8はオブジェクト画像作成処理を終了し、背景画像選択画面G3を表示部2に表示させる(ステップSA1)。
なお、ステップSC8の処理においてオブジェクト画像データを内蔵メモリ6に記憶させる際、CPU8は、オブジェクト画像データに、当該オブジェクト画像データのサイズと、形状と、視差とをそれぞれ示すデータを付加情報として付加する。
また、CPU8は、オブジェクト画像選択画面G8で、「戻る」と記載されたソフトキー17cが操作されたときには(ステップSC7:YES)、被抽出画像選択画面G7を表示部2に表示させる。
ここで、以上説明した第一実施形態においては、画像合成処理において、背景画像として選択中の立体画像におけるユーザに指定された位置への合成に適したオブジェクト画像データを選択候補として検索する際、上述した第1の条件と第2の条件とを共に満足するオブジェクト画像データを検索したが、第1の条件のみを満足するオブジェクト画像データを選択候補として検索してもよい。つまり選択候補として、背景画像として選択中の立体画像におけるユーザに指定された位置の視差よりも大きな視差を有するオブジェクト画像データを選択候補として検索してもよい。さらには、第1の条件を、CPU8が前述したステップSA6の視差導出処理で取得した個々のオブジェクトのうち、上述したステップSA8においてユーザによりタッチされた座標位置を領域内に含むオブジェクトの視差よりも大きな視差を有することにしてもよい。
上述したような第1の条件のみを満足するオブジェクト画像データを選択候補として検索する場合であっても、例えば複数のオブジェクト画像を立体視することによって、オブジェクト画像毎に、合成後の立体画像における違和感の有無を確認するような場合に比べれば、合成処理の際に必要な時間や手間を大幅に削減することができるようになる。
さらには、上述した第一実施形態において、画像配置調整画面G6を表示している間、逐次変更されるオブジェクト画像13bの任意の座標位置が、オブジェクトBの任意の座標位置に重ならないように、オブジェクト画像13bの描画位置を規制するようにしてもよい。即ち、オブジェクト画像13bの任意の座標位置が、指の動作に応じて、オブジェクトBの任意の座標位置に重ならない領域から該オブジェクトBの任意の座標位置に重なる領域に移動した際には、該オブジェクトBの任意の座標位置に重なる領域に移動する直前の座標に、オブジェクト画像13bを固定表示し、さらに指の動作に応じて、該オブジェクトBの任意の座標位置に重なる領域から該オブジェクトBの任意の座標位置に重ならない領域に移動した際には、該指の接触位置に応じた位置に、オブジェクト画像13bを再表示するようにしてもよい。
<第二実施形態>
本実施形態は、大略、上述した第一実施形態と同様であるので、以下では、第一実施形態と異なる点についてのみ説明する。本実施形態においては、立体画像13aへの合成に適したオブジェクト画像データを検索する際に用いられる条件が、上述の第一実施形態と異なっている。本実施形態では、第1の条件は、CPU8が前述したステップSA6の視差導出処理で取得した個々のオブジェクトのうち、いずれのオブジェクトの視差よりも大きな視差を有することである。また、第2の条件は、背景用として選択されている立体画像における全領域、即ち、オブジェクトAとオブジェクトBと背景部分Cとからなる領域に収まるオブジェクト画像を表すものであることである。さらに、本実施形態において、画像配置調整画面G6を表示している間、逐次変更されるオブジェクト画像13bの任意の座標位置が、背景用として選択されている立体画像における全領域からはみ出さないように、オブジェクト画像13bの描画位置を規制するようにしてもよい。
<第三実施形態>
本実施形態は、大略、上述した第一実施形態と同様であるので、以下では、第一実施形態と異なる点についてのみ説明する。本実施形態においては、立体画像13aへの合成に適したオブジェクト画像データを検索する際に用いられる条件が、上述の第一実施形態と異なっている。本実施形態では、第1の条件は、CPU8が前述したステップSA6の視差導出処理で取得した個々のオブジェクトのうち、いずれのオブジェクトの視差よりも小さな視差を有することである。また、第2の条件は、背景用として選択されている立体画像に存在する、いずれのオブジェクトにも重なることなく配置可能な、即ち、オブジェクトAとオブジェクトBとからなる領域に重ならずに且つ背景部分Cからなる領域に収まるオブジェクト画像を表すものであることである。さらに、本実施形態において、画像配置調整画面G6を表示している間、逐次変更されるオブジェクト画像13bの任意の座標位置が、オブジェクトAの任意の座標位置とオブジェクトBの任意の座標位置とに重ならないように、オブジェクト画像13bの描画位置を規制するようにしてもよい。
なお、上述の各実施形態において、画像合成処理やオブジェクト画像作成処理の際に表示部2に表示する画像は、画像を立体的に視認可能なように左目用画像データと右目用画像データとを用いて表示してもよいし、画像を2次元平面的に視認可能なように左目用画像データと右眼用画像データとのうちの一方のみを用いて表示してもよい。またさらには、ユーザによって立体的に表示するか否かを選択可能に構成してもよい。
また、上述の各実施形態では、オブジェクト画像の視差を導出する際に、左眼用画像データと右眼用画像データのそれぞれに対してオブジェクトの輪郭を検出し、この輪郭の座標位置の違いに基づいてオブジェクト画像の視差を導出する場合について説明したが、他の方法を用いて導出してもよい。例えば、左眼用画像データと右眼用画像データの何れか一方から色情報等を考慮した特徴部分を直接的に抽出し、この抽出した特徴部分に対応する画像を他方の画像データから検出し、その後、互いの座標位置の位置ズレ量を視差として導出してもよい。いずれにしても、オブジェクト画像の視差は観察者において知覚される距離感を定量化した情報であり、オブジェクト画像データ間で比較可能な視差が導出できれば、視差は他の方法によって取得してもよい。
また、上述の各実施形態では、背景となる立体画像に前景となるオブジェクト画像を合成する際に、オブジェクト画像を等倍に維持したままで立体画像に合成する場合について説明したが、立体画像には、視差を維持しつつ画像サイズを拡大または縮小したオブジェクト画像を合成してもよい。
また、上述の各実施形態では、背景となる立体画像に合成する前景となるオブジェクト画像(素材画像)が、デジタルフォトフレーム1で作成されたものでる場合について説明したが、デジタルフォトフレーム1以外の任意の装置で作成されたものであってもよいし、さらには、例えば単一の画像から画像処理技術を用いて作成されたのであってもよい。
また上述の各実施形態では、本発明の画像合成装置をデジタルフォトフレームにおいて実施した場合について説明したが、本発明はデジタルカメラや携帯電話などの他の電子機器に適用してもよい。また、本発明は、汎用的なパーソナルコンピュータにおいても実施することができ、その場合には、所定のアプリケーションソフト(プログラム)に基づいてパーソナルコンピュータを動作させればよい。
1 デジタルフォトフレーム
2 表示部
4 記憶メディア
5 メディア装着部
6 内蔵メモリ
7 制御部
8 CPU
13L 左目側エッジ画像データ
13R 右目側エッジ画像データ
13a 立体画像
13b オブジェクト画像
18 被抽出画像
18a,18b オブジェクト
G3 背景画像選択画面
G4 画像合成領域選択画面
G5 前景画像選択画面
G6 画像配置調整画面
G7 被抽出画像選択画面
G8 オブジェクト画像選択画面

Claims (14)

  1. 第一立体画像である背景画像内に存在する1つのオブジェクトに対応する一の領域の視差と他のオブジェクトに対応する他の領域の視差とを導出する視差導出手段と、
    各々が特定のオブジェクトとして立体視される複数の第二立体画像のうちから、前記背景画像における前記一の領域の視差とは異なる視差を有する画像を素材画像の選択候補として検索する選択候補検索手段と、
    前記選択候補検索手段により検索された選択候補から前記素材画像を選択する画像選択手段と、
    前記画像選択手段により選択された前記素材画像を前記背景画像に合成する画像合成手段と、を備え、
    前記選択候補検索手段は、前記背景画像における前記一の領域の視差が前記他の領域の視差よりも小さい場合、前記複数の第二立体画像のうちから、前記背景画像における前記他の領域に重ならないように配置可能なサイズを有する画像を前記素材画像の選択候補として検索することを特徴とする画像合成装置。
  2. 前記選択候補検索手段は、前記複数の第二立体画像のうちから、前記背景画像における前記一の領域の視差よりも大きな視差を有する画像を前記素材画像の選択候補として検索することを特徴とする請求項1に記載の画像合成装置
  3. 前記画像合成手段は、前記背景画像における前記一の領域の視差が前記他の領域の視差よりも小さく、且つ、前記素材画像の視差が前記背景画像における前記他の領域の視差よりも小さい場合、前記素材画像を前記背景画像に合成する際に、前記背景画像における前記他の領域に重ならないように規制することを特徴とする請求項1又は2に記載の画像合成装置
  4. 前記選択候補検索手段は、前記背景画像における前記一の領域の視差が前記他の領域の視差よりも小さい場合、前記複数の第二立体画像のうちから、前記背景画像における前記他の領域に重ならないように配置可能なサイズおよび形状を有する画像を、前記素材画像の選択候補として検索することを特徴とする請求項1乃至3の何れか一項に記載の画像合成装置
  5. 前記選択候補検索手段は、前記背景画像における前記一の領域の視差が前記他の領域の視差よりも小さい場合、前記複数の第二立体画像のうちから、前記背景画像における前記他の領域の視差よりも大きな視差を有し、且つ、前記背景画像における全領域に収まるサイズを有する画像を、前記素材画像の選択候補として検索することを特徴とする請求項1に記載の画像合成装置
  6. 前記画像合成手段は、前記背景画像における前記一の領域の視差が前記他の領域の視差よりも小さく、且つ、前記素材画像の視差が前記背景画像における前記他の領域の視差よりも大きい場合、前記素材画像を前記背景画像に合成する際に、前記背景画像における全領域からはみ出さないように規制することを特徴とする請求項1に記載の画像合成装置
  7. 前記選択候補検索手段は、前記背景画像における前記一の領域の視差が前記他の領域の視差よりも小さい場合、前記複数の第二立体画像のうちから、前記背景画像における前記他の領域の視差よりも大きな視差を有し、且つ、前記背景画像における全領域に収まるサイズおよび形状を有する画像を、前記素材画像の選択候補として検索することを特徴とする請求項1に記載の画像合成装置
  8. 前記選択候補検索手段は、前記複数の第二立体画像のうちから、前記背景画像における前記一の領域の視差よりも小さな視差を有する画像を前記素材画像の選択候補として検索することを特徴とする請求項1に記載の画像合成装置
  9. 前記画像合成手段は、前記素材画像の視差が、前記背景画像における前記一の領域の視差よりも小さい場合、前記素材画像を前記背景画像に合成する際に、前記背景画像における前記一の領域に重ならないように規制することを特徴とする請求項1に記載の画像合成装置
  10. 前記選択候補検索手段は、前記背景画像における前記一の領域の視差が前記他の領域の視差よりも小さい場合、前記複数の第二立体画像のうちから、前記背景画像における前記一の領域および前記他の領域に重ならないように配置可能なサイズを有する画像を、前記素材画像の選択候補として検索することを特徴とする請求項1に記載の画像合成装置
  11. 前記画像合成手段は、前記背景画像における前記一の領域の視差が前記他の領域の視差よりも小さく、且つ、前記素材画像の視差が前記背景画像における前記一の領域の視差よりも小さい場合、前記素材画像を前記背景画像に合成する際に、前記背景画像における前記一の領域および前記他の領域に重ならないように規制することを特徴とする請求項1に記載の画像合成装置
  12. 前記選択候補検索手段は、前記背景画像における前記一の領域の視差が前記他の領域の視差よりも小さい場合、前記複数の第二立体画像のうちから、前記背景画像における前記一の領域および前記他の領域に重ならないように配置可能なサイズおよび形状を有する画像を、前記素材画像の選択候補として検索することを特徴とする請求項1に記載の画像合成装置
  13. 第一立体画像である背景画像内に存在する1つのオブジェクトに対応する一の領域の視差と他のオブジェクトに対応する他の領域の視差とを導出する工程と、
    各々が特定のオブジェクトとして立体視される複数の第二立体画像のうちから、前記背景画像における前記一の領域の視差とは異なる視差を有する画像を素材画像の選択候補として検索する工程と、
    検索された選択候補から前記素材画像を選択する工程と、を含み、
    前記検索候補として検索する工程は、前記背景画像における前記一の領域の視差が前記他の領域の視差よりも小さい場合、前記複数の第二立体画像のうちから、前記背景画像における前記他の領域に重ならないように配置可能なサイズを有する画像を前記素材画像の選択候補として検索することを特徴とする画像検索方法。
  14. コンピュータに、
    第一立体画像である背景画像内に存在する1つのオブジェクトに対応する一の領域の視差と他のオブジェクトに対応する他の領域の視差とを導出する処理と、
    各々が特定のオブジェクトとして立体視される複数の第二立体画像のうちから、前記背景画像における前記一の領域の視差とは異なる視差を有する画像を素材画像の選択候補として検索する処理と、
    検索された選択候補から前記素材画像を選択する処理と、を実行させ、
    前記検索候補として検索する処理は、前記背景画像における前記一の領域の視差が前記他の領域の視差よりも小さい場合、前記複数の第二立体画像のうちから、前記背景画像における前記他の領域に重ならないように配置可能なサイズを有する画像を前記素材画像の選択候補として検索することを特徴とするプログラム。
JP2011185936A 2010-09-30 2011-08-29 画像合成装置、及び画像検索方法、プログラム Expired - Fee Related JP5477349B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011185936A JP5477349B2 (ja) 2010-09-30 2011-08-29 画像合成装置、及び画像検索方法、プログラム
CN201110295691.9A CN102572459B (zh) 2010-09-30 2011-09-27 图像合成装置以及图像检索方法
US13/247,150 US8995750B2 (en) 2010-09-30 2011-09-28 Image composition apparatus, image retrieval method, and storage medium storing program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010220113 2010-09-30
JP2010220113 2010-09-30
JP2011185936A JP5477349B2 (ja) 2010-09-30 2011-08-29 画像合成装置、及び画像検索方法、プログラム

Publications (2)

Publication Number Publication Date
JP2012095277A JP2012095277A (ja) 2012-05-17
JP5477349B2 true JP5477349B2 (ja) 2014-04-23

Family

ID=45889884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011185936A Expired - Fee Related JP5477349B2 (ja) 2010-09-30 2011-08-29 画像合成装置、及び画像検索方法、プログラム

Country Status (3)

Country Link
US (1) US8995750B2 (ja)
JP (1) JP5477349B2 (ja)
CN (1) CN102572459B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
CN103389849B (zh) * 2012-05-07 2018-10-16 腾讯科技(北京)有限公司 一种基于移动终端的图像展示方法、系统和移动终端
EP2911028B1 (en) * 2012-10-22 2018-07-25 Yamaha Hatsudoki Kabushiki Kaisha Distance measurement device and vehicle using same
WO2017039348A1 (en) * 2015-09-01 2017-03-09 Samsung Electronics Co., Ltd. Image capturing apparatus and operating method thereof
CN110189247B (zh) * 2019-05-16 2021-01-19 北京航空航天大学 图像生成的方法、装置及系统
JP2022016034A (ja) * 2020-07-10 2022-01-21 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、及びプログラム
CN111933024B (zh) * 2020-08-10 2021-02-02 张峻豪 一种视觉传达设计用的展示装置
US20230412785A1 (en) * 2022-06-17 2023-12-21 Microsoft Technology Licensing, Llc Generating parallax effect based on viewer position

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6384859B1 (en) * 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
EP0772350A3 (en) * 1995-10-30 1997-07-23 Photron Kk Inlay system and method for producing composite images
US6310733B1 (en) * 1996-08-16 2001-10-30 Eugene Dolgoff Optical elements and methods for their manufacture
US6037933A (en) * 1996-11-13 2000-03-14 Samsung Electronics Co., Ltd. TV graphical user interface for providing user access to preset time periods of TV program information
AUPO894497A0 (en) * 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
JPH11113028A (ja) * 1997-09-30 1999-04-23 Toshiba Corp 3次元映像表示装置
JPH11341522A (ja) 1998-05-22 1999-12-10 Fuji Photo Film Co Ltd 立体画像撮影装置
US6891533B1 (en) * 2000-04-11 2005-05-10 Hewlett-Packard Development Company, L.P. Compositing separately-generated three-dimensional images
EP1185112B1 (en) * 2000-08-25 2005-12-14 Fuji Photo Film Co., Ltd. Apparatus for parallax image capturing and parallax image processing
US6760026B2 (en) * 2001-01-02 2004-07-06 Microsoft Corporation Image-based virtual reality player with integrated 3D graphics objects
JP4729812B2 (ja) * 2001-06-27 2011-07-20 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
US8369607B2 (en) * 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
JP2004134950A (ja) * 2002-10-09 2004-04-30 Sony Corp 画像合成方法および画像合成装置
JP4148811B2 (ja) * 2003-03-24 2008-09-10 三洋電機株式会社 立体画像表示装置
JP4307212B2 (ja) * 2003-10-17 2009-08-05 シャープ株式会社 表示データ編集装置、表示装置、表示データ編集方法、プログラム及び記録媒体
JP4607208B2 (ja) * 2007-05-23 2011-01-05 コワングウーン ユニバーシティー リサーチ インスティテュート フォー インダストリー コーオペレーション 立体映像ディスプレイ方法
JP5060231B2 (ja) * 2007-09-21 2012-10-31 株式会社バンダイナムコゲームス 画像生成方法、立体視用印刷物、立体視用印刷物の製造方法及びプログラム
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
US8471898B2 (en) * 2008-02-05 2013-06-25 Disney Enterprises, Inc. Medial axis decomposition of 2D objects to synthesize binocular depth
CN101631189B (zh) * 2008-07-15 2012-08-29 鸿富锦精密工业(深圳)有限公司 图像合成系统及方法
JP5368463B2 (ja) * 2008-09-18 2013-12-18 パナソニック株式会社 立体視映像再生装置、及び立体視映像表示装置
CA2778972A1 (en) * 2008-10-28 2010-05-14 Vistaprint Technologies Limited Method and system for mass production of variable shaped products
US8269821B2 (en) * 2009-01-27 2012-09-18 EchoStar Technologies, L.L.C. Systems and methods for providing closed captioning in three-dimensional imagery
WO2010108024A1 (en) * 2009-03-20 2010-09-23 Digimarc Coporation Improvements to 3d data representation, conveyance, and use
US8436893B2 (en) * 2009-07-31 2013-05-07 3Dmedia Corporation Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3D) images
CN101742349B (zh) * 2010-01-05 2011-07-20 浙江大学 一种对三维场景的表达方法及其电视系统
US8310538B2 (en) * 2010-03-19 2012-11-13 Fujifilm Corporation Imaging apparatus, method, program, and recording medium used in the program
US8605136B2 (en) * 2010-08-10 2013-12-10 Sony Corporation 2D to 3D user interface content data conversion
JP5754044B2 (ja) * 2010-09-21 2015-07-22 オリンパス株式会社 撮像装置及び画像通信システム

Also Published As

Publication number Publication date
CN102572459A (zh) 2012-07-11
CN102572459B (zh) 2014-10-15
US20120082369A1 (en) 2012-04-05
US8995750B2 (en) 2015-03-31
JP2012095277A (ja) 2012-05-17

Similar Documents

Publication Publication Date Title
JP5477349B2 (ja) 画像合成装置、及び画像検索方法、プログラム
JP5578149B2 (ja) 画像合成装置、及び画像検索方法、プログラム
US10591729B2 (en) Wearable device
US9977590B2 (en) Mobile terminal and method for controlling the same
JP5300825B2 (ja) 指示受付装置、指示受付方法、コンピュータプログラム及び記録媒体
US11003305B2 (en) 3D user interface
JP2011035592A (ja) 表示制御プログラムおよび情報処理システム
WO2005069170A1 (ja) 画像ファイル一覧表示装置
US9607394B2 (en) Information processing method and electronic device
WO2013054462A1 (ja) ユーザーインタフェース制御装置、ユーザーインタフェース制御方法、コンピュータプログラム、及び集積回路
US20130009891A1 (en) Image processing apparatus and control method thereof
JP5476910B2 (ja) 画像生成装置、画像生成方法、および、プログラム
US10888228B2 (en) Method and system for correlating anatomy using an electronic mobile device transparent display screen
JP5341126B2 (ja) 検出領域拡大装置、表示装置、検出領域拡大方法、プログラムおよび、コンピュータ読取可能な記録媒体
JP5681588B2 (ja) 立体画像編集装置および立体画像編集方法
JP2013168120A (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
KR102100667B1 (ko) 휴대 단말기에서 이미지 데이터를 생성하는 장치 및 방법
JP5950701B2 (ja) 画像表示システム、パズルゲームシステム、画像表示方法、パズルゲーム方法、画像表示装置、パズルゲーム装置、画像表示プログラム、および、パズルゲームプログラム
US20130147801A1 (en) Electronic apparatus, method for producing augmented reality image, and computer-readable recording medium
US20130266209A1 (en) Image processing apparatus and image processing method
US8817081B2 (en) Image processing apparatus, image processing method, and program
US10783666B2 (en) Color analysis and control using an electronic mobile device transparent display screen integral with the use of augmented reality glasses
KR101458542B1 (ko) 디지털 콘텐츠 생성 장치 및 그 방법, 디지털 콘텐츠 생성 장치를 이용한 데이터 통신 시스템 및 그 방법 및 기록매체
JP2011180779A (ja) 立体画像データ生成装置、立体画像データ生成方法、および立体画像データ生成プログラム
KR20130065580A (ko) 전자 장치, ar 이미지 생성 방법 및 컴퓨터 판독가능 기록매체

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140127

R150 Certificate of patent or registration of utility model

Ref document number: 5477349

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees