JP5578149B2 - 画像合成装置、及び画像検索方法、プログラム - Google Patents

画像合成装置、及び画像検索方法、プログラム Download PDF

Info

Publication number
JP5578149B2
JP5578149B2 JP2011185935A JP2011185935A JP5578149B2 JP 5578149 B2 JP5578149 B2 JP 5578149B2 JP 2011185935 A JP2011185935 A JP 2011185935A JP 2011185935 A JP2011185935 A JP 2011185935A JP 5578149 B2 JP5578149 B2 JP 5578149B2
Authority
JP
Japan
Prior art keywords
image
stereoscopic
parallax
images
stereoscopic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011185935A
Other languages
English (en)
Other versions
JP2012104101A (ja
Inventor
清志 荻島
良尚 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011185935A priority Critical patent/JP5578149B2/ja
Priority to CN201110309973.XA priority patent/CN102572464B/zh
Priority to US13/272,448 priority patent/US9280847B2/en
Publication of JP2012104101A publication Critical patent/JP2012104101A/ja
Application granted granted Critical
Publication of JP5578149B2 publication Critical patent/JP5578149B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/293Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、立体画像データに対して他の立体画像データを合成する画像合成装置、及び画像検索方法、プログラムに関する。
従来、デジタルカメラなどで撮影した画像に素材画像を合成する技術が知られている(特許文献1参照)。
また、双方間に視差が存在する左右一対の画像、すなわち画像内における同一の物体の位置が左右にずれた左目用画像と右目用画像とを用意し、観察者に左目用画像を左目で観察させ、かつ右目用画像を右目で観察させることによって、画像を立体的に視認(立体視)させる技術が知られている(特許文献2参照)。
特開2004−134950号公報 特開平11−341522号公報
ところで、特許文献2に記載された技術により立体視される画像(以下、立体画像という。)であっても、それを構成する左目用画像と右目用画像とは、デジタルカメラなどで撮影した画像と同様の静止画像である。したがって、ある立体画像に対して、例えば他の立体画像から、人物等のような独立した物体として認識される部分(以下、オブジェクトという。)に相当する部分画像(以下、オブジェクト画像という。)を切り出し、切り出した部分画像を合成することができる。すなわち背景となる立体画像を構成する左目用画像にオブジェクト画像の左目用画像を上書き合成し、かつ背景となる立体画像を構成する右目用画像にオブジェクト画像の右目用画像を上書き合成すれば、新たな立体画像を得ることができる。
しかしながら、立体画像に、当該立体画像を立体視したときの距離感が互いに異なる複数のオブジェクトが存在するときには、相対的に手前に存在するように知覚されるオブジェクトの一部が、相対的に奥に存在するように知覚される他のオブジェクトによって隠れていると、立体画像が非常に違和感のあるものとなってしまう。そのため、任意のオブジェクト画像を、予め用意されている複数の立体画像の何れかに合成する場合には、合成後の立体画像における他のオブジェクトとの距離感の違い等を考慮して合成に適した背景用の立体画像を選択する必要がある。
係ることから、背景用の立体画像の選択に際しては、例えば、作業者がオブジェクト画像と、背景候補となる個々の立体画像とを立体視することによって、合成後の立体画像における違和感の有無を事前に確認する必要がある。したがって、背景用の立体画像の選択に多大な労力を費やすこととなり、作業者の負担が大きくなるという問題があった。
そこで、本発明は、立体画像である素材画像を、背景となる他の立体画像に合成する際、作業者における素材画像の合成に適した他の立体画像の選択作業が容易となる画像合成装置、及び画像検索方法、プログラムを提供すること目的とする。
上記の目的を達成するために、請求項1記載の発明に係る画像合成装置にあっては、オブジェクトとして立体視される素材画像に存在する視差を取得する取得部と、各々が立体視される複数の立体画像のうちから、所定の条件を満たす立体画像を選択候補として検索する検索部と、前記検索部により選択候補として検索された立体画像に前記素材画像を合成する合成部と、を備え、前記複数の立体画像は、各々が少なくとも1つのオブジェクトを含み、前記複数の立体画像のうち前記選択候補とされる立体画像に含まれる前記少なくとも1つのオブジェクトのいずれもが前記取得部により取得された前記素材画像の視差よりも小さい第1視差オブジェクトであることを、前記所定の条件として、前記複数の立体画像のうちから前記選択候補とされる立体画像を、前記検索部が検索する。
また、請求項記載の発明に係る画像合成装置にあっては、オブジェクトとして立体視される素材画像に存在する視差を取得する取得部と、各々が立体視される複数の立体画像のうちから、所定の条件を満たす立体画像を選択候補として検索する検索部と、前記検索部により選択候補として検索された立体画像に前記素材画像を合成する合成部と、を備え、前記複数の立体画像は、各々が少なくとも1つのオブジェクトを含み、前記複数の立体画像のうち前記選択候補とされる立体画像に含まれる前記少なくとも1つのオブジェクトが前記取得部により取得された前記素材画像の視差と同じであるか又は該視差よりも大きい第2視差オブジェクトであって、且つ、前記第2視差オブジェクトを除く領域に前記素材画像を配置可能な形状およびサイズを該素材画像が有することを、前記所定の条件として、前記複数の立体画像のうちから前記選択候補とされる立体画像を、前記検索部が検索する。
また、請求項記載の発明に係る画像合成装置にあっては、オブジェクトとして立体視される素材画像に存在する視差を取得する取得部と、各々が立体視される複数の立体画像のうちから、所定の条件を満たす立体画像を選択候補として検索する検索部と、前記検索部により選択候補として検索された立体画像に前記素材画像を合成する合成部と、を備え、前記複数の立体画像は、各々が少なくとも1つのオブジェクトを含み、前記複数の立体画像のうち前記選択候補とされる立体画像に含まれる前記少なくとも1つのオブジェクトが前記取得部により取得された前記素材画像の視差と同じであるか又は該視差よりも大きい第2視差オブジェクトであって、且つ、前記第2視差オブジェクト全体に重なるように配置可能な形状およびサイズを該素材画像が有することを、前記所定の条件として、前記複数の立体画像のうちから前記選択候補とされる立体画像を、前記検索部が検索する。
また、請求項10記載の発明に係る画像合成方法にあっては、オブジェクトとして立体視される素材画像に存在する視差を取得する工程と、各々が立体視される複数の立体画像のうちから、所定の条件を満たす立体画像を選択候補として検索する工程と、前記検索する工程により選択候補として検索された立体画像に前記素材画像を合成する工程と、を備え、前記複数の立体画像は、各々が少なくとも1つのオブジェクトを含み、前記複数の立体画像のうち前記選択候補とされる立体画像に含まれる前記少なくとも1つのオブジェクトのいずれもが前記取得する工程により取得された前記素材画像の視差よりも小さい第1視差オブジェクトであることを、前記所定の条件として、前記複数の立体画像のうちから前記選択候補とされる立体画像を、前記検索する工程において検索する。
また、請求項11記載の発明に係る画像合成方法にあっては、オブジェクトとして立体視される素材画像に存在する視差を取得する工程と、各々が立体視される複数の立体画像のうちから、所定の条件を満たす立体画像を選択候補として検索する工程と、前記立体画像を検索する工程において選択候補として検索された立体画像に前記素材画像を合成する工程と、を含み、前記複数の立体画像は、各々が少なくとも1つのオブジェクトを含み、前記立体画像を検索する工程は、前記複数の立体画像のうち前記選択候補とされる立体画像に含まれる前記少なくとも1つのオブジェクトが前記視差を取得する工程において取得された前記素材画像の視差と同じであるか又は該視差よりも大きい第2視差オブジェクトであって、且つ、前記第2視差オブジェクトを除く領域に前記素材画像を配置可能な形状およびサイズを該素材画像が有することを、前記所定の条件として、前記複数の立体画像のうちから前記選択候補とされる立体画像を、前記検索する工程において検索する。
また、請求項14記載の発明に係る画像合成方法にあっては、オブジェクトとして立体視される素材画像に存在する視差を取得する工程と、各々が立体視される複数の立体画像のうちから、所定の条件を満たす立体画像を選択候補として検索する工程と、前記検索する工程により選択候補として検索された立体画像に前記素材画像を合成する工程と、を備え、前記複数の立体画像は、各々が少なくとも1つのオブジェクトを含み、前記複数の立体画像のうち前記選択候補とされる立体画像に含まれる前記少なくとも1つのオブジェクトが前記取得する工程により取得された前記素材画像の視差と同じであるか又は該視差よりも大きい第2視差オブジェクトであって、且つ、前記第2視差オブジェクト全体に重なるように配置可能な形状およびサイズを該素材画像が有することを、前記所定の条件として、前記複数の立体画像のうちから前記選択候補とされる立体画像を、前記検索する工程において検索する。
また、請求項15記載の発明に係るプログラムにあっては、コンピュータに、オブジェクトとして立体視される素材画像に存在する視差を取得する処理と、各々が立体視される複数の立体画像のうちから、所定の条件を満たす立体画像を選択候補として検索する処理と、前記立体画像を検索する処理において選択候補として検索された立体画像に前記素材画像を合成する処理と、を実行させ、前記複数の立体画像は、各々が少なくとも1つのオブジェクトを含み、前記立体画像を検索する処理は、前記複数の立体画像のうち前記選択候補とされる立体画像に含まれる前記少なくとも1つのオブジェクトが前記視差を取得する処理において取得された前記素材画像の視差と同じであるか又は該視差よりも大きい第2視差オブジェクトであって、且つ、前記第2視差オブジェクトを除く領域に前記素材画像を配置可能な形状およびサイズを該素材画像が有することを、前記所定の条件として、前記複数の立体画像のうちから前記選択候補とされる立体画像を、前記検索する処理において検索することを含む。
本発明によれば、立体画像である素材画像を、背景となる他の立体画像に合成する際、作業者における素材画像の合成に適した他の立体画像の選択作業が容易となる。
デジタルフォトフレームの外観図であり、(a)は正面図、(b)は側面図。 デジタルフォトフレームのシステム構成図。 表示部に表示される画面の説明図であり、(a)は電源がオン状態にされたとき、(b)は画像編集が選択されているときの説明図。 画像合成処理を説明するためのフローチャート。 表示部に表示される画面の説明図であり、(a)はオブジェクト画像選択画面、(b)は背景画像選択画面、(c)は画像合成領域選択画面、(d)は画像配置調整画面をそれぞれ例示した図。 背景候補検索処理を説明するためのフローチャート。 視差の導出処理を説明するためのフローチャート。 ラプラシアンフィルタの説明図であり、(a)は3×3マトリクスのフィルタ構成図、(b)は5×5マトリクスのフィルタ構成図。 二値化処理によって得られたエッジ画像データの説明図。 オブジェクト画像作成処理を説明するためのフローチャート。 表示部に表示される画面の説明図であり、(a)は被抽出画像選択画面、(b)はオブジェクト選択画面をそれぞれ例示した図。
以下、本発明を実施するための形態について説明する。
本実施形態は、本発明の画像合成装置としての機能を備えたデジタルフォトフレームに関するものである。ここで、デジタルフォトフレームは、例えばデジタルカメラにより撮影され画像データとして記録された画像を鑑賞用として表示することを主たる目的とした装置である。また、本実施形態のデジタルフォトフレームは、左目用と右目用とからなる左右一組の画像を立体画像として表示する機能、及び立体画像を合成する機能も備えている。以下、本実施形態のデジタルフォトフレームを図面を参照して説明する。
図1は、本実施形態のデジタルフォトフレーム1を示す外観図であり、図1(a)は正面図、図1(b)は側面図である。
図1に示すように、本実施形態のデジタルフォトフレーム1は、本体部20の前面に設けられた表示部2と、電源スイッチ3aと、表示部2に対して重なるように配置されたタッチパネル3bと、種々の画像データが記憶されたカード型の記憶メディア4が装着されるメディア装着部5とを備えている。また、デジタルフォトフレーム1の本体部20の背面には、本体部20を後方にわずかに傾斜させて据え置くことが可能なように、本体部20に対して開閉自在なスタンド21が備え付けられている。
図2は、デジタルフォトフレーム1の電気的構成を示すシステム構成図である。図2に示すように、デジタルフォトフレーム1は、前述した表示部2と、電源スイッチ3aと、タッチパネル3bと、メディア装着部5との他に、内蔵メモリ6と、制御部7と、通信制御部31とを備えている。
メディア装着部5は、具体的には、記憶メディア4と制御部7との間におけるデータの入出力を制御する入出力インターフェースであり、そのための回路から構成される。記憶メディア4には複数の画像データが記憶されている。
記憶メディア4に記憶されている画像データには、例えばデジタルカメラにより撮影により取得された画像データと、立体画像データとが含まれる。
デジタルカメラにより取得された画像データは、例えばJPEG(Joint Photographic Expert Group)方式により圧縮された画像データ本体に、当該画像データ本体のサイズ(縦、及び横方向の画素数)等の基本情報と共に、撮影日時や、サムネイル画像(縮小画像)データ等の付加情報が付加され、画像ファイルとして記憶されているデータである。
また、立体画像データは、立体画像を表す画像データであり、例えばステレオカメラにより撮影された左右一対の写真(左目用画像と右目用画像)をそれぞれデジタルデータ化した左目用画像データと右目用画像データとからなるものや、単一の画像データから画像処理技術を用いて生成された左目用画像データと右目用画像データである。
立体画像データは、例えばJPEG方式により圧縮されている画像データ本体にサムネイル画像データ等の付加情報が付加され、立体画像ファイルとして記憶されている。立体画像データ本体は左目用画像データと右目用画像データから構成され、かつサムネイル画像データも、左目用サムネイル画像データと右目用サムネイル画像データとから構成される。さらに、立体画像データには立体画像データ(左目用画像データと右目用画像データ)のサイズ等の基本情報と共に、それが立体画像データであることを示す識別情報等が付加されている。
表示部2は、例えばバックライトを含む液晶表示モジュールや、有機EL表示モジュールである。表示部2は、メディア装着部5を介して記憶メディア4から読み込まれた画像データに基づく通常の2次元画像や立体画像、及び1又は複数の操作用の画像(以下、ソフトキーという。)を含む各種の表示メニュー等を表示する。さらに表示部2は、制御部7により生成された立体画像データに基づく立体画像も表示する。
ここで、デジタルフォトフレーム1において用いられる立体画像の表示方式は、例えば所謂パララックスバリア方式や時分割表示方式である。
パララックスバリア方式は、左目用画像データに基づいて階調制御される第1の画素と、右目用画像データに基づいて階調制御される第2の画素とを左右方向に交互に配置して表示する一方、所定の観察位置にいるユーザに、視差バリアを介して第1の画素を左目のみで視認させ、且つ視差バリアを介して第2の画素を右目のみで視認させる方式である。したがって、パララックスバリア方式を採用したものでは、表示部2が、表示画面の手前に、視差バリアを表示(形成)する液晶パネル等のバリア表示素子を備えた構成となる。
また、時分割表示方式は、左目用画像データに基づいた左目用画像と右目用画像データに基づいた右目用画像とを交互に時分割的に表示する一方、左目用画像と右目用画像との表示タイミングに同期してユーザの左目の視界と右目の視界とを交互に遮断する方式である。したがって、時分割表示方式を採用したものでは、立体画像の観察時に、左目用画像と右目用画像との表示タイミングに同期して左右の視界を交互に遮断するメガネ等の視界制御手段を別途ユーザに着用させる必要がある。
タッチパネル3bは、表示部2に1又は複数のソフトキーが表示された状態において、表示部2の表示画面内におけるユーザのタッチ位置を入力情報として検出する入力装置である。タッチパネル3bには、例えば抵抗膜方式のタッチパネルや静電容量方式のタッチパネルを適用することができる。
抵抗膜方式は、比較的透明度の高いITO(Indium Tin Oxide)からなる透明電極の抵抗による分圧比を測定することによりタッチ位置を検出する方式である。静電容量方式は、ITO膜によって形成された互いに交差して延在する複数本の透明な電極パターンをセンサとして、表面電荷の変化を捕らえることによりタッチ位置を検出する方式である。
内蔵メモリ6は、電源が切られても記憶内容が保持され、且つ記憶データが書き換え可能なフラッシュメモリであり、より具体的にはEEPROM(Electric Erasable Programmable Read Only Memory)である。内蔵メモリ6には、後述するようにデジタルフォトフレーム1において生成される立体画像データやオブジェクト画像データ等が記憶されている。
なお、詳細については後述するが、オブジェクト画像データは、人物等のような特定のオブジェクトとして立体視される立体画像(素材画像)を表す立体画像データであり、左目用画像データと右目用画像データとからなる一組の画像データである。また、左目用画像データと右目用画像データとは、それぞれが表示座標毎に、色成分として赤色成分、緑色成分及び青色成分の階調値を有しているカラー画像データである。
制御部7は、CPU(Central Processing Unit)8や、CPU8で実行される制御プログラムが記憶されたROM9(Read Only Memory)、さらには作業領域になるRAM10(Random Access memory)等から構成される。
ROM9は、CPU8にシステム全体を制御させるための複数種のプログラムやデータが記憶されているメモリである。ROM9に記憶されているプログラムには、本実施形態においてCPU8を取得手段と、検索手段と、合成手段と、画像作成手段として機能させる立体画像合成プログラムが含まれる。
RAM10は、CPU8がデジタルフォトフレーム1の制御に際し、種々のデータを一時記憶する作業用のメモリであり、具体的にはSDRAM(Synchronous dynamic random-access memory)等である。
通信制御部31は、例えば有線又は無線による通信回線を介してデジタルフォトフレーム1を必要に応じてインターネット等のネットワークへ接続し、ネットワーク上に存在するサーバーから種々の画像データを受信する通信処理を行う。通信制御部31により受信される画像データは、デジタルカメラ等により取得された画像データや、立体画像データやオブジェクト画像データであり、受信された画像データは記憶メディア4や内蔵メモリ6に記憶される。
次に、以上の構成からなるデジタルフォトフレーム1における動作について説明する。デジタルフォトフレーム1においては、ユーザにより電源スイッチ3aが操作されて電源がオン状態になると、CPU8が、ROM9に記憶されているプログラムに基づいた制御を開始し、直ちに機能選択メニューを表示部2に表示させる。
図3(a)は、表示部2に表示される機能選択メニューG1の一例を示したものである。機能選択メニューG1は、画像検索機能が割り当てられたソフトキー11aと、スライドショー機能が割り当てられたソフトキー11bと、画像編集機能が割り当てられたソフトキー11cと、ダウンロード機能が割り当てられたソフトキー11dと、各種設定機能が割り当てられたソフトキー11eとから構成される。
ここで、画像検索機能は、記憶メディア4に画像データとして記憶されている画像から、好みの画像をユーザに選択させ、選択された画像を表示部2に表示させる機能である。スライドショー機能は、記憶メディア4に画像データとして記憶されている複数の画像を所定の順にスライドショー表示する機能である。画像編集機能は、画像データとして記憶されている画像を編集する機能である。ダウンロード機能は、前述したネットワークから種々の画像データをダウンロードする機能である。各種設定機能は、デジタルフォトフレーム1が有する各種の機能に関する動作内容を設定する機能である。
機能選択メニューG1を表示している間、ユーザにより何れかのソフトキー11a〜11dがタッチされると、つまりタッチパネル3bにおいて何れかのソフトキー11a〜11dに対応する領域内の位置がタッチ位置として検出され、CPU8が、タッチされたソフトキーに割り当てられた機能に応じた処理に移行する。
このとき、ユーザにより画像編集機能が割り当てられたソフトキー11cがタッチされると、CPU8が、図3(b)に示すような編集内容選択メニューG2を表示部2に表示させる。編集内容選択メニューG2は、絵画調変換機能が割り当てられたソフトキー11fや、画像合成機能が割り当てられたソフトキー11g、及び「戻る」が記載されたソフトキー11hから構成される。
絵画調変換機能とは、記憶メディア4に画像データとして記憶されている画像から、好みの画像をユーザに選択させ、選択された画像(画像データ)に画像処理を施すことにより、元の画像を絵画調画像に変換する機能である。なお、絵画調画像は、日本画調、西洋画調、水彩画調、水墨画調、ペン画調等の特定の画調(絵画的な特徴)を備えた画像である。画像合成機能とは、記憶メディア4や内蔵メモリ6に立体画像データとして記憶されている異なる2つの立体画像を合成する機能である。なお、画像合成機能の詳細については後述する。
デジタルフォトフレーム1においては、編集内容選択メニューG2においてユーザにより絵画調変換機能が割り当てられたソフトキー11fがタッチされると、CPU8が絵画調変換機能に応じた処理に移行する。また、「戻る」と記載されたソフトキー11hがタッチされると、CPU8が機能選択メニューG1を再び表示部2に表示させる。そして、編集内容選択メニューG2においてユーザにより画像合成機能が割り当てられたソフトキー11gがタッチされると、CPU8が画像合成機能に応じた以下に説明する画像合成処理を実行する。
本実施の形態における画像合成処理は、ユーザにより選択された任意のオブジェクト画像(素材画像)を、ユーザにより背景用として選択された任意の立体画像の一部に、前景画像として上書き合成する処理である。ここで、画像合成処理で使用される立体画像やオブジェクト画像は、記憶メディア4や内蔵メモリ6に立体画像データとして記憶されているものである。以下、CPU8が実行する画像合成処理の具体的な処理手順を、図4に示したフローチャートに基づいて説明する。
画像合成処理においてCPU8は、まず図5(a)に示したオブジェクト画像選択画面G3を表示部2に表示させる(ステップSA1)。オブジェクト画像選択画面G3は、例えば「オブジェクト画像を選択してください」等のメッセージ12aと、オブジェクト画像の選択候補を示す画像リスト13aと、「決定」と記載されたソフトキー11iと、「オブジェクト作成」と記載されたソフトキー11jと、「戻る」と記載されたソフトキー11kとから構成される。
ここで、オブジェクト画像選択画面G3の表示に際してCPU8は、記憶メディア4や内蔵メモリ6に記憶されているオブジェクト画像データを選択対象として画像リスト13aにリスト表示する。リスト表示されるオブジェクト画像データは、例えば後述するステップSA5のオブジェクト画像作成処理でCPU8により作成されたものであり、任意の立体画像に、前景画像として上書き合成するために使用される素材画像を表すデータである。
より具体的に説明すると、リスト表示されるオブジェクト画像データは、例えば記憶メディア4に記憶されている立体画像データ(左目用画像データ、及び右目用画像データ)から切り出されたデータであり、立体画像データにより表される立体画像に存在する任意のオブジェクトに対応する領域の画像を表す画像データである。
なお、図5(a)には、便宜上、画像リスト13aとして、オブジェクト画像データが格納されている画像ファイルのファイル名をリスト表示するものを示した。しかし、実際には、オブジェクト画像データに付加されているサムネイル画像データにより表され立体画像として観察されるサムネイル画像や、左目用サムネイル画像データ、又は右目用サムネイル画像データのいずれか一方により表され2次元画像として観察されるサムネイル画像をリスト表示することが好ましい。
オブジェクト画像選択画面G3を表示している間、CPU8は、ユーザによって「戻る」と記載されたソフトキー11kがタッチ(操作)されたときには(ステップSA4:YES)、直ちに画像合成処理を終了して編集内容選択メニューG2を再び表示部2に表示させる。
また、オブジェクト画像選択画面G3を表示している間、CPU8は、ユーザによって「オブジェクト作成」と記載されたソフトキー11jがタッチされたときには(ステップSA3:YES)、オブジェクト画像作成処理を実行する(ステップSA5)。
詳細については後述するが、オブジェクト画像作成処理は、記憶メディア4に記憶されている立体画像データからオブジェクト画像データを切り出し、切り出したオブジェクト画像データを、予め内蔵メモリ6に記憶させておくための処理である。なお、オブジェクト画像選択画面G3を表示している間、CPU8は、タッチパネル3bのタッチ操作によりユーザによって、画像リスト13aに表示中のいずれかの画像ファイル名が選択されると、選択された画像ファイル名を白抜き表示する。
そして、CPU8は、画像リスト13aに表示されている何れかの画像ファイル名(オブジェクト画像データ)が選択された状態で、「決定」と記載されたソフトキー11iがタッチされると(ステップSA2:YES)、ユーザに選択されたオブジェクト画像データに付加されている以下の付加情報を取得する(ステップSA6)。
ステップSA6の処理でCPU8が取得する付加情報は、オブジェクト画像データのサイズと、形状と、視差とをそれぞれ示すデータである。ここで、サイズを示すデータは、オブジェクト画像データの画素数(面積)である。また、形状を示すデータは、オブジェクト画像データが切り出された立体画像データ(左目用画像データと右目用画像データの何れか一方)においてオブジェクトのエッジを表現していた画素群の画素毎の座標位置データである。
また、視差を示すデータは、先に説明したオブジェクト画像データが切り出された左目用画像データにより表される左目用画像と、右目用画像データにより表される右目用画像との間におけるオブジェクトの左右方向の位置ずれ量である。つまり、オブジェクト画像データに付加されている視差は、オブジェクト画像データにより表されるオブジェクト画像を観察(立体視)したとき、特定のオブジェクトについて知覚される距離感を定量化した情報である。
しかる後、CPU8は、ステップSA6の処理で取得したオブジェクト画像データのサイズと、形状と、視差とに基づいて背景候補検索処理を行う(ステップSA7)。背景候補検索処理は、記憶メディア4や内蔵メモリ6に記憶されている複数の立体画像データの中から、オブジェクト画像データにより表されるオブジェクト画像の合成に適した背景用の立体画像を表す立体画像データを検索して抽出する処理である。
図6は、CPU8による背景候補検索処理の処理手順を示したフローチャートである。背景候補検索処理においてCPU8は、記憶メディア4や内蔵メモリ6に記憶されている複数の立体画像データを予め決められている順に読み出し(ステップSB1)、読み出した立体画像データを対象として視差導出処理を実行する(ステップSB2)。
視差導出処理は、立体画像データにより表される立体画像内に存在するオブジェクト毎に、立体画像データを構成する左目用画像データと右目用画像データとの間に存在する視差を取得するための処理である。つまり、CPU8がオブジェクト毎に取得する視差は、オブジェクト画像データに付加されている視差と同様、立体画像を観察したとき(立体視したとき)、立体画像内の個々のオブジェクトについて知覚される距離感を定量化した情報である。
以下、CPU8が実行する視差導出処理の具体的な処理手順を、図7に示したフローチャートに基づいて詳述する。ここでは、主として立体画像データがカラー画像データである場合について説明する。
視差導出処理においてCPU8は、例えば下記の〔数1〕を用いて左目用画像データと右目用画像データとを個別にグレースケール変換する(ステップSC1)。
〔数1〕
Y(i)=0.298912×R(i)+0.586611×G(i)+0.114478×B(i)
なお、〔数1〕において、Y(i)は整数に丸め処理され、また、iは階調制御される画素の座標位置を示している。
次に、CPU8は、グレースケール変換した左目用画像データと右目用画像データに対して、個別にラプラシアンフィルタ処理を施し、画像のエッジが強調された左目用画像データと右目用画像データを生成する(ステップSC2)。ラプラシアンフィルタとしては、例えば、図8(a)に示したような3×3マトリクスのデジタルフィルタや、図8(b)に示したような5×5マトリクスのデジタルフィルタを用いることができる。
次に、CPU8は、エッジが強調された左目用画像データと右目用画像データに対して、所定の階調閾値を境に個別に二値化処理することによって、画像のエッジが抽出されたエッジ画像データとしての左目用画像データと右目用画像データを生成する(ステップSC3)。以下の説明においては、左目用画像データに基づいて生成されたエッジ画像データを左目側エッジ画像データと呼び、右目用画像データに基づいて生成されたエッジ画像データを右目側エッジ画像データと呼ぶことにより両者を区別する。
図9は、二値化処理によって得られる左目側エッジ画像データ14Lと、右目側エッジ画像データ14Rとの例を示した図である。ここで、左目側エッジ画像データ14Lと、右目側エッジ画像データ14Rとにおいては、互いに対応するオブジェクト(人物等の独立したオブジェクトとして認識される部分領域)を表す輪郭として枠状のエッジをそれぞれ得ることができる。即ち、図9に示したように、立体画像内に3つのオブジェクトが存在していた場合には、左目側エッジ画像データ14Lにおいては3つの枠状のエッジLfa、Lfb、Lfcが得られ、かつ右目側エッジ画像データ14Rにおいては3つの枠状のエッジRfa、Rfb、Rfcが得られる。
ここで、左目側エッジ画像データ14Lと右目側エッジ画像データ14Rとの間においては、エッジLfaで表される領域Ldaと、エッジRfaで表される領域Rdaとが、立体画像に存在する同一のオブジェクトAに対応し、また、エッジLfbで表される領域Ldbと、エッジRfbで表される領域Ldbとが立体画像に存在する同一のオブジェクトBに対応し、さらに、エッジLfcで表される領域Ldcと、エッジRfcで表される領域Ldcとが立体画像に存在する同一のオブジェクトCに対応することとなる。
そして、互いに対応するエッジLfaとエッジRfaとの間に存在する画像内における左右方向の位置ずれ量が一方のオブジェクトAの視差であり、同様に互いに対応するエッジLfbとエッジRfbとの間に存在する画像内における左右方向の位置ずれ量が他方のオブジェクトBの視差であり、同様に互いに対応するエッジLfcとエッジRfcとの間に存在する画像内における左右方向の位置ずれ量が他方のオブジェクトCの視差である。
係ることから、二値化処理を行った後、CPU8は、例えば左目側エッジ画像データ14Lに存在するエッジLfa,Lfb,Lfcの座標位置を個別に取得すると共に、ブロックマッチング等の手法を用いたパターンマッチング処理によって、右目側エッジ画像データ14Rに存在する、エッジLfa,Lfb,Lfcに対応するエッジRfa,Rfb,Rfcの座標位置を個別に取得する(ステップSC4)。
しかる後、CPU8は、エッジLfaとエッジRfaとの座標位置から、エッジLfaとエッジRfaとの間における左右方向の位置ずれ量を演算し、演算結果を一方のオブジェクトAの視差として導出し、エッジLfbとエッジRfbとの座標位置から、エッジLfbとエッジRfbとの間における左右方向の位置ずれ量を演算し、演算結果を他方のオブジェクトBの視差として導出し、エッジLfcとエッジRfcとの座標位置から、エッジLfcとエッジRfcとの間における左右方向の位置ずれ量を演算し、演算結果を他方のオブジェクトCの視差として導出する(ステップSC5)。
なお、二値化処理によって得られるエッジ画像データが、図9に示したような左目側エッジ画像データ14Lと右目側エッジ画像データ14Rとである場合、枠状のエッジで囲まれていない領域Ln,Rnについては視差のない画像領域として位置ずれ量をゼロとする。
CPU8は、以上述べた視差導出処理が終了すると図6の処理に戻り、引き続き以下の処理を行う。まず、CPU8は、視差導出処理で導出した全てのオブジェクトが、その視差がユーザに選択されているオブジェクト画像データ(以下、選択中のオブジェクト画像ともいう。)の視差よりも小さい第1視差オブジェクトであるか否かを判断する(ステップSB3)。換言すると、CPU8は、処理対象の立体画像データが、選択中のオブジェクト画像の視差と同じであるか又は該視差よりも大きな視差を有するオブジェクトが存在しない立体画像を表すものであるという第1の条件を満たすか否かを判断する。
そして、CPU8は、全てのオブジェクトが、その視差が選択中のオブジェクト画像の視差よりも小さい第1視差オブジェクトであり、処理対象の立体画像データが第1の条件を満たすものであると判断したときには(ステップSB3:YES)、処理対象の立体画像データを直ちに選択候補として追加する(ステップSB6)。具体的に説明すると、CPU8は、処理対象の立体画像データのファイル名をRAM10に蓄積する。
また、CPU8は、処理対象の立体画像データが第1の条件を満たすものでないときには(ステップSB3:NO)、処理対象の立体画像データが、オブジェクト画像データと視差が同じであるか又は該オブジェクト画像データよりも視差が大きい第2視差オブジェクトを除く領域にオブジェクト画像が配置可能な立体画像を表すものであるという第2の条件を満たすか否かを判断する(ステップSB4)。
そして、CPU8は、処理対象の立体画像データが第2の条件を満すと判断したときには(ステップSB4:YES)、処理対象の立体画像データを選択候補として追加する(ステップSB6)。
第2の条件を満たす立体画像データの例を具体的に説明する。ここでは、処理対象の立体画像データにより表される立体画像が、例えば先に視差導出処理の説明に際して図9に示したもののように3つのオブジェクトA,B,Cが存在するものであり、何れか1つのオブジェクトが、選択中のオブジェクト画像と視差が同じであるか又は該オブジェクト画像よりも視差が大きい第2視差オブジェクトである場合について説明する。
この場合、1つのオブジェクトAが第2視差オブジェクトであり、かつ図9に示した領域Ldb(又は領域Rdb)と領域Ldc(又は領域Rdc)と領域Ln(又は領域Rn)とからなる領域が、選択中のオブジェクト画像が収まる画素サイズで、かつ該オブジェクト画像が収まる形状であれば、処理対象の立体画像データが第2の条件を満たすこととなる。また、2つのオブジェクトB,Cが第2視差オブジェクトであり、かつ図9に示した領域Lda(又は領域Rda)と領域Ln(又は領域Rn)とからなる領域が、選択中のオブジェクト画像が収まる画素サイズで、かつ該オブジェクト画像が収まる形状であれば、処理対象の立体画像データが第2の条件を満たすこととなる。
さらに、CPU8は、処理対象の立体画像データが第1、又は第2の条件のいずれをも満たすものではないときには(ステップSB4:NO)、処理対象の立体画像データが、1又は複数の第2視差オブジェクトの一部に重なることなく、かつ他の1又は複数の第2視差オブジェクト全体に重なった状態で選択中のオブジェクト画像を配置可能な立体画像を表すものであるという第3の条件を満たすか否かを判断する(ステップSB5)。
そして、CPU8は、処理対象の立体画像データが第3の条件を満すと判断したときには(ステップSB5:YES)、処理対象の立体画像データを選択候補として追加する(ステップSB6)。
第3の条件を満たす立体画像データの例を具体的に説明する。ここでは、処理対象の立体画像データにより表される立体画像が、例えば先に視差導出処理の説明に際して図9に示したもののように3つのオブジェクトA,B,Cが存在するものであり、2つのオブジェクトB,Cが、選択中のオブジェクト画像と視差が同じであるか又は該オブジェクト画像よりも視差が大きい第2視差オブジェクトである場合について説明する。
この場合、例えば図9に示した領域Lda(又は領域Rda)と領域Ldc(又は領域Rdc)と領域Ln(又は領域Rn)とからなる領域が、選択中のオブジェクト画像が収まる画素サイズで、かつ該オブジェクト画像が収まる形状であり、同時に一方のオブジェクトCの全体に重なるように該オブジェクト画像が配置可能であれば、処理対象の立体画像データが第3の条件を満たすこととなる。
なお、図示しないが、例えば選択中のオブジェクト画像と視差が同じであるか又は該オブジェクト画像よりも視差が大きい第2視差オブジェクトが4つ以上または2つのみ存在しており、選択中のオブジェクト画像を、1つの第2視差オブジェクトの一部に重なることなく、残りの第2視差オブジェクトの全体に重なるように配置できる立体画像を表す立体画像データについても第3の条件を満たすものとなる。
その後、CPU8は、記憶メディア4や内蔵メモリ6の全ての立体画像データについて上述したステップSB2以降の処理が完了したか否かを確認する(ステップSB7)。また、CPU8は、処理対象の立体画像データが第1〜第3の条件のいずれの条件も満たさないものであったときには(ステップSB5:NO)、直ちに、記憶メディア4や内蔵メモリ6の全ての立体画像データについて上述したステップSB2以降の処理が完了したか否かを確認する(ステップSB7)。
そして、CPU8は、全ての立体画像データについての処理が完了していなければ(ステップSB7:NO)、ステップSB1の処理に戻り、新たな立体画像データを読み出すとともに、読み出した立体画像データを対象として前述したステップSB2以降の処理を繰り返す。また、CPU8は、記憶メディア4や内蔵メモリ6の全ての立体画像データについて上述したステップSB2以降の処理を完了したら(ステップSB7:YES)、その時点で、背景候補検索処理を終了し、図4の処理に戻る。
つまり、背景候補検索処理においてCPU8は、選択中のオブジェクト画像を立体画像に上書き合成する際に、選択中のオブジェクト画像と視差が同じであるか又は該オブジェクト画像よりも大きな視差を有する第2視差オブジェクトが、その立体画像に少なくとも1つ存在していた場合に、全ての第2視差オブジェクトに重なることなく配置可能であるか、又は、一の第2視差オブジェクトに重なることなく配置可能であり且つ他の第2視差オブジェクトの全体に重なるように配置可能であるか、のいずれかの条件を満たす立体画像データを選択候補として抽出する。
ここで、CPU8が選択候補として取得する立体画像データのうち、第1の条件を満たす立体画像データは、それによって表される立体画像を背景として、選択中のオブジェクト画像を上書き合成する場合、オブジェクト画像の合成位置に関係なく、合成後の立体画像に対してユーザ(観察者)が画像内のオブジェクトに自然な距離感を得ることができるものである。
また、第2、又は第3の条件を満たす立体画像データは、それによって表される立体画像を背景として、選択中のオブジェクト画像を上書き合成する場合、オブジェクト画像の合成位置を適宜調整すれば、合成後の立体画像に対してユーザ(観察者)が画像内のオブジェクトに自然な距離感を得ることができるものである。
すなわち、背景候補検索処理において抽出される立体画像データは、選択中のオブジェクト画像の合成に適した立体画像を表す立体画像データである。換言すると、背景候補検索処理において抽出される立体画像データは、それによって表される立体画像を背景として選択中のオブジェクト画像を上書き合成する場合、仮にオブジェクト画像の合成位置を調整したとしても、合成後の立体画像が、ユーザ(観察者)が複数のオブジェクトに対して不自然な距離感を覚える(違和感を覚える)ものとなるようなものを除いたものである。
一方、上述した背景候補検索処理を終了した後、CPU8は図4の処理に戻り、まず、図5(b)に示したような背景画像選択画面G4を表示部2に表示させる。背景画像選択画面G4は、「背景画像を選択してください」等のメッセージ12bと、背景候補検索処理で検索(抽出)した立体画像データの選択候補を示す画像リスト13bと、「決定」と記載されたソフトキー11mと、「戻る」と記載されたソフトキー11nとから構成される。
なお、図5(b)においては、便宜上、画像リスト13bとして、立体画像データが格納されている画像ファイルのファイル名をリスト表示するものを示した。しかし、実際には、立体画像データに付加されているサムネイル画像データにより表され立体画像として観察されるサムネイル画像や、左目用サムネイル画像データ、又は右目用サムネイル画像データのいずれか一方により表され2次元画像として観察されるサムネイル画像をリスト表示することが好ましい。
ここで、画像リスト13bに画像ファイル名でリスト表示される立体画像データは、先に説明した第1〜第3の条件のいずれかの条件を満足する特定の立体画像データだけである。つまりユーザによって選択されているオブジェクト画像の合成に適した背景用の立体画像を表す立体画像データである。
従って、ユーザは、例えば選択中のオブジェクト画像と、記憶メディア4や内蔵メモリ6に記憶されている個々の立体画像とを立体視することによって、立体画像毎に、合成後の立体画像における違和感の有無を確認するといった煩雑な作業を行う必要がない。そのため、合成処理に要する時間や手間を大幅に削減することができるようになる。
なお、CPU8は、背景画像選択画面G4を表示している間には、タッチパネル3bのタッチ操作によりユーザによって、画像リスト13bに表示中のいずれかの画像ファイル名が選択されると、選択された画像ファイル名を白抜き表示する。また、CPU8は、背景画像選択画面G4を表示している間、「戻る」と記載されたソフトキー11oがタッチされたときには(ステップSA10:YES)、ステップSAの処理に戻りオブジェクト画像選択画面G3を再び表示部2に表示させる。
そして、CPU8は、タッチパネル3bを介してユーザにより、背景画像として何れかの立体画像データが選択された状態で、「決定」と記載されたソフトキー11mがタッチされると(ステップSA9:YES)、まず、ユーザに選択された立体画像データを対象として視差導出処理を実行する(ステップSA11)。
ステップSA11の視差導出処理は、ステップSA7の背景候補検索処理において行った視差導出処理と同様の処理である(図7参照)。つまりCPU8は、既説した手順によって、ユーザに選択された立体画像データにより表される立体画像内に存在するオブジェクト毎に、立体画像データを構成する左目用画像データと右目用画像データとの間に存在する視差を取得する。
しかる後、CPU8は、図5(c)に示した画像合成領域選択画面G5を表示部2に表示させる(ステップSA12)。画像合成領域選択画面G5は、「合成領域を選択してください」等のメッセージ12cと、背景画像選択画面G4においてユーザに選択された立体画像データに基づいた立体画像14aと、「戻る」と記載されたソフトキー11oから構成される。
画像合成領域選択画面G5の表示に際してCPU8は以下の処理を行う。すなわちCPU8は、ステップSA11の視差導出処理で取得したオブジェクト毎の視差の情報に基づき、ユーザに選択された立体画像データにより表される立体画像内で、選択中のオブジェクト画像よりも視差が小さい特定領域(オブジェクトが存在していない背景の画像領域を含む)を確認する。
そして、CPU8は、ユーザに選択された立体画像データにより表される立体画像14aを、確認した特定領域を他の領域と区別可能な状態で画像合成領域選択画面G5に表示する。特定領域を他の領域と区別可能とする手法については任意であるが、例えば特定領域の輝度を一定割合減少させたり、特定領域をグレースケール表示(輝度のみで表現)したりする方法がある。
なお、図5(c)に示した画像合成領域選択画面G5の例は、ユーザに選択された立体画像データにより表される立体画像14aが、図9に示したような3つのオブジェクトA,B,Cが存在するものであり、オブジェクトAが、その視差が選択中のオブジェクト画像の視差よりも小さい第1視差オブジェクトであって、且つ、オブジェクトB,Cが、その視差が選択中のオブジェクト画像の視差と同じであるか又は該オブジェクト画像の視差よりも大きい第2視差オブジェクトである場合の例である。そして、図に斜線で示したオブジェクトAと背景部分の画像領域Dとからなる領域が上記の特定領域である。つまり、特定領域とは、その領域内であれば、選択中のオブジェクト画像を上書き合成した場合であっても、合成後の立体画像を立体視した際に違和感が生じることがない領域である。
以上の画像合成領域選択画面G5を表示した後、CPU8は、ユーザにより立体画像14aの任意の座標位置がタッチ(指定)されたか否か、及び「戻る」と記載されたソフトキー11oがタッチされたいか否かを逐次確認する(ステップSA13,SA14)。
そして、CPU8は、ユーザにより立体画像14aの任意の座標位置がタッチされることなく、「戻る」と記載されたソフトキー11oがタッチされたときには(ステップSA14:YES)、ステップSA8の処理に戻り、図5(b)に示した背景画像選択画面G4を再び表示部2に表示させる。
一方、ユーザにより立体画像14aの任意の座標位置がタッチされたときには(ステップSA13:YES)、図5(d)に示した画像配置調整画面G6を表示部2に表示させる(ステップSA15)。画像配置調整画面G6には、例えば「画像配置を調整してください」等のメッセージ12dと、画像合成領域選択画面G5において表示していた立体画像14aに、選択中のオブジェクト画像14bをユーザによりタッチされた位置に重ねた状態の画像と、「決定」と記載されたソフトキー11p、及び「戻る」と記載されたソフトキー11qとが含まれる。
引き続き、画像配置調整画面G6を表示している間、CPU8は、ユーザがオブジェクト画像14bが表示されている位置に指を当てて該指をタッチパネル3上でスライドするように動かすことにより、その動作に応じるようにして、立体画像14aに対するオブジェクト画像14bの配置位置を調整する。
ここで、上述した第1乃至第3の条件のうち、立体画像14aがどの条件を満たすかによって、立体画像14aに対するオブジェクト画像14bの配置位置の調整方法が異なるため、これについて説明する。
立体画像14aが上述の第1の条件を満たしている場合、即ち、オブジェクト画像14bの視差と同じであるか又は該視差よりも大きな視差を有するオブジェクトが存在しない立体画像である場合には、立体画像14aの任意の領域にオブジェクト画像14bを配置してよい。従って、オブジェクト画像14bは立体画像14aの全領域内に配置されるように、該オブジェクト画像14bの配置をCPU8によって規制すればよく、それ以外には、該オブジェクト画像14bの配置をCPU8によって規制する必要はない。
立体画像14aが上述の第1の条件を満たさないが、第2の条件を満たしている場合、即ち、オブジェクト画像14bと視差が同じであるか又は該オブジェクト画像データよりも視差が大きいオブジェクト(第2視差オブジェクト)が存在する立体画像であって、且つ、該第2視差オブジェクトを除く領域にオブジェクト画像14bが配置可能な立体画像である場合には、該第2視差オブジェクトを除く領域にオブジェクト画像14bが配置されるように、該オブジェクト画像14bの配置をCPU8によって規制する必要がある。
従って、ユーザの指の動きに応じて、オブジェクト画像14bの任意の座標位置が第2視差オブジェクトの任意の座標位置に重ならない領域から該第2視差オブジェクトの任意の座標位置に重なる領域に移動した際には、該第2視差オブジェクトの任意の座標位置に重なる領域に移動する直前の座標に、オブジェクト画像14bを固定表示し、さらにユーザの指の動作に応じて、該第2視差オブジェクトの任意の座標位置に重なる領域から該第2視差オブジェクトの任意の座標位置に重ならない領域に移動した際には、該指の接触位置に応じた位置に、オブジェクト画像14bを再表示するようにしてよい。
立体画像14aが上述の第1乃至第2の条件を満たさないが、第3の条件を満たしている場合、即ち、オブジェクト画像14bと視差が同じであるか又は該オブジェクト画像データよりも視差が大きいオブジェクト(第2視差オブジェクト)が存在する立体画像であって、且つ、該第2視差オブジェクト全体に重なるようにオブジェクト画像14bが配置可能な立体画像である場合には、オブジェクト画像14bが第2視差オブジェクトに重ならないか、又は、オブジェクト画像14bが第2視差オブジェクト全体に重なるように、該オブジェクト画像14bの配置をCPU8によって規制する必要がある。
従って、ユーザの指の動きに応じて、オブジェクト画像14bの任意の座標位置が第2視差オブジェクトの任意の座標位置に重ならない領域から該第2視差オブジェクトの任意の座標位置に重なる領域に移動した際には、オブジェクト画像14bを第2視差オブジェクト全体に重なるように、オブジェクト画像14bの配置をCPU8によって変更(規制)し、さらにユーザの指の動作に応じて、該第2視差オブジェクトの任意の座標位置に重なる領域から該第2視差オブジェクトの任意の座標位置に重ならない領域に移動した際には、該指の接触位置に応じた位置に、オブジェクト画像14bを再表示するようにしてよい。
そして、CPU8は、「決定」と記載されたソフトキー11pがタッチされると(ステップSA16:YES)、最終的にオブジェクト画像14bが重ねられていた領域の立体画像14aにおける各画素の階調値を、元の階調値からオブジェクト画像14bの画素の階調値に置換処理することにより、立体画像14aにオブジェクト画像14bが合成された新たな立体画像を表す立体画像データを生成し、生成した立体画像データに所定のファイル名を付与して内蔵メモリ6に記憶させる(ステップSA18)。
これにより、CPU8は画像合成処理を終了し、デジタルフォトフレーム1においては、図3(a)に示した機能選択メニューG1を表示部2に表示した状態に戻る。なお、CPU8は、画像配置調整画面G6で、「戻る」と記載されたソフトキー11qが操作されたときには(ステップSA17:YES)、ステップSA8の処理に戻り、図5(b)に示した背景画像選択画面G4を再び表示部2に表示させる。
次に、図5(a)に示したオブジェクト画像選択画面G3において、ユーザにより「オブジェクト作成」と記載されたソフトキー11jが操作されときCPU8が実行する処理、つまり先に述べたステップSA5のオブジェクト画像作成処理の具体的な内容を、図10に示したフローチャートに基づいて詳述する。
オブジェクト画像作成処理においてCPU8は、図11(a)に示した被抽出画像選択画面G7を表示部2に直ちに表示させる(ステップSD1)。被抽出画像選択画面G7は、例えば「オブジェクトを抽出する画像を選択してください」等のメッセージ15aと、記憶メディア4に記憶されている立体画像データを、被抽出画像の選択候補として示す画像リスト16aと、「決定」と記載されたソフトキー17aと、「戻る」と記載されたソフトキー17bとから構成される。
なお、図11(a)においても、便宜上、画像リスト16aとして、立体画像データが格納されている画像ファイルのファイル名をリスト表示するものを示した。しかし、実際には、立体画像データに付加されているサムネイル画像データにより表され立体画像として観察されるサムネイル画像や、左目用サムネイル画像データ、又は右目用サムネイル画像データのいずれか一方により表され2次元画像として観察されるサムネイル画像をリスト表示することが好ましい。
また、被抽出画像選択画面G7で表示される画像リスト16aの内容は、上述の画像合成処理のときから記憶メディア4に記憶されている立体画像データに変化がないときには、図5(b)に示した背景画像選択画面G4で表示される画像リスト13aの内容と一致する。
また、CPU8は、被抽出画像選択画面G7を表示している間において、タッチパネル3bのタッチ操作によりユーザによって、画像リスト16aに表示中のいずれかの画像ファイル名が被抽出画像として選択されると、選択された画像ファイル名を白抜き表示する。なお、被抽出画像選択画面G7で、「戻る」と記載されたソフトキー17bがタッチされたときには(ステップSD3:YES)、CPU8は、オブジェクト画像作成処理を直ちに終了し、オブジェクト画像選択画面G3を表示部2に表示させる(ステップSA1)。
そして、CPU8は、画像リスト16aに表示されている何れかの画像ファイル名(立体画像データ)が被抽出画像として選択された状態で、「決定」と記載されたソフトキー17aがタッチされると(ステップSD2:YES)、オブジェクト検出処理を実行する(ステップSD4)。オブジェクト検出処理は、立体画像データにより表される被抽出画像(立体画像)に存在する、立体画像データを構成する左目用画像データと右目用画像データとの間に視差を有するオブジェクトを検出する処理である。
オブジェクト検出処理においてCPU8は、まず、被抽出画像として選択された立体画像データを対象として、既説したステップSA11、及びステップSB2と同様の視差導出処理(図7参照)を行うことにより、被抽出画像に存在する1又は複数のオブジェクトをいったん検出し、検出したオブジェクト毎に視差を導出する。しかる後、CPU8は、視差が"0"でないオブジェクトのみを、最終的にオブジェクトとして抽出する。
次に、CPU8は、図11(b)に示したオブジェクト選択画面G8を表示部2に表示させる(ステップSD5)。オブジェクト選択画面G8は、「オブジェクトを選択してください」等のメッセージ15bと、オブジェクト検出処理で抽出されたオブジェクト18a,18bが強調表示された状態の被抽出画像18と、「戻る」と記載されたソフトキー17cとから構成される。
なお、CPU8は、被抽出画像18におけるオブジェクトの強調表示を、例えば、オブジェクトのみに対してカラー表示を維持し、オブジェクト以外の画像領域をグレースケール表示することによって、オブジェクトをより他の画像領域と区別し易くする。
引き続き、オブジェクト選択画面G8で、タッチパネル3bを介してユーザにより、何れかのオブジェクトが指定されると(ステップSD6:YES)、CPU8は、指定されたオブジェクトに対応する領域の画像データを維持するとともに、他の画像領域の画像データを削除したオブジェクト画像データを生成し、さらには、該オブジェクト画像データに所定のファイル名を付与して内蔵メモリ6に記憶させる(ステップSD7)。
これにより、CPU8はオブジェクト画像作成処理を終了し、オブジェクト画像選択画面G3を表示部2に表示させる(ステップSA1)。
なお、ステップSD7の処理においてオブジェクト画像データを内蔵メモリ6に記憶させる際、CPU8は、オブジェクト画像データに、当該オブジェクト画像データのサイズと、形状と、視差とをそれぞれ示すデータ等を付加情報として付加する。
また、CPU8は、オブジェクト選択画面G8で、「戻る」と記載されたソフトキー17cが操作されたときには(ステップSD7:YES)、被抽出画像選択画面G7を表示部2に表示させる。
ここで、以上説明した本実施の形態においては、画像合成処理において、ユーザに選択されたオブジェクト画像の合成に適した背景用の立体画像を選択候補として検索する際、上述した第1〜第3の条件のいずれかの条件を満足する特定の立体画像データを検索した。しかし、選択候補として検索する立体画像(特定の立体画像データ)は、例えば第1の条件を満足するものだけとしてもよいし、第1、又は第2の条件を満足するものだけとしてもよい。
さらに、例えば選択候補とすべき立体画像の検索条件を、ユーザが必要に応じて設定できるような構成を採用してもよい。つまり、検索すべき立体画像を、第1の条件を満足するものだけとするか、第1、又は第2の条件を満足するものとするか、第1〜第3の条件のいずれかの条件を満足するものとするかを、ユーザに設定させるようにしてもよい。
選択候補とすべき立体画像の検索条件を上記のように変更した場合であっても、選択候補となる立体画像は、ユーザが選択したオブジェクト画像の合成に適した立体画像のみとなる。したがって、ユーザは、例えば選択中のオブジェクト画像と、記憶メディア4や内蔵メモリ6に記憶されている個々の立体画像とを立体視することによって、立体画像毎に、合成後の立体画像における違和感の有無を確認するといった煩雑な作業を行う必要がない。そのため、合成処理に要する時間や手間を大幅に削減することができる。
なお、上述の実施の形態において、画像合成処理やオブジェクト画像作成処理の際に表示部2に表示する画像は、画像を立体的に視認可能なように左目用画像データと右目用画像データとを用いて表示してもよいし、画像を2次元平面的に視認可能なように左目用画像データと右眼用画像データとのうちの一方のみを用いて表示してもよい。またさらには、ユーザによって立体的に表示するか否かを選択可能に構成してもよい。
また、上述の実施の形態では、記憶メディア4や内蔵メモリ6に記憶されている個々の立体画像について画像内に存在するオブジェクト毎の視差を導出する際に、左眼用画像データと右眼用画像データのそれぞれに対してオブジェクトの輪郭を検出し、この輪郭の座標位置の違いに基づいてオブジェクト毎の視差を導出する場合について説明したが、オブジェクト毎の視差は他の方法を用いて導出してもよい。例えば、左眼用画像データと右眼用画像データの何れか一方から色情報等を考慮した特徴部分を直接的に抽出し、この抽出した特徴部分に対応する画像を他方の画像データから検出し、その後、互いの座標位置の位置ズレ量を視差として導出してもよい。
いずれにしても、立体画像におけるオブジェクト毎の視差は観察者において知覚される距離感を定量化した情報であり、オブジェクト画像(単一のオブジェクト)との間で比較可能な視差が導出できれば、視差は他の方法によって取得してもよい。なお、係る点についてはオブジェクト画像の視差についても同様であり、オブジェクト画像の視差も、本実施の形態とは異なる方法により導出しても構わない。
また、上述の実施の形態では、背景となる立体画像に前景となるオブジェクト画像を合成する際に、オブジェクト画像を等倍に維持したままで立体画像に合成する場合について説明したが、立体画像には、視差を維持しつつ画像サイズを拡大または縮小したオブジェクト画像を合成してもよい。
また、上述の実施の形態では、背景となる立体画像に合成する前景となるオブジェクト画像(素材画像)が、デジタルフォトフレーム1で作成されたものである場合について説明したが、オブジェクト画像はデジタルフォトフレーム1以外の任意の装置で作成されたものであってもよいし、ネットワーク上に存在するサーバーから取得したものであってもよい。さらに、オブジェクト画像は、例えば単一の画像から画像処理技術を用いて作成されたのであってもよい。また、背景となる立体画像についても、ネットワーク上に存在するサーバーから取得したものを使用することができる。
また上述の実施の形態では、本発明の画像合成装置をデジタルフォトフレームにおいて実施した場合について説明したが、本発明はデジタルカメラや携帯電話などの他の電子機器に適用してもよい。また、本発明は、汎用的なパーソナルコンピュータにおいても実施することができ、その場合には、所定のアプリケーションソフト(プログラム)に基づいてパーソナルコンピュータを動作させればよい。
1 デジタルフォトフレーム
2 表示部
4 記憶メディア
5 メディア装着部
6 内蔵メモリ
7 制御部
8 CPU
14L 左目側エッジ画像データ
14R 右目側エッジ画像データ
14a 立体画像
14b オブジェクト画像
18 被抽出画像
18a,18b オブジェクト
G1 機能選択メニュー
G2 編集内容選択メニュー
G3 オブジェクト画像選択画面
G4 背景画像選択画面
G5 画像合成領域選択画面
G6 画像配置調整画面
G7 被抽出画像選択画面
G8 オブジェクト選択画面

Claims (17)

  1. オブジェクトとして立体視される素材画像に存在する視差を取得する取得部と、
    各々が立体視される複数の立体画像のうちから、所定の条件を満たす立体画像を選択候補として検索する検索部と、
    前記検索部により選択候補として検索された立体画像に前記素材画像を合成する合成部と、
    を備え、
    前記複数の立体画像は、各々が少なくとも1つのオブジェクトを含み、
    前記複数の立体画像のうち前記選択候補とされる立体画像に含まれる前記少なくとも1つのオブジェクトのいずれもが前記取得部により取得された前記素材画像の視差よりも小さい第1視差オブジェクトであることを、前記所定の条件として、前記複数の立体画像のうちから前記選択候補とされる立体画像を、前記検索部が検索する、
    画像合成装置。
  2. 請求項1に記載の画像合成装置であって、
    前記合成部は、前記素材画像を前記立体画像に合成する際に、前記素材画像が前記立体画像の全領域内に配置されるように、前記素材画像の配置を規制する。
  3. オブジェクトとして立体視される素材画像に存在する視差を取得する取得部と、
    各々が立体視される複数の立体画像のうちから、所定の条件を満たす立体画像を選択候補として検索する検索部と、
    前記検索部により選択候補として検索された立体画像に前記素材画像を合成する合成部と、
    を備え、
    前記複数の立体画像は、各々が少なくとも1つのオブジェクトを含み、
    前記複数の立体画像のうち前記選択候補とされる立体画像に含まれる前記少なくとも1つのオブジェクトが前記取得部により取得された前記素材画像の視差と同じであるか又は該視差よりも大きい第2視差オブジェクトであって、且つ、前記第2視差オブジェクトを除く領域に前記素材画像を配置可能な形状およびサイズを該素材画像が有することを、前記所定の条件として、前記複数の立体画像のうちから前記選択候補とされる立体画像を、前記検索部が検索する、
    画像合成装置。
  4. 請求項3に記載の画像合成装置であって、
    前記複数の立体画像は、各々が前記第2視差オブジェクトである複数の前記オブジェクトを含み、
    全ての前記複数の第2視差オブジェクトを除く領域に前記素材画像を配置可能な形状およびサイズを該素材画像が有することを、前記所定の条件として、前記複数の立体画像のうちから前記選択候補とされる立体画像を、前記検索部が検索する。
  5. 請求項4に記載の画像合成装置であって、
    前記合成部は、前記素材画像を前記立体画像に合成する際に、前記素材画像が前記第2視差オブジェクトを除く領域に配置されるように、前記素材画像の配置を規制する。
  6. 請求項3に記載の画像合成装置であって、
    前記複数の立体画像は、各々が前記第2視差オブジェクトである複数の前記オブジェクトを含み、
    複数の前記第2視差オブジェクトのうちの一の前記第2視差オブジェクトを除く領域に、前記一の第2視差オブジェクトとは異なる他の前記第2視差オブジェクト全体に重なるように前記素材画像を配置可能な形状およびサイズを該前記素材画像が有することを、前記所定の条件として、前記複数の立体画像のうちから前記選択候補とされる立体画像を、前記検索部が検索する。
  7. 請求項6に記載の画像合成装置であって、
    前記合成部は、前記素材画像を前記立体画像に合成する際に、前記素材画像が前記第2視差オブジェクト全体に重なるように配置されるように、前記素材画像の配置を規制する。
  8. オブジェクトとして立体視される素材画像に存在する視差を取得する取得部と、
    各々が立体視される複数の立体画像のうちから、所定の条件を満たす立体画像を選択候補として検索する検索部と、
    前記検索部により選択候補として検索された立体画像に前記素材画像を合成する合成部と、
    を備え、
    前記複数の立体画像は、各々が少なくとも1つのオブジェクトを含み、
    前記複数の立体画像のうち前記選択候補とされる立体画像に含まれる前記少なくとも1つのオブジェクトが前記取得部により取得された前記素材画像の視差と同じであるか又は該視差よりも大きい第2視差オブジェクトであって、且つ、前記第2視差オブジェクト全体に重なるように配置可能な形状およびサイズを該素材画像が有することを、前記所定の条件として、前記複数の立体画像のうちから前記選択候補とされる立体画像を、前記検索部が検索する、
    画像合成装置。
  9. 請求項8に記載の画像合成装置であって、
    前記合成部は、前記素材画像を前記立体画像に合成する際に、前記素材画像が前記第2視差オブジェクト全体に重なるように配置されるように、前記素材画像の配置を規制する。
  10. オブジェクトとして立体視される素材画像に存在する視差を取得する工程と、
    各々が立体視される複数の立体画像のうちから、所定の条件を満たす立体画像を選択候補として検索する工程と、
    前記検索する工程により選択候補として検索された立体画像に前記素材画像を合成する工程と、
    を備え、
    前記複数の立体画像は、各々が少なくとも1つのオブジェクトを含み、
    前記複数の立体画像のうち前記選択候補とされる立体画像に含まれる前記少なくとも1つのオブジェクトのいずれもが前記取得する工程により取得された前記素材画像の視差よりも小さい第1視差オブジェクトであることを、前記所定の条件として、前記複数の立体画像のうちから前記選択候補とされる立体画像を、前記検索する工程において検索する
    画像検索方法。
  11. オブジェクトとして立体視される素材画像に存在する視差を取得する工程と、
    各々が立体視される複数の立体画像のうちから、所定の条件を満たす立体画像を選択候補として検索する工程と、
    前記立体画像を検索する工程において選択候補として検索された立体画像に前記素材画像を合成する工程と、
    を含み、
    前記複数の立体画像は、各々が少なくとも1つのオブジェクトを含み、
    前記立体画像を検索する工程は、前記複数の立体画像のうち前記選択候補とされる立体画像に含まれる前記少なくとも1つのオブジェクトが前記視差を取得する工程において取得された前記素材画像の視差と同じであるか又は該視差よりも大きい第2視差オブジェクトであって、且つ、前記第2視差オブジェクトを除く領域に前記素材画像を配置可能な形状およびサイズを該素材画像が有することを、前記所定の条件として、前記複数の立体画像のうちから前記選択候補とされる立体画像を、前記検索する工程において検索することを含む、
    画像検索方法。
  12. 請求項11に記載の画像合成方法であって、
    前記素材画像を合成する工程は、前記素材画像を前記立体画像に合成する際に、前記素材画像が前記第2視差オブジェクトを除く領域に配置されるように、前記素材画像の配置を規制することを含む。
  13. 請求項11に記載の画像合成方法であって、
    前記素材画像を合成する工程は、前記素材画像を前記立体画像に合成する際に、前記素材画像が前記第2視差オブジェクト全体に重なるように配置されるように、前記素材画像の配置を規制することを含む。
  14. オブジェクトとして立体視される素材画像に存在する視差を取得する工程と、
    各々が立体視される複数の立体画像のうちから、所定の条件を満たす立体画像を選択候補として検索する工程と、
    前記検索する工程により選択候補として検索された立体画像に前記素材画像を合成する工程と、
    を備え、
    前記複数の立体画像は、各々が少なくとも1つのオブジェクトを含み、
    前記複数の立体画像のうち前記選択候補とされる立体画像に含まれる前記少なくとも1つのオブジェクトが前記取得する工程により取得された前記素材画像の視差と同じであるか又は該視差よりも大きい第2視差オブジェクトであって、且つ、前記第2視差オブジェクト全体に重なるように配置可能な形状およびサイズを該素材画像が有することを、前記所定の条件として、前記複数の立体画像のうちから前記選択候補とされる立体画像を、前記検索する工程において検索する
    画像合成方法。
  15. コンピュータに、
    オブジェクトとして立体視される素材画像に存在する視差を取得する処理と、
    各々が立体視される複数の立体画像のうちから、所定の条件を満たす立体画像を選択候補として検索する処理と、
    前記立体画像を検索する処理において選択候補として検索された立体画像に前記素材画像を合成する処理と、
    を実行させ、
    前記複数の立体画像は、各々が少なくとも1つのオブジェクトを含み、
    前記立体画像を検索する処理は、前記複数の立体画像のうち前記選択候補とされる立体画像に含まれる前記少なくとも1つのオブジェクトが前記視差を取得する処理において取得された前記素材画像の視差と同じであるか又は該視差よりも大きい第2視差オブジェクトであって、且つ、前記第2視差オブジェクトを除く領域に前記素材画像を配置可能な形状およびサイズを該素材画像が有することを、前記所定の条件として、前記複数の立体画像のうちから前記選択候補とされる立体画像を、前記検索する処理において検索することを含む、
    プログラム。
  16. 請求項15に記載のプログラムであって、
    前記素材画像を合成する処理は、前記素材画像を前記立体画像に合成する際に、前記素材画像が前記第2視差オブジェクトを除く領域に配置されるように、前記素材画像の配置を規制することを含む。
  17. 請求項15に記載のプログラムであって、
    前記素材画像を合成する処理は、前記素材画像を前記立体画像に合成する際に、前記素材画像が前記第2視差オブジェクト全体に重なるように配置されるように、前記素材画像の配置を規制することを含む。
JP2011185935A 2010-10-15 2011-08-29 画像合成装置、及び画像検索方法、プログラム Expired - Fee Related JP5578149B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011185935A JP5578149B2 (ja) 2010-10-15 2011-08-29 画像合成装置、及び画像検索方法、プログラム
CN201110309973.XA CN102572464B (zh) 2010-10-15 2011-10-13 图像合成装置及图像检索方法
US13/272,448 US9280847B2 (en) 2010-10-15 2011-10-13 Image composition apparatus, image retrieval method, and storage medium storing program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010232042 2010-10-15
JP2010232042 2010-10-15
JP2011185935A JP5578149B2 (ja) 2010-10-15 2011-08-29 画像合成装置、及び画像検索方法、プログラム

Publications (2)

Publication Number Publication Date
JP2012104101A JP2012104101A (ja) 2012-05-31
JP5578149B2 true JP5578149B2 (ja) 2014-08-27

Family

ID=45933756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011185935A Expired - Fee Related JP5578149B2 (ja) 2010-10-15 2011-08-29 画像合成装置、及び画像検索方法、プログラム

Country Status (3)

Country Link
US (1) US9280847B2 (ja)
JP (1) JP5578149B2 (ja)
CN (1) CN102572464B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101737840B1 (ko) * 2010-11-05 2017-05-19 엘지전자 주식회사 이동 단말기 및 그 제어방법
US8682107B2 (en) * 2010-12-22 2014-03-25 Electronics And Telecommunications Research Institute Apparatus and method for creating 3D content for oriental painting
US10289204B2 (en) * 2012-11-15 2019-05-14 Quantum Interface, Llc Apparatuses for controlling electrical devices and software programs and methods for making and using same
CN105120256A (zh) * 2015-07-31 2015-12-02 努比亚技术有限公司 移动终端及其通过拍摄3d图像合成图片的方法和装置
US10165199B2 (en) * 2015-09-01 2018-12-25 Samsung Electronics Co., Ltd. Image capturing apparatus for photographing object according to 3D virtual object
CN105427369A (zh) * 2015-11-25 2016-03-23 努比亚技术有限公司 移动终端及其三维形象的生成方法
CN106231350B (zh) * 2015-12-30 2019-03-26 深圳超多维科技有限公司 主播类互动平台场景切换方法及其装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3441911B2 (ja) * 1997-02-20 2003-09-02 キヤノン株式会社 情報処理装置及び方法
JPH11341522A (ja) 1998-05-22 1999-12-10 Fuji Photo Film Co Ltd 立体画像撮影装置
JP4250814B2 (ja) * 1999-07-14 2009-04-08 ソニー株式会社 3次元映像の送受信システム及びその送受信方法
JP2004134950A (ja) 2002-10-09 2004-04-30 Sony Corp 画像合成方法および画像合成装置
JP2005353047A (ja) * 2004-05-13 2005-12-22 Sanyo Electric Co Ltd 立体画像処理方法および立体画像処理装置
JP2010505174A (ja) 2006-09-28 2010-02-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ メニューディスプレイ
CN101610421B (zh) 2008-06-17 2011-12-21 华为终端有限公司 视频通讯方法、装置及系统
JP4637942B2 (ja) * 2008-09-30 2011-02-23 富士フイルム株式会社 3次元表示装置および方法並びにプログラム

Also Published As

Publication number Publication date
CN102572464A (zh) 2012-07-11
US20120092338A1 (en) 2012-04-19
US9280847B2 (en) 2016-03-08
CN102572464B (zh) 2014-12-03
JP2012104101A (ja) 2012-05-31

Similar Documents

Publication Publication Date Title
JP5477349B2 (ja) 画像合成装置、及び画像検索方法、プログラム
JP5578149B2 (ja) 画像合成装置、及び画像検索方法、プログラム
US20130222555A1 (en) Image generating apparatus generating reconstructed image, method, and computer-readable recording medium
WO2005069170A1 (ja) 画像ファイル一覧表示装置
WO2013054462A1 (ja) ユーザーインタフェース制御装置、ユーザーインタフェース制御方法、コンピュータプログラム、及び集積回路
US10888228B2 (en) Method and system for correlating anatomy using an electronic mobile device transparent display screen
JP2013016018A (ja) 表示制御装置、制御方法及びプログラム
WO2018025825A1 (ja) 撮像システム
US9177382B2 (en) Image processing apparatus for forming synthetic image and image processing method for forming synthetic image
JP2011039801A (ja) 画像処理装置および画像処理方法
EP4195647A1 (en) Image processing method, mobile terminal, and storage medium
JP2006285475A (ja) デジタルカメラ機能を利用した多次元的デジタル画像複合処理インターフェイス技術
JP2013168120A (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
KR102100667B1 (ko) 휴대 단말기에서 이미지 데이터를 생성하는 장치 및 방법
JP5950701B2 (ja) 画像表示システム、パズルゲームシステム、画像表示方法、パズルゲーム方法、画像表示装置、パズルゲーム装置、画像表示プログラム、および、パズルゲームプログラム
US20150206282A1 (en) Image processing device, image processing method, and image processing program
US10783666B2 (en) Color analysis and control using an electronic mobile device transparent display screen integral with the use of augmented reality glasses
CN111521127B (zh) 测量方法、测量装置以及记录介质
KR101458542B1 (ko) 디지털 콘텐츠 생성 장치 및 그 방법, 디지털 콘텐츠 생성 장치를 이용한 데이터 통신 시스템 및 그 방법 및 기록매체
KR102273925B1 (ko) 3차원 의료영상의 치료계획 기록 방법 및 장치
JP6182930B2 (ja) 奥行き制作支援装置、奥行き制作方法、及びプログラム
CN112312110B (zh) 非暂态计算机可读介质、图像处理装置及图像处理方法
JP2011180779A (ja) 立体画像データ生成装置、立体画像データ生成方法、および立体画像データ生成プログラム
KR20130065580A (ko) 전자 장치, ar 이미지 생성 방법 및 컴퓨터 판독가능 기록매체
JP2022180819A (ja) 画像撮影方法、コンピュータ装置およびコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140610

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140623

R150 Certificate of patent or registration of utility model

Ref document number: 5578149

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees