JP6029021B2 - 画像処理装置、撮像装置および画像処理方法 - Google Patents

画像処理装置、撮像装置および画像処理方法 Download PDF

Info

Publication number
JP6029021B2
JP6029021B2 JP2013535164A JP2013535164A JP6029021B2 JP 6029021 B2 JP6029021 B2 JP 6029021B2 JP 2013535164 A JP2013535164 A JP 2013535164A JP 2013535164 A JP2013535164 A JP 2013535164A JP 6029021 B2 JP6029021 B2 JP 6029021B2
Authority
JP
Japan
Prior art keywords
information
depth
embedded
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013535164A
Other languages
English (en)
Other versions
JPWO2013111552A1 (ja
Inventor
整 山田
整 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2013111552A1 publication Critical patent/JPWO2013111552A1/ja
Application granted granted Critical
Publication of JP6029021B2 publication Critical patent/JP6029021B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/634Warning indications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof

Description

本発明は、画像内の領域に情報を埋め込む画像処理のための画像処理装置に関する。
画像内の領域に情報を埋め込む画像処理に関する技術として、特許文献1および特許文献2に記載の技術がある。
特開2009−200784号公報 特開2004−104331号公報
しかしながら、不適切な領域に情報が埋め込まれることにより、画像または情報が見え難い状態に陥る可能性がある。
そこで、本発明は、情報を埋め込むための領域を適切に決定することができる画像処理装置を提供する。
本発明の一態様に係る画像処理装置は、画像を取得する画像取得部と、前記画像内の領域に埋め込まれる埋め込み情報を取得する埋め込み情報取得部と、前記画像の各画素の奥行き値を示すデプス情報を取得するデプス情報取得部と、前記デプス情報を用いて、前記埋め込み情報が埋め込まれる前記領域である埋め込み領域を決定する埋め込み領域決定部とを備える。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの非一時的な記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本発明の一態様に係る画像処理装置は、情報を埋め込むための領域を適切に決定することができる。
図1は、埋め込み情報の埋め込み後の画像を示す図である。 図2は、デプスマップを示す図である。 図3Aは、埋め込み情報が目立たないデプスマップを示す図である。 図3Bは、埋め込み情報に違和感があるデプスマップを示す図である。 図3Cは、埋め込み情報が適切に見えるデプスマップを示す図である。 図4は、実施の形態1に係る画像処理装置の構成図である。 図5Aは、第1の例に係る入力画像のデプスマップを示す図である。 図5Bは、第1の例に係るデプス範囲を示す図である。 図5Cは、第1の例に係る探索領域を示す図である。 図5Dは、第1の例に係る埋め込み領域を示す図である。 図6Aは、第2の例に係る入力画像のデプスマップを示す図である。 図6Bは、第2の例に係るデプス値のヒストグラムである。 図6Cは、第2の例に係る埋め込み領域を示す図である。 図7Aは、第3の例に係る入力画像のデプスマップを示す図である。 図7Bは、第3の例に係る初期の探索領域を示す図である。 図7Cは、第3の例に係る新たな探索領域を示す図である。 図7Dは、第3の例に係る埋め込み領域を示す図である。 図7Eは、第3の例に係るデプス範囲を示す図である。 図7Fは、第3の例に係る埋め込み後のデプスマップを示す図である。 図8Aは、第4の例に係る入力画像のデプスマップを示す図である。 図8Bは、第4の例に係る撮影のための通知メッセージを示す図である。 図8Cは、第4の例に係る補正のための通知メッセージを示す図である。 図8Dは、第4の例に係る埋め込み領域を示す図である。 図9Aは、装飾部品の埋め込み後のデプスマップを示す図である。 図9Bは、フレームの埋め込み後のデプスマップを示す図である。 図9Cは、テキストの一部が強調されたデプスマップを示す図である。 図9Dは、音声のパワーに応じてテキストが埋め込まれたデプスマップを示す図である。 図10Aは、実施の形態1に係る画像処理装置の動作を示すフローチャートである。 図10Bは、実施の形態1に係る埋め込み領域の探索処理を示すフローチャートである。 図11は、実施の形態2に係る画像処理装置の構成図である。 図12Aは、実施の形態2に係る入力画像のデプスマップを示す図である。 図12Bは、実施の形態2に係るデプスマップ信頼度を示す図である。 図12Cは、実施の形態2に係る埋め込み後のデプスマップの第1の例を示す図である。 図12Dは、実施の形態2に係る埋め込み後のデプスマップの第2の例を示す図である。 図13は、実施の形態3に係る画像処理装置の構成図である。 図14は、実施の形態3に係る画像処理装置の動作を示すフローチャートである。 図15は、実施の形態4に係る画像処理装置の構成図である。 図16は、実施の形態4に係る画像処理装置の動作を示すフローチャートである。
(本発明の基礎となった知見)
本発明者は、「背景技術」の欄において記載した、画像内の領域に情報を埋め込む画像処理に関する技術に関し、以下の課題を見出した。
撮影等で得られた画像にテキストメッセージまたは装飾部品などを埋め込むための埋め込み機能を有する画像処理装置が存在する。このような埋め込み機能の想定用途として、例えば、誕生パーティまたは結婚式などの催しにおいて、参加者が撮影画像にメッセージを付与する場合などがある(図1参照)。
ここでは、画像に埋め込まれるメッセージ等の情報を埋め込み情報と呼ぶ。画像に埋め込み情報を埋め込むとは、画像の上に埋め込み情報を配置し、画像に埋め込み情報を重ね合わせることを意味する。したがって、画像に埋め込み情報が埋め込まれることにより、画像の一部が隠れる。
そのため、埋め込み情報が埋め込まれる位置(埋め込み位置)が適切でない場合、撮影画像内の主要な被写体の上に埋め込み情報が埋め込まれ、主要な被写体が埋め込み情報で隠れる可能性がある。そこで、適切な埋め込み位置を適切に決定する方法として、画像に含まれる情報を用いて埋め込み位置を決定する方法が知られている(特許文献1)。
この方法に係る画像処理装置は、画像に含まれる情報(フォーカスエリア、日付の写し込み、顔の位置、文字の位置、および、被写体の輪郭など)を用いて画像内の主要な位置を検出し、主要な位置を避けて埋め込み情報を埋め込む。これにより、画像処理装置は、画像内の主要な位置への埋め込みを避け、主要な位置以外の領域に埋め込み情報を埋め込むことができる。したがって、画像処理装置は、通常の写真に埋め込み情報を適切に埋め込むことができる。
次に、埋め込み情報を含む画像が3D画像として立体的に鑑賞されるように、埋め込み機能を拡張することが考えられる。3D画像を生成するための主な方法として、2種類の方法がある。1つは、ステレオカメラから得られる左右2枚の画像の視差を利用して、3D画像を生成する方法である。もう1つは、画素毎にカメラから被写体までの距離を計測し、その距離に基づいて3D画像を生成する方法である。
なお、ここでは、上記の視差または距離に対応する奥行きの度合いを示す値を奥行き値(デプス値)と呼ぶ。また、画像または画像の領域における各画素の奥行き値に関する情報をデプス情報と呼ぶ。例えば、左右2枚の画像の視差から、それらの画像の各画素の奥行き値、および、それらの画像の各画素の奥行き値に関するデプス情報が得られる。逆に、平面画像と、その平面画像の各画素の奥行き値を示すデプス情報とを組み合わせることで、視差を有する左右2枚の画像が得られる。
特許文献2では、計測された距離に基づいて3D画像が生成され、埋め込み情報にデプス情報が付与される。これにより、埋め込み情報が埋め込まれた3D画像が立体的に鑑賞される。ここで、埋め込み情報に適切なデプス情報が付与されることで、3D画像に埋め込まれた埋め込み情報が、違和感無く3Dで表示される。
特許文献2では、埋め込み情報にデプス情報を付与する方法として、ユーザインターフェイスを用いる方法が示されている。この方法では、ユーザは、「遠く」または「近く」のボタンを適切な回数押すことで、埋め込み情報に適切なデプス情報を付与することが可能である。
特許文献1のように埋め込み位置を決定する方法、および、特許文献2のように埋め込み情報にデプス情報を付与する方法等の技術に基づいて、埋め込み情報は3D画像に埋め込まれる。しかし、3D画像への埋め込みには、以下に示される複数の課題が存在する。
まず、3D画像に埋め込まれた埋め込み情報が適切に見えない可能性がある。3D画像に埋め込まれた埋め込み情報は、周囲から飛び出して、目立って見える方がよい。この課題を説明するため、画像の各画素のデプス値を示すデプスマップ(DepthMap)を説明する。
図2は、デプスマップを示す。デプスマップは、通常、図2のような画像で表される。図2等のデプスマップは、画素の色が白いほど(ハッチングが薄いほど)、カメラから被写体への距離が近く、画素の色が黒いほど(ハッチングが濃いほど)、カメラから被写体への距離が遠いことを示す。埋め込み情報の周囲のデプス値が埋め込み情報と同等の奥行きを示す場合、または、埋め込み情報の周囲のデプス値が埋め込み情報よりも手前側の奥行きを示す場合、3D画像に埋め込まれた埋め込み情報は適切に見えない。
例えば、図3Aに示されたデプスマップのように、埋め込み情報のデプス値が周囲のデプス値と同等の奥行きを示す場合、埋め込み情報の飛び出し量は周囲と同等である。このような埋め込み情報は、飛び出し感に乏しく、書割感を与える。そして、このような埋め込み情報は、強調されず、目立たない。
また、図3Bに示されたデプスマップのように、埋め込み情報のデプス値が周囲のデプス値よりも奥側の奥行きを示す場合、埋め込み情報が、奥側に引っ込んで見える。このような画像は、違和感を生じさせる。
一方、図3Cに示されたデプスマップのように、埋め込み情報のデプス値が周囲のデプス値よりも手前側の奥行きを示す場合、埋め込み情報が飛び出して適切に見える。
特許文献1に示された方法では、埋め込み位置の決定にデプス値が用いられない。そのため、埋め込み情報のデプス値と、埋め込み位置の周囲のデプス値との関係が適切でない可能性があり、埋め込み情報が適切に見えない可能性がある。さらに、人物の顔が埋め込み位置から除外された場合でも、人物の身体、または、人物が有する物体などの領域に埋め込み位置が設定され、画像が適切に見えない可能性もある。
また、埋め込み情報へのデプス情報の設定が、利用者にとって不便である場合がある。特許文献2では、ユーザインターフェイスを介して、埋め込み情報へデプス情報が付与される。そのため、この機能を利用する度に、利用者がデプス情報を調整する手間が生じる。
そこで、本発明の一態様に係る画像処理装置は、画像を取得する画像取得部と、前記画像内の領域に埋め込まれる埋め込み情報を取得する埋め込み情報取得部と、前記画像の各画素の奥行き値を示すデプス情報を取得するデプス情報取得部と、前記デプス情報を用いて、前記埋め込み情報が埋め込まれる前記領域である埋め込み領域を決定する埋め込み領域決定部とを備える。
これにより、画像処理装置は、情報を埋め込むための領域を適切に決定することができる。
例えば、前記埋め込み領域決定部は、前記デプス情報を用いて、所定の奥行き値よりも奥側を示す奥行き値を有する複数の画素で構成される前記埋め込み領域を決定してもよい。
これにより、画像処理装置は、奥側の領域を埋め込み領域として決定する。したがって、画像処理装置は、画像の主要な位置が隠れることを回避することができる。
また、例えば、前記画像処理装置は、さらに、前記画像に含まれる所定の被写体の、前記画像における位置である被写体位置を検出することにより、前記被写体位置を示す被写体位置情報を取得する被写体位置検出部を備え、前記埋め込み領域決定部は、前記デプス情報および前記被写体位置情報を用いて、前記被写体位置の画素の奥行き値よりも奥側を示す奥行き値を有する複数の画素で構成される前記埋め込み領域を決定してもよい。
これにより、画像処理装置は、所定の被写体よりも奥側の領域を埋め込み領域として決定する。したがって、画像処理装置は、所定の被写体と同等の領域が隠れることを回避することができる。
また、例えば、前記埋め込み領域決定部は、前記デプス情報を用いて、所定の奥行き値から所定の範囲内の奥行き値を有する複数の画素で構成される前記埋め込み領域を決定してもよい。
これにより、画像処理装置は、奥行き値の分散の度合いが小さい領域を埋め込み領域として決定する。奥行き値の分散の度合いが小さい領域は、目立たない領域である可能性が高い。したがって、画像処理装置は、目立たない可能性が高い領域を埋め込み領域として決定することができる。
また、例えば、前記埋め込み領域決定部は、前記デプス情報を用いて、出現頻度がピークである奥行き値から所定の範囲内の奥行き値を有する複数の画素で構成される前記埋め込み領域を決定してもよい。
これにより、画像処理装置は、出現頻度が高い奥行き値を有する領域を埋め込み領域として決定する。出現頻度が高い奥行き値を有する領域は、目立たない可能性が高い。したがって、画像処理装置は、目立たない可能性が高い領域を埋め込み領域として決定することができる。
また、例えば、前記埋め込み領域決定部は、前記デプス情報を用いて、所定の奥行き値よりも奥側を示す奥行き値を有する複数の画素で構成される領域であり、出現頻度がピークである奥行き値から所定の範囲内の奥行き値を有する複数の画素で構成される領域である前記埋め込み領域を決定してもよい。
これにより、画像処理装置は、目立たない可能性が高い奥側の領域を埋め込み領域として決定することができる。
また、例えば、前記デプス情報取得部は、前記画像の各画素の奥行き値の信頼度を示す情報を含む前記デプス情報を取得してもよい。
これにより、画像処理装置は、画像の各画素のデプス値の信頼度を含むデプス情報を用いて、適切に埋め込み領域を決定することができる。
また、例えば、前記埋め込み領域決定部は、前記デプス情報を用いて、奥行き値の信頼度が所定の信頼度よりも低い画素を含む前記埋め込み領域を決定してもよい。
これにより、画像処理装置は、デプス値の信頼度が低い画素を含む領域を隠すことができる。
また、例えば、前記埋め込み領域決定部は、前記画像に含まれる所定の被写体の、前記画像における位置である被写体位置を除く領域の中から、前記デプス情報を用いて前記埋め込み領域を決定してもよい。
これにより、画像処理装置は、主要な被写体を除く領域の中から、埋め込み領域を決定することができる。すなわち、画像処理装置は、主要な被写体が隠れることを回避することができる。
また、例えば、前記埋め込み領域決定部は、前記埋め込み情報取得部で取得された前記埋め込み情報の情報量を用いて前記埋め込み領域のサイズを設定し、設定された前記サイズを有する前記埋め込み領域を決定してもよい。
これにより、画像処理装置は、埋め込み情報に基づいて、埋め込み領域のサイズを適切に設定することができる。
また、例えば、前記埋め込み領域決定部は、前記デプス情報を用いて前記埋め込み領域を決定するために用いられる条件を満たす前記埋め込み領域が存在しない場合、前記画像に含まれる所定の被写体の、前記画像における位置である被写体位置を除く領域の中から前記埋め込み領域を決定してもよい。
これにより、埋め込み領域がデプス情報に基づいて決定されない場合でも、画像処理装置は、被写体を除く領域の中から埋め込み領域を決定することができる。
また、例えば、前記画像処理装置は、さらに、前記埋め込み情報の奥行き値を決定する奥行き値決定部と、前記奥行き値決定部で決定された前記奥行き値を用いて前記画像内の前記埋め込み領域に前記埋め込み情報を埋め込む埋め込み部とを備えてもよい。
これにより、画像処理装置は、埋め込み情報に奥行き値を設定することができる。したがって、立体的に観賞される埋め込み情報が得られる。
また、例えば、前記奥行き値決定部は、前記埋め込み情報の奥行き値を、前記画像に含まれる所定の被写体の、前記画像における位置である被写体位置の奥行き値と同じ度合いの奥行き値に決定してもよい。
これにより、画像処理装置は、埋め込み情報が被写体と同程度に目立つように、埋め込み情報の奥行き値を設定することができる。
また、例えば、前記奥行き値決定部は、前記デプス情報を用いて前記埋め込み領域を決定するために用いられる条件を満たす前記埋め込み領域が存在しない場合、前記画像に含まれる所定の被写体の、前記画像における位置である被写体位置を除く領域の中から決定される前記埋め込み領域に埋め込まれる前記埋め込み情報の奥行き値を前記被写体位置における奥行き値よりも手前側を示す奥行き値に決定してもよい。
これにより、画像処理装置は、埋め込み情報に目立たない奥行き値が設定されることを回避することができる。
また、例えば、前記被写体位置検出部は、前記画像に含まれる人物の顔の、前記画像における位置を前記被写体位置として検出することにより、前記人物の顔の位置を前記被写体位置として示す前記被写体位置情報を取得してもよい。
これにより、例えば、画像処理装置は、被写体の顔よりも奥側の領域を埋め込み領域として決定する。したがって、画像処理装置は、被写体の顔と同等の領域が隠れることを回避することができる。
また、例えば、前記埋め込み情報取得部は、テキスト、装飾部品、フレーム、および、画像のうち少なくとも1つを含む前記埋め込み情報を取得してもよい。
これにより、画像処理装置は、テキスト、装飾部品、フレームまたは画像等を埋め込むための埋め込み領域を決定することができる。
また、例えば、前記画像処理装置は、さらに、前記画像を表示する表示部を備え、前記表示部は、前記埋め込み領域を決定するために用いられる条件を満たす前記埋め込み領域が存在しない場合、利用者に前記埋め込み領域が存在しないことを示す通知メッセージを表示してもよい。
これにより、画像処理装置は、埋め込み情報を埋め込むための領域が画像に存在しないことを利用者に通知することができる。
また、例えば、前記埋め込み領域決定部は、前記埋め込み領域を決定するために用いられる条件を満たす前記埋め込み領域が存在しない場合、前記デプス情報を用いて、前記画像に含まれる所定の被写体が近いか否かを判定し、前記表示部は、前記被写体が近いと判定された場合、前記被写体から離れて前記被写体を撮影することを利用者に促すメッセージを含む前記通知メッセージを表示してもよい。
これにより、画像処理装置は、埋め込み情報を埋め込むための領域が画像に存在しない場合、被写体から離れて被写体を撮影することを利用者に促すことができる。
また、本発明の一態様に係る撮像装置は、前記画像処理装置を備え、前記画像取得部は、被写体を撮影することにより、前記画像を取得する。
これにより、撮像装置は、撮影で得られた画像に埋め込まれる埋め込み情報の領域を適切に決定することができる。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの非一時的な記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態1)
図4は、本実施の形態に係る画像処理装置の構成、および、画像処理装置の各構成要素への入力情報を示す。図4の通り、本実施の形態に係る画像処理装置100は、撮像部1、被写体位置検出部2、埋め込み情報取得部3、デプス情報取得部4、埋め込み領域探索部5、デプス情報設定部6、および、埋め込み部7を有する。
ここで、上記のように、3D画像を生成する方法として、2種類の方法がある。1つは、ステレオカメラから得られる左右2枚の画像の視差を利用して、3D画像を生成する方法である。もう1つは、画素毎にカメラから被写体までの距離を計測し、その距離に基づいて3D画像を生成する方法である。つまり、カメラから被写体までの距離に対応するデプス情報と、平面画像とを組み合わせることで、3D画像が生成される。
ステレオカメラが用いられる場合、ステレオカメラで被写体を撮影することにより得られる左右2枚の画像に対して、埋め込み情報が埋め込まれる。具体的には、埋め込み領域が決定され、左の画像の埋め込み領域と右の画像の埋め込み領域との違いに応じて埋め込み情報が変形され、変形された埋め込み情報が左右2枚の画像に埋め込まれる。
特に、本実施の形態は、カメラから被写体までの距離に対応するデプス情報と、平面画像とを組み合わせて、3D画像を生成する方法に適用される。ただし、本実施の形態は、ステレオカメラを用いる方法に適用されてもよい。以下、各構成要素を説明する。
撮像部1は、光線を集めるレンズが組み込まれたレンズユニットと、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子とで構成される。撮像部1は、被写体を撮像して画像を出力する。
被写体位置検出部2は、撮像前(記録前)または撮像後(記録後)の画像、あるいは、その両方の画像を用いて、画像内の主要な被写体の位置(領域)である被写体位置(被写体領域)を検出する。ここで、主要な被写体は、埋め込み情報を被せない方がよい対象物であり、例えば、人物の顔である。また、主要な被写体は、人物以外でもよく、動物でもよいし、構造物などでもよい。本実施の形態において、被写体位置検出部2は、人物の顔(顔領域)を主要な被写体として検出する。
顔領域を検出する方法は、限定されない。一般的な方法が顔領域の検出に用いられてもよい。また、画像内に複数の人物が存在する場合、被写体位置検出部2は、複数の顔領域を検出する。画像内に人物が存在しない場合、被写体位置検出部2は、顔領域が検出不能であると判定する。そして、被写体位置検出部2は、検出結果を埋め込み領域探索部5へ出力する。
埋め込み情報取得部3は、撮像部1で得られた画像に埋め込まれる埋め込み情報を取得する。埋め込み情報には、テキスト、装飾部品、または、撮像部1で得られた画像とは異なる画像などを含んでもよい。
埋め込み情報取得部3は、撮影の直後、または、撮影で得られた画像の編集時に、画像処理装置100に付属のマイク(図示せず)を介して、音声認識処理を行うことにより、埋め込み情報を取得してもよい。また、埋め込み情報取得部3は、ユーザの入力を受け付ける入力装置(図示せず)を介して、埋め込み情報を取得してもよい。また、埋め込み情報取得部3は、予め用意された複数のテンプレートから、埋め込み情報をユーザに選択させてもよい。
なお、埋め込み情報取得部3が埋め込み情報を取得する方法は、上記の方法に限られず、どのような方法でもよい。
デプス情報取得部4は、撮像前または撮像後の画像、あるいは、その両方の画像に対応するデプス情報を取得し、デプス情報を埋め込み領域探索部5へ出力する。デプス情報は、画像内の各画素の奥行き値(デプス値)を含む。
デプス情報を取得する方法には、TOF(Time Of Flight)でデプス情報を取得する方法、あるいは、DFF(Depth From Focus)およびDFD(Depth From Defocus)のように複数の画像を用いてデプス情報を取得する方法がある。デプス情報は、いずれの方法で取得されてもよい。
また、取得されたデプス情報がデプスマップとして表される場合、デプスマップのサイズは、撮影画像のサイズと同じである方がよいが、撮影画像のサイズよりも小さくてもよい。つまり、デプスマップの解像度が、撮影画像の解像度よりも低くてもよい。また、デプスマップにおいて奥行きの度合いの階調数(図2のハッチングの濃さの階調数)は、距離の分解能の観点から8〜16程度である方がよいが、それ以下でもよい。本実施の形態では、奥行きの度合いの階調数は256であり、デプス値は、0〜255で表される。
埋め込み領域探索部5は、埋め込み情報を埋め込むための埋め込み領域を探索する。以下に、図5A、図6A、図7Aおよび図8Aのデプスマップが得られた場合の埋め込み領域の探索方法の例を示す。しかし、埋め込み領域の探索方法は、以下の探索方法に限られず、他の探索方法が用いられてもよい。
埋め込み領域探索部5は、被写体位置検出部2から得られる被写体位置情報と、デプス情報取得部4から得られるデプス情報とを用いて、埋め込み領域を探索する。埋め込み領域の探索において、埋め込み領域探索部5は、まず、被写体位置情報から被写体位置を取得し、デプス情報から被写体位置のデプス値を取得する。
図5Bは、被写体位置(被写体領域)のデプス範囲を示す。図5Bに示されたデプス範囲Aは、被写体位置検出部2で被写体位置として検出された位置(すなわち、本実施の形態では、顔の位置)におけるデプス値の範囲を示す。埋め込み領域探索部5は、デプス情報を用いて、被写体位置のデプス値がデプス範囲Aであることを特定する。そして、埋め込み領域探索部5は、被写体位置のデプス値よりも奥側のデプス範囲Bのデプス値を有する複数の画素で構成される探索領域から埋め込み領域を探索する(図5C)。
埋め込み情報自体のデプス値は、主要な被写体のデプス値と同程度である方がよい。そして、埋め込み領域の周辺のデプス値は、埋め込み情報のデプス値よりも奥側を示している方がよい。したがって、被写体位置のデプス値よりも奥側のデプス範囲Bに対応する探索領域から埋め込み領域を探索する。
ここで、被写体位置検出部2は、人の顔を検出しているので、人の体は検出されない。しかし、顔のデプス値と体のデプス値とは、同程度である。したがって、埋め込み領域探索部5は、顔のデプス値と同程度のデプス値を有する領域を除外することで、体の領域も埋め込み領域から排除することができる。すなわち、デプス値を用いることで、より適切な埋め込み領域の設定が可能である。
また、図5Bでは、被写体領域のデプス値を含むデプス範囲Aと、探索領域のデプス値を含むデプス範囲Bとの間に、わずかな区間が存在する。この区間の幅が大きければ大きいほど、埋め込み情報のデプス値と埋め込み情報の周辺のデプス値との間に大きな差が設定される。そして、差が大きいほど、埋め込み情報が飛び出して見える。この区間の幅は埋め込み情報の目立ちやすさを決めるパラメータであり、任意に設定可能である。
埋め込み領域探索部5は、図5Cのように設定された探索領域内で、適切な画素数を有する領域を埋め込み領域として設定する。埋め込み領域は、図5Dのように矩形でもよいし、矩形でなくてもよい。また、埋め込み領域探索部5は、埋め込み領域の重心と、被写体位置検出部2で検出された複数の被写体位置の重心とが所定の範囲に含まれるように、埋め込み領域を探索してもよい。また、埋め込み領域は、埋め込み情報が画像に占めるサイズを有する矩形領域でもよいし、円形の形状でもよいし、埋め込み情報に含まれる形状を示すマスクでもよい。
また、埋め込み領域探索部5は、デプス範囲Bのうち、デプス値が一定のデプス範囲内に収まっている領域、または、出現頻度が最も高いデプス値を含むデプス範囲内に収まっている領域等を埋め込み領域として選択してもよい。これは、画像に主要な被写体(人物の顔)以外の他の被写体(壁または物)が存在する場合、埋め込み情報は、他の被写体に被らない方が見やすい場合があるためである。以下、図6A〜図6Cを用いて詳しく説明する。
図6Aは、人物と人物以外の物(この例では机)が入り込んでいる画像のデプスマップを示す。図6Bは、デプス値を横軸として用い、画素数を縦軸として用いて、図6Aのデプスマップに含まれるデプス値のヒストグラムを示す。
図6Aのように、人物以外の物が入り込んでいる場合、埋め込み領域探索部5は、図6Bのヒストグラムに示されるデプス範囲A(被写体領域)よりも奥側のデプス範囲Bの領域を第1探索領域として設定する。次に、埋め込み領域探索部5は、デプス範囲Bのうち、画素数がピーク(極大値)であるデプス値を含むデプス範囲Dの領域を第2探索領域として設定する。
この例のように、被写体領域よりも奥側の領域である第1探索領域(デプス範囲B)内に複数の物体がある場合、埋め込み領域探索部5は、第2探索領域(デプス範囲D)で埋め込み領域を探索した方がよい。
最も奥側のピークを示すデプス値を含むデプス範囲Dに対応する第2探索領域は、背景の領域と推定される。したがって、埋め込み領域探索部5は、第2探索領域の中から埋め込み領域を設定することにより、背景の領域の中から埋め込み領域を設定することができる。
図6Cは、第2探索領域から探索された埋め込み領域を示す。すなわち、図6Cでは、机の領域が埋め込み領域から排除される。よって、埋め込み領域探索部5は、画像においてデプス値の変化が平坦である領域を埋め込み領域として適切に設定できる。
また、図7Aのデプスマップに対応する画像が撮像部1で得られた場合、複数の人物が画像に存在するため、埋め込み領域の探索領域が狭い(図7B)。このような場合、適切な大きさの埋め込み領域を設定できない可能性がある。そのため、埋め込み領域探索部5は、被写体位置検出部2で得られた特に重要な被写体位置である顔位置を除いて、顔位置以外の探索領域(図7C)から埋め込み領域(図7D)を設定してもよい。
また、事前に特定の領域が画像処理装置100の表示部(図示せず)に表示されてもよい。そして、画像処理装置100は、特定の領域に人物が写らないようにユーザに注意を促しながら、撮像部1で撮像を行い、この事前に決められた特定の領域を埋め込み領域として設定してもよい。
また、図8Aのように、画像の大部分を人物の顔が占める場合、適切な埋め込み領域を設定することが難しい。この場合、図8Bのように、画像処理装置100は、埋め込み領域を設定できないことを表示部にOSD(On Screen Display)として表示してユーザに伝え、再度撮影を促してもよい。
その際、画像処理装置100は、デプス情報を用いて、撮像部1から被写体までの距離が近いか否かを判定し、近い場合には離れて撮影し直すことを表示部にOSDとして表示してもよい。また、その際、画像処理装置100は、図8Cのように、画像サイズを補正することを促すようなメッセージを表示し、図8Dのように埋め込み領域を確保してもよい。
デプス情報設定部6は、埋め込み情報のデプス値を設定する。図5Dおよび図6Cのように、被写体位置のデプス値よりも奥側のデプス値を有する埋め込み領域が設定された場合、デプス情報設定部6は、図5Bのデプス範囲Cに含まれるデプス値を設定し、人物の領域と同程度のデプス値を埋め込み情報に付与する。
図7Dのように、人物領域と同程度のデプス値を含む埋め込み領域が設定された場合、埋め込み情報が目立たない状態に陥ることを避けるため、デプス情報設定部6は、図7Eのように、被写体領域のデプス範囲Aよりも手前のデプス範囲Eからデプス値を決定する。そして、デプス情報設定部6は、決定されたデプス値を埋め込み情報に付与する(図7F)。
図8Dのように、埋め込み領域が設定された場合、デプス情報設定部6は、埋め込み領域のデプス値を、補正された画像のデプス値と、同等もしくはそれ以下(奥側)に設定してもよい。そして、デプス情報設定部6は、埋め込み情報のデプス値を、埋め込み領域のデプス値よりも高く(手前側に)設定してもよい。
埋め込み部7は、撮像部1で得られた画像と、埋め込み情報取得部3で得られた埋め込み情報と、デプス情報取得部4で得られたデプス情報と、埋め込み領域探索部5で得られた埋め込み領域と、デプス情報設定部6で付与されたデプス値とを用いて、埋め込み後のデプス情報と、埋め込み後の画像とを出力する。
埋め込み後のデプス情報は、デプス情報取得部4で得られたデプス情報と、デプス情報設定部6で得られたデプス値とを合成することで生成される(図3Cおよび図7F等)。同様に、埋め込み後の画像も、撮像部1で得られた画像と、埋め込み情報取得部3で得られた埋め込み情報とを合成することで生成される。
なお、図3A〜図8Dでは、埋め込み情報取得部3で得られた埋め込み情報が、テキスト情報として示されているが、埋め込み情報は、テキスト情報に限られない。例えば、図9Aのように、画像処理装置100は、テキスト情報に加えて、画像処理装置100に予め設定された装飾部品またはフレームなどの埋め込み画像を埋め込み情報として撮影画像に貼り付けてもよい。この場合、画像処理装置100は、テキスト情報と同様の基準で埋め込み画像のデプス値を設定し、撮影画像に埋め込み画像を埋め込んでもよい。
また、図9Bのように、画像処理装置100は、テキスト情報を埋め込む際、その背景として装飾フレームを配置してもよい。そして、画像処理装置100は、装飾フレームのデプス値が人物のデプス値とテキスト情報のデプス値との間に設定されるように、装飾フレームのデプス値、および、テキスト情報のデプス値を設定してもよい。そして、画像処理装置100は、装飾フレームおよびテキスト情報が埋め込まれた画像を生成してもよい。
また、埋め込み情報のデプス値は、一定の値でなくてもよい。例えば、画像処理装置100は、画像処理装置100に予め登録された言葉がより飛び出して見えるように、デプス値を設定してもよい(図9C)。また、画像処理装置100は、音声認識を用いて埋め込み情報を埋め込む場合、大きな声ほど埋め込み情報が飛び出して見えるように音声のパワーに応じて埋め込み情報のデプス値を設定してもよい(図9D)。
また、上記では、静止画像への埋め込みが示されているが、同様の処理をフレーム毎に行うことで、動画への埋め込みも可能である。動画への埋め込みにおいて、埋め込み領域探索部5は、埋め込み領域の位置が複数のフレームにおいて大きく変わらないように、埋め込み領域の位置を調整してもよい。
次に、図10Aおよび図10Bを用いて、図4に示された画像処理装置100の動作を説明する。図10Aは、全体の処理の流れを示す図であり、図10Bは、埋め込み領域を探索する処理(図10AのS105)の流れを示す図である。
撮像部1は、被写体を撮影することにより画像を生成する(S101)。被写体位置検出部2は、撮像部1で得られた画像を用いて、被写体の位置(人物の顔の位置など)を検出する(S102)。埋め込み情報取得部3は、音声情報またはユーザからの入力等に基づいて、埋め込み情報を取得する(S103)。デプス情報取得部4は、撮像部1で得られた画像に対応するデプス情報を取得する(S104)。
埋め込み領域探索部5は、デプス情報取得部4で得られたデプス情報を用いて、被写体位置検出部2で得られた被写体位置のデプス値を取得し、被写体位置のデプス値よりも奥側の領域を特定する(S201)。
また、埋め込み領域探索部5は、埋め込み情報取得部3で得られた埋め込み情報に基づいて、埋め込み情報が埋め込まれる埋め込み領域の矩形サイズを設定する(S202)。
例えば、埋め込み情報がテキスト情報である場合、埋め込み領域探索部5は、埋め込み情報のフォントサイズ、行数、および、配置の方向(縦または横)などの予め設定された複数の設定項目の組み合せに基づいて、矩形サイズの複数の候補を設定してもよい。また、埋め込み情報が、装飾部品または画像である場合、埋め込み領域探索部5は、予め設定された複数の拡大/縮小率に基づいて、矩形サイズの複数の候補を設定してもよい。そして、埋め込み領域探索部5は、このような複数の候補から矩形サイズを選択してもよい。
埋め込み領域探索部5は、設定された条件を満たす埋め込み領域を探索領域から探索する(S203)。そして、埋め込み領域探索部5は、設定された条件を満たす埋め込み領域が見つかったか否かを判定する(S204)。
ここで、埋め込み領域探索部5は、設定された条件を満たす埋め込み領域が見つかった場合、埋め込み領域が存在すると判定して、埋め込み領域の探索を終了する。設定された条件を満たす埋め込み領域が見つからなかった場合、埋め込み領域探索部5は、設定された矩形サイズの全ての候補で埋め込み領域を探索したか否かを判定する(S205)。埋め込み領域探索部5は、未探索の候補が残っている場合、再び未探索の候補を探索条件として設定して埋め込み領域を探索する(S202およびS203)。
埋め込み領域探索部5は、矩形サイズの全ての候補で埋め込み領域が探索されている場合、デプス情報を用いずに、顔領域以外の全ての領域を探索領域(図7C参照)として探索したか否かを判定する(S206)。
すなわち、初めに、埋め込み領域探索部5は、検出された顔領域とデプス情報とを用いて埋め込み領域を探索する。その際、人物の体の領域等も探索領域から排除される。そして、条件を満たす埋め込み領域が見つからない場合、埋め込み領域探索部5は、探索領域を広げる。
埋め込み領域探索部5は、既に顔領域以外の探索領域で埋め込み領域を探索している場合、埋め込み領域が存在しないと判定し(S209)、埋め込み領域の探索を終了する。埋め込み領域探索部5は、まだ顔領域以外の探索領域で埋め込み領域を探索していない場合、被写体位置情報を用いて顔領域以外の全ての領域を探索領域に設定する(S207)。そして、埋め込み領域探索部5は、再び、矩形サイズを設定して、埋め込み領域を探索する(S202およびS203)。
上記の手順で、埋め込み領域探索部5は、埋め込み領域を探索して(S105)、埋め込み領域が存在するか否かを判定する(S106)。埋め込み領域が存在しないと判定された場合、画像処理装置100は、埋め込み領域が存在しないことをOSDとして表示して、利用者に再撮影を促す(S107)(図8B参照)。埋め込み領域が存在すると判定された場合、デプス情報設定部6は、埋め込み情報にデプス情報を設定する(S108)。
デプス情報設定部6は、埋め込み情報を埋め込む位置の周囲のデプス値を参照して、埋め込み情報のデプス値を設定してもよい。デプス情報設定部6は、周囲のデプス値が人物領域よりも奥側を示す場合、埋め込み情報のデプス値を人物領域と同程度に設定する。デプス情報設定部6は、周囲のデプス値が人物領域と同程度の奥行きを示す場合、人物領域のデプスよりも手前を示すデプス値を埋め込み情報に設定する。埋め込み部7は、埋め込み情報にデプス情報が設定された後、埋め込み情報を埋め込む(S109)。
以上、本実施の形態に係る画像処理装置100は、デプス情報を用いて、埋め込み情報が埋め込まれる位置および埋め込み情報のデプス値を設定する。そのため、ユーザに余計な操作を強いることなく、より適切な位置に埋め込み情報が表示される。
なお、本実施の形態では、デプス情報を表すための形式に、画像として表現されるデプスマップが用いられている。しかし、デプス情報を表すための形式は、このようなデプスマップに限られない。デプス情報を表すための形式に、その他の形式が用いられてもよい。
(実施の形態2)
本実施の形態に係る画像処理装置は、埋め込み領域の決定に、デプス値の信頼度を用いる。
図11は、本実施の形態に係る画像処理装置の構成図である。以下、図4に示された構成要素と同様の構成要素に同じ符号を用いて説明を省略し、図4に示された構成要素とは異なる構成要素を主に説明する。図11の通り、本実施の形態に係る画像処理装置200は、実施の形態1に係る画像処理装置100と比較して、デプス信頼度取得部8を追加の構成要素として備える。
デプス信頼度取得部8は、デプス情報取得部4で得られたデプスマップの信頼度であるデプスマップ信頼度を取得する。デプス情報取得部4で得られたデプスマップは、通常、誤差を含む。デプスマップの精度に関する信頼性は、デプスマップを取得する方法によって変動する。デプス情報取得部4が、全ての画素のうちのいくつかについて、正しい距離情報を取得できない場合もある。そのため、デプス信頼度取得部8は、デプスマップの誤差を推定するため、デプスマップの信頼度を画素毎に算出する。
例えば、デプス情報取得部4は、ステレオカメラの左右の画像からデプスマップを生成する際、左の画像と右の画像との対応関係を、画素単位またはブロック単位での画素値の差分を用いて、求める。差分が小さい場合、左右の2つの画像の間において、画素またはブロックの一致度は高い。この場合、デプス信頼度取得部8は、その画素またはブロックのデプス値の信頼度が高いと判定する。一方、差分が大きい場合、デプス信頼度取得部8は、その画素またはブロックのデプス値の信頼度が低いと判定する。
すなわち、デプス信頼度取得部8は、左の画像の画素値と、右の画像の画素値との差分に基づいて、差分が小さいほど高い信頼度を算出する。
また、例えば、デプス信頼度取得部8は、デプス値が所定の範囲内でない場合、信頼度が低いと判定してもよい。この場合、デプス信頼度取得部8は、画像の各画素のデプス値に基づいて、所定の範囲からの乖離が大きいほど低い信頼度を算出する。また、デプス信頼度取得部8は、隣接画素間において、デプス値の差が大きい場合、信頼度が低いと判定してもよい。この場合、デプス信頼度取得部8は、差の大きさに基づいて、差が大きいほど低い信頼度を算出する。
図12Aは、デプス情報取得部4で得られたデプスマップを示す。図12Aに示されたデプスマップは、人物の付近にいくつかのデプス値の誤りを含む。図12Bは、図12Aに示されたデプスマップに対応するデプスマップ信頼度を示す。
図12Bのデプスマップ信頼度は、白ければ白いほど(ハッチングが薄いほど)その画素位置のデプス値の信頼度が高く、黒ければ黒いほど(ハッチングが濃いほど)その画素位置のデプス値の信頼度が低いことを示す。デプス値の信頼度が低い場合、デプス値が誤りである可能性が高い。デプス信頼度取得部8は、図12Bのようなデプスマップ信頼度を取得し、埋め込み領域探索部5へ出力する。
埋め込み領域探索部5は、デプスマップ信頼度を用いて、デプス値の信頼度の低い領域を優先的に埋め込み領域として決定する。ただし、被写体位置検出部2で得られた被写体位置(人物の顔の位置など)のデプス値の信頼度が低い場合でも、埋め込み領域探索部5は、被写体位置を避けて埋め込み領域を決定してもよい。また、埋め込み領域探索部5は、デプス値の信頼度が低い領域の重心位置を検出し、その重心位置が埋め込み領域の中心に一致するように、埋め込み領域の位置、サイズおよび形状を決定してもよい。
図12Cおよび図12Dは、図12Bに示されたデプスマップ信頼度を用いて決定された埋め込み領域に埋め込み情報が埋め込まれた状態を示す。このように、デプス値の信頼度の低い領域に優先的に埋め込み情報が埋め込まれる。したがって、デプス値にエラーがある可能性の高い領域が隠される。すなわち、画像処理装置200は、3D画像として不適切な領域を隠すことにより、適切な3D画像を生成することができる。
以上、本実施の形態に係る画像処理装置200は、埋め込み情報の埋め込み位置をデプス値の信頼度が低い領域に設定することで、適切な3D画像を生成することができる。
なお、本実施の形態では、デプス値の信頼度を表すための形式に、画像として表現されるデプスマップ信頼度が用いられている。しかし、デプス値の信頼度を表すための形式は、このような形式に限られない。デプス値の信頼度を表すための形式に、その他の形式が用いられてもよい。
また、実施の形態1と実施の形態2とが組み合わされてもよい。例えば、奥側の領域のうち、信頼度が低い領域が、埋め込み領域として設定されてもよい。また、信頼度が低い領域が存在しない場合に、奥側の領域が埋め込み領域として設定されてもよい。実施の形態1および実施の形態2で示された埋め込み領域に関する様々な条件を組み合わせることが可能である。
(実施の形態3)
本実施の形態は、実施の形態1および実施の形態2で示された特徴的な構成および手順を確認的に示す。
図13は、本実施の形態に係る画像処理装置の構成図である。図13の通り、本実施の形態に係る画像処理装置110は、画像取得部11、埋め込み情報取得部13、デプス情報取得部14、および、埋め込み領域決定部15を備える。
画像取得部11は、画像を取得する。例えば、画像取得部11は、実施の形態1および実施の形態2に係る撮像部1に対応する。
埋め込み情報取得部13は、埋め込み情報を取得する。埋め込み情報は、画像内の領域に埋め込まれる情報である。例えば、埋め込み情報取得部13は、実施の形態1および実施の形態2に係る埋め込み情報取得部3に対応する。
デプス情報取得部14は、デプス情報を取得する。デプス情報は、画像の各画素の奥行き値を示す。例えば、デプス情報取得部14は、実施の形態1および実施の形態2に係るデプス情報取得部4に対応する。
埋め込み領域決定部15は、デプス情報を用いて、埋め込み領域を決定する。埋め込み領域は、埋め込み情報が埋め込まれる領域である。例えば、埋め込み領域決定部15は、実施の形態1および実施の形態2に係る埋め込み領域探索部5に対応する。
図14は、図13に示された画像処理装置110の動作を示すフローチャートである。まず、画像取得部11は、画像を取得する(S301)。次に、埋め込み情報取得部13は、埋め込み情報を取得する(S302)。次に、デプス情報取得部14は、デプス情報を取得する(S303)。最後に、埋め込み領域決定部15は、デプス情報を用いて、埋め込み領域を決定する(S304)。
上記の構成および手順により、画像処理装置110は、情報を埋め込むための領域を適切に決定することができる。
(実施の形態4)
本実施の形態は、実施の形態3と同様に、実施の形態1および実施の形態2で示された特徴的な構成および手順を確認的に示す。実施の形態3と比較して、本実施の形態には、任意に追加される構成および手順が含まれる。
図15は、本実施の形態に係る画像処理装置の構成図である。図15の通り、本実施の形態に係る画像処理装置120は、画像取得部21、被写体位置検出部22、埋め込み情報取得部23、デプス情報取得部24、埋め込み領域決定部25、奥行き値決定部26、埋め込み部27、および、表示部28を備える。
画像取得部21は、画像を取得する。例えば、画像取得部21は、実施の形態1に係る撮像部1、実施の形態2に係る撮像部1、および、実施の形態3に係る画像取得部21に対応する。
被写体位置検出部22は、被写体位置を検出することにより、被写体位置を示す被写体位置情報を取得する。被写体位置は、画像に含まれる所定の被写体の、画像における位置である。例えば、被写体位置検出部22は、実施の形態1に係る被写体位置検出部2、および、実施の形態2に係る被写体位置検出部2に対応する。
埋め込み情報取得部23は、埋め込み情報を取得する。埋め込み情報は、画像内の領域に埋め込まれる情報である。例えば、埋め込み情報取得部23は、実施の形態1に係る埋め込み情報取得部3、実施の形態2に係る埋め込み情報取得部3、および、実施の形態3に係る埋め込み情報取得部13に対応する。
デプス情報取得部24は、デプス情報を取得する。デプス情報は、画像の各画素の奥行き値を示す。例えば、デプス情報取得部24は、実施の形態1に係るデプス情報取得部4、実施の形態2に係るデプス情報取得部4、および、実施の形態3に係るデプス情報取得部14に対応する。
埋め込み領域決定部25は、デプス情報を用いて、埋め込み領域を決定する。埋め込み領域は、埋め込み情報が埋め込まれる領域である。例えば、埋め込み領域決定部25は、実施の形態1に係る埋め込み領域探索部5、実施の形態2に係る埋め込み領域探索部5、および、実施の形態3に係る埋め込み領域決定部15に対応する。
奥行き値決定部26は、埋め込み情報の奥行き値を決定する。奥行き値決定部26は、実施の形態1に係るデプス情報設定部6、および、実施の形態2に係るデプス情報設定部6に対応する。
埋め込み部27は、奥行き値決定部26で決定された奥行き値を用いて埋め込み領域に埋め込み情報を埋め込む。埋め込み部27は、実施の形態1に係る埋め込み部7、および、実施の形態2に係る埋め込み部7に対応する。
表示部28は、画像を表示する。表示部28は、画像取得部21で取得された画像を表示してもよいし、埋め込み部27によって埋め込み情報が埋め込まれた画像を表示してもよい。表示部28は、実施の形態1に係るOSDを表示してもよい。
図16は、図15に示された画像処理装置120の動作を示すフローチャートである。まず、画像取得部21は、画像を取得する(S401)。次に、埋め込み情報取得部23は、埋め込み情報を取得する(S402)。次に、デプス情報取得部24は、デプス情報を取得する(S403)。次に、被写体位置検出部22は、被写体位置を検出することにより、被写体位置を示す被写体位置情報を取得する(S404)。
次に、埋め込み領域決定部25は、デプス情報を用いて、埋め込み領域を決定する(S405)。次に、奥行き値決定部26は、埋め込み情報の奥行き値を決定する(S406)。次に、埋め込み部27は、奥行き値決定部26で決定された奥行き値を用いて埋め込み領域に埋め込み情報を埋め込む(S407)。最後に、表示部28は、埋め込み部27によって埋め込み情報が埋め込まれた画像を表示する(S408)。
上記の構成および手順により、画像処理装置120は、情報を埋め込むための領域を適切に決定することができる。
なお、埋め込み領域決定部25は、デプス情報および被写体位置情報を用いて、埋め込み領域を決定してもよい。また、埋め込み領域決定部25は、所定の奥行き値よりも奥側を示す奥行き値を有する複数の画素で構成される領域を埋め込み領域として決定してもよい。所定の奥行き値は、被写体位置の画素の奥行き値でもよい。
埋め込み領域決定部25は、所定の奥行き値から所定の範囲内の奥行き値を有する複数の画素で構成される領域を埋め込み領域として決定してもよい。所定の奥行き値は、出現頻度がピークである奥行き値でもよいし、出現頻度が最も奥側のピークである奥行き値でもよい。埋め込み領域決定部25は、所定の奥行き値よりも奥側を示す奥行き値を有する複数の画素のうち、出現頻度がピークである奥行き値から所定の範囲内の奥行き値を有する複数の画素で構成される領域を埋め込み領域として決定してもよい。
デプス情報取得部24は、画像の各画素の奥行き値の信頼度を示す情報を含むデプス情報を取得してもよい。また、埋め込み領域決定部25は、奥行き値の信頼度が所定の信頼度よりも低い画素を含む領域を埋め込み領域として決定してもよい。
埋め込み領域決定部25は、埋め込み情報取得部23で取得された埋め込み情報の情報量を用いて埋め込み領域のサイズを設定してもよい。そして、埋め込み領域決定部25は、設定されたサイズを有する埋め込み領域を決定してもよい。
埋め込み領域決定部25は、被写体位置を除く領域の中から、デプス情報を用いて埋め込み領域を決定してもよい。埋め込み領域決定部25は、デプス情報を用いて埋め込み領域を決定するために用いられる条件を満たす埋め込み領域が存在しない場合、被写体位置を除く領域の中から埋め込み領域をデプス情報によらずに決定してもよい。この場合、奥行き値決定部26は、埋め込み情報の奥行き値を被写体位置における奥行き値よりも手前側を示す奥行き値に決定してもよい。
奥行き値決定部26は、埋め込み情報の奥行き値を被写体位置の奥行き値と同じ度合いの奥行き値に決定してもよい。奥行き値決定部26は、埋め込み情報の奥行き値を被写体位置の奥行き値から所定の範囲内の奥行き値に決定してもよい。
被写体は、人物の顔でもよい。埋め込み情報は、テキスト、装飾部品、フレーム、および、画像のうち少なくとも1つを含んでもよい。
表示部28は、埋め込み領域を決定するために用いられる条件を満たす埋め込み領域が存在しない場合、利用者に埋め込み領域が存在しないことを示す通知メッセージを表示してもよい。
表示部28は、被写体から離れて被写体を撮影することを利用者に促すメッセージを含む通知メッセージを表示してもよい。表示部28は、埋め込み領域を決定するために用いられる条件を満たす埋め込み領域が存在しない場合、かつ、被写体位置の画素の奥行き値が所定の奥行き値よりも手前側を示す場合、このような通知メッセージを表示してもよい。
埋め込み領域決定部25は、埋め込み領域を決定するために用いられる条件を満たす埋め込み領域が存在しない場合、デプス情報を用いて、画像に含まれる所定の被写体が近いか否かを判定してもよい。例えば、埋め込み領域決定部25は、被写体位置の画素の奥行き値が所定の奥行き値よりも手前を示す場合、被写体が近いと判定する。表示部28は、被写体が近いと判定された場合、被写体から離れて被写体を撮影することを利用者に促すメッセージを含む通知メッセージを表示してもよい。
画像処理装置120は、カメラ等の撮像装置でもよいし、撮像装置の一部でもよい。画像取得部21は、被写体を撮影することにより、画像を取得してもよい。
なお、本発明に係る態様は、装置として実現されてもよいし、その装置を構成する処理部をステップとして含む方法として実現されてもよい。また、本発明に係る態様は、それらのステップをコンピュータに実行させるためのプログラムとして実現されてもよいし、そのプログラムを記録したコンピュータ読み取り可能なCD−ROMなどの非一時的な記録媒体として実現されてもよい。
また、本発明に係る態様は、そのプログラムを示す情報、データまたは信号として実現されてもよい。そして、それらプログラム、情報、データおよび信号は、インターネット等の通信ネットワークを介して配信されてもよい。
(その他の変形例)
本発明に係る態様は、上記の複数の実施の形態に限定されない。本発明に係る態様は、以下の態様でもよい。
(1)上記の画像処理装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。
RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、画像処理装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードを複数個組み合わせて構成される。
(2)上記の画像処理装置を構成する複数の構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)で構成されてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROMおよびRAMなどを含めて構成されるコンピュータシステムである。
RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
(3)上記の画像処理装置を構成する構成要素の一部または全部は、画像処理装置に脱着可能なICカードまたは単体のモジュールで構成されてもよい。ICカードまたはモジュールは、マイクロプロセッサ、ROMおよびRAMなどで構成されるコンピュータシステムである。
ICカードまたはモジュールは、上記の超多機能LSIを含んでもよい。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、ICカードまたはモジュールは、その機能を達成する。ICカードまたはモジュールは、耐タンパ性を有してもよい。
(4)本発明に係る態様は、上記に示す方法でもよい。また、本発明に係る態様は、この方法をコンピュータにより実現するコンピュータプログラムでもよいし、コンピュータプログラムを構成するデジタル信号でもよい。
また、本発明に係る態様は、コンピュータプログラムまたはデジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、または、半導体メモリなどに記録されてもよい。また、本発明に係る態様は、これらの記録媒体に記録されているデジタル信号でもよい。
また、本発明に係る態様は、コンピュータプログラムまたはデジタル信号を、電気通信回線、無線通信回線、有線通信回線、インターネットに代表されるネットワーク、または、データ放送等を経由して伝送する構成でもよい。
また、本発明に係る態様は、マイクロプロセッサとメモリを備えるコンピュータシステムでもよい。そして、メモリは、上記のコンピュータプログラムを記憶していてもよいし、マイクロプロセッサは、コンピュータプログラムに従って動作してもよい。
また、プログラムまたはデジタル信号は、記録媒体に記録されて移送されてもよいし、ネットワーク等を経由して移送されてもよい。そして、本発明に係る態様は、独立した他のコンピュータシステムにより実施されてもよい。
(5)上記の実施の形態および上記の変形例を組み合わせてもよい。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の画像処理装置などを実現するソフトウェアは、次のようなプログラムである。
すなわち、このプログラムは、コンピュータに、画像を取得し、前記画像内の領域に埋め込まれる埋め込み情報を取得し、前記画像の各画素の奥行き値を示すデプス情報を取得し、前記デプス情報を用いて、前記埋め込み情報が埋め込まれる前記領域である埋め込み領域を決定する画像処理方法を実行させる。
また、各構成要素は、回路でもよい。これらの回路は、全体として1つの回路を構成してもよいし、それぞれ別々の回路でもよい。また、これらの回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。
以上、本発明の一つまたは複数の態様に係る画像処理装置について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の一つまたは複数の態様の範囲内に含まれてもよい。
例えば、上記の各実施の形態において、特定の処理部が実行する処理を別の処理部が実行してもよい。また、複数の処理の順序が変更されてもよいし、複数の処理が並行して実行されてもよい。
本発明は、画像への情報の埋め込みに有用であり、例えば、デジタルスチルカメラ、デジタルビデオカメラ、民生用または業務用の撮像装置、デジタルフォトフレーム、テレビジョン受像機、携帯端末または携帯電話等に利用可能である。
1 撮像部
2、22 被写体位置検出部
3、13、23 埋め込み情報取得部
4、14、24 デプス情報取得部
5 埋め込み領域探索部
6 デプス情報設定部
7、27 埋め込み部
8 デプス信頼度取得部
11、21 画像取得部
15、25 埋め込み領域決定部
26 奥行き値決定部
28 表示部
100、110、120、200 画像処理装置

Claims (19)

  1. 画像を取得する画像取得部と、
    前記画像内の領域に埋め込まれる埋め込み情報を取得する埋め込み情報取得部と、
    前記画像の各画素の奥行き値を示すデプス情報を取得するデプス情報取得部と、
    前記デプス情報を用いて、前記埋め込み情報が埋め込まれる前記領域である埋め込み領域を決定する埋め込み領域決定部とを備え、
    前記埋め込み領域決定部は、前記デプス情報を用いて、所定の奥行き値よりも奥側を示す奥行き値を有する複数の画素で構成される前記埋め込み領域を決定する
    画像処理装置。
  2. 前記画像処理装置は、さらに、前記画像に含まれる所定の被写体の、前記画像における位置である被写体位置を検出することにより、前記被写体位置を示す被写体位置情報を取得する被写体位置検出部を備え、
    前記埋め込み領域決定部は、前記デプス情報および前記被写体位置情報を用いて、前記被写体位置の画素の奥行き値よりも奥側を示す奥行き値を有する複数の画素で構成される前記埋め込み領域を決定する
    請求項1に記載の画像処理装置。
  3. 前記埋め込み領域決定部は、前記デプス情報を用いて、所定の奥行き値から所定の範囲内の奥行き値を有する複数の画素で構成される前記埋め込み領域を決定する
    請求項1または3に記載の画像処理装置。
  4. 前記埋め込み領域決定部は、前記デプス情報を用いて、出現頻度がピークである奥行き値から所定の範囲内の奥行き値を有する複数の画素で構成される前記埋め込み領域を決定する
    請求項1、3および4のいずれか1項に記載の画像処理装置。
  5. 前記埋め込み領域決定部は、前記デプス情報を用いて、所定の奥行き値よりも奥側を示す奥行き値を有する複数の画素で構成される領域であり、出現頻度がピークである奥行き値から所定の範囲内の奥行き値を有する複数の画素で構成される領域である前記埋め込み領域を決定する
    請求項1および3〜5のいずれか1項に記載の画像処理装置。
  6. 前記デプス情報取得部は、前記画像の各画素の奥行き値の信頼度を示す情報を含む前記デプス情報を取得する
    請求項1および3〜6のいずれか1項に記載の画像処理装置。
  7. 前記埋め込み領域決定部は、前記デプス情報を用いて、奥行き値の信頼度が所定の信頼度よりも低い画素を含む前記埋め込み領域を決定する
    請求項7に記載の画像処理装置。
  8. 前記埋め込み領域決定部は、前記画像に含まれる所定の被写体の、前記画像における位置である被写体位置を除く領域の中から、前記デプス情報を用いて前記埋め込み領域を決定する
    請求項1および3〜8のいずれか1項に記載の画像処理装置。
  9. 前記埋め込み領域決定部は、前記埋め込み情報取得部で取得された前記埋め込み情報の情報量を用いて前記埋め込み領域のサイズを設定し、設定された前記サイズを有する前記埋め込み領域を決定する
    請求項1および3〜9のいずれか1項に記載の画像処理装置。
  10. 前記埋め込み領域決定部は、前記デプス情報を用いて前記埋め込み領域を決定するために用いられる条件を満たす前記埋め込み領域が存在しない場合、前記画像に含まれる所定の被写体の、前記画像における位置である被写体位置を除く領域の中から前記埋め込み領域を決定する
    請求項1および3〜10のいずれか1項に記載の画像処理装置。
  11. 前記画像処理装置は、さらに、
    前記埋め込み情報の奥行き値を決定する奥行き値決定部と、
    前記奥行き値決定部で決定された前記奥行き値を用いて前記画像内の前記埋め込み領域に前記埋め込み情報を埋め込む埋め込み部とを備える
    請求項1および3〜11のいずれか1項に記載の画像処理装置。
  12. 前記奥行き値決定部は、前記埋め込み情報の奥行き値を、前記画像に含まれる所定の被写体の、前記画像における位置である被写体位置の奥行き値と同じ度合いの奥行き値に決定する
    請求項12に記載の画像処理装置。
  13. 前記奥行き値決定部は、前記デプス情報を用いて前記埋め込み領域を決定するために用いられる条件を満たす前記埋め込み領域が存在しない場合、前記画像に含まれる所定の被写体の、前記画像における位置である被写体位置を除く領域の中から決定される前記埋め込み領域に埋め込まれる前記埋め込み情報の奥行き値を前記被写体位置における奥行き値よりも手前側を示す奥行き値に決定する
    請求項12または13に記載の画像処理装置。
  14. 前記被写体位置検出部は、前記画像に含まれる人物の顔の、前記画像における位置を前記被写体位置として検出することにより、前記人物の顔の位置を前記被写体位置として示す前記被写体位置情報を取得する
    請求項3に記載の画像処理装置。
  15. 前記埋め込み情報取得部は、テキスト、装飾部品、フレーム、および、画像のうち少なくとも1つを含む前記埋め込み情報を取得する
    請求項1および3〜15のいずれか1項に記載の画像処理装置。
  16. 前記画像処理装置は、さらに、前記画像を表示する表示部を備え、
    前記表示部は、前記埋め込み領域を決定するために用いられる条件を満たす前記埋め込み領域が存在しない場合、利用者に前記埋め込み領域が存在しないことを示す通知メッセージを表示する
    請求項1および3〜16のいずれか1項に記載の画像処理装置。
  17. 前記埋め込み領域決定部は、前記埋め込み領域を決定するために用いられる条件を満たす前記埋め込み領域が存在しない場合、前記デプス情報を用いて、前記画像に含まれる所定の被写体が近いか否かを判定し、
    前記表示部は、前記被写体が近いと判定された場合、前記被写体から離れて前記被写体を撮影することを利用者に促すメッセージを含む前記通知メッセージを表示する
    請求項17に記載の画像処理装置。
  18. 請求項1および3〜18のいずれか1項に記載の画像処理装置を備え、
    前記画像取得部は、被写体を撮影することにより、前記画像を取得する
    撮像装置。
  19. 画像を取得し、
    前記画像内の領域に埋め込まれる埋め込み情報を取得し、
    前記画像の各画素の奥行き値を示すデプス情報を取得し、
    前記デプス情報を用いて、前記埋め込み情報が埋め込まれる前記領域である埋め込み領域を決定する
    ことを含み、
    前記埋め込み領域の決定では、前記デプス情報を用いて、所定の奥行き値よりも奥側を示す奥行き値を有する複数の画素で構成される前記埋め込み領域を決定する
    画像処理方法。
JP2013535164A 2012-01-27 2013-01-21 画像処理装置、撮像装置および画像処理方法 Expired - Fee Related JP6029021B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012015174 2012-01-27
JP2012015174 2012-01-27
PCT/JP2013/000248 WO2013111552A1 (ja) 2012-01-27 2013-01-21 画像処理装置、撮像装置および画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2013111552A1 JPWO2013111552A1 (ja) 2015-05-11
JP6029021B2 true JP6029021B2 (ja) 2016-11-24

Family

ID=48873284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013535164A Expired - Fee Related JP6029021B2 (ja) 2012-01-27 2013-01-21 画像処理装置、撮像装置および画像処理方法

Country Status (3)

Country Link
US (1) US9418436B2 (ja)
JP (1) JP6029021B2 (ja)
WO (1) WO2013111552A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102122523B1 (ko) * 2013-09-30 2020-06-12 엘지디스플레이 주식회사 3차원 입체 영상용 깊이지도 보정장치 및 보정방법
KR20150037366A (ko) * 2013-09-30 2015-04-08 삼성전자주식회사 깊이 영상의 노이즈를 저감하는 방법, 이를 이용한 영상 처리 장치 및 영상 생성 장치
US20190087926A1 (en) * 2014-02-15 2019-03-21 Pixmarx The Spot, LLC Embedding digital content within a digital photograph during capture of the digital photograph
US9477689B2 (en) * 2014-02-15 2016-10-25 Barry Crutchfield Embedding digital content within a digital photograph during capture of the digital photograph
JP6184901B2 (ja) * 2014-05-12 2017-08-23 株式会社日立ソリューションズ 衛星画像データ処理装置、衛星画像データ処理システム、衛星画像データ処理方法及びプログラム
US10004403B2 (en) * 2014-08-28 2018-06-26 Mela Sciences, Inc. Three dimensional tissue imaging system and method
US9906772B2 (en) * 2014-11-24 2018-02-27 Mediatek Inc. Method for performing multi-camera capturing control of an electronic device, and associated apparatus
US9396400B1 (en) * 2015-07-30 2016-07-19 Snitch, Inc. Computer-vision based security system using a depth camera
KR102423175B1 (ko) * 2017-08-18 2022-07-21 삼성전자주식회사 심도 맵을 이용하여 이미지를 편집하기 위한 장치 및 그에 관한 방법
CN109584150B (zh) * 2018-11-28 2023-03-14 维沃移动通信(杭州)有限公司 一种图像处理方法及终端设备

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10228547A (ja) 1997-02-14 1998-08-25 Canon Inc 画像編集方法及び装置並びに記憶媒体
JPH11289555A (ja) 1998-04-02 1999-10-19 Toshiba Corp 立体映像表示装置
US6473516B1 (en) * 1998-05-22 2002-10-29 Asa Systems, Inc. Large capacity steganography
JP4129786B2 (ja) 2002-09-06 2008-08-06 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
KR20090071624A (ko) 2006-10-04 2009-07-01 코닌클리케 필립스 일렉트로닉스 엔.브이. 이미지 개선
CN101653011A (zh) * 2007-03-16 2010-02-17 汤姆森许可贸易公司 用于将文本与三维内容相结合的系统和方法
JP2009200784A (ja) 2008-02-21 2009-09-03 Nikon Corp 画像処理装置およびプログラム
US8599242B2 (en) * 2008-12-02 2013-12-03 Lg Electronics Inc. Method for displaying 3D caption and 3D display apparatus for implementing the same
JP5274359B2 (ja) * 2009-04-27 2013-08-28 三菱電機株式会社 立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体
JP2011029849A (ja) * 2009-07-23 2011-02-10 Sony Corp 受信装置、通信システム、立体画像への字幕合成方法、プログラム、及びデータ構造
US8830227B2 (en) * 2009-12-06 2014-09-09 Primesense Ltd. Depth-based gain control
WO2011152633A2 (en) * 2010-05-30 2011-12-08 Lg Electronics Inc. Method and apparatus for processing and receiving digital broadcast signal for 3-dimensional subtitle
JP4996720B2 (ja) 2010-06-30 2012-08-08 株式会社東芝 画像処理装置、画像処理プログラム、及び画像処理方法
CN101902582B (zh) 2010-07-09 2012-12-19 清华大学 一种立体视频字幕添加方法及装置
JP2012138787A (ja) * 2010-12-27 2012-07-19 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム

Also Published As

Publication number Publication date
WO2013111552A1 (ja) 2013-08-01
CN103460706A (zh) 2013-12-18
US20140049614A1 (en) 2014-02-20
US9418436B2 (en) 2016-08-16
JPWO2013111552A1 (ja) 2015-05-11

Similar Documents

Publication Publication Date Title
JP6029021B2 (ja) 画像処理装置、撮像装置および画像処理方法
JP6427711B1 (ja) 電子機器、方法及びプログラム
JP5867424B2 (ja) 画像処理装置、画像処理方法、プログラム
US20120070097A1 (en) Refocusing images using scene captured images
US9380206B2 (en) Image processing apparatus that combines images
TW201801516A (zh) 影像擷取裝置及其攝影構圖的方法
JP2008117305A (ja) 画像処理装置
KR20170060411A (ko) 피사체의 근접 여부에 따라 촬영 장치를 제어하는 방법 및 촬영 장치.
JPWO2016199483A1 (ja) 画像処理装置、画像処理方法、プログラム
JP2011023898A (ja) 表示装置、表示方法および集積回路
CN104247412A (zh) 图像处理装置、摄像装置、图像处理方法、记录介质以及程序
JP2015064768A (ja) 撮像装置、画像修正装置およびその制御方法とプログラム
JP2010081357A (ja) 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置
KR20170011876A (ko) 영상 처리 장치 및 그 동작 방법
JP2010028452A (ja) 画像処理装置および電子カメラ
JP2018107532A (ja) 投影制御装置、投影制御方法及びプログラム
KR102421994B1 (ko) 화상 처리 장치, 화상 처리 방법 및 프로그램
JPWO2014155961A1 (ja) 画像生成装置、撮影装置、画像生成方法及びプログラム
JP2009146033A (ja) 部分画像抽出方法
JP2015041901A (ja) 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置
JP2015041865A (ja) 画像処理装置及び画像処理方法
JP6314321B2 (ja) 画像生成装置、撮影装置、画像生成方法及びプログラム
JP5718502B2 (ja) 画像作成装置及び画像作成方法
CN107682556B (zh) 信息展示方法及设备
JP5448799B2 (ja) 表示制御装置及び表示制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161006

R151 Written notification of patent or utility model registration

Ref document number: 6029021

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees