JP2016036081A - Image processing device, method and program, and recording medium - Google Patents
Image processing device, method and program, and recording medium Download PDFInfo
- Publication number
- JP2016036081A JP2016036081A JP2014158173A JP2014158173A JP2016036081A JP 2016036081 A JP2016036081 A JP 2016036081A JP 2014158173 A JP2014158173 A JP 2014158173A JP 2014158173 A JP2014158173 A JP 2014158173A JP 2016036081 A JP2016036081 A JP 2016036081A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- layer
- related data
- image
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置、方法及びプログラムに関し、より具体的には、画像に含まれる被写体に関する情報を動画像に重畳する画像処理装置、方法及びプログラム並びに記録媒体に関する。 The present invention relates to an image processing apparatus, method, and program, and more specifically, to an image processing apparatus, method, program, and recording medium that superimpose information about a subject included in an image on a moving image.
近年、撮影した被写体を立体的に表示することが可能なカメラが製品化されている。被写体の奥行き情報を取得して、右目用の画像と左目用の画像に適切な視差を付加することで、立体表示を実現している。また、立体映像の所望の奥行きにレイヤを生成してアニメーションを重畳する技術も知られている。 In recent years, cameras capable of displaying a photographed subject in three dimensions have been commercialized. Stereoscopic display is realized by acquiring depth information of the subject and adding appropriate parallax to the right-eye image and the left-eye image. In addition, a technique for generating a layer at a desired depth of a stereoscopic video and superimposing an animation is also known.
特許文献1には、記録された立体画像から注目位置の奥行きを取得し、取得した奥行きに基づいて、テロップ等を重畳するシステムが記載されている。 Patent Document 1 describes a system that acquires the depth of a target position from a recorded stereoscopic image and superimposes a telop or the like based on the acquired depth.
特許文献1に記載される技術では、注目位置が複数設定された場合に、複数のテロップ表示を行うことになり、表示が見難くなるという課題がある。また、注目位置が複数設定された状況で奥行き方向への入れ替わりが頻繁に発生すると、テロップ表示が見難くなってしまう。 In the technique described in Patent Document 1, when a plurality of positions of interest are set, a plurality of telop displays are performed, and there is a problem that the display becomes difficult to see. In addition, if the change in the depth direction frequently occurs in a situation where a plurality of positions of interest are set, the telop display becomes difficult to see.
注目する被写体の手前側と奥側に、当該被写体に関する情報を効果的に表示したいとする要望があるが、特許文献1に記載の技術では、この要望に応じることができない。 There is a demand to display information on the subject effectively on the near side and the far side of the subject of interest, but the technique described in Patent Literature 1 cannot meet this demand.
本発明は、このような要望に応える画像処理装置、方法及びプログラム並びに記録媒体を提示することを目的とする。 It is an object of the present invention to present an image processing apparatus, method, program, and recording medium that meet such demands.
本発明に係る画像処理装置は、入力画像に含まれる被写体を検出する被写体検出手段と、前記被写体の奥行きを検出する奥行き検出手段と、被写体毎に、手前側に表示すべき関連データと奥側に表示すべき関連データを記憶する関連データ管理テーブルと、前記関連データ管理テーブルを参照し、前記入力画像に含まれる被写体のうち、前記関連データ管理テーブルに登録された被写体であって最も手前に位置する被写体の関連データを検索する検索手段と、前記入力画像の、最も手前に位置する被写体より手前に最手前レイヤを生成し、最も奥に位置する被写体よりも奥に最奥レイヤを生成するレイヤ生成手段と、前記検索手段で検索される被写体の、前記手前側に表示すべき関連データを前記最手前レイヤに配置し、前記奥側に表示すべき関連データを前記最奥レイヤに配置する手段とを有することを特徴とする。 An image processing apparatus according to the present invention includes a subject detection unit that detects a subject included in an input image, a depth detection unit that detects the depth of the subject, and related data to be displayed on the near side and a back side for each subject. The related data management table for storing the related data to be displayed on the screen and the related data management table, and among the subjects included in the input image, the subject registered in the related data management table is closest to the subject. A search unit that searches for related data of a subject that is positioned; and a frontmost layer of the input image that is closest to the subject that is closest to the front, and a deepest layer that is deeper than the subject that is positioned deepest Layer generation means and related data to be displayed on the near side of the subject searched by the search means are arranged on the foremost layer and should be displayed on the far side. And having a means for placing the associated data to the innermost layer.
本発明によれば、一番手前の被写体に関連したデータを最手前レイヤと最奥レイヤにそれぞれ配置するので、被写体が奥行き方向に入れ替わった場合においても、被写体に応じたデータを付加できる。 According to the present invention, data related to the foreground subject is arranged in the foreground layer and the backmost layer, respectively, so that data corresponding to the subject can be added even when the subject is switched in the depth direction.
以下、図面を参照して、本発明の実施例を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明に係る画像処理装置の一実施例を装備する撮像装置の概略構成ブロック図を示す。 FIG. 1 shows a schematic block diagram of an imaging apparatus equipped with an embodiment of an image processing apparatus according to the present invention.
撮像装置100のレンズユニット102は、集光のための固定レンズ群、変倍レンズ群、絞り、及び変倍レンズ群の動きで移動した結像位置を補正する機能と焦点調節を行なう機能とを兼ね備えた補正レンズ群により構成されている。レンズユニット102によって、撮像素子104の結像面上に被写体像が結像される。撮像素子104は例えば、CCD(Charge Coupled Device)撮像素子からなり、光強度を電荷に変換することで、被写体像を表現する画像信号を生成する。A/D処理部106は、撮像素子104の出力画像信号に所定の処理を施し、デジタル画像信号を出力する。レンズユニット102、撮像素子104及びA/D処理部106を総じて、カメラユニット108と称する。また、図1には図示していないが、カメラユニット108は、変倍レンズ群及び絞りなどを駆動するアクチュエータ、並びに、手ぶれ補正のためのセンサ(例えば角速度センサ)とその補正手段(シフトレンズなど)を備える。
The
カメラ制御CPU(Central Processing Unit)110は、CPU148の制御に従いカメラユニット108を制御する。また、カメラ制御CPU110は、例えば合焦情報及び手ぶれ情報などのカメラユニットから得られる情報をCPU148に伝達する。
A camera control CPU (Central Processing Unit) 110 controls the
マイクユニット112は、撮影時に周囲の音声を取り込む音声入力手段であり、入力音声を増幅する増幅器と、帯域制限する帯域制限フィルタを含む。A/D処理部114は、マイクユニット112の出力音声信号をデジタル音声信号に変換する。
The
エンコーダ116は、CPU148の制御に従い、カメラユニット108からの画像データとA/D処理部114からの音声データを圧縮符号化し、所定形式の圧縮日データを生成する。圧縮方式として、MPEG(Moving Picture Experts Group)2方式及びその他の動画圧縮方式を利用可能である。エンコーダ116は、データ位置とフレーム位置の変換に必要となる情報などをCPU148に通知する機能を備える。
The
記録再生回路118は、エンコーダ116からの圧縮ビデオデータを、メモリ120を使ってメモリカード122に記録し、メモリカード122に記録される圧縮ビデオデータを読み出してデコーダ124に供給する。CPU148は、記録再生回路118の記録再生動作を制御する。メモリカード122は、撮影した動画(音声を含む)を記録する記録媒体であり、所定のインターフェースを介して記録再生回路118に接続する。記録再生回路118は、メモリ120の先頭アドレスとデータ量及びメモリカード122のデータ書込み先の先頭アドレスを指定し、DMA(Direct Memory Access)機能でメモリ120からメモリカード122にデータを転送する。
The recording / reproducing
デコーダ124は、記録再生回路118からの圧縮動画データを復号化する。デコーダ124は復号化で得られた音声データ及び映像データをそれぞれ音声出力部126及びOSD(On Screen Display)回路128に供給する。映像データは、例えばITU−R BT.656(CCIR656)等に準拠する。OSD回路128は、詳細は後述するが、デコーダ124からの映像データを取り込み、所望のサイズに縮小した上で、各種設定を行なうためのメニュー画面、タイトル及び時間などの情報を指定の位置に重畳する。OSD回路128は、重畳結果の映像データを映像出力部130に供給する。音声出力部126には例えば、スピーカが出力し、映像出力部130には映像表示装置が接続する。
The
電子ビューファインダ(EVF:Electronic View Finder)132は、撮影者がカメラユニット108の視野内の被写体を確認するためのものであり、カメラユニット108から一定周期で出力される画像を表示する。
An electronic view finder (EVF) 132 is used by a photographer to confirm a subject in the field of view of the
液晶パネル134は、EVF132よりも大きな表示画面を具備し、ビューファインダとしてだけではなく、OSD回路128の出力画像の表示にも使用される。液晶パネル134の表示画面にはタッチパネル136が配置される。液晶パネル134は、サムネイル画像や仮想ボタン等の被操作要素を表示し、ユーザが、タッチパネル136によりそれらを選択又は操作できる。画面制御部138が、タッチパネル136に対するユーザ操作の有無と、被操作要素への操作かどうかを判断し、操作位置座標を含む操作内容を示す情報をCPU148に供給する。なお、画面制御部138は、タッチパネル136に対する操作内容に応じて、液晶パネル134に表示される仮想ボタンを制御することもできる。
The
顔検出部140は被写体検出手段として機能し、カメラユニット108(撮像素子104)で撮像した画像データに顔検出処理を行って、画像内に含まれる人物の顔領域を検出する。この顔検出処理は公知のアルゴリズムによって行われる。例えば、顔検出部140は、公知の特徴点を抽出する処理によって、画像データから目、鼻及び口の各端点並びに顔の輪郭点等の特徴点を画像から抽出し、これらの特徴点に基づいて被写体の顔領域と顔の大きさを検出する。
The
顔認識部142は、顔検出部140の検出結果に基づいて、認証対象となる顔の特徴を示す顔認証データを生成する。例えば、顔認識部142は、検出された顔の特徴点の位置及び特徴点から求まる顔パーツの大きさ及び各特徴点の相対距離などから顔認証データを生成する。
The
奥行き検出部144は、撮像装置100から被写体までの距離を検出する。例えば、ステレオカメラによる2つの視差の異なる画像を使って個々の被写体及び各被写体の複数の点について、撮像装置100からの距離を算出できる。本実施例でも、そのような公知の検出方法を採用する。
The
レイヤ生成部146は、所定の奥行きに相当する位置に、文字及びアイコンなどを配置可能なレイヤを生成する。レイヤ生成方法は、後述する。
The
CPU148は、撮像装置100の全体を制御する。CPU148は、プログラムを格納する不揮発性メモリ(ROM)、作業領域となる揮発性メモリ(RAM)、時間を計測するタイマ、及び外部とデータを受け渡しするポート又はインターフェースを具備する。EEPROM150には、CPU148上で動作する制御プログラムと、メモリカード122のファイルシステムを扱うプログラムを含む種々のプログラムと、動作に必要な定数が格納されている。
The
スイッチ操作部152は、種々のスイッチ及びボタンからなり、ユーザの操作に応じた信号をCPU148に供給する。スイッチ操作部152及びタッチパネル136により、ユーザは所望の動作をCPU148に指示できる。
The
CPU148を含む上述の各ブロックは、バス154を介してデータを授受できる。
Each of the above blocks including the
図2を参照して、レイヤ生成部146で生成するレイヤを説明する。図2(a)は、カメラユニット108の撮影視野内の画像(液晶パネル134の表示画像)の例を示し、図2(b)は撮像装置100からの距離を示す平面図を示す。
With reference to FIG. 2, the layer produced | generated by the layer production |
図2(a)に示す例では、背景202の手前側に被写体(人物)204が位置し、被写体204の前に、後述する処理より、被写体204の氏名を示すテロップ206が重畳して表示される。背景202として星又は星空が例示されている。
In the example shown in FIG. 2A, a subject (person) 204 is positioned on the near side of the
図2(a)に示す例に対して、レイヤ生成部146が、背景レイヤ212、被写体レイヤ214及びテロップレイヤ216を、図2(b)に示すように、遠方から撮像装置100に近い位置に順に位置するように生成する。背景レイヤ212に背景202が位置し、被写体レイヤ214に被写体204が位置し、テロップレイヤ216にテロップ206が位置する。テロップ206は、テロップレイヤ216上をスクロールするアニメーションが可能である。
In the example shown in FIG. 2A, the
図3は、重畳する画像を管理する重畳画像管理テーブルの一例を示す。CPU148が、被写体ごとに手前側に表示すべき関連データと奥側に表示すべき関連データを記憶する関連データ管理テーブルとして、この重畳画像管理テーブルを保持する。重畳画像管理テーブルは、被写体毎にその前側(至近側)に位置するレイヤ(前レイヤ)と後側(遠方側)に位置する後レイヤ生成可能である。図3に示す例では、前レイヤには、テキストデータ(例えば、被写体の名前)が設定され、後レイヤには画像データが設定される。図2(b)に示すテロップレイヤ216が被写体204に対する前レイヤであり、背景レイヤ212が被写体204に対する後レイヤである。
FIG. 3 shows an example of a superimposed image management table for managing images to be superimposed. The
図4は、重畳画像管理テーブルを作成する動作例のフローチャートを示す。図5に示す例を参照しつつ、本実施例における重畳画像管理テーブルの作成手順を説明する。説明例として、図5(a)に示すように、5人の被写体(人物)が撮像装置100の前方向に位置する状況を想定する。
FIG. 4 shows a flowchart of an operation example for creating the superimposed image management table. With reference to the example shown in FIG. 5, the procedure for creating the superimposed image management table in this embodiment will be described. As an illustrative example, a situation is assumed in which five subjects (persons) are located in the front direction of the
S401において、CPU148は、顔検出部140に撮像画像から人物の顔を検出させ、顔認識部142に検出された顔を認識させる。図5に示す例では、例えば、最も手前の被写体Aの顔が検出され、認識される。CPU148は、誰かの顔が検出認識されると(S401)、S402に進み、誰の顔も検出されない場合(S401)、図5に示すフローを終了する。
In step S <b> 401, the
S402において、CPU148は、検出及び認識された被写体について、重畳画像管理テーブルに登録済みかどうかを調べる。登録済みの場合(S402)、CPU148は、S401に戻り、顔検出部140に次の被写体の顔を検出させ、顔認識部142に検出された顔を認識させる。この段階で、例えば、被写体Bの顔が検出・認識される。
In S402, the
検出・認識された被写体が重畳画像管理テーブルに未登録の場合(S402)、CPU148は、S403において、この被写体のエントリを重畳画像管理テーブルに追加し、その前レイヤと後レイヤに当該被写体に重畳すべきテキストと画像をそれぞれ設定する。本実施例では、CPU148は、対応する被写体の名前をユーザに入力させ、入力文字列を前レイヤに設定し、スクロール等のアニメーションを可能とする。CPU148は、後レイヤには、同じ被写体の現在の撮像画像及び過去に撮影した記録画像から任意にユーザに選択させて、登録する。
If the detected / recognized subject is not registered in the superimposed image management table (S402), the
図5(a)に示す例では、以上の処理を被写体B,C,Dについても繰り返すことになる。これにより、被写体A,B,C,Dについての重畳画像管理テーブルが用意される。別途、コンピュータ上で作成した重畳画像管理テーブルを撮像装置100に転送しても良いことはいうまでもない。
In the example shown in FIG. 5A, the above processing is repeated for the subjects B, C, and D. Thereby, a superimposed image management table for the subjects A, B, C, and D is prepared. Needless to say, a superimposed image management table created on a computer may be transferred to the
図6は、本実施例の撮影モードでのデータ重畳処理のフローチャートを示す。図6を参照し、図5に示す例に基づいて、本実施例の記録時でのレイヤ処理を説明する。 FIG. 6 shows a flowchart of data superimposition processing in the shooting mode of the present embodiment. With reference to FIG. 6, the layer processing at the time of recording of the present embodiment will be described based on the example shown in FIG.
S601において、CPU148は、記録すべき撮像画像から顔検出部140に人物の顔を検出させ、顔認識部142に検出された顔を認識させる。図5(a)に示す例では、被写体A,B,C,Dが検出され、認識される。CPU148は、誰かの顔が検出認識されると(S601)、S602に進み、誰の顔も検出されない場合(S601)、図6に示すフローを終了する。
In step S601, the
S602で、CPU148は、奥行き検出部144を使用して、撮像装置100から見て最も手前に位置する被写体と最も遠方に位置する被写体を検出する。図5(a)に示す例では、被写体Aが最も手前に位置し、被写体Dが最も遠方に位置する。
In step S <b> 602, the
S603で、CPU148は、最も手前にいる被写体(ここでは被写体A)が重畳画像管理テーブルに登録済みかどうかを判断する。たとえば、被写体Aを重畳画像管理テーブルで検索する。最も手前に位置する被写体が重畳画像管理テーブルに未登録の場合(S603)、CPU148は、S601に戻る。最も手前に位置する被写体が重畳画像管理テーブルに登録済みの場合(S603)、CPU148は、S604において、当該被写体の前レイヤ及び後レイヤのデータを選択する。図5(a)に示す例では、重畳画像管理テーブルの被写体Aに関するレコードを参照し、CPU148は、テキストAと画像Aを選択する。
In step S <b> 603, the
S605で、CPU148は、S604で選択した前レイヤ及び後レイヤのデータを、それぞれ撮像画像の最手前レイヤ及び最奥レイヤに設定し、S601に戻る。最手前レイヤは、最も手前に位置する被写体の前レイヤであり、最奥レイヤは、最も遠方に位置する被写体の後レイヤである。CPU148は、OSD回路128に各レイヤへのデータの配置と合成を実行させる。
In S605, the
奥行き方向に被写体が入れ替わった場合には、CPU148は、S602で最も手前にいる被写体を検出し、当該被写体に設定されたテキスト及び画像をそれぞれ最手前レイヤ及び最奥レイヤに設定することになる。図5(a)に示す例では、最も手前に位置すると検出された被写体が被写体Aであるので、被写体Aに対する前レイヤにテキストAが設定され、最も遠方に位置する被写体Dの後レイヤに画像Aが設定される。
When the subject is switched in the depth direction, the
以上のように、最も手前に位置する被写体に関連する情報を、最も手前に位置する被写体の前レイヤと最も遠方に位置する被写体の後レイヤに重畳する。これにより、カメラユニット108から出力される画像にユーザが所望の情報を重畳して記録でき、映像出力部130から外部に出力できる。記録済みの動画をメモリカード122から読み出し、同様の処理を施して、メモリカード122に記録しても良いし、映像出力部130から外部に出力してもよい。
As described above, information related to the subject located at the foreground is superimposed on the front layer of the subject located at the forefront and the rear layer of the subject located at the farthest. As a result, the user can superimpose and record desired information on the image output from the
図7は、本実施例による関連情報(テロップ/画像)の重畳処理結果の表示例を示す。図7(a)は、被写体Aが一番手前にいる場合の表示例を示し、図7(b)は、図7(a)に示す状態から被写体Cが一番手前に移動した状態の表示例を示す。 FIG. 7 shows a display example of the result of superimposing the related information (telop / image) according to this embodiment. FIG. 7A shows a display example when the subject A is in the foreground, and FIG. 7B shows a table in which the subject C has moved to the forefront from the state shown in FIG. An example is shown.
図7(a)に示す表示例では、被写体Aに関連した前レイヤの情報(テロップA)701が被写体Aの手前側に表示され、被写体Aに関連した後レイヤの情報(画像A)702が最も遠方に位置する被写体Dの後側に重畳される。画像Aは、ここでは、重畳画像管理テーブルに登録された被写体Aの撮影済み顔画像である。 In the display example shown in FIG. 7A, information on the previous layer (telop A) 701 related to the subject A is displayed on the near side of the subject A, and information on the rear layer (image A) 702 related to the subject A is displayed. It is superimposed on the rear side of the subject D located farthest away. Here, the image A is a captured face image of the subject A registered in the superimposed image management table.
図7(b)に示す表示例では、被写体Cが最も手前に位置する。従って、被写体Cに関連した前レイヤの情報(テロップC)703が被写体Cの手前側に表示され、被写体Cに関連した後レイヤの情報(画像C)704が、最も遠方に位置する被写体Dの後側に重畳される。画像Cは、ここでは、重畳画像管理テーブルに登録された被写体Cの撮影済み顔画像である。 In the display example shown in FIG. 7B, the subject C is positioned closest to the front. Therefore, information on the previous layer related to the subject C (telop C) 703 is displayed on the front side of the subject C, and information on the rear layer related to the subject C (image C) 704 is stored in the farthest subject D. It is superimposed on the rear side. Here, the image C is a captured face image of the subject C registered in the superimposed image management table.
図8は、重畳画像テーブルに未登録な被写体が最も手前に検出された場合の、撮影モードにおけるレイヤへのデータ重畳処理のフローチャートを示す。図5(b)に示すように、未登録の被写体Eが撮像装置100の撮像視野内で撮像装置100に最も近い距離に位置するようなケースである。図5(b)では、被写体Eより遠くに被写体A,C,Dが位置する。
FIG. 8 shows a flowchart of the process of superimposing data on a layer in the shooting mode when an unregistered subject is detected in the foreground in the superimposed image table. As shown in FIG. 5B, this is a case where the unregistered subject E is located at the closest distance to the
S801において、CPU148は、記録すべき撮像画像から顔検出部140に人物の顔を検出させ、顔認識部142に検出された顔を認識させる。図5(b)に示す例では、撮像装置100に近い順に被写体E,A,C,Dが検出され、認識される。CPU148は、誰かの顔が検出認識されると(S801)、S802に進み、誰の顔も検出されない場合(S801)、図8に示すフローを終了する。
In step S <b> 801, the
S802で、CPU148は、奥行き検出部144を使用して、撮像装置100から見て最も手前に位置する被写体と最も遠方に位置する被写体を検出する。図5(b)に示す例では、被写体Eが最も手前に位置し、被写体Dが最も遠方に位置する。
In step S <b> 802, the
S803で、CPU148は、最も手前にいる被写体(ここでは被写体E)が重畳画像管理テーブルに登録済みかどうかを判断する。最も手前に位置する被写体が重畳画像管理テーブルに未登録の場合(S803)、CPU148は、S806に進む。最も手前に位置する被写体が重畳画像管理テーブルに登録済みの場合(S803)、CPU148は、S804において、当該被写体の前レイヤ及び後レイヤのデータを選択する。S805で、CPU148は、S804で選択した前レイヤ及び後レイヤのデータを、それぞれ撮像画像の最手前レイヤ及び最奥レイヤに設定し、S801に戻る。最手前レイヤは、最も手前に位置する被写体の前レイヤであり、最奥レイヤは、最も遠方に位置する被写体の後レイヤである。
In step S803, the
S806で、CPU148は、二番目に手前にいる被写体(ここでは被写体A)を検出する。CPU148は、二番目に手前の被写体を検出できない場合(S806)、S801に戻り、検出できる場合(S806)、S807に進む。
In step S806, the
S807で、CPU148は、S806で検出した被写体が重畳画像管理テーブルに登録済みかどうかを判断する。重畳画像管理テーブルに未登録の場合(S807)、CPU148は、S801に戻る。重畳画像管理テーブルに登録済みの場合(S807)、CPU148は、S808において、二番目の被写体の前レイヤ及び後レイヤのデータを選択する。図5(b)に示す例では、テキストAと画像Aが選択される。そして、S805で、CPU148は、S708で選択した前レイヤ及び後レイヤのデータを、それぞれ撮像画像の最手前レイヤ及び最奥レイヤに設定し、S801に戻る。
In step S807, the
以上のように、最も手前に検出された登録済みの被写体に関連するテキストデータを最も手前に、画像データを最も遠方に重畳する。これにより、入力画像の所定被写体に関する情報が未登録の場合でも、異なる登録済みの被写体の情報を重畳表示できる。 As described above, the text data related to the registered subject detected at the forefront is superimposed on the foremost side and the image data is superimposed on the farthest side. Thereby, even when the information about the predetermined subject of the input image is not registered, the information of different registered subjects can be displayed in a superimposed manner.
二番目に手前に位置する被写体が未登録の場合、更に遠方に位置する登録済みの被写体を探索し、その関連情報を重畳表示するようにしてもよい。 If the subject located second closest is not registered, a registered subject located farther away may be searched for and related information superimposed on it.
上述した実施例において、CPU148による制御は、相応する制御プログラムまたは画像処理プログラムをCPU148にロードし実行することで実現されうる。そのようなプイログラムは、コンピュータ読み取り可能な記録媒体を介して、またはネットワークを介して撮像装置100及びコンピュータに取り込むことができる。
In the embodiment described above, the control by the
本発明の好ましい実施例を説明したが、本発明は、これらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although preferred embodiments of the present invention have been described, the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the gist thereof.
Claims (5)
前記被写体の奥行きを検出する奥行き検出手段と、
被写体毎に、手前側に表示すべき関連データと奥側に表示すべき関連データを記憶する関連データ管理テーブルと、
前記関連データ管理テーブルを参照し、前記入力画像に含まれる被写体のうち、前記関連データ管理テーブルに登録された被写体であって最も手前に位置する被写体の関連データを検索する検索手段と、
前記入力画像の、最も手前に位置する被写体より手前に最手前レイヤを生成し、最も奥に位置する被写体よりも奥に最奥レイヤを生成するレイヤ生成手段と、
前記検索手段で検索される被写体の、前記手前側に表示すべき関連データを前記最手前レイヤに配置し、前記奥側に表示すべき関連データを前記最奥レイヤに配置する手段
とを有することを特徴とする画像処理装置。 Subject detection means for detecting a subject included in the input image;
Depth detection means for detecting the depth of the subject;
For each subject, a related data management table storing related data to be displayed on the front side and related data to be displayed on the back side;
Search means for referring to the related data management table and searching for related data of a subject that is registered in the related data management table and is closest to the subject among the subjects included in the input image;
A layer generating means for generating a foremost layer in front of a subject positioned closest to the input image and generating a deepest layer deeper than a subject positioned deepest;
The related data to be displayed on the front side of the subject searched by the search means is arranged on the frontmost layer, and the related data to be displayed on the back side is arranged on the innermost layer. An image processing apparatus.
前記被写体の奥行きを検出する奥行き検出ステップと、
被写体毎に、手前側に表示すべき関連データと奥側に表示すべき関連データを記憶する関連データ管理テーブルを参照し、前記入力画像に含まれる被写体のうち、前記関連データ管理テーブルに登録された被写体であって最も手前に位置する被写体の関連データを検索する検索ステップと、
前記入力画像の、最も手前に位置する被写体より手前に最手前レイヤを生成し、最も奥に位置する被写体よりも奥に最奥レイヤを生成するレイヤ生成ステップと、
前記検索ステップで検索される被写体の、前記手前側に表示すべき関連データを前記最手前レイヤに配置し、前記奥側に表示すべき関連データを前記最奥レイヤに配置するステップ
とを有することを特徴とする画像処理方法。 A subject detection step for detecting a subject included in the input image;
A depth detection step for detecting the depth of the subject;
For each subject, a related data management table storing related data to be displayed on the near side and related data to be displayed on the back side is referred to, and the subject included in the input image is registered in the related data management table. A search step for searching related data of the subject that is the closest to the subject,
A layer generation step of generating a foreground layer in front of a subject positioned closest to the input image, and generating a backmost layer behind a subject positioned deepest in the input image;
Placing related data to be displayed on the near side of the subject searched in the searching step on the foremost layer, and placing related data to be displayed on the back side on the deepest layer. An image processing method characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014158173A JP2016036081A (en) | 2014-08-01 | 2014-08-01 | Image processing device, method and program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014158173A JP2016036081A (en) | 2014-08-01 | 2014-08-01 | Image processing device, method and program, and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016036081A true JP2016036081A (en) | 2016-03-17 |
Family
ID=55523718
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014158173A Pending JP2016036081A (en) | 2014-08-01 | 2014-08-01 | Image processing device, method and program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016036081A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019153956A (en) * | 2018-03-05 | 2019-09-12 | 日本テレビ放送網株式会社 | Image composition apparatus, image composition method, and program |
CN113873273A (en) * | 2021-09-09 | 2021-12-31 | 北京都是科技有限公司 | Method, device and storage medium for generating live video |
-
2014
- 2014-08-01 JP JP2014158173A patent/JP2016036081A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019153956A (en) * | 2018-03-05 | 2019-09-12 | 日本テレビ放送網株式会社 | Image composition apparatus, image composition method, and program |
JP7058147B2 (en) | 2018-03-05 | 2022-04-21 | 日本テレビ放送網株式会社 | Image compositing device, image compositing method and program |
CN113873273A (en) * | 2021-09-09 | 2021-12-31 | 北京都是科技有限公司 | Method, device and storage medium for generating live video |
CN113873273B (en) * | 2021-09-09 | 2023-12-26 | 北京都是科技有限公司 | Method, device and storage medium for generating live video |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106937051B (en) | Image processing apparatus, image processing method, and computer program | |
JP5917017B2 (en) | Image processing apparatus, control method therefor, and program | |
WO2015192547A1 (en) | Method for taking three-dimensional picture based on mobile terminal, and mobile terminal | |
EP3316568B1 (en) | Digital photographing device and operation method therefor | |
US20160330366A1 (en) | Image processing device and method, and program | |
JP2010252046A (en) | Image pickup apparatus | |
JP2009103980A (en) | Photographic device, image processor, and photographic ystem | |
JP2009124340A (en) | Imaging apparatus, photographing support method, and photographing support program | |
JP2015053741A (en) | Image reproduction device | |
JP2010226362A (en) | Imaging apparatus and control method thereof | |
JP2006303961A (en) | Imaging apparatus | |
JP5322817B2 (en) | 3D image pickup apparatus and 3D image display method | |
JP6155471B2 (en) | Image generating apparatus, imaging apparatus, and image generating method | |
JP2016219991A (en) | Image processor and control method thereof and program | |
JP5499754B2 (en) | Imaging device | |
JP2014068081A (en) | Imaging apparatus and control method of the same, program and storage medium | |
JP2010114577A (en) | Imaging apparatus, image processor, control method and image processing method of imaging apparatus | |
JP2016036081A (en) | Image processing device, method and program, and recording medium | |
JP2013085239A (en) | Imaging apparatus | |
JP2013175805A (en) | Display device and image pickup device | |
JP4887461B2 (en) | 3D image pickup apparatus and 3D image display method | |
JP2011091750A (en) | Stereoscopic image pick-up apparatus and method of controlling the same | |
JP2013046343A (en) | Image pickup device | |
JP2014155126A (en) | Display device, display method, and program | |
JP2012186538A (en) | Electronic camera, image display device, program, and recording medium |