JP2016036081A - Image processing device, method and program, and recording medium - Google Patents

Image processing device, method and program, and recording medium Download PDF

Info

Publication number
JP2016036081A
JP2016036081A JP2014158173A JP2014158173A JP2016036081A JP 2016036081 A JP2016036081 A JP 2016036081A JP 2014158173 A JP2014158173 A JP 2014158173A JP 2014158173 A JP2014158173 A JP 2014158173A JP 2016036081 A JP2016036081 A JP 2016036081A
Authority
JP
Japan
Prior art keywords
subject
layer
related data
image
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014158173A
Other languages
Japanese (ja)
Inventor
岩下 幸司
Koji Iwashita
幸司 岩下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014158173A priority Critical patent/JP2016036081A/en
Publication of JP2016036081A publication Critical patent/JP2016036081A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device, a method and program that can combine associated information of a subject so that the information is easily viewed.SOLUTION: A face detector 140 and a face recognizer 142 specify a subject (person) contained in an image. CPU 148 refers to a superposed image management table for storing character data to be displayed at a front side and image data to be displayed at a depth side on a subject basis, and searches for data of a subject which is registered in the superposed image management table and located in the front row out of subjects contained in an input image. A layer generator 146 generates a front-row layer in front of the subject located in the front row, and also generates a deepest layer behind a subject located at the deepest position. CPU 148 controls an OSD unit 128 so that character data of a subject which is registered in the superposed image management table and located in the front row is disposed in the front-row layer, and image data are disposed in the deepest layer.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、方法及びプログラムに関し、より具体的には、画像に含まれる被写体に関する情報を動画像に重畳する画像処理装置、方法及びプログラム並びに記録媒体に関する。   The present invention relates to an image processing apparatus, method, and program, and more specifically, to an image processing apparatus, method, program, and recording medium that superimpose information about a subject included in an image on a moving image.

近年、撮影した被写体を立体的に表示することが可能なカメラが製品化されている。被写体の奥行き情報を取得して、右目用の画像と左目用の画像に適切な視差を付加することで、立体表示を実現している。また、立体映像の所望の奥行きにレイヤを生成してアニメーションを重畳する技術も知られている。   In recent years, cameras capable of displaying a photographed subject in three dimensions have been commercialized. Stereoscopic display is realized by acquiring depth information of the subject and adding appropriate parallax to the right-eye image and the left-eye image. In addition, a technique for generating a layer at a desired depth of a stereoscopic video and superimposing an animation is also known.

特許文献1には、記録された立体画像から注目位置の奥行きを取得し、取得した奥行きに基づいて、テロップ等を重畳するシステムが記載されている。   Patent Document 1 describes a system that acquires the depth of a target position from a recorded stereoscopic image and superimposes a telop or the like based on the acquired depth.

特開2011−010128号公報JP 2011-010128 A

特許文献1に記載される技術では、注目位置が複数設定された場合に、複数のテロップ表示を行うことになり、表示が見難くなるという課題がある。また、注目位置が複数設定された状況で奥行き方向への入れ替わりが頻繁に発生すると、テロップ表示が見難くなってしまう。   In the technique described in Patent Document 1, when a plurality of positions of interest are set, a plurality of telop displays are performed, and there is a problem that the display becomes difficult to see. In addition, if the change in the depth direction frequently occurs in a situation where a plurality of positions of interest are set, the telop display becomes difficult to see.

注目する被写体の手前側と奥側に、当該被写体に関する情報を効果的に表示したいとする要望があるが、特許文献1に記載の技術では、この要望に応じることができない。   There is a demand to display information on the subject effectively on the near side and the far side of the subject of interest, but the technique described in Patent Literature 1 cannot meet this demand.

本発明は、このような要望に応える画像処理装置、方法及びプログラム並びに記録媒体を提示することを目的とする。   It is an object of the present invention to present an image processing apparatus, method, program, and recording medium that meet such demands.

本発明に係る画像処理装置は、入力画像に含まれる被写体を検出する被写体検出手段と、前記被写体の奥行きを検出する奥行き検出手段と、被写体毎に、手前側に表示すべき関連データと奥側に表示すべき関連データを記憶する関連データ管理テーブルと、前記関連データ管理テーブルを参照し、前記入力画像に含まれる被写体のうち、前記関連データ管理テーブルに登録された被写体であって最も手前に位置する被写体の関連データを検索する検索手段と、前記入力画像の、最も手前に位置する被写体より手前に最手前レイヤを生成し、最も奥に位置する被写体よりも奥に最奥レイヤを生成するレイヤ生成手段と、前記検索手段で検索される被写体の、前記手前側に表示すべき関連データを前記最手前レイヤに配置し、前記奥側に表示すべき関連データを前記最奥レイヤに配置する手段とを有することを特徴とする。   An image processing apparatus according to the present invention includes a subject detection unit that detects a subject included in an input image, a depth detection unit that detects the depth of the subject, and related data to be displayed on the near side and a back side for each subject. The related data management table for storing the related data to be displayed on the screen and the related data management table, and among the subjects included in the input image, the subject registered in the related data management table is closest to the subject. A search unit that searches for related data of a subject that is positioned; and a frontmost layer of the input image that is closest to the subject that is closest to the front, and a deepest layer that is deeper than the subject that is positioned deepest Layer generation means and related data to be displayed on the near side of the subject searched by the search means are arranged on the foremost layer and should be displayed on the far side. And having a means for placing the associated data to the innermost layer.

本発明によれば、一番手前の被写体に関連したデータを最手前レイヤと最奥レイヤにそれぞれ配置するので、被写体が奥行き方向に入れ替わった場合においても、被写体に応じたデータを付加できる。   According to the present invention, data related to the foreground subject is arranged in the foreground layer and the backmost layer, respectively, so that data corresponding to the subject can be added even when the subject is switched in the depth direction.

本発明の一実施例の概略構成ブロック図である。It is a schematic block diagram of one Example of this invention. 本実施例におけるレイヤ配置の説明図である。It is explanatory drawing of the layer arrangement | positioning in a present Example. 本実施例における重畳画像管理テーブルの一例である。It is an example of the superimposition image management table in a present Example. 重畳画像管理テーブルへの登録手順の動作フローチャートである。It is an operation | movement flowchart of the registration procedure to a superimposition image management table. カメラから被写体までの距離関係の説明図である。It is explanatory drawing of the distance relationship from a camera to a to-be-photographed object. 本実施例における撮影時の動作フローチャートである。It is an operation | movement flowchart at the time of imaging | photography in a present Example. 本実施例における表示例である。It is an example of a display in a present Example. 撮影時の別の動作フローチャートである。It is another operation | movement flowchart at the time of imaging | photography.

以下、図面を参照して、本発明の実施例を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明に係る画像処理装置の一実施例を装備する撮像装置の概略構成ブロック図を示す。   FIG. 1 shows a schematic block diagram of an imaging apparatus equipped with an embodiment of an image processing apparatus according to the present invention.

撮像装置100のレンズユニット102は、集光のための固定レンズ群、変倍レンズ群、絞り、及び変倍レンズ群の動きで移動した結像位置を補正する機能と焦点調節を行なう機能とを兼ね備えた補正レンズ群により構成されている。レンズユニット102によって、撮像素子104の結像面上に被写体像が結像される。撮像素子104は例えば、CCD(Charge Coupled Device)撮像素子からなり、光強度を電荷に変換することで、被写体像を表現する画像信号を生成する。A/D処理部106は、撮像素子104の出力画像信号に所定の処理を施し、デジタル画像信号を出力する。レンズユニット102、撮像素子104及びA/D処理部106を総じて、カメラユニット108と称する。また、図1には図示していないが、カメラユニット108は、変倍レンズ群及び絞りなどを駆動するアクチュエータ、並びに、手ぶれ補正のためのセンサ(例えば角速度センサ)とその補正手段(シフトレンズなど)を備える。   The lens unit 102 of the image pickup apparatus 100 has a function of correcting an imaging position moved by movement of a fixed lens group for focusing, a variable power lens group, a diaphragm, and a variable power lens group, and a function of performing focus adjustment. It is composed of a correction lens group having both. An object image is formed on the imaging surface of the image sensor 104 by the lens unit 102. The image sensor 104 is composed of, for example, a CCD (Charge Coupled Device) image sensor, and generates an image signal representing a subject image by converting light intensity into electric charge. The A / D processing unit 106 performs predetermined processing on the output image signal of the image sensor 104 and outputs a digital image signal. The lens unit 102, the image sensor 104, and the A / D processing unit 106 are collectively referred to as a camera unit 108. Although not shown in FIG. 1, the camera unit 108 includes an actuator for driving a variable power lens group and a diaphragm, a sensor for correcting camera shake (for example, an angular velocity sensor) and its correcting means (such as a shift lens). ).

カメラ制御CPU(Central Processing Unit)110は、CPU148の制御に従いカメラユニット108を制御する。また、カメラ制御CPU110は、例えば合焦情報及び手ぶれ情報などのカメラユニットから得られる情報をCPU148に伝達する。   A camera control CPU (Central Processing Unit) 110 controls the camera unit 108 according to the control of the CPU 148. In addition, the camera control CPU 110 transmits information obtained from the camera unit, such as focusing information and camera shake information, to the CPU 148.

マイクユニット112は、撮影時に周囲の音声を取り込む音声入力手段であり、入力音声を増幅する増幅器と、帯域制限する帯域制限フィルタを含む。A/D処理部114は、マイクユニット112の出力音声信号をデジタル音声信号に変換する。   The microphone unit 112 is an audio input unit that captures ambient audio during shooting, and includes an amplifier that amplifies the input audio and a band limiting filter that limits the bandwidth. The A / D processing unit 114 converts the output audio signal of the microphone unit 112 into a digital audio signal.

エンコーダ116は、CPU148の制御に従い、カメラユニット108からの画像データとA/D処理部114からの音声データを圧縮符号化し、所定形式の圧縮日データを生成する。圧縮方式として、MPEG(Moving Picture Experts Group)2方式及びその他の動画圧縮方式を利用可能である。エンコーダ116は、データ位置とフレーム位置の変換に必要となる情報などをCPU148に通知する機能を備える。   The encoder 116 compresses and encodes the image data from the camera unit 108 and the audio data from the A / D processing unit 114 under the control of the CPU 148 to generate compressed date data in a predetermined format. As a compression method, MPEG (Moving Picture Experts Group) 2 method and other moving image compression methods can be used. The encoder 116 has a function of notifying the CPU 148 of information necessary for conversion between the data position and the frame position.

記録再生回路118は、エンコーダ116からの圧縮ビデオデータを、メモリ120を使ってメモリカード122に記録し、メモリカード122に記録される圧縮ビデオデータを読み出してデコーダ124に供給する。CPU148は、記録再生回路118の記録再生動作を制御する。メモリカード122は、撮影した動画(音声を含む)を記録する記録媒体であり、所定のインターフェースを介して記録再生回路118に接続する。記録再生回路118は、メモリ120の先頭アドレスとデータ量及びメモリカード122のデータ書込み先の先頭アドレスを指定し、DMA(Direct Memory Access)機能でメモリ120からメモリカード122にデータを転送する。   The recording / reproducing circuit 118 records the compressed video data from the encoder 116 on the memory card 122 using the memory 120, reads the compressed video data recorded on the memory card 122, and supplies it to the decoder 124. The CPU 148 controls the recording / reproducing operation of the recording / reproducing circuit 118. The memory card 122 is a recording medium for recording captured moving images (including sound), and is connected to the recording / reproducing circuit 118 via a predetermined interface. The recording / reproducing circuit 118 designates the start address and data amount of the memory 120 and the start address of the data write destination of the memory card 122, and transfers data from the memory 120 to the memory card 122 by a DMA (Direct Memory Access) function.

デコーダ124は、記録再生回路118からの圧縮動画データを復号化する。デコーダ124は復号化で得られた音声データ及び映像データをそれぞれ音声出力部126及びOSD(On Screen Display)回路128に供給する。映像データは、例えばITU−R BT.656(CCIR656)等に準拠する。OSD回路128は、詳細は後述するが、デコーダ124からの映像データを取り込み、所望のサイズに縮小した上で、各種設定を行なうためのメニュー画面、タイトル及び時間などの情報を指定の位置に重畳する。OSD回路128は、重畳結果の映像データを映像出力部130に供給する。音声出力部126には例えば、スピーカが出力し、映像出力部130には映像表示装置が接続する。   The decoder 124 decodes the compressed moving image data from the recording / reproducing circuit 118. The decoder 124 supplies audio data and video data obtained by decoding to an audio output unit 126 and an OSD (On Screen Display) circuit 128, respectively. The video data is, for example, ITU-R BT. 656 (CCIR656) or the like. As will be described in detail later, the OSD circuit 128 captures the video data from the decoder 124, reduces it to a desired size, and superimposes information such as a menu screen, title, and time for performing various settings at a specified position. To do. The OSD circuit 128 supplies the video data as a superimposition result to the video output unit 130. For example, a speaker outputs to the audio output unit 126, and a video display device is connected to the video output unit 130.

電子ビューファインダ(EVF:Electronic View Finder)132は、撮影者がカメラユニット108の視野内の被写体を確認するためのものであり、カメラユニット108から一定周期で出力される画像を表示する。   An electronic view finder (EVF) 132 is used by a photographer to confirm a subject in the field of view of the camera unit 108, and displays an image output from the camera unit 108 at a constant cycle.

液晶パネル134は、EVF132よりも大きな表示画面を具備し、ビューファインダとしてだけではなく、OSD回路128の出力画像の表示にも使用される。液晶パネル134の表示画面にはタッチパネル136が配置される。液晶パネル134は、サムネイル画像や仮想ボタン等の被操作要素を表示し、ユーザが、タッチパネル136によりそれらを選択又は操作できる。画面制御部138が、タッチパネル136に対するユーザ操作の有無と、被操作要素への操作かどうかを判断し、操作位置座標を含む操作内容を示す情報をCPU148に供給する。なお、画面制御部138は、タッチパネル136に対する操作内容に応じて、液晶パネル134に表示される仮想ボタンを制御することもできる。   The liquid crystal panel 134 has a display screen larger than the EVF 132 and is used not only as a viewfinder but also for displaying an output image of the OSD circuit 128. A touch panel 136 is disposed on the display screen of the liquid crystal panel 134. The liquid crystal panel 134 displays operated elements such as thumbnail images and virtual buttons, and the user can select or operate them using the touch panel 136. The screen control unit 138 determines whether or not there is a user operation on the touch panel 136 and whether or not the operation is performed on the operated element, and supplies information indicating the operation content including the operation position coordinates to the CPU 148. Note that the screen control unit 138 can also control virtual buttons displayed on the liquid crystal panel 134 in accordance with the operation content on the touch panel 136.

顔検出部140は被写体検出手段として機能し、カメラユニット108(撮像素子104)で撮像した画像データに顔検出処理を行って、画像内に含まれる人物の顔領域を検出する。この顔検出処理は公知のアルゴリズムによって行われる。例えば、顔検出部140は、公知の特徴点を抽出する処理によって、画像データから目、鼻及び口の各端点並びに顔の輪郭点等の特徴点を画像から抽出し、これらの特徴点に基づいて被写体の顔領域と顔の大きさを検出する。   The face detection unit 140 functions as a subject detection unit, and performs face detection processing on image data captured by the camera unit 108 (image sensor 104) to detect a human face area included in the image. This face detection process is performed by a known algorithm. For example, the face detection unit 140 extracts feature points such as eye, nose and mouth end points and face contour points from the image data by a process of extracting known feature points, and based on these feature points. Then, the face area and the face size of the subject are detected.

顔認識部142は、顔検出部140の検出結果に基づいて、認証対象となる顔の特徴を示す顔認証データを生成する。例えば、顔認識部142は、検出された顔の特徴点の位置及び特徴点から求まる顔パーツの大きさ及び各特徴点の相対距離などから顔認証データを生成する。   The face recognition unit 142 generates face authentication data indicating the features of the face to be authenticated based on the detection result of the face detection unit 140. For example, the face recognition unit 142 generates face authentication data from the position of the detected feature point of the face, the size of the face part obtained from the feature point, the relative distance of each feature point, and the like.

奥行き検出部144は、撮像装置100から被写体までの距離を検出する。例えば、ステレオカメラによる2つの視差の異なる画像を使って個々の被写体及び各被写体の複数の点について、撮像装置100からの距離を算出できる。本実施例でも、そのような公知の検出方法を採用する。   The depth detection unit 144 detects the distance from the imaging device 100 to the subject. For example, the distance from the imaging device 100 can be calculated for each subject and a plurality of points of each subject using two images with different parallaxes obtained by a stereo camera. Also in this embodiment, such a known detection method is adopted.

レイヤ生成部146は、所定の奥行きに相当する位置に、文字及びアイコンなどを配置可能なレイヤを生成する。レイヤ生成方法は、後述する。   The layer generation unit 146 generates a layer in which characters and icons can be arranged at a position corresponding to a predetermined depth. The layer generation method will be described later.

CPU148は、撮像装置100の全体を制御する。CPU148は、プログラムを格納する不揮発性メモリ(ROM)、作業領域となる揮発性メモリ(RAM)、時間を計測するタイマ、及び外部とデータを受け渡しするポート又はインターフェースを具備する。EEPROM150には、CPU148上で動作する制御プログラムと、メモリカード122のファイルシステムを扱うプログラムを含む種々のプログラムと、動作に必要な定数が格納されている。   The CPU 148 controls the entire imaging apparatus 100. The CPU 148 includes a nonvolatile memory (ROM) for storing a program, a volatile memory (RAM) serving as a work area, a timer for measuring time, and a port or interface for transferring data to and from the outside. The EEPROM 150 stores a control program that operates on the CPU 148, various programs including a program that handles the file system of the memory card 122, and constants necessary for the operation.

スイッチ操作部152は、種々のスイッチ及びボタンからなり、ユーザの操作に応じた信号をCPU148に供給する。スイッチ操作部152及びタッチパネル136により、ユーザは所望の動作をCPU148に指示できる。   The switch operation unit 152 includes various switches and buttons, and supplies a signal corresponding to a user operation to the CPU 148. The switch operation unit 152 and the touch panel 136 allow the user to instruct the CPU 148 to perform a desired operation.

CPU148を含む上述の各ブロックは、バス154を介してデータを授受できる。   Each of the above blocks including the CPU 148 can exchange data via the bus 154.

図2を参照して、レイヤ生成部146で生成するレイヤを説明する。図2(a)は、カメラユニット108の撮影視野内の画像(液晶パネル134の表示画像)の例を示し、図2(b)は撮像装置100からの距離を示す平面図を示す。   With reference to FIG. 2, the layer produced | generated by the layer production | generation part 146 is demonstrated. FIG. 2A shows an example of an image within the photographing field of view of the camera unit 108 (display image of the liquid crystal panel 134), and FIG. 2B shows a plan view showing the distance from the imaging device 100. FIG.

図2(a)に示す例では、背景202の手前側に被写体(人物)204が位置し、被写体204の前に、後述する処理より、被写体204の氏名を示すテロップ206が重畳して表示される。背景202として星又は星空が例示されている。   In the example shown in FIG. 2A, a subject (person) 204 is positioned on the near side of the background 202, and a telop 206 indicating the name of the subject 204 is superimposed and displayed in front of the subject 204 by processing described later. The As the background 202, a star or a starry sky is illustrated.

図2(a)に示す例に対して、レイヤ生成部146が、背景レイヤ212、被写体レイヤ214及びテロップレイヤ216を、図2(b)に示すように、遠方から撮像装置100に近い位置に順に位置するように生成する。背景レイヤ212に背景202が位置し、被写体レイヤ214に被写体204が位置し、テロップレイヤ216にテロップ206が位置する。テロップ206は、テロップレイヤ216上をスクロールするアニメーションが可能である。   In the example shown in FIG. 2A, the layer generation unit 146 moves the background layer 212, the subject layer 214, and the telop layer 216 to a position close to the imaging device 100 from a distance as shown in FIG. It generates so that it may be located in order. The background 202 is located on the background layer 212, the subject 204 is located on the subject layer 214, and the telop 206 is located on the telop layer 216. The telop 206 can be animated to scroll on the telop layer 216.

図3は、重畳する画像を管理する重畳画像管理テーブルの一例を示す。CPU148が、被写体ごとに手前側に表示すべき関連データと奥側に表示すべき関連データを記憶する関連データ管理テーブルとして、この重畳画像管理テーブルを保持する。重畳画像管理テーブルは、被写体毎にその前側(至近側)に位置するレイヤ(前レイヤ)と後側(遠方側)に位置する後レイヤ生成可能である。図3に示す例では、前レイヤには、テキストデータ(例えば、被写体の名前)が設定され、後レイヤには画像データが設定される。図2(b)に示すテロップレイヤ216が被写体204に対する前レイヤであり、背景レイヤ212が被写体204に対する後レイヤである。   FIG. 3 shows an example of a superimposed image management table for managing images to be superimposed. The CPU 148 holds the superimposed image management table as a related data management table for storing related data to be displayed on the near side and related data to be displayed on the back side for each subject. The superimposed image management table can generate a layer (front layer) located on the front side (near side) and a rear layer located on the rear side (far side) for each subject. In the example shown in FIG. 3, text data (for example, the name of a subject) is set in the previous layer, and image data is set in the rear layer. A telop layer 216 shown in FIG. 2B is a front layer for the subject 204, and a background layer 212 is a rear layer for the subject 204.

図4は、重畳画像管理テーブルを作成する動作例のフローチャートを示す。図5に示す例を参照しつつ、本実施例における重畳画像管理テーブルの作成手順を説明する。説明例として、図5(a)に示すように、5人の被写体(人物)が撮像装置100の前方向に位置する状況を想定する。   FIG. 4 shows a flowchart of an operation example for creating the superimposed image management table. With reference to the example shown in FIG. 5, the procedure for creating the superimposed image management table in this embodiment will be described. As an illustrative example, a situation is assumed in which five subjects (persons) are located in the front direction of the imaging apparatus 100 as illustrated in FIG.

S401において、CPU148は、顔検出部140に撮像画像から人物の顔を検出させ、顔認識部142に検出された顔を認識させる。図5に示す例では、例えば、最も手前の被写体Aの顔が検出され、認識される。CPU148は、誰かの顔が検出認識されると(S401)、S402に進み、誰の顔も検出されない場合(S401)、図5に示すフローを終了する。   In step S <b> 401, the CPU 148 causes the face detection unit 140 to detect a human face from the captured image and causes the face recognition unit 142 to recognize the detected face. In the example shown in FIG. 5, for example, the face of the foremost subject A is detected and recognized. When someone's face is detected and recognized (S401), the CPU 148 proceeds to S402, and when no person's face is detected (S401), the flow shown in FIG. 5 ends.

S402において、CPU148は、検出及び認識された被写体について、重畳画像管理テーブルに登録済みかどうかを調べる。登録済みの場合(S402)、CPU148は、S401に戻り、顔検出部140に次の被写体の顔を検出させ、顔認識部142に検出された顔を認識させる。この段階で、例えば、被写体Bの顔が検出・認識される。   In S402, the CPU 148 checks whether or not the detected and recognized subject has been registered in the superimposed image management table. If registered (S402), the CPU 148 returns to S401, causes the face detection unit 140 to detect the face of the next subject, and causes the face recognition unit 142 to recognize the detected face. At this stage, for example, the face of the subject B is detected and recognized.

検出・認識された被写体が重畳画像管理テーブルに未登録の場合(S402)、CPU148は、S403において、この被写体のエントリを重畳画像管理テーブルに追加し、その前レイヤと後レイヤに当該被写体に重畳すべきテキストと画像をそれぞれ設定する。本実施例では、CPU148は、対応する被写体の名前をユーザに入力させ、入力文字列を前レイヤに設定し、スクロール等のアニメーションを可能とする。CPU148は、後レイヤには、同じ被写体の現在の撮像画像及び過去に撮影した記録画像から任意にユーザに選択させて、登録する。   If the detected / recognized subject is not registered in the superimposed image management table (S402), the CPU 148 adds the subject entry to the superimposed image management table in S403, and superimposes the subject on the previous layer and the subsequent layer. Set the text and image to be set. In this embodiment, the CPU 148 allows the user to input the name of the corresponding subject, sets the input character string to the previous layer, and enables animation such as scrolling. The CPU 148 causes the user to arbitrarily select and register the current layer from the current captured image of the same subject and the previously recorded image.

図5(a)に示す例では、以上の処理を被写体B,C,Dについても繰り返すことになる。これにより、被写体A,B,C,Dについての重畳画像管理テーブルが用意される。別途、コンピュータ上で作成した重畳画像管理テーブルを撮像装置100に転送しても良いことはいうまでもない。   In the example shown in FIG. 5A, the above processing is repeated for the subjects B, C, and D. Thereby, a superimposed image management table for the subjects A, B, C, and D is prepared. Needless to say, a superimposed image management table created on a computer may be transferred to the imaging apparatus 100.

図6は、本実施例の撮影モードでのデータ重畳処理のフローチャートを示す。図6を参照し、図5に示す例に基づいて、本実施例の記録時でのレイヤ処理を説明する。   FIG. 6 shows a flowchart of data superimposition processing in the shooting mode of the present embodiment. With reference to FIG. 6, the layer processing at the time of recording of the present embodiment will be described based on the example shown in FIG.

S601において、CPU148は、記録すべき撮像画像から顔検出部140に人物の顔を検出させ、顔認識部142に検出された顔を認識させる。図5(a)に示す例では、被写体A,B,C,Dが検出され、認識される。CPU148は、誰かの顔が検出認識されると(S601)、S602に進み、誰の顔も検出されない場合(S601)、図6に示すフローを終了する。   In step S601, the CPU 148 causes the face detection unit 140 to detect a human face from the captured image to be recorded, and causes the face recognition unit 142 to recognize the detected face. In the example shown in FIG. 5A, subjects A, B, C, and D are detected and recognized. When someone's face is detected and recognized (S601), the CPU 148 proceeds to S602, and when no person's face is detected (S601), the flow shown in FIG. 6 ends.

S602で、CPU148は、奥行き検出部144を使用して、撮像装置100から見て最も手前に位置する被写体と最も遠方に位置する被写体を検出する。図5(a)に示す例では、被写体Aが最も手前に位置し、被写体Dが最も遠方に位置する。   In step S <b> 602, the CPU 148 uses the depth detection unit 144 to detect the subject located closest to the imaging device 100 and the subject located farthest away. In the example shown in FIG. 5A, the subject A is positioned closest to the subject, and the subject D is positioned farthest.

S603で、CPU148は、最も手前にいる被写体(ここでは被写体A)が重畳画像管理テーブルに登録済みかどうかを判断する。たとえば、被写体Aを重畳画像管理テーブルで検索する。最も手前に位置する被写体が重畳画像管理テーブルに未登録の場合(S603)、CPU148は、S601に戻る。最も手前に位置する被写体が重畳画像管理テーブルに登録済みの場合(S603)、CPU148は、S604において、当該被写体の前レイヤ及び後レイヤのデータを選択する。図5(a)に示す例では、重畳画像管理テーブルの被写体Aに関するレコードを参照し、CPU148は、テキストAと画像Aを選択する。   In step S <b> 603, the CPU 148 determines whether or not the closest subject (here, subject A) has been registered in the superimposed image management table. For example, the subject A is searched in the superimposed image management table. When the subject located at the forefront is not registered in the superimposed image management table (S603), the CPU 148 returns to S601. When the closest subject has been registered in the superimposed image management table (S603), the CPU 148 selects the data of the previous layer and the rear layer of the subject in S604. In the example shown in FIG. 5A, the CPU 148 selects the text A and the image A by referring to the record related to the subject A in the superimposed image management table.

S605で、CPU148は、S604で選択した前レイヤ及び後レイヤのデータを、それぞれ撮像画像の最手前レイヤ及び最奥レイヤに設定し、S601に戻る。最手前レイヤは、最も手前に位置する被写体の前レイヤであり、最奥レイヤは、最も遠方に位置する被写体の後レイヤである。CPU148は、OSD回路128に各レイヤへのデータの配置と合成を実行させる。   In S605, the CPU 148 sets the data of the front layer and the rear layer selected in S604 as the foremost layer and the backmost layer of the captured image, respectively, and returns to S601. The foremost layer is the front layer of the subject located closest to the foreground, and the deepest layer is the rear layer of the subject located farthest. The CPU 148 causes the OSD circuit 128 to execute data arrangement and synthesis on each layer.

奥行き方向に被写体が入れ替わった場合には、CPU148は、S602で最も手前にいる被写体を検出し、当該被写体に設定されたテキスト及び画像をそれぞれ最手前レイヤ及び最奥レイヤに設定することになる。図5(a)に示す例では、最も手前に位置すると検出された被写体が被写体Aであるので、被写体Aに対する前レイヤにテキストAが設定され、最も遠方に位置する被写体Dの後レイヤに画像Aが設定される。   When the subject is switched in the depth direction, the CPU 148 detects the foremost subject in S602, and sets the text and image set for the subject in the foreground layer and the backmost layer, respectively. In the example shown in FIG. 5A, since the subject detected as being closest to the subject is the subject A, the text A is set in the previous layer with respect to the subject A, and the image is displayed in the rear layer of the subject D located farthest away. A is set.

以上のように、最も手前に位置する被写体に関連する情報を、最も手前に位置する被写体の前レイヤと最も遠方に位置する被写体の後レイヤに重畳する。これにより、カメラユニット108から出力される画像にユーザが所望の情報を重畳して記録でき、映像出力部130から外部に出力できる。記録済みの動画をメモリカード122から読み出し、同様の処理を施して、メモリカード122に記録しても良いし、映像出力部130から外部に出力してもよい。   As described above, information related to the subject located at the foreground is superimposed on the front layer of the subject located at the forefront and the rear layer of the subject located at the farthest. As a result, the user can superimpose and record desired information on the image output from the camera unit 108, and can output the information from the video output unit 130 to the outside. The recorded moving image may be read out from the memory card 122, subjected to the same processing, recorded in the memory card 122, or output to the outside from the video output unit 130.

図7は、本実施例による関連情報(テロップ/画像)の重畳処理結果の表示例を示す。図7(a)は、被写体Aが一番手前にいる場合の表示例を示し、図7(b)は、図7(a)に示す状態から被写体Cが一番手前に移動した状態の表示例を示す。   FIG. 7 shows a display example of the result of superimposing the related information (telop / image) according to this embodiment. FIG. 7A shows a display example when the subject A is in the foreground, and FIG. 7B shows a table in which the subject C has moved to the forefront from the state shown in FIG. An example is shown.

図7(a)に示す表示例では、被写体Aに関連した前レイヤの情報(テロップA)701が被写体Aの手前側に表示され、被写体Aに関連した後レイヤの情報(画像A)702が最も遠方に位置する被写体Dの後側に重畳される。画像Aは、ここでは、重畳画像管理テーブルに登録された被写体Aの撮影済み顔画像である。   In the display example shown in FIG. 7A, information on the previous layer (telop A) 701 related to the subject A is displayed on the near side of the subject A, and information on the rear layer (image A) 702 related to the subject A is displayed. It is superimposed on the rear side of the subject D located farthest away. Here, the image A is a captured face image of the subject A registered in the superimposed image management table.

図7(b)に示す表示例では、被写体Cが最も手前に位置する。従って、被写体Cに関連した前レイヤの情報(テロップC)703が被写体Cの手前側に表示され、被写体Cに関連した後レイヤの情報(画像C)704が、最も遠方に位置する被写体Dの後側に重畳される。画像Cは、ここでは、重畳画像管理テーブルに登録された被写体Cの撮影済み顔画像である。   In the display example shown in FIG. 7B, the subject C is positioned closest to the front. Therefore, information on the previous layer related to the subject C (telop C) 703 is displayed on the front side of the subject C, and information on the rear layer related to the subject C (image C) 704 is stored in the farthest subject D. It is superimposed on the rear side. Here, the image C is a captured face image of the subject C registered in the superimposed image management table.

図8は、重畳画像テーブルに未登録な被写体が最も手前に検出された場合の、撮影モードにおけるレイヤへのデータ重畳処理のフローチャートを示す。図5(b)に示すように、未登録の被写体Eが撮像装置100の撮像視野内で撮像装置100に最も近い距離に位置するようなケースである。図5(b)では、被写体Eより遠くに被写体A,C,Dが位置する。   FIG. 8 shows a flowchart of the process of superimposing data on a layer in the shooting mode when an unregistered subject is detected in the foreground in the superimposed image table. As shown in FIG. 5B, this is a case where the unregistered subject E is located at the closest distance to the imaging device 100 in the imaging field of the imaging device 100. In FIG. 5B, subjects A, C, and D are located farther than the subject E.

S801において、CPU148は、記録すべき撮像画像から顔検出部140に人物の顔を検出させ、顔認識部142に検出された顔を認識させる。図5(b)に示す例では、撮像装置100に近い順に被写体E,A,C,Dが検出され、認識される。CPU148は、誰かの顔が検出認識されると(S801)、S802に進み、誰の顔も検出されない場合(S801)、図8に示すフローを終了する。   In step S <b> 801, the CPU 148 causes the face detection unit 140 to detect a human face from the captured image to be recorded, and causes the face recognition unit 142 to recognize the detected face. In the example shown in FIG. 5B, the subjects E, A, C, and D are detected and recognized in the order closer to the imaging device 100. When someone's face is detected and recognized (S801), the CPU 148 proceeds to S802, and when no person's face is detected (S801), the flow shown in FIG. 8 ends.

S802で、CPU148は、奥行き検出部144を使用して、撮像装置100から見て最も手前に位置する被写体と最も遠方に位置する被写体を検出する。図5(b)に示す例では、被写体Eが最も手前に位置し、被写体Dが最も遠方に位置する。   In step S <b> 802, the CPU 148 uses the depth detection unit 144 to detect a subject located closest to the imaging device 100 and a subject located farthest from the imaging apparatus 100. In the example shown in FIG. 5B, the subject E is located closest to the subject, and the subject D is located farthest away.

S803で、CPU148は、最も手前にいる被写体(ここでは被写体E)が重畳画像管理テーブルに登録済みかどうかを判断する。最も手前に位置する被写体が重畳画像管理テーブルに未登録の場合(S803)、CPU148は、S806に進む。最も手前に位置する被写体が重畳画像管理テーブルに登録済みの場合(S803)、CPU148は、S804において、当該被写体の前レイヤ及び後レイヤのデータを選択する。S805で、CPU148は、S804で選択した前レイヤ及び後レイヤのデータを、それぞれ撮像画像の最手前レイヤ及び最奥レイヤに設定し、S801に戻る。最手前レイヤは、最も手前に位置する被写体の前レイヤであり、最奥レイヤは、最も遠方に位置する被写体の後レイヤである。   In step S803, the CPU 148 determines whether or not the closest subject (here, subject E) has been registered in the superimposed image management table. If the closest object is not registered in the superimposed image management table (S803), the CPU 148 proceeds to S806. When the closest subject has been registered in the superimposed image management table (S803), the CPU 148 selects data of the front layer and the rear layer of the subject in S804. In S805, the CPU 148 sets the data of the front layer and the rear layer selected in S804 as the foremost layer and the backmost layer of the captured image, respectively, and returns to S801. The foremost layer is the front layer of the subject located closest to the foreground, and the deepest layer is the rear layer of the subject located farthest.

S806で、CPU148は、二番目に手前にいる被写体(ここでは被写体A)を検出する。CPU148は、二番目に手前の被写体を検出できない場合(S806)、S801に戻り、検出できる場合(S806)、S807に進む。   In step S806, the CPU 148 detects the second closest subject (here, the subject A). If the second closest subject cannot be detected (S806), the CPU 148 returns to S801, and if it can be detected (S806), the process proceeds to S807.

S807で、CPU148は、S806で検出した被写体が重畳画像管理テーブルに登録済みかどうかを判断する。重畳画像管理テーブルに未登録の場合(S807)、CPU148は、S801に戻る。重畳画像管理テーブルに登録済みの場合(S807)、CPU148は、S808において、二番目の被写体の前レイヤ及び後レイヤのデータを選択する。図5(b)に示す例では、テキストAと画像Aが選択される。そして、S805で、CPU148は、S708で選択した前レイヤ及び後レイヤのデータを、それぞれ撮像画像の最手前レイヤ及び最奥レイヤに設定し、S801に戻る。   In step S807, the CPU 148 determines whether the subject detected in step S806 has been registered in the superimposed image management table. If not registered in the superimposed image management table (S807), the CPU 148 returns to S801. If registered in the superimposed image management table (S807), the CPU 148 selects the data of the front layer and the rear layer of the second subject in S808. In the example shown in FIG. 5B, text A and image A are selected. In step S805, the CPU 148 sets the data of the front layer and the rear layer selected in step S708 as the foremost layer and the backmost layer of the captured image, and returns to step S801.

以上のように、最も手前に検出された登録済みの被写体に関連するテキストデータを最も手前に、画像データを最も遠方に重畳する。これにより、入力画像の所定被写体に関する情報が未登録の場合でも、異なる登録済みの被写体の情報を重畳表示できる。   As described above, the text data related to the registered subject detected at the forefront is superimposed on the foremost side and the image data is superimposed on the farthest side. Thereby, even when the information about the predetermined subject of the input image is not registered, the information of different registered subjects can be displayed in a superimposed manner.

二番目に手前に位置する被写体が未登録の場合、更に遠方に位置する登録済みの被写体を探索し、その関連情報を重畳表示するようにしてもよい。   If the subject located second closest is not registered, a registered subject located farther away may be searched for and related information superimposed on it.

上述した実施例において、CPU148による制御は、相応する制御プログラムまたは画像処理プログラムをCPU148にロードし実行することで実現されうる。そのようなプイログラムは、コンピュータ読み取り可能な記録媒体を介して、またはネットワークを介して撮像装置100及びコンピュータに取り込むことができる。   In the embodiment described above, the control by the CPU 148 can be realized by loading a corresponding control program or image processing program into the CPU 148 and executing it. Such a program can be loaded into the imaging apparatus 100 and the computer via a computer-readable recording medium or via a network.

本発明の好ましい実施例を説明したが、本発明は、これらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   Although preferred embodiments of the present invention have been described, the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the gist thereof.

Claims (5)

入力画像に含まれる被写体を検出する被写体検出手段と、
前記被写体の奥行きを検出する奥行き検出手段と、
被写体毎に、手前側に表示すべき関連データと奥側に表示すべき関連データを記憶する関連データ管理テーブルと、
前記関連データ管理テーブルを参照し、前記入力画像に含まれる被写体のうち、前記関連データ管理テーブルに登録された被写体であって最も手前に位置する被写体の関連データを検索する検索手段と、
前記入力画像の、最も手前に位置する被写体より手前に最手前レイヤを生成し、最も奥に位置する被写体よりも奥に最奥レイヤを生成するレイヤ生成手段と、
前記検索手段で検索される被写体の、前記手前側に表示すべき関連データを前記最手前レイヤに配置し、前記奥側に表示すべき関連データを前記最奥レイヤに配置する手段
とを有することを特徴とする画像処理装置。
Subject detection means for detecting a subject included in the input image;
Depth detection means for detecting the depth of the subject;
For each subject, a related data management table storing related data to be displayed on the front side and related data to be displayed on the back side;
Search means for referring to the related data management table and searching for related data of a subject that is registered in the related data management table and is closest to the subject among the subjects included in the input image;
A layer generating means for generating a foremost layer in front of a subject positioned closest to the input image and generating a deepest layer deeper than a subject positioned deepest;
The related data to be displayed on the front side of the subject searched by the search means is arranged on the frontmost layer, and the related data to be displayed on the back side is arranged on the innermost layer. An image processing apparatus.
前記手前側に表示すべき関連データが関連する被写体を説明するテキストデータであり、前記奥側に表示すべき関連データが関連する被写体を示す画像データであることを特徴とする請求項1に記載の画像処理装置。   The related data to be displayed on the front side is text data describing a related subject, and the related data to be displayed on the back side is image data indicating a related subject. Image processing apparatus. 入力画像に含まれる被写体を検出する被写体検出ステップと、
前記被写体の奥行きを検出する奥行き検出ステップと、
被写体毎に、手前側に表示すべき関連データと奥側に表示すべき関連データを記憶する関連データ管理テーブルを参照し、前記入力画像に含まれる被写体のうち、前記関連データ管理テーブルに登録された被写体であって最も手前に位置する被写体の関連データを検索する検索ステップと、
前記入力画像の、最も手前に位置する被写体より手前に最手前レイヤを生成し、最も奥に位置する被写体よりも奥に最奥レイヤを生成するレイヤ生成ステップと、
前記検索ステップで検索される被写体の、前記手前側に表示すべき関連データを前記最手前レイヤに配置し、前記奥側に表示すべき関連データを前記最奥レイヤに配置するステップ
とを有することを特徴とする画像処理方法。
A subject detection step for detecting a subject included in the input image;
A depth detection step for detecting the depth of the subject;
For each subject, a related data management table storing related data to be displayed on the near side and related data to be displayed on the back side is referred to, and the subject included in the input image is registered in the related data management table. A search step for searching related data of the subject that is the closest to the subject,
A layer generation step of generating a foreground layer in front of a subject positioned closest to the input image, and generating a backmost layer behind a subject positioned deepest in the input image;
Placing related data to be displayed on the near side of the subject searched in the searching step on the foremost layer, and placing related data to be displayed on the back side on the deepest layer. An image processing method characterized by the above.
請求項1に記載される画像処理装置の各手段としてコンピュータを機能させるための画像処理プログラム。   An image processing program for causing a computer to function as each unit of the image processing apparatus according to claim 1. 請求項4に記載される画像処理プログラムを格納した、コンピュータ読み取り可能な記録媒体。   A computer-readable recording medium storing the image processing program according to claim 4.
JP2014158173A 2014-08-01 2014-08-01 Image processing device, method and program, and recording medium Pending JP2016036081A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014158173A JP2016036081A (en) 2014-08-01 2014-08-01 Image processing device, method and program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014158173A JP2016036081A (en) 2014-08-01 2014-08-01 Image processing device, method and program, and recording medium

Publications (1)

Publication Number Publication Date
JP2016036081A true JP2016036081A (en) 2016-03-17

Family

ID=55523718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014158173A Pending JP2016036081A (en) 2014-08-01 2014-08-01 Image processing device, method and program, and recording medium

Country Status (1)

Country Link
JP (1) JP2016036081A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019153956A (en) * 2018-03-05 2019-09-12 日本テレビ放送網株式会社 Image composition apparatus, image composition method, and program
CN113873273A (en) * 2021-09-09 2021-12-31 北京都是科技有限公司 Method, device and storage medium for generating live video

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019153956A (en) * 2018-03-05 2019-09-12 日本テレビ放送網株式会社 Image composition apparatus, image composition method, and program
JP7058147B2 (en) 2018-03-05 2022-04-21 日本テレビ放送網株式会社 Image compositing device, image compositing method and program
CN113873273A (en) * 2021-09-09 2021-12-31 北京都是科技有限公司 Method, device and storage medium for generating live video
CN113873273B (en) * 2021-09-09 2023-12-26 北京都是科技有限公司 Method, device and storage medium for generating live video

Similar Documents

Publication Publication Date Title
CN106937051B (en) Image processing apparatus, image processing method, and computer program
JP5917017B2 (en) Image processing apparatus, control method therefor, and program
WO2015192547A1 (en) Method for taking three-dimensional picture based on mobile terminal, and mobile terminal
EP3316568B1 (en) Digital photographing device and operation method therefor
US20160330366A1 (en) Image processing device and method, and program
JP2010252046A (en) Image pickup apparatus
JP2009103980A (en) Photographic device, image processor, and photographic ystem
JP2009124340A (en) Imaging apparatus, photographing support method, and photographing support program
JP2015053741A (en) Image reproduction device
JP2010226362A (en) Imaging apparatus and control method thereof
JP2006303961A (en) Imaging apparatus
JP5322817B2 (en) 3D image pickup apparatus and 3D image display method
JP6155471B2 (en) Image generating apparatus, imaging apparatus, and image generating method
JP2016219991A (en) Image processor and control method thereof and program
JP5499754B2 (en) Imaging device
JP2014068081A (en) Imaging apparatus and control method of the same, program and storage medium
JP2010114577A (en) Imaging apparatus, image processor, control method and image processing method of imaging apparatus
JP2016036081A (en) Image processing device, method and program, and recording medium
JP2013085239A (en) Imaging apparatus
JP2013175805A (en) Display device and image pickup device
JP4887461B2 (en) 3D image pickup apparatus and 3D image display method
JP2011091750A (en) Stereoscopic image pick-up apparatus and method of controlling the same
JP2013046343A (en) Image pickup device
JP2014155126A (en) Display device, display method, and program
JP2012186538A (en) Electronic camera, image display device, program, and recording medium