JP2011023898A - Display device, display method, and integrated circuit - Google Patents
Display device, display method, and integrated circuit Download PDFInfo
- Publication number
- JP2011023898A JP2011023898A JP2009166156A JP2009166156A JP2011023898A JP 2011023898 A JP2011023898 A JP 2011023898A JP 2009166156 A JP2009166156 A JP 2009166156A JP 2009166156 A JP2009166156 A JP 2009166156A JP 2011023898 A JP2011023898 A JP 2011023898A
- Authority
- JP
- Japan
- Prior art keywords
- candidate
- unit
- image data
- area
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、映像を表示するための表示装置、表示方法および集積回路に関する。 The present invention relates to a display device, a display method, and an integrated circuit for displaying an image.
ビデオカメラやデジタルカメラといった撮像装置では、往々にして動いている人物や物体を撮影する場合がある。撮像装置には映像を表示するための表示装置が搭載されており、撮影時には、この表示装置に被写体の映像がリアルタイムに映し出される。ユーザーは、表示装置に映し出された映像を見ながら、静止画または動画の撮影を行う。
一方で、映像に映し出されている人間などの被写体を候補領域として自動的に検出する技術が提案されている。この種の技術としては、例えば顔検出技術が知られている。このような技術が用いられた表示装置では、自動的に検出され候補領域のうちユーザーにとって最も興味のある被写体(以下、主被写体ともいう)に対応している領域(以下、主被写体領域ともいう)を選択できるようになっている。主被写体領域が選択されると、選択された主被写体領域を基準に、自動露出制御(AE:Auto Exposure)や自動合焦制御(AF:Auto Focus)が行われる(例えば、特許文献1を参照)。
An imaging device such as a video camera or a digital camera often photographs a moving person or object. The imaging device is equipped with a display device for displaying an image, and an image of the subject is displayed on the display device in real time at the time of shooting. The user takes a still image or a moving image while viewing the video displayed on the display device.
On the other hand, a technique has been proposed in which a subject such as a human being displayed in a video is automatically detected as a candidate area. As this type of technique, for example, a face detection technique is known. In a display device using such a technique, an area (hereinafter also referred to as a main subject area) that is automatically detected and corresponds to a subject (hereinafter also referred to as a main subject) that is most interesting to the user among candidate areas. ) Can be selected. When the main subject area is selected, automatic exposure control (AE) and automatic focus control (AF) are performed based on the selected main subject area (see, for example, Patent Document 1). ).
しかしながら、従来の表示装置では、自動的に検出された候補領域を直接指定して主被写体領域を決定するため、映像の中で主被写体が動いていると候補領域を指定しにくい。また、撮像装置に設けられた表示装置だけでなく、ある特定の領域を映像から選択する機能を有する装置であれば、このような課題が存在する。
本発明の課題は、被写体の動きの影響を受けることなく候補領域を容易に指定できる表示装置、表示方法および集積回路を提供することにある。
However, in the conventional display device, the automatically detected candidate area is directly specified to determine the main subject area. Therefore, it is difficult to specify the candidate area when the main subject is moving in the video. In addition to the display device provided in the imaging device, there is such a problem as long as the device has a function of selecting a specific area from the video.
An object of the present invention is to provide a display device, a display method, and an integrated circuit that can easily specify a candidate area without being affected by the movement of a subject.
本発明に係る表示装置は、複数の画像データを映像として表示するための装置であって、検出部と、生成部と、合成部と、操作部と、選択部と、を備えている。検出部は、特定の視覚的特徴を有する少なくとも1つの候補領域を画像データから検出する。生成部は、検出部により検出された各候補領域を識別するための少なくとも1つの候補識別情報を生成する。合成部は、候補識別情報と画像データとが合成された合成画像データを生成する。表示部は合成画像データを映像として表示する。操作部は映像に表れている候補識別情報のうち特定の候補識別情報を指定する指定情報の入力を受け付ける。選択部は、操作部に入力された指定情報に基づいて、操作部を介して指定された候補識別情報に対応する候補領域を基準領域として選択する。
この表示装置では、特定の視覚的特徴を有する候補領域が検出部により画像データから検出され、検出された候補領域に対応する候補識別情報が生成部により生成される。候補識別情報が生成されると、生成された候補識別情報と画像データとが合成された合成画像データが合成部により生成され、複数の合成画像データが映像として表示部に表示される。表示部に表示された映像には、画像データだけでなく候補識別情報も表れているため、表示部に表示されている映像を通して、ユーザーは候補識別情報を視認することができる。
A display device according to the present invention is a device for displaying a plurality of image data as video, and includes a detection unit, a generation unit, a synthesis unit, an operation unit, and a selection unit. The detection unit detects at least one candidate region having a specific visual feature from the image data. The generation unit generates at least one candidate identification information for identifying each candidate region detected by the detection unit. The combining unit generates combined image data in which the candidate identification information and the image data are combined. The display unit displays the composite image data as a video. The operation unit receives input of designation information for designating specific candidate identification information among candidate identification information appearing in the video. The selection unit selects a candidate region corresponding to the candidate identification information specified via the operation unit as a reference region based on the designation information input to the operation unit.
In this display device, a candidate area having a specific visual feature is detected from the image data by the detection unit, and candidate identification information corresponding to the detected candidate area is generated by the generation unit. When the candidate identification information is generated, synthesized image data obtained by synthesizing the generated candidate identification information and the image data is generated by the synthesizing unit, and a plurality of synthesized image data is displayed as a video on the display unit. Since the video displayed on the display unit displays not only image data but also candidate identification information, the user can visually recognize the candidate identification information through the video displayed on the display unit.
さらに、映像に表れている候補識別情報のうち特定の候補識別情報を指定するために、ユーザーが操作部を用いて指定情報を入力すると、入力された指定情報に基づいて、指定された候補識別情報に対応する候補領域が基準領域として選択部により選択される。
このように、この表示装置では、候補領域に対応する候補識別情報を候補領域とは別個に表示し、候補識別情報を利用して間接的に候補領域を選択することができるため、表示部に表示された候補領域が動いている場合であっても、候補領域の選択操作を容易に行うことができる。
本発明に係る表示方法は、複数の画像データを映像として表示するための表示方法であって、検出ステップと、生成ステップと、合成ステップと、表示ステップと、操作ステップと、選択ステップと、を備えている。検出ステップでは、特定の視覚的特徴を有する少なくとも1つの候補領域が画像データから検出される。生成ステップでは、検出ステップで検出された各候補領域を識別するための少なくとも1つの候補識別情報が生成される。合成ステップでは、候補識別情報と画像データとが合成された合成画像データが生成される。表示ステップでは合成画像データが映像として表示される。操作ステップでは、映像に表れている候補識別情報のうち特定の候補識別情報を指定する指定情報の入力を受け付ける。選択ステップでは、操作部に入力された指定情報に基づいて、操作部を介して指定された候補識別情報に対応する候補領域が基準領域として選択される。
Furthermore, when the user inputs designation information using the operation unit in order to designate specific candidate identification information among candidate identification information appearing in the video, the designated candidate identification is performed based on the inputted designation information. A candidate area corresponding to the information is selected as a reference area by the selection unit.
Thus, in this display device, candidate identification information corresponding to the candidate area can be displayed separately from the candidate area, and the candidate area can be selected indirectly using the candidate identification information. Even if the displayed candidate area is moving, the selection operation of the candidate area can be easily performed.
A display method according to the present invention is a display method for displaying a plurality of image data as video, and includes a detection step, a generation step, a synthesis step, a display step, an operation step, and a selection step. I have. In the detecting step, at least one candidate region having a specific visual feature is detected from the image data. In the generation step, at least one candidate identification information for identifying each candidate region detected in the detection step is generated. In the synthesis step, synthesized image data in which the candidate identification information and the image data are synthesized is generated. In the display step, the composite image data is displayed as a video. In the operation step, input of designation information for designating specific candidate identification information among candidate identification information appearing in the video is accepted. In the selection step, based on the designation information input to the operation unit, a candidate region corresponding to the candidate identification information designated via the operation unit is selected as a reference region.
この表示方法では、特定の視覚的特徴を有する候補領域が画像データから検出され、検出された候補領域に対応する候補識別情報が生成される。候補識別情報が生成されると、生成された候補識別情報と画像データとが合成された合成画像データが生成され、複数の合成画像データが映像として表示される。示された映像には、画像データだけでなく候補識別情報も表れているため、表示されている映像を通して、ユーザーは候補識別情報を視認することができる。
さらに、映像に表れている候補識別情報のうち特定の候補識別情報を指定するために、ユーザーが操作ステップにおいて指定情報を入力すると、入力された指定情報に基づいて、指定された候補識別情報に対応する候補領域が基準領域として選択される。
このように、この表示方法では、候補領域に対応する候補識別情報を候補領域とは別個に表示し、候補識別情報を利用して間接的に候補領域を選択することができるため、表示部に表示された候補領域が動いている場合であっても、候補領域の選択操作を容易に行うことができる。
In this display method, candidate areas having specific visual features are detected from image data, and candidate identification information corresponding to the detected candidate areas is generated. When the candidate identification information is generated, composite image data obtained by combining the generated candidate identification information and image data is generated, and a plurality of composite image data is displayed as a video. In the displayed video, not only image data but also candidate identification information appears, so that the user can visually recognize the candidate identification information through the displayed video.
Further, when the user inputs the designation information in the operation step in order to designate the specific candidate identification information among the candidate identification information appearing in the video, the designated candidate identification information is changed based on the inputted designation information. The corresponding candidate area is selected as the reference area.
Thus, in this display method, candidate identification information corresponding to the candidate area can be displayed separately from the candidate area, and the candidate area can be indirectly selected using the candidate identification information. Even when the displayed candidate area is moving, the candidate area can be easily selected.
本発明に係る集積回路は、複数の画像データを映像として表示するための集積回路であって、検出部と、生成部と、合成部と、操作部と、選択部と、を備えている。検出部は、特定の視覚的特徴を有する少なくとも1つの候補領域を画像データから検出する。生成部は、検出部により検出された各候補領域を識別するための少なくとも1つの候補識別情報を生成する。合成部は、候補識別情報と画像データとが合成された合成画像データを生成する。表示部は合成画像データを映像として表示する。操作部は映像に表れている候補識別情報のうち特定の候補識別情報を指定する指定情報の入力を受け付ける。選択部は、操作部に入力された指定情報に基づいて、操作部を介して指定された候補識別情報に対応する候補領域を基準領域として選択する。
この集積回路では、特定の視覚的特徴を有する候補領域が検出部により画像データから検出され、検出された候補領域に対応する候補識別情報が生成部により生成される。候補識別情報が生成されると、生成された候補識別情報と画像データとが合成された合成画像データが合成部により生成され、複数の合成画像データが映像として表示部に表示される。表示部に表示された映像には、画像データだけでなく候補識別情報も表れているため、表示部に表示されている映像を通して、ユーザーは候補識別情報を視認することができる。
An integrated circuit according to the present invention is an integrated circuit for displaying a plurality of image data as video, and includes a detection unit, a generation unit, a synthesis unit, an operation unit, and a selection unit. The detection unit detects at least one candidate region having a specific visual feature from the image data. The generation unit generates at least one candidate identification information for identifying each candidate region detected by the detection unit. The combining unit generates combined image data in which the candidate identification information and the image data are combined. The display unit displays the composite image data as a video. The operation unit receives input of designation information for designating specific candidate identification information among candidate identification information appearing in the video. The selection unit selects a candidate region corresponding to the candidate identification information specified via the operation unit as a reference region based on the designation information input to the operation unit.
In this integrated circuit, candidate regions having specific visual features are detected from the image data by the detection unit, and candidate identification information corresponding to the detected candidate regions is generated by the generation unit. When the candidate identification information is generated, synthesized image data obtained by synthesizing the generated candidate identification information and the image data is generated by the synthesizing unit, and a plurality of synthesized image data is displayed as a video on the display unit. Since the video displayed on the display unit displays not only image data but also candidate identification information, the user can visually recognize the candidate identification information through the video displayed on the display unit.
さらに、映像に表れている候補識別情報のうち特定の候補識別情報を指定するために、ユーザーが操作部を用いて指定情報を入力すると、入力された指定情報に基づいて、指定された候補識別情報に対応する候補領域が基準領域として選択部により選択される。
このように、この集積回路では、候補領域に対応する候補識別情報を候補領域とは別個に表示し、候補識別情報を利用して間接的に候補領域を選択することができるため、表示部に表示された候補領域が動いている場合であっても、候補領域の選択操作を容易に行うことができる。
ここで、表示装置としては、複数の画像データを映像として表示し、かつ、映像に表れる特定の領域を検出する機能を有する装置が考えられる。具体的には、表示装置としては、例えば、ビデオカメラ、デジタルカメラおよびカメラ機能を有する携帯電話などの撮像装置に搭載された表示装置が考えられ、さらに、テレビ、カーナビゲーションシステムおよびゲーム機などの電子機器に搭載された表示装置も考えられる。
Furthermore, when the user inputs designation information using the operation unit in order to designate specific candidate identification information among candidate identification information appearing in the video, the designated candidate identification is performed based on the inputted designation information. A candidate area corresponding to the information is selected as a reference area by the selection unit.
Thus, in this integrated circuit, the candidate identification information corresponding to the candidate area can be displayed separately from the candidate area, and the candidate area can be indirectly selected using the candidate identification information. Even when the displayed candidate area is moving, the candidate area can be easily selected.
Here, as the display device, a device having a function of displaying a plurality of image data as a video and detecting a specific area appearing in the video can be considered. Specifically, as the display device, for example, a display device mounted on an imaging device such as a video camera, a digital camera, and a mobile phone having a camera function can be considered, and further, a television, a car navigation system, a game machine, etc. A display device mounted on an electronic device is also conceivable.
また、「特定の視覚的特徴を有する候補領域」としては、例えば、人間の体の全部または一部を表す領域(例えば、顔領域)および特定の色を有する領域が考えられる。 In addition, examples of the “candidate area having a specific visual feature” include an area representing all or part of the human body (for example, a face area) and an area having a specific color.
以上のように、本発明に係る表示装置、表示方法および集積回路によれば、被写体の動きの影響を受けることなく候補領域を容易に指定できる。 As described above, according to the display device, the display method, and the integrated circuit according to the present invention, the candidate area can be easily specified without being affected by the movement of the subject.
[第1実施形態]
<ビデオカメラの概要>
図1〜図3を用いて、ビデオカメラ100について説明する。
図1はビデオカメラ100のブロック図である。図1において、破線で囲まれた範囲がビデオカメラ100(撮像装置の一例)を表す。
図1に示すように、ビデオカメラ100は、主に、光学系105と、映像信号生成ユニット70と、映像信号解析ユニット71と、システム制御部157と、光学機構制御ユニット72と、記録処理ユニット73と、表示部160と、操作部180と、バッファメモリ135と、システムバス134と、を有している。例えば、映像信号解析ユニット71、システム制御部157、光学機構制御ユニット72、記録処理ユニット73、表示部160および操作部180により、複数の画像データを映像として表示する表示装置が構成されている。
[First Embodiment]
<Overview of video camera>
The video camera 100 will be described with reference to FIGS.
FIG. 1 is a block diagram of the video camera 100. In FIG. 1, a range surrounded by a broken line represents a video camera 100 (an example of an imaging apparatus).
As shown in FIG. 1, the video camera 100 mainly includes an
<光学系>
光学系105は、被写体の光学像を形成し、光学像を撮像素子110に導く。具体的には、光学系105は、ズームレンズ群(図示せず)と、フォーカスレンズ(図示せず)と、絞りユニット(図示せず)と、シャッターユニット(図示せず)と、を有している。
ズームレンズ群は、複数のレンズを有しており、複数のレンズ枠により光軸方向に移動可能に支持されている。複数のレンズはズーム駆動ユニット(図示せず)により光軸に沿って駆動される。被写体の光学像を変倍する際に、各レンズはズーム駆動ユニットにより光軸に沿って駆動される。フォーカスレンズは、フォーカシング(合焦状態の調整)を行うためのレンズであり、フォーカスモータ(図示せず)により駆動される。フォーカスモータはレンズ制御部170(後述)により制御される。フォーカスレンズを光軸方向に駆動することで、撮像素子110上に結像している被写体からビデオカメラ100までの距離を調整することができ、合焦状態を調整することができる。絞りユニットは、露出制御を行うためのユニットであり、露出制御部165(後述)により制御される。
<Optical system>
The
The zoom lens group has a plurality of lenses, and is supported by a plurality of lens frames so as to be movable in the optical axis direction. The plurality of lenses are driven along the optical axis by a zoom drive unit (not shown). When zooming the optical image of the subject, each lens is driven along the optical axis by the zoom drive unit. The focus lens is a lens for performing focusing (adjustment of the in-focus state), and is driven by a focus motor (not shown). The focus motor is controlled by a lens control unit 170 (described later). By driving the focus lens in the optical axis direction, the distance from the subject imaged on the
<映像信号生成ユニット>
映像信号生成ユニット70は、被写体の光学像に基づいてデジタル映像信号を生成するユニットであり、撮像素子110と、A/D変換部115と、映像信号処理部120と、Y/C変換部125と、を有している。
撮像素子110は、光学系105により結像された被写体の光学像を電気信号(映像信号)に変換する。撮像素子110としては、例えばCCD(Charge Coupled Device)イメージセンサおよびCMOS(Complementary Metal Oxide Semiconductor)イメージセンサが用いられる。A/D変換部115は、撮像素子110から出力されるアナログ映像信号をRGB形式のデジタル映像信号に変換する。
<Video signal generation unit>
The video
The
映像信号処理部120は、A/D変換部115から出力されるデジタル映像信号に、ゲイン調整処理、ノイズ除去処理、ガンマ補正処理、アパーチャ処理およびニー処理等の映像信号処理を施す。映像信号処理部120は、映像信号処理を施したデジタル映像信号を、Y/C変換部125、検出部130および画像情報抽出部132(後述)に出力する。Y/C変換部125は、映像信号処理部120により処理されたデジタル映像信号をRGB形式からY/C形式へ変換する。映像信号処理部120およびY/C変換部125から出力されるデジタル映像信号は、被写体の映像を表す情報であり、複数フレームの画像データから構成されている。
<バッファメモリ>
バッファメモリ135は、Y/C変換部125によりY/C形式に変換されたデジタル映像信号を、システムバス134を通して取得し、複数フレームの画像データ(以下、基準画像データともいう)として一時的に格納する。システム制御部157(後述)は、バッファメモリ135に格納されたデジタル映像信号に対して、表示部160(後述)で表示するのに適したサイズへ縮小処理を施す。縮小処理が施されたデジタル映像信号は、バッファメモリ135上に表示用映像信号として格納される。表示用映像信号は、複数フレームの画像データから構成されている。システム制御部157により縮小処理が施された表示用映像信号を構成する画像データを、以下、表示用画像データともいう。
The video
<Buffer memory>
The
<記録処理ユニット>
記録処理ユニット73は、映像信号生成ユニット70により生成されたデジタル映像信号を外部の記録媒体に保存するユニットであり、CODEC140と、記録I/F部145と、ソケット150と、を有している。CODEC140は、バッファメモリ135に格納されているY/C形式のデジタル映像信号に不可逆圧縮処理を施す。記録I/F部145は、CODEC140により不可逆圧縮処理が施されたデジタル映像信号を、システムバス134を経由して取得し、記録媒体155に記録する。ソケット150は、記録媒体155が装着可能であり、ビデオカメラ100に記録媒体155を電気的に接続する。記録媒体155としては、例えばメモリーカードが挙げられる。
<映像信号解析ユニット>
映像信号解析ユニット71は、入力された映像信号から必要な情報を取得するユニットであり、検出部130と、画像情報抽出部132と、を有している。
<Recording processing unit>
The
<Video signal analysis unit>
The video
(1)検出部
検出部130は、映像信号処理部120から出力されるデジタル映像信号の入力を受け付け、入力されるデジタル映像信号から特定の視覚的特徴を有する候補領域を検出する。具体的には図2に示すように、検出部130は、画像処理部200と、揮発性メモリ210と、顔検出部220と、を有している。本実施形態では、候補領域は人間の顔を表す領域である。
画像処理部200は映像信号処理部120から入力されるデジタル映像信号に縮小処理を施す。より詳細には、画像処理部200はデジタル映像信号を構成する複数フレームの画像データに対して縮小処理を順次施す。画像処理部200により縮小処理が施された画像データを、以下、検出用画像データともいう。縮小処理時の縮小倍率は、基準画像データに対する表示用画像データの縮小倍率と同じであるため、検出用画像データ上の座標情報を表示用画像データ上の座標情報として利用できる。揮発性メモリ210は、画像処理部200から出力される検出用画像データを順次格納する。
(1) Detection Unit The
The
顔検出部220は、揮発性メモリ210に格納された1フレームの検出用画像データから顔領域(候補領域の一例)を検出する。システム制御部157のROM(後述)には、人間の顔に関する一般的な特徴を示す基準特徴量(基準情報の一例)が予め格納されている。基準特徴量は画像に表れる顔の特徴を示すデータである。顔検出部220は、ROMから基準特徴量を取得し、順次入力される検出用画像データと基準特徴量とをパターンマッチングなどの手法で比較し、基準特徴量の条件を満たす領域を候補領域として各フレームの検出用画像データから検出する。
さらに、顔検出部220は、検出した顔領域の画像内での位置を示す座標情報および顔領域の大きさを示すサイズ情報を生成し、座標情報およびサイズ情報(以下、これらの情報を候補情報ともいう)をシステム制御部157に送信する。1フレームの検出用画像データに複数の顔領域が存在する場合、顔検出部220は、各顔領域に対応する座標情報およびサイズ情報をシステム制御部157に送信する。顔検出部220による顔領域の検出は各フレームの検出用画像データに対して行われるため、顔領域の座標情報およびサイズ情報は1フレームごとにシステム制御部157に送られる。
The
Further, the
(2)画像情報抽出部
画像情報抽出部132は、デジタル映像信号に含まれる様々な情報を抽出する。様々な情報とは、例えば、画像上の特定領域における輝度レベル値および高域周波数成分である。画像情報抽出部132での画像処理には、自動露出制御および自動合焦制御の精度を考慮して、映像信号処理部120から入力されるデジタル映像信号を構成する縮小処理が施されていない画像データが用いられる。本実施形態では、画像上の特定領域としては、操作部180を介して選択された主被写体領域(後述)が用いられる。
抽出された輝度レベル値は自動露出制御に用いられる。具体的には、画像情報抽出部132は、順次入力される画像データから主被写体領域の輝度レベル値を算出し、輝度レベル値をシステム制御部157に出力する。
(2) Image Information Extraction Unit The image
The extracted brightness level value is used for automatic exposure control. Specifically, the image
システム制御部157は、画像情報抽出部132により算出された輝度レベル値に基づき、最適な絞り値を算出し、算出した絞り値を露出制御部165に送信する。システム制御部157により算出された絞り値に基づいて、露出制御部165は光学系105の絞りユニットの開度を調整する。輝度レベル値は各フレームの画像データに対して算出される。
また、高周波数成分は「山登り方式」として知られているコントラスト検出方式の自動合焦制御に用いられる。デジタル映像信号に含まれる高域周波数成分は、合焦の度合いに応じて変化し、フォーカスレンズが合焦位置に配置されている状態で最大値を取る。光学系105に含まれるフォーカスレンズを光軸方向に移動させながら特定の領域の高域周波数成分の最大値を求めることで、その領域に焦点を合わせることができるフォーカスレンズの位置を求めることができる。
The
The high frequency component is used for automatic focusing control of a contrast detection method known as “mountain climbing method”. The high frequency component included in the digital video signal changes according to the degree of focusing, and takes a maximum value in a state where the focus lens is disposed at the focusing position. By determining the maximum value of the high frequency component of a specific region while moving the focus lens included in the
具体的には、レンズ制御部170によりフォーカスレンズが光軸方向に駆動されている間に、画像情報抽出部132は、順次入力される画像データから主被写体領域の高域周波数成分を算出し、高域周波数成分をシステム制御部157に出力する。システム制御部157は、画像情報抽出部132により算出された高域周波数成分を画像情報抽出部132から取得し、それと同時に、その高域周波数成分が算出された際のフォーカスレンズの位置情報をレンズ制御部170から取得する。
順次取得されるこれらの情報に基づいて、システム制御部157は、高域周波数成分の最大値およびその最大値に対応するフォーカスレンズの位置(合焦位置)を算出し、フォーカスレンズを合焦位置まで駆動するための制御信号を生成する。この制御信号に基づいて、レンズ制御部170はフォーカスレンズを合焦位置まで駆動し、上記の合焦動作が繰り返される。これにより、主被写体の顔領域に対して常時焦点を合わせることができる。
Specifically, while the focus lens is driven in the optical axis direction by the
Based on the sequentially acquired information, the
<光学機構制御ユニット>
光学機構制御ユニット72は、フォーカスモータとシャッターユニットと絞りユニットとを制御するユニットであり、露出制御部165と、レンズ制御部170と、を有している。
露出制御部165は、システム制御部157で算出された絞り値に基づいて光学系105に備えられた絞りユニットを駆動する。レンズ制御部170は、システム制御部157で算出されたフォーカスレンズの目標位置に基づいてフォーカスモータを制御し、フォーカスモータにより光学系105に含まれるフォーカスレンズが目標位置まで駆動される。
<表示部>
表示部160は、デジタル映像信号を表示するデバイスであり、たとえば小型のLCDパネルである。表示部160はバッファメモリ135上に格納されている表示用映像信号を映像として表示する。
<Optical mechanism control unit>
The optical
The
<Display section>
The
後述するように、検出部130により検出された顔領域が存在する場合、表示用映像信号は、検出された顔領域に基づいて生成された候補画像と合成され、さらに、現在の動作状況を示すアイコン、記録時間および残バッテリー時間といった各種情報を示す画像と合成される。これらの画像が合成された表示用映像信号は、システムバス134を通して表示部160に送信され、表示部160により映像として表示される。
ここで、表示部160の表示例について説明する。図4に示すように、例えば、表示部160には、2人の人間(被写体)が映し出されており、両被写体の顔がそれぞれ検出部130により顔領域として検出されている。右側の被写体の顔400aは第1検出枠430aにより囲まれており、左側の被写体の顔400bは第2検出枠430bにより囲まれている。第1検出枠430aに囲まれている領域が顔400aの顔領域であり、第2検出枠430bに囲まれている領域が顔400bの顔領域である。後述するように、顔検出処理は各フレームの検出用画像データに対して行われ、かつ、被写体が移動しても顔領域が追尾されるようになっているため、第1検出枠430aおよび第2検出枠430bが被写体の動きに合わせて移動する。
As will be described later, when the face area detected by the
Here, a display example of the
さらに、画面内の下側には横長の候補表示領域410が表示されており、この候補表示領域410は画面内で静止している。候補表示領域410には4つの区画領域410a〜410d、左側操作領域420aおよび右側操作領域420bが表示されている。
区画領域410a〜410dには検出された顔領域の画像が表示される。例えば、区画領域410aには第1検出枠430a内の顔画像(右側の被写体の顔400aの画像)が表示されており、区画領域410bには第2検出枠430b内の顔画像(左側の被写体の顔400bの画像)が表示されている。検出されている顔領域が5つ以上の場合は、4つの区画領域410a〜410dでは表示しきれないため、5つのうち4つの顔画像が区画領域410a〜410dに表示され、残り1つの顔画像は表示されないが、左側操作領域420aおよび右側操作領域420bに触れることで、区画領域410a〜410dに表示されている顔画像を左右にスクロールさせることができ、表示されていない顔画像を表示させることができる。
Further, a horizontally long
Images of the detected face area are displayed in the divided
また、第1検出枠430aおよび第2検出枠430bは、異なる視覚的特徴を有している。具体的には、第1検出枠430aは、間隔が狭い破線で描かれており、第2検出枠430bは第1検出枠430aよりも間隔が広い破線で描かれている。また、第1検出枠430aの顔画像が表示されている区画領域410aには、第1検出枠430aと同じ視覚的特徴を有する第1装飾枠411aが付加されており、第2検出枠430bの顔画像が表示されている区画領域410bには、第2検出枠430bと同じ視覚的特徴を有する第2装飾枠411bが付加されている。さらに、現在、主被写体として選択されている顔領域が明確になるように、主被写体として選択されている顔領域の検出枠および装飾枠は、例えば他の枠よりも太い線で表示されるようになっている。図4では、第2検出枠430bの顔領域が主被写体として選択されているため、第2検出枠430bおよび第2装飾枠411bが太線で表示されている。
Further, the
なお、本実施形態では、顔領域(第1検出枠430aおよび第2検出枠430b)および区画領域410a〜410dは正方形であり、大きさが異なっていても相似形となっている。このため、後述するように、顔領域の画像の大きさを区画領域の大きさに合わせて簡単に調整することができる。
<操作部>
操作部180は、システム制御部157に操作情報を入力するための各種操作部材を有しており、例えば、レリーズボタン(図示せず)などの種々のボタン類、操作ダイヤルおよびタッチパネルユニットを有している。ボタン類、操作ダイヤルおよびタッチパネルユニットは、システム制御部157に電気的に接続されている。レリーズボタンは撮影開始信号をシステム制御部157に出力する。
In the present embodiment, the face area (the
<Operation unit>
The
操作部180のタッチパネルユニットは、表示部160の画面に装着されており、表示部160の画面上のタッチ位置(被接触位置の一例)を検知する。ユーザーが画面をタッチすると、タッチパネルユニットは、タッチ位置を示す指定情報を生成し、この指定情報をシステム制御部157に出力する。映像に表れている顔画像のうち特定の顔画像を指定する際、および表示されている顔画像をスクロールさせる際に、指定情報は用いられる。
<システム制御部>
システム制御部157は、ビデオカメラ100の各部を制御する。システム制御部157にはMPU(Micro Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)が搭載されている。ROMにはプログラムが格納されており、例えば、電源ON時にROMに格納されたプログラムがRAMに展開される。RAMに展開されたプログラムをMPUが逐次実行することで、システム制御部157は様々な機能を実現することができる。
The touch panel unit of the
<System controller>
The
具体的には図3に示すように、システム制御部157は、ROMに記憶された所定のプログラムとMPUとの協働により実現される機能ブロックとして、リスト管理部1610と、生成部1620と、合成部1640と、選択部1650と、を有している。
(1)リスト管理部
リスト管理部1610は検出部130の顔検出部220により検出された顔領域の各情報を管理する。リスト管理部1610は、顔検出部220から送信される座標情報およびサイズ情報に基づいて候補情報リストを作成および更新する。ここで、候補情報リストを作成するとは、座標情報およびサイズ情報を互いに関連付けて所定のアドレスに格納することを意味している。候補情報リストの各情報は、例えばRAM1630上に格納される。
Specifically, as illustrated in FIG. 3, the
(1) List Management Unit The
また、リスト管理部1610は、RAM1630上に候補情報リストが存在するかどうかを判断する。RAM1630上に候補情報リストが存在しない場合、リスト管理部1610は候補情報リストを作成する。顔領域の座標情報およびサイズ情報は1フレームごとに顔検出部220からリスト管理部1610へ送られる。リスト管理部1610は候補情報リストとして格納されている座標情報およびサイズ情報を、顔検出部220から送られてきた座標情報およびサイズ情報を用いて最新の情報に更新する。
(2)生成部
生成部1620は、バッファメモリ135に格納されている表示用映像信号に基づいて、検出部130により検出された候補領域に関する候補識別情報を生成する。具体的には、生成部1620は、検出部130により検出された各顔領域の座標情報およびサイズ情報に基づいて、顔検出の対象となっている検出用画像データと取得されたタイミングが同じである表示用画像データから、各顔領域内の画像を候補画像データ(候補識別情報の一例)として抽出し、抽出した候補画像データを顔領域の座標情報およびサイズ情報と関連付けてバッファメモリ135上の所定のアドレスに格納する。各顔領域の候補画像データは1フレームごとに順次抽出される。本実施形態では、候補領域は顔領域であるため、候補画像データが表す画像(以下、候補画像という)は人間の顔の画像となっている。
The
(2) Generation Unit The
また、顔領域の大きさには通常ばらつきがあるため、抽出される候補画像のサイズは顔領域ごとに異なっている場合が多い。したがって、候補画像データを座標情報およびサイズ情報と関連付ける前に、生成部1620は、予め設定されている区画領域410a〜410dの大きさと候補画像の大きさとを比較し、比較結果に基づいて候補画像の大きさを調整する。
例えば、生成部1620は、候補画像が区画領域よりも小さい場合は区画領域に合わせて候補画像データに拡大処理を施し、拡大処理が施された候補画像データを座標情報およびサイズ情報と関連付けてバッファメモリ135上の所定のアドレスに格納する。また、生成部1620は、候補画像が区画領域よりも大きい場合は区画領域に合わせて候補画像データに縮小処理を施し、縮小処理が施された候補画像データを座標情報およびサイズ情報と関連付けてバッファメモリ135上の所定のアドレスに格納する。なお、生成部1620は、候補画像が区画領域と同じ大きさの場合は、候補画像に対して縮小処理および拡大処理は行われない。
In addition, since the size of the face area usually varies, the size of the extracted candidate image is often different for each face area. Therefore, before associating the candidate image data with the coordinate information and the size information, the
For example, if the candidate image is smaller than the partition area, the
(3)合成部
合成部1640は、生成部1620により生成された候補画像データとバッファメモリ135上の表示用画像データとを合成し、両者が合成された合成画像データを生成する。より詳細には、合成部1640は、区画領域410a〜410dに候補画像を割り当て、表示部160の画面上で候補画像が特定の位置に配置されるように候補画像データと表示用画像データとを合成する。
本実施形態では、図4に示すように、表示部160の画面上で複数の候補画像が横方向に並んでいる。さらに、表示部160に表示される映像における鉛直方向下半分の領域内に候補画像が配置されている。ここで、「鉛直方向」とは、表示部160に表示されている画像内での鉛直方向を意味している。合成画像データはバッファメモリ135に格納される。このような配置により、被写体の顔が候補画像に隠れてしまうのを防止できる。
(3) Combining Unit The combining
In the present embodiment, as shown in FIG. 4, a plurality of candidate images are arranged in the horizontal direction on the screen of the
また、合成部1640は、表示部160に映像が表示されている状態で候補画像が画像データをもとに生成される画像上に重畳するように候補画像データと表示用画像データとを合成する。候補画像が表示されていない区画領域410cおよび410dは、枠のみが表示されており、バックの画像がそのまま見えるようになっている。
また、図4に示すように、表示部160の画面上で、候補画像が表示される候補表示領域410(第1表示領域の一例)の面積は、候補表示領域410以外の領域420(第2表示領域の一例)の面積よりも小さく設定されている。
さらに、候補画像データと表示用画像データとを合成する際、合成部1640は顔領域であることを示す装飾枠(装飾情報の一例)を各区画領域に付加する。図4の例では、第1検出枠430aに対応する第1装飾枠411a(第1装飾情報の一例)が区画領域410aに付加され、第2検出枠430bに対応する第2装飾枠411b(第2装飾情報の一例)が区画領域410bに付加されている。第1装飾枠411aは第1検出枠430aと同じ視覚的特徴を有しており、第2装飾枠411bは第2検出枠430bと同じ視覚的特徴を有している。具体的には、前述のように、第1検出枠430aおよび第1装飾枠411aは間隔が狭い破線で描かれており、第2検出枠430bおよび第2装飾枠411bは第1検出枠430aおよび第1装飾枠411aよりも間隔が広い破線で描かれている。
Further, the
As shown in FIG. 4, the area of the candidate display area 410 (an example of the first display area) on which the candidate image is displayed on the screen of the
Further, when the candidate image data and the display image data are combined, the combining
さらに、主被写体として選択されている顔領域(基準領域の一例)に付加されている検出枠および装飾枠は、他の検出枠および装飾枠と異なる視覚的特徴を有している。例えば、顔400bが主被写体として選択されている場合、図4に示すように、第2検出枠430bおよび第2装飾枠411bが第1検出枠430aおよび第1装飾枠411aよりも太い線で描かれている。
(4)選択部
選択部1650は、操作部180を介して指定された候補画像に対応する顔領域を、操作部180に入力された指定情報に基づいて、自動露出制御および自動合焦制御の基準となる主被写体領域(基準領域の一例)として選択する。具体的には、選択部1650は、操作部180を介して入力された指定情報に基づいて、指定情報が示す位置に表示されている候補画像を特定し、特定された候補画像に対応する顔領域を特定し、さらに特定された顔領域を主被写体領域として選択する。選択部1650は、指定情報に基づいて特定された候補画像に対応する顔領域の座標情報およびサイズ情報を主被写体領域の情報としてRAM1630に格納する。操作部180を介して異なる候補画像が指定されると、RAM1630に格納された主被写体領域の情報は、新しい指定情報に基づいて特定された顔領域の座標情報およびサイズ情報に置き換えられ、主被写体領域の情報が更新される。この主被写体領域の情報は、画像情報抽出部132での輝度レベル値および高域周波数成分の算出時に用いられる。
Furthermore, the detection frame and the decoration frame added to the face area (an example of the reference area) selected as the main subject have different visual characteristics from the other detection frames and the decoration frame. For example, when the
(4) Selection Unit The
また、前述のように、システム制御部157は、画像情報抽出部132と、露出制御部165と、レンズ制御部170と、を制御することにより、主被写体領域に対する自動露出制御および自動合焦制御を行なう。具体的には、システム制御部157は選択部1650により主被写体領域として選択された顔領域の座標情報およびサイズ情報を画像情報抽出部132に通知する。画像情報抽出部132は、座標情報およびサイズ情報に基づいて、主被写体領域の輝度レベル値および高域周波数成分を算出し、算出した輝度レベル値および高域周波数成分をシステム制御部157に通知する。システム制御部157は、輝度レベル値に基づいて最適な絞り値を計算し、露出制御部165に絞り値を通知する。また、システム制御部157は、高域周波数成分に基づいて、合焦状態に対応するフォーカスレンズの位置情報を算出し、レンズ制御部170にフォーカスレンズの合焦位置を通知する。これらの情報に基づいて、自動露出制御および自動合焦制御が行われる。
Further, as described above, the
<ビデオカメラの動作>
以上に述べたビデオカメラ100の動作を図5〜図7に示すフローチャートを用いて説明する。なお、図5〜図7に示すフローチャートにおいては、すでにビデオカメラ100の電源はONされており、操作部180を用いて、映像の記録が可能な録画モードに動作モードが設定されているものとする。
(1)候補画像データの生成
図5に示すように、まずステップS300では、デジタル映像信号を構成する画像データが順次検出部130および画像情報抽出部132に入力される。具体的には、光学系105を通して結像された被写体像が撮像素子110により電気信号に変換され、撮像素子110から出力されるアナログ映像信号がA/D変換部115によりデジタル映像信号に変換される。A/D変換部115から出力されるデジタル映像信号に対して、映像信号処理部120およびY/C変換部125により前述の処理が施され、処理が施されたデジタル映像信号は、複数フレームの画像データの集合体であり、各フレームの画像データはバッファメモリ135に順次格納される。
<Operation of the video camera>
The operation of the video camera 100 described above will be described with reference to the flowcharts shown in FIGS. In the flowcharts shown in FIGS. 5 to 7, the video camera 100 is already turned on, and the operation mode is set to the recording mode in which video can be recorded using the
(1) Generation of Candidate Image Data As shown in FIG. 5, first, in step S300, image data constituting a digital video signal is sequentially input to the
加えて、Y/C変換部125から出力されるデジタル映像信号を構成する画像データは、システム制御部157により表示部160上に表示可能なサイズへと縮小処理が施され、同じくバッファメモリ135上に表示用画像データとして順次格納される。また、検出部130内の揮発性メモリ210にも、画像処理部200により縮小処理が施された画像データが検出用画像データとして順次格納される。
ステップS310では、顔検出部220により、検出部130内の揮発性メモリ210に格納された検出用画像データに基づいて顔領域が検出される。具体的には、顔検出部220により、人間の顔の特徴を示す基準特徴量と検出用画像データとが比較され、基準特徴量の条件を満たす顔領域が候補領域として検出用画像データから検出される。検出された顔領域の座標情報およびサイズ情報が顔検出部220により算出され、座標情報およびサイズ情報が顔検出部220からシステム制御部157に出力される。
In addition, the image data constituting the digital video signal output from the Y /
In step S <b> 310, the
ステップS311以降の処理はシステム制御部157にて実行される。具体的には、ステップS311では、リスト管理部1610によりRAM1630に格納された候補情報リスト上で顔領域が存在するかどうかが判断される。例えば、候補情報リストが存在するとリスト管理部1610により判断された場合は、処理がステップS313へ進む。
一方、例えば録画モードへの切り替え直後は候補情報リストが存在しないため、ステップS312において、検出部130により検出用画像データから顔領域が検出されると、リスト管理部1610により候補情報リストが作成され、座標情報およびサイズ情報がRAM1630上の所定のアドレスに記憶され、処理がステップS313に移行する。
ステップS313では、検出された顔領域を追尾するために、検出用画像データから検出された顔領域の座標情報がリスト管理部1610により候補情報リスト上の各座標情報と照合される。
The processing after step S311 is executed by the
On the other hand, for example, since the candidate information list does not exist immediately after switching to the recording mode, when the face area is detected from the detection image data by the
In step S313, in order to track the detected face area, the coordinate information of the face area detected from the detection image data is collated with each coordinate information on the candidate information list by the
ここで、検出された顔領域を追尾するための処理について説明する。検出された顔領域の追尾処理は、現在のフレームの検出用画像データから検出された顔領域が、前フレームの検出用画像データから検出された顔領域と合致しているかどうかを判定することで行われる。本判定の最も単純な方法は、顔領域の座標を比較する方法である。一般的に、1秒あたり30フレームまたは60フレームの画像データが入力されるため、前フレームの画像データにおいて検出された顔領域が、現在のフレームの画像データにおいて前の顔領域よりも大きく離れた位置で検出されることは考えにくい。したがって、前フレームの検出用画像データから検出された顔領域の座標情報と現在のフレームの検出用画像データから検出された顔領域の座標情報との差分がある定められた範囲内に収まっている場合、それら2つの顔領域は同じ被写体の顔領域であると判定することができる。 Here, a process for tracking the detected face area will be described. The tracking process of the detected face area is performed by determining whether or not the face area detected from the detection image data for the current frame matches the face area detected from the detection image data for the previous frame. Done. The simplest method of this determination is a method of comparing the coordinates of face areas. Generally, because 30 or 60 frames of image data are input per second, the face area detected in the image data of the previous frame is far away from the previous face area in the image data of the current frame. It is unlikely to be detected at the position. Therefore, the difference between the coordinate information of the face area detected from the detection image data of the previous frame and the coordinate information of the face area detected from the detection image data of the current frame is within a predetermined range. In this case, it can be determined that the two face areas are face areas of the same subject.
このように、時系列で隣り合う2つの検出用画像データから検出された顔領域の座標情報を照合することで、動いている被写体の顔が同じ顔領域であると識別しながら顔検出処理により顔領域を追尾することができる。また、前フレームの検出用画像データから検出された顔領域と合致しない顔領域が現在のフレームの検出用画像データから検出された場合、新しく画面内に登場した(フレームインした)被写体の顔を示す顔領域であると判定することができる。さらに、前フレームの検出用画像データから検出された顔領域が現在のフレームの検出用画像データで検出されない場合、画面内から姿を消した(フレームアウトした)被写体の顔を示す顔領域であると判定することができる。
ステップS313では、リスト管理部1610により時系列で隣り合う2つの検出用画像データから検出された顔領域の照合が行われる。具体的には、ステップS310で検出された各顔領域の座標情報が候補情報リスト上に存在する各顔領域の座標情報とそれぞれ比較される。比較した結果、座標情報の差分が所定の範囲内に収まっている2つの顔領域は、同じ被写体の顔から検出された領域であると判定できるため、ステップS310で検出された最新の顔領域の座標情報およびサイズ情報が候補情報リストに登録され、候補情報リストが更新される。
In this way, by collating the coordinate information of the face area detected from the two adjacent detection image data in time series, the face detection process is performed while identifying that the face of the moving subject is the same face area. The face area can be tracked. In addition, when a face area that does not match the face area detected from the detection image data of the previous frame is detected from the detection image data of the current frame, the face of the subject newly appearing in the screen (framed in) is displayed. It can be determined that the face area is shown. Furthermore, when the face area detected from the image data for detection in the previous frame is not detected in the image data for detection in the current frame, the face area indicates the face of the subject that has disappeared (out of frame) from the screen. Can be determined.
In step S313, the
さらに、ステップS320において、候補情報リストに登録されているがステップS310で検出されていない顔領域が存在する場合、その顔領域はフレームアウトした被写体の顔領域であるとリスト管理部1610により判断される。フレームアウトした顔が存在する場合は、ステップS330において、フレームアウトした被写体の顔領域に対応する各情報がリスト管理部1610により候補情報リストから削除され、処理がステップS340に進む。また、ステップS320において、フレームアウトした被写体の顔領域が存在しないとリスト管理部1610により判断された場合は、処理がステップS340に進む。
ステップS340では、ステップS310において検出された顔領域に対応する情報が候補情報リスト上に存在しない場合は、その顔領域はフレームインした新しい被写体の顔領域であるとリスト管理部1610により判断される。新しい被写体の顔領域が存在する場合は、図6に示すように、ステップS350において、リスト管理部1610により新しい被写体の顔領域の座標情報およびサイズ情報が候補情報リストに追加され、その後、処理がステップS351に進む。新しい被写体の顔領域が存在しない場合は、処理がステップS351に進む。
In step S320, if there is a face area registered in the candidate information list but not detected in step S310, the
In step S340, if the information corresponding to the face area detected in step S310 does not exist on the candidate information list, the
ステップS351では、更新された候補情報リストから各顔領域の座標情報およびサイズ情報が生成部1620により取得される。続くステップS360では、取得した座標情報およびサイズ情報に基づいて、生成部1620により各顔領域に対応する候補画像データが生成される。
具体的には図6に示すように、バッファメモリ135に格納された表示用画像データから、座標情報およびサイズ情報により特定される領域内の画像が生成部1620により候補画像データとして抽出される。さらに、ステップS1520では、抽出された候補画像データにより生成される候補画像が区画領域410a〜410dのサイズと比較される。候補画像が区画領域410a〜410dよりも小さい場合および候補画像が区画領域410a〜410dよりも大きい場合は、ステップS1530において、生成部1620によりサイズ変更が必要であると判断される。サイズ変更が必要な場合は、ステップS1540において、抽出された候補画像のサイズ変更が行われる。具体的には、候補画像が区画領域410a〜410dに比べて大きい場合は、候補画像が区画領域410a〜410d内に収まるように、サイズ情報および区画領域410a〜410dの大きさに基づいて算出された倍率で、生成部1620により候補画像データに対して縮小処理が施される。逆に、抽出された候補画像が区画領域410a〜410dに比べて小さい場合は、候補画像が区画領域410a〜410dの範囲内で最大限大きく表示されるように、サイズ情報および区画領域410a〜410dの大きさに基づいて倍率で、生成部1620により候補画像データに対して拡大処理が施される。生成部1620により生成された候補画像データは、それと対応する座標情報およびサイズ情報と関連付けられてバッファメモリ135上の所定のアドレスに記憶される。候補画像データは1フレームごとに生成され、候補画像データの更新が順次行われる。
In step S351, the
Specifically, as shown in FIG. 6, the image within the area specified by the coordinate information and the size information is extracted as candidate image data from the display image data stored in the
(2)合成画像データの生成
図6に示すように、続くステップS370にて、システム制御部157により、候補画像データと、バッファメモリ135に格納された表示用画像データと、が合成された合成画像データが生成される。候補画像が画面上の特定の位置に配置されるように、合成部1640により候補画像データと画像データとが合成される。本実施形態では、候補画像が画像内の鉛直方向下側に配置されるように、合成部1640により候補画像データと画像データとが合成される。
ステップS370について詳細に説明すると、図6に示すように、ステップS1550において、合成部1640により、4つの区画領域410a〜410dに候補画像データが割り当てられる。割り当ての際、候補情報リストに登録されている順に、左の区画領域410aから候補画像データが合成部1640により割り当てられる。図4の表示例で説明すると、顔400aおよび顔400bの順で顔領域が候補情報リストに登録されている場合、顔400aの候補画像が区画領域410aに表示され、顔400bの候補画像が区画領域410bに表示される。合成部1640での割り当ての結果は、合成部1640からリスト管理部1610に送られる。具体的には、合成部1640からリスト管理部1610へ各候補画像データの表示位置情報が送られ、リスト管理部1610により表示位置情報が、対応する候補画像データと関連づけられた状態で候補情報リストに登録される。
(2) Generation of Composite Image Data As shown in FIG. 6, in subsequent step S370, the
The step S370 will be described in detail. As shown in FIG. 6, in step S1550, the
次のステップS1560において、合成部1640により候補画像が表示用画像データに合成される。このとき、ステップS1550にて割り当てられた位置に候補画像が表示されるように、候補画像データと表示用画像データとが合成部1640により合成される。また、生成部1620により候補画像のサイズ調整が行われているため、検出された顔領域の大きさに関係なく、表示部160の画面上では、区画領域410a〜410dと同じサイズで候補画像が表示されている。
また、本実施形態では、ステップS1570において、表示部160の画面上で顔領域と候補画像との対応関係を明確にするために、合成部1640により表示用画像データに対して装飾情報が合成される。具体的には図4に示すような第1検出枠430a、第2検出枠430b、第1装飾枠411aおよび第2装飾枠411bを示す装飾データが表示用画像データに付加される。このとき、図4では省略されているが、OSD(On Screen Display)機能を実現するために、残記録可能時間およびバッテリー残量などの各アイコンも合成部1640により表示用画像データに重畳される。
In the next step S1560, the candidate image is combined with the display image data by the combining
In this embodiment, in step S1570, in order to clarify the correspondence between the face area and the candidate image on the screen of the
次のステップS380では、合成画像データが表示部160に表示される。図4に示す表示例のように、表示部160には2人の人間が映し出されており、それぞれの顔が顔領域として検出されて、さらに候補画像が候補表示領域410に表示されている。
上記のステップS300〜S380までの処理は、各フレームの表示用画像データに対して順次実行されるため、表示部160には合成画像データにより構成される合成映像が表示される。顔検出処理は被写体の顔を追尾するように実行されるため、被写体が動いていても同じ被写体の顔を検出し続けることができる。さらに、候補画像が各フレームの表示用画像データから順次抽出されているため、検出された顔領域内の動画が各区画領域410a〜410dに表示されることになる。
(3)主被写体領域の指定
次に、AEおよびAFを行う際の基準領域として主被写体領域を選択する際の処理を図7に示すフローチャートを用いて説明する。主被写体領域の指定は、操作部180から入力された操作情報に基づき選択部1650により行われる。
In the next step S380, the composite image data is displayed on the
Since the processing from step S300 to step S380 is sequentially performed on the display image data of each frame, a composite video composed of the composite image data is displayed on the
(3) Designation of main subject area Next, processing when a main subject area is selected as a reference area when performing AE and AF will be described with reference to a flowchart shown in FIG. The main subject area is specified by the
具体的には図7に示すように、ステップS600では、表示部160に表示された候補画像がタッチされたかどうかが判定される。表示部160の画面がユーザーによりタッチされると、操作部180のタッチパネルユニットにより表示部160上のタッチ位置の座標情報(指定情報)が生成され、タッチ位置の座標情報が操作部180から選択部1650に通知される。ステップS601では、選択部1650により、候補情報リストに登録されている表示位置情報とタッチ位置の座標情報とが比較され、タッチ位置が含まれる表示位置情報が特定される。さらに、特定された表示位置情報と関連付けられている候補画像データが選択部1650により特定される。
続くステップS602では、特定された候補画像データに対応する顔領域が候補情報リストに基づいて選択部1650により特定される。具体的には、ステップS601において特定された候補画像データと関連付けられている顔領域が主被写体領域として選択される。続くステップS610では、例えば、候補情報リストにおいて主被写体領域として選択された顔領域にフラグが設定される。候補情報リストのフラグを参照することで、主被写体領域として選択されている顔領域を特定することができる。
Specifically, as shown in FIG. 7, in step S600, it is determined whether the candidate image displayed on the
In subsequent step S602, the face area corresponding to the identified candidate image data is identified by the
一方、ステップS600において表示部160に表示された候補画像がタッチされていない場合、ステップS630に進む。ステップS630では、すでに主被写体領域が決まっているかどうかが選択部1650により判定される。具体的には、候補情報リストに主被写体領域を示すフラグが設定されていれば、主被写体領域が決定済であると選択部1650により判定され、処理がステップS640へ進む。一方、候補情報リストにフラグが設定されていなければ、主被写体領域が未決定であると選択部1650により判定され、処理がステップS650に進む。
ここで、ステップS630ですでに決定されている主被写体領域は、少なくとも現在表示されている合成画像データより前の合成画像データで決定されていた主被写体領域である。このような場合、主被写体領域が選択されてから時間が経過しているため、主被写体領域が画像内に存在しないことが懸念される。例えば、主被写体がフレームアウトしたり遮蔽物に隠れて見えなくなってしまったりする場合などが想定される。
On the other hand, if the candidate image displayed on the
Here, the main subject area that has already been determined in step S630 is a main subject area that has been determined based on at least the composite image data before the currently displayed composite image data. In such a case, since the time has elapsed since the main subject area was selected, there is a concern that the main subject area does not exist in the image. For example, a case where the main subject goes out of the frame or is hidden behind a shielding object and is not visible can be assumed.
しかし、図5に示すステップS313〜S350において、フレームインおよびフレームアウトした被写体を管理しているため、候補情報リストに設定されているフラグを確認すれば、画面内に主被写体領域が表示されているか否かを判定する必要はない。
ステップS640では、主被写体領域に対してシステム制御部157により自動合焦制御および自動露出制御が行われる。具体的には、主被写体領域の座標情報およびサイズ情報がシステム制御部157により画像情報抽出部132に送られ、主被写体領域内の画像データに基づいて自動露出制御および自動合焦制御が画像情報抽出部132、システム制御部157、レンズ制御部170および露出制御部165により実行される。
一方、ステップS630で主被写体領域が存在しないと判定されるか、あるいはステップS620で主被写体領域が画面内に存在しないと判定された場合、例えば、画面の中央の領域などの予め設定されている領域を対象として通常の自動合焦制御および自動露出制御が画像情報抽出部132、システム制御部157、レンズ制御部170および露出制御部165により実行される。
However, in steps S313 to S350 shown in FIG. 5, since the subject that has been framed in and out is managed, if the flag set in the candidate information list is confirmed, the main subject region is displayed on the screen. There is no need to determine whether or not.
In step S640, automatic focusing control and automatic exposure control are performed on the main subject area by the
On the other hand, if it is determined in step S630 that the main subject area does not exist, or if it is determined in step S620 that the main subject area does not exist in the screen, for example, a central area of the screen is set in advance. Normal automatic focusing control and automatic exposure control for the area are executed by the image
なお、ステップS650において、録画モードの終了指示の有無がシステム制御部157により確認され、録画モードの終了指示があれば処理が終了し、終了指示がなければステップS300に戻る。
また、フローでは示していないが、図4に示すように、候補表示領域410には、候補表示領域410内に表示されている候補画像を切り替えるための左側操作領域420aおよび右側操作領域420bが設けられている。ユーザーが左側操作領域420aまたは右側操作領域420bをタッチすることで、操作部180を構成するタッチパネルを通して得られたタッチ座標を元に、システム制御部157は切り替え指示領域420にあたる位置がタッチされたことを検出し、候補表示領域410に表示されている候補画像を右または左にスクロールさせることができる。この場合、左側操作領域420aおよび右側操作領域420bの操作状況に応じて、候補画像データと表示位置情報との対応関係がリスト管理部1610により更新される。
In step S650, the presence or absence of a recording mode end instruction is confirmed by the
Although not shown in the flow, as shown in FIG. 4, the
<特徴>
以上に説明したビデオカメラ100の特徴を以下にまとめる。
(1)
このビデオカメラ100では、顔領域(候補領域)が検出部130により検出用画像データから検出され、検出された候補領域に対応する候補画像データが生成部1620により生成される。候補画像データが生成されると、生成された候補画像データと表示用画像データとが合成された合成画像データが合成部1640により生成され、合成画像データが映像として表示部160に表示される。表示部160に表示された映像には、表示用画像データから生成される映像だけでなく候補画像データから生成される候補画像も映し出されているため、表示部160に表示されている映像を通して、ユーザーは各候補領域に対応する候補画像を視認することができる。
<Features>
The characteristics of the video camera 100 described above are summarized below.
(1)
In the video camera 100, a face area (candidate area) is detected from the detection image data by the
さらに、映像に表れている候補画像のうち特定の候補画像を指定するために、ユーザーが操作部180を用いて候補画像を指定すると、操作部180により指定情報が生成され、入力された指定情報に基づいて、指定された候補画像に対応する顔領域が主被写体領域として選択部1650により選択される。
このように、このビデオカメラ100では、候補領域に対応する候補画像を候補領域とは別個に表示し、表示されている候補画像を利用して間接的に候補領域を選択することができるため、表示部160に表示された被写体が動いている場合であっても、候補領域の選択操作を容易に行うことができる。
(2)
合成画像データが映像として表示部160に表示されている場合に、表示部160の画面上で候補画像が特定の位置に配置されるため、検出された候補領域とは異なり、被写体が動いている場合であっても画面上で候補画像が一定の位置で表示される。したがって、候補領域を直接指定する場合に比べて、被写体の動きの影響を受けることなく、候補画像を介して所望の候補領域を容易に指定することができる。
Further, when a user designates a candidate image using the
Thus, in this video camera 100, candidate images corresponding to the candidate areas can be displayed separately from the candidate areas, and the candidate areas can be indirectly selected using the displayed candidate images. Even when the subject displayed on the
(2)
When the composite image data is displayed as a video on the
また、表示部160の画面上で複数の候補画像が並ぶように、合成部1640が候補画像データと表示用画像データとを合成するため、合成画像データが映像として表示部160に表示されている場合に、複数の候補画像が並んで表示されることになる。このため、複数の候補画像を確認しやすくなり、さらに操作性が高まる。
さらに、表示部160に表示されている映像内において鉛直方向下半分の領域内に候補画像が配置されているため、候補画像により映像の表示が妨げられにくくなる。
特に、人間の上半身あるいは全身を撮影する場合、人間の顔は画面上で鉛直方向の上半分に集中しやすいため、候補表示領域410を下半分の領域内に配置することで、候補画像により候補領域の表示が妨げられにくくなる。
(3)
候補画像が表示用画像データの画像と重なっているため、表示用画像データにより生成される画像を表示部160の画面上に大きく表示することができ、表示部160の画面を有効利用することができる。
Further, since the combining
Further, since the candidate images are arranged in the lower half region in the vertical direction in the video displayed on the
In particular, when photographing the human upper body or the whole body, the human face tends to concentrate on the upper half of the screen in the vertical direction. Area display is less likely to be disturbed.
(3)
Since the candidate image overlaps the image of the display image data, the image generated from the display image data can be displayed large on the screen of the
また、表示部160の画面上で候補画像が表示される候補表示領域410の面積が候補表示領域410以外の領域420の面積よりも小さいため、表示部160に表示されている表示用画像データの映像を確認しやすくなる。
(4)
1つの画像データから検出された各顔領域内の画像データが生成部1620により抽出され、抽出された画像データが生成部1620により候補画像データとして設定される。このため、表示部160に表示される候補画像と顔領域との対応関係が視覚的に明確となり、顔領域の選択を容易に行うことができる。
また、区画領域410a〜410dの大きさと候補画像の大きさとが生成部1620により比較され、比較結果に基づいて候補画像の大きさが生成部1620により調整される。
In addition, since the area of the
(4)
Image data in each face area detected from one image data is extracted by the
Further, the size of the
具体的には、生成部1620は、候補画像が区画領域410a〜410dよりも小さい場合は区画領域410a〜410dに合わせて候補画像に拡大処理を施し、拡大処理が施された候補画像を候補識別情報として設定する。
また、生成部1620は、候補画像が区画領域410a〜410dよりも大きい場合は区画領域410a〜410dに合わせて候補画像に縮小処理を施し、縮小処理が施された候補画像を候補識別情報として設定する。
この場合、例えば、候補画像の大きさにばらつきがあっても、候補画像の大きさを区画領域410a〜410dの大きさに合わせることができる。候補画像が区画領域410a〜410dに比べて小さくても区画領域410a〜410dの大きさまで候補画像が拡大されるため、ユーザーが候補画像を確認しやすくなる。また、候補画像が区画領域410a〜410dに比べて大きくても区画領域410a〜410dの大きさまで候補画像が縮小されるため、ユーザーが候補画像を確認しやすくなる。
Specifically, when the candidate image is smaller than the
In addition, when the candidate image is larger than the divided
In this case, for example, even if there is a variation in the size of the candidate image, the size of the candidate image can be matched with the size of the partitioned
(5)
合成部1640が、候補画像と画像データとを合成する際、顔400aの候補領域であることを示す第1検出枠430aを顔400aの候補領域に付加し、顔400aの候補領域に対応する候補画像であることを示す第1装飾枠411aを候補画像が表示されている区画領域に付加する。このため、表示部160に表示される候補画像と候補領域との対応関係が視覚的にさらに明確となり、候補領域の選択を容易に行うことができる。
例えば、図4に示すように、第1検出枠430aが第2検出枠430bとは異なる視覚的特徴を有しており、第1装飾枠411aが第2装飾枠411bとは異なる視覚的特徴を有している。さらに、第1装飾枠411aが第1検出枠430aと実質的に同一の視覚的特徴を有しており、第2装飾枠411bが第2検出枠430bと実質的に同一の視覚的特徴を有している。これらの構成により、複数の候補領域を識別しやすくなり、さらに候補領域と候補画像との対応関係が視覚的に明確となる。したがって、表示されている候補画像を用いて候補領域を容易に選択することができる。
(5)
When the
For example, as shown in FIG. 4, the
[第2実施形態]
第1実施形態では、検出された顔領域をすべて候補画像としているが、その変形例として、あらかじめ登録しておいた顔と合致する顔のみを顔領域と判定してもよい。なお、以下の説明では、第1実施形態と実質的に同じ機能を有する構成には同じ符号を付し、その詳細な説明は省略する。
<ビデオカメラの構成>
第2実施形態に係るビデオカメラ500では、検出された顔領域を登録しておき、登録された顔領域と同じ視覚的特徴を有する顔領域のみを検出するようになっている。
具体的には図8および図9に示すように、このビデオカメラ500は、ビデオカメラ100の構成のうち、検出部130の構成およびシステム制御部157の構成が第1実施形態と異なっており、検出部230と、システム制御部257と、を備えている。検出部230の顔検出部220は、検出用画像データから顔領域を検出する際、検出した顔領域の特徴量を算出する。この特徴量は、検出された顔領域を識別するためのデータとして用いられる。
[Second Embodiment]
In the first embodiment, all detected face areas are set as candidate images. However, as a modified example, only a face that matches a face registered in advance may be determined as a face area. In the following description, components having substantially the same functions as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
<Configuration of video camera>
In the
Specifically, as shown in FIGS. 8 and 9, the
また図8に示すように、検出部230は認識部700を有している。認識部700は、顔検出部220から顔領域の特徴量を取得し、あらかじめ揮発性メモリ210に登録済みの顔の特徴量(登録特徴量)と取得した顔の特徴量(検出特徴量)とを照合し、両者が示す顔が同一のものであるかどうかを判定する機能を有している。さらに、認識部700は、検出特徴量と一致する登録特徴量を特定し、特定した登録特徴量についての情報をリスト管理部1610へ送る。リスト管理部1610は、登録特徴量に関連付けられている登録画像データをバッファメモリ135から取得する。認識部700およびリスト管理部1610により登録情報取得部が構成されている。
図9は、第2実施形態におけるビデオカメラ500の、システム制御部257の構成を示したものである。図9に示されるように、システム制御部257は、図3と同様の機能ブロックに加え、登録部1660をさらに有している。登録部1660は、登録特徴量を認識部700を介して揮発性メモリ210に登録情報として格納し、登録画像データを登録特徴量と関連付けてバッファメモリ135上に格納する。また、登録部1660は、登録画像データとそれに対応する登録特徴量とを関連付けて、システムバス134および記録I/F部145を介して記録媒体155に登録情報として記録する。これにより、ビデオカメラ500の電源がOFFになっても登録情報が失われることはない。
As shown in FIG. 8, the
FIG. 9 shows the configuration of the
<ビデオカメラの動作>
(1)顔領域の登録
被写体の登録方法について説明する。操作部180をなすモード変更ダイヤル(図示せず)を被写体の登録モードに合わせると、ビデオカメラ500が被写体の登録モードに移行する。登録モードが開始されると、被写体の映像が表示部160にリアルタイムで映し出される。このとき、第1実施形態と同様に、検出された顔領域に対応する候補画像が候補表示領域410に表示されている。
図10に示すように、ステップS800において、操作部180は、タッチパネル上のタッチ位置を検出し、区画領域410a〜410dのいずれかがタッチされたかどうかを判定する。表示部160の画面がタッチされた場合は、操作部180によりタッチ位置を示す指定情報が生成され、処理がステップS801に進む。ステップS801では、候補情報リストに登録されている各候補画像データの表示位置情報とタッチ位置の座標情報とが選択部1650により比較され、タッチされた位置に表示されている候補画像データが特定され、処理がステップS802に進む。
<Operation of the video camera>
(1) Registration of face area A method for registering a subject will be described. When a mode change dial (not shown) forming the
As illustrated in FIG. 10, in step S800, the
ステップS802では、第1実施形態のステップS602と同様に、特定された候補画像データに対応する顔領域が候補情報リストに基づいて選択部1650により特定される。ステップS810において、ステップS802で特定された顔領域の座標情報およびサイズ情報に基づいて顔領域内の画像が生成部1620により登録画像データとして抽出される。登録画像データの生成時、前述の第1実施形態と同様に、区画領域410a〜410dの大きさと登録画像データにより生成される登録画像の大きさとが生成部1620により比較され、比較結果に基づいて登録画像の大きさが生成部1620により調整される。続くステップS820では、ステップS802で特定された顔領域の特徴量が検出部230により登録特徴量として取得される。その後、処理はステップS830に進み、登録部1660により、取得された登録特徴量が認識部700を介して揮発性メモリ210に登録情報として格納され、生成部1620により生成された登録画像データが登録特徴量と関連付けられてバッファメモリ135に格納される。
In step S802, as in step S602 of the first embodiment, the face area corresponding to the specified candidate image data is specified by the
最後にステップS840にて、登録部1660により、登録画像データとそれに対応する登録特徴量とが関連付けられて、システムバス134および記録I/F部145を介して記録媒体155に登録情報として記録される。ステップS850では、ユーザーからの終了指示の有無がシステム制御部257により確認される。具体的には、操作部180をなすモード変更ダイヤルによるモード変更の有無がシステム制御部257により確認される。モード変更ダイヤルが登録モード以外のモードに設定されていれば、登録モードは終了し、モード変更ダイヤルが登録モードに設定されたままであれば、ステップS800〜S840の処理が繰り返される。
なお、ステップS840における処理により、ビデオカメラ500の電源がOFFになっても、登録画像データおよび登録特徴量などの情報が失われることはない。
Lastly, in step S840, the
Note that information such as registered image data and registered feature values is not lost even when the power of the
(2)表示処理
図11に、主被写体の指定を行うための主被写体候補画像の作成および表示処理の流れをフローチャートで示している。図3に示した第1実施形態と処理内容が同じステップが存在するため、異なるステップの内容を中心に説明を行う。
ビデオカメラ500の電源がONにされると、ステップS1400において、システム制御部257により、システムバス134および記録I/F部145を介して、記録媒体155に記録されている登録特徴量および登録画像データの読み込みが開始される。読み込まれた登録特徴量はシステム制御部257から認識部700に送られる。認識部700により登録特徴量が揮発性メモリ210に一時的に格納される。また、読み込まれた登録画像データは、システム制御部257によりバッファメモリ135に格納され、区画領域410a〜410dに表示される候補画像として使用される。
(2) Display Processing FIG. 11 is a flowchart showing the flow of main object candidate image creation and display processing for specifying a main subject. Since there are steps having the same processing contents as those in the first embodiment shown in FIG.
When the power of the
例えば動画撮影モードでは、表示部160に被写体の映像がリアルタイムで映し出される。具体的には、第1実施形態と同様に、ステップS300およびS310において、検出用画像データが検出部230に入力され、顔検出部220により、揮発性メモリ210に格納された検出用画像データに基づいて顔領域が検出される。このとき、第1実施形態と同様に、検出部230により検出された顔領域の座標情報およびサイズ情報が検出用画像データから取得される。
ステップS310での顔領域検出に加えて、本実施形態では、顔認識処理に用いられる特徴量の算出も行われる。具体的には、ステップS1410において、ステップS310で検出された顔領域の特徴量が検出用画像データから検出特徴量として取得される。検出特徴量は、基準特徴量と同様に人間の顔の特徴が数値化されたデータであるが、基準特徴量とは異なり、顔領域固有のデータである。したがって、検出部230で検出された顔領域の同一性を、検出特徴量を用いて判定することができる。顔検出部220により検出された検出特徴量は、揮発性メモリ210に一時的に格納される。検出特徴量は、1フレームの検出用画像データで検出された顔領域ごとに算出される。
For example, in the moving image shooting mode, the video of the subject is displayed on the
In addition to the face area detection in step S310, in the present embodiment, calculation of feature amounts used for face recognition processing is also performed. Specifically, in step S1410, the feature amount of the face area detected in step S310 is acquired from the detection image data as the detected feature amount. The detected feature amount is data in which human face features are digitized in the same manner as the reference feature amount. However, unlike the reference feature amount, the detected feature amount is data specific to the face area. Therefore, the identity of the face area detected by the
ステップS311からS350では、前述のとおり、候補情報リストの作成および更新が行なわれる。このとき、リスト管理部1610により、候補情報リスト上に検出特徴量が座標情報およびサイズ情報と関連付けられて記憶されている。
その後、ステップS1420において、認識部700により、揮発性メモリ210に格納されている各登録特徴量と候補情報リストの検出特徴量とが比較される。ステップS1430において、認識部700により検出特徴量と一致する登録特徴量が存在すると判断された場合、ステップS1440において、検出特徴量と一致する登録特徴量が認識部700により特定され、特定された登録特徴量についての情報が認識部700からリスト管理部1610へ送られ、特定された登録特徴量に関連付けられている登録画像データがリスト管理部1610によりバッファメモリ135から取得される。
In steps S311 to S350, the candidate information list is created and updated as described above. At this time, the
Thereafter, in step S1420, the
ステップS1450では、リスト管理部1610により、登録画像データが検出特徴量と関連付けられる。ステップS1370において、第1実施形態の候補画像データと同様に、登録画像データが合成部1640により表示用画像データと合成され、合成部1640により合成画像データが生成される。
具体的には図12に示すように、ステップS1371において、合成部1640により、4つの区画領域410a〜410dに候補画像データが割り当てられる。割り当ての際、候補情報リストに登録されている順に、左の区画領域410aから登録画像データが合成部1640により割り当てられる。図13の表示例で説明すると、顔400aおよび顔400bの順で顔領域が候補情報リストに登録されている場合、顔400aの登録画像が区画領域410aに表示され、顔400bの登録画像が区画領域410bに表示される。登録画像データが存在しない顔400cについては、検出枠も登録画像も表示されない。
In step S1450, the
Specifically, as shown in FIG. 12, in step S1371, the
合成部1640での割り当ての結果は、合成部1640からリスト管理部1610に送られる。具体的には、合成部1640からリスト管理部1610へ各登録画像データの表示位置情報が送られ、リスト管理部1610により表示位置情報が、対応する登録画像データと関連づけられた状態で候補情報リストに登録される。
次のステップS1372において、合成部1640により登録画像が表示用画像データに合成される。このとき、ステップS1371にて割り当てられた位置に登録画像が候補画像として表示されるように、登録画像データと表示用画像データとが合成部1640により合成される。また、登録画像データ生成時に、生成部1620により候補画像のサイズ調整が行われているため、検出された顔領域の大きさに関係なく、表示部160の画面上では、区画領域410a〜410dと同じサイズで候補画像が表示されている。
The result of allocation by the
In the next step S 1372, the registration image is combined with the display image data by the combining
また、第1実施形態と同様に、ステップS1373において、表示部160の画面上で顔領域と登録画像との対応関係を明確にするために、合成部1640により表示用画像データに対して装飾情報が合成される。具体的には図13に示すような第1検出枠430a、第2検出枠430b、第1装飾枠411aおよび第2装飾枠411bを示す装飾データが表示用画像データに付加される。
続くステップS380では、生成された合成画像データは表示部160に表示される。こうして、図13に示すように、検出された顔領域のうち登録されている顔領域(顔400aおよび400b)については、登録画像データを用いて区画領域410aおよび410bに登録画像が表示され、登録されていない顔領域(顔400c)については何も表示されない。登録画像は登録時に取得された静止画であるため、現在の顔400aおよび400bとは向きや表情が異なっており、被写体の向きが変わっても区画領域410aおよび410bに表示される登録画像は変化しない。
Similarly to the first embodiment, in step S1373, in order to clarify the correspondence between the face area and the registered image on the screen of the
In the subsequent step S380, the generated composite image data is displayed on the
以降の処理は、図7に示すフローと実質的に同じであるため、詳細な説明は省略する。
この場合、検出部230により検出された特徴量が、対応する候補識別情報と関連付けられて登録特徴量として登録部1660を介して記録媒体155に記録されている。入力された画像データをもとに検出部230が検出特徴量を生成すると、生成された検出特徴量が認識部700により登録特徴量と照合され、検出特徴量と概ね合致する登録特徴量と関連付けられている登録画像データがリスト管理部1610により特定される。
さらに、リスト管理部1610により特定された登録画像データと表示用画像データとが合成部1640により合成され、合成画像データが生成される。つまり、登録特徴量と概ね合致する特徴量を有する顔領域が存在すると、登録特徴量と関連付けられた候補識別情報が表示部160に表示されることになる。このため、登録特徴量を候補識別情報と関連付けて登録しておけば、同じ特徴量を有する顔領域に対して同じ登録画像データが表示部160に表示され、顔領域とそれに対応する登録画像データとを認識しやすくなる。
Since the subsequent processing is substantially the same as the flow shown in FIG. 7, detailed description thereof is omitted.
In this case, the feature amount detected by the
Further, the registration image data specified by the
[第3実施形態]
本実施形態は第2実施形態の変形例である。この実施形態では、顔領域を識別する文字情報を登録画像データの代わりに登録しておき、登録されている文字情報を表示部160の候補表示領域410に表示する。文字情報としては、被写体の名前などが考えられる。
前述の登録モードにおいて、登録画像データを生成する際に、操作部180を介して登録名を示す文字情報を入力する。文字情報を入力する入力画面の例を図14に示す。
図14において、登録画像1000は、登録対象となる顔の画像である。ソフトキーボード1010は、文字情報を入力するための領域であり、文字キー領域に加えて、文字種別の切り替えキー領域や、文字の削除キー領域、決定キー領域を有している。表示部160の上に設けられた、操作部180をなすタッチパネルがユーザーによりタッチされると、タッチされた座標がソフトキーボード1010のどのキー領域を指し示しているかをシステム制御部257が判定し、該当するキーに対応する文字が入力されたものとする。入力された文字は、入力領域1020に表示される。
[Third Embodiment]
This embodiment is a modification of the second embodiment. In this embodiment, character information for identifying a face area is registered instead of registered image data, and the registered character information is displayed in the
In the registration mode described above, character information indicating a registration name is input via the
In FIG. 14, a
本実施形態における、被写体の登録を行う際のフローチャートを図15に示す。図10と同様のステップについては同一の符号を付し、その詳細な説明は省略する。
第2実施形態で示した図10におけるフローチャートとの違いは、ステップS1100であり、ステップS1100では上記で説明したように、主被写体候補を識別する文字列の入力が行われる。このとき、ステップS810で抽出された登録画像データが登録画像1000として表示部160に表示される。
また、ステップS840での、記録媒体155へ記録される登録情報には、第2実施形態で説明した登録画像データおよび登録特徴量に加えて、ステップS1100にて入力された文字情報も含まれる。このとき、登録部1660により、文字情報は登録特徴量と関連付けられて、例えばバッファメモリ135に記録される。
FIG. 15 is a flowchart for registering a subject in this embodiment. Steps similar to those in FIG. 10 are denoted by the same reference numerals, and detailed description thereof is omitted.
The difference from the flowchart in FIG. 10 shown in the second embodiment is Step S1100. In Step S1100, as described above, a character string for identifying a main subject candidate is input. At this time, the registered image data extracted in step S810 is displayed on the
Further, the registration information recorded on the
図16に本実施形態の表示例を示す。図13と同様の構成要素については同一の番号を付し説明を省略する。図16において、候補表示領域410には前述の区画領域410a〜410dに対応する区画領域1200a〜1200dが設けられている。顔領域を識別する識別文字列1202aおよび1202bが表示されており、識別文字列1202aが右側の顔400aに対応しており、識別文字列1202bが左側の顔400bに対応している。
また、識別文字列1202aが顔400aに対応しているため、区画領域1200aを囲む第1装飾枠1201aは第1検出枠430aと同じ種類の破線で表示されている。識別文字列1202bが顔400bに対応しているため、区画領域1200bを囲む第2装飾枠1201bは第2検出枠430bと同じ種類の破線で表示されている。また、主被写体領域として選択されている顔領域の検出枠および装飾枠は、太線で表示されている。図16に示す表示例では、第2検出枠430bで囲まれている領域が主被写体領域として選択されているため、第2検出枠430bおよび第2装飾枠1201bが太線で表示されている。
FIG. 16 shows a display example of this embodiment. Constituent elements similar to those in FIG. In FIG. 16, the
In addition, since the
前述の第1および第2実施形態と同様に、識別文字列1202aをタッチすることで、識別文字列1200aに対応する顔領域430aが主被写体領域として選択される。
この場合、基本的に第2実施形態の場合と同様の効果が得られるが、それに加えて、文字情報を用いることで顔領域が誰なのかを容易に判別することができる。
[他の実施形態]
本発明は、前述の実施形態に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形および修正が可能である。
(1)
前述の実施形態では、ビデオカメラの録画時の動作を例に挙げて表示装置について説明しているが、静止画撮影時のライブビューモードや録画済の動画の再生時にも前述の技術は適用可能である。例えば、再生時に興味のある被写体を拡大したい場合、拡大対象とする被写体を指定する必要がある。そのような場合にでも本発明は適用可能である。
Similar to the first and second embodiments described above, by touching the
In this case, basically the same effect as in the case of the second embodiment can be obtained, but in addition to this, it is possible to easily determine who the face area is by using character information.
[Other Embodiments]
The present invention is not limited to the above-described embodiments, and various changes and modifications can be made without departing from the scope of the present invention.
(1)
In the above-described embodiment, the display device has been described by taking the operation at the time of recording of the video camera as an example. However, the above-described technique can also be applied to the live view mode at the time of still image shooting and the playback of the recorded video. It is. For example, when it is desired to enlarge a subject of interest during playback, it is necessary to specify the subject to be enlarged. Even in such a case, the present invention is applicable.
また、デジタルカメラやカメラを備えた携帯電話といった、ビデオカメラ以外の撮像装置、あるいはテレビやカーナビゲーションシステム、ゲーム機などの映像を表示する表示装置を備えた機器であれば本発明は適用可能である。
(2)
前述の実施形態では、1つの主被写体領域を選択することを想定しているが、複数の主被写体領域を選択可能にしてもよい。
(3)
前述の実施形態では、タッチパネルを用いて主被写体領域を選択しているが、他の種類の操作部を用いて主被写体領域を選択するよう構成しても良い。例えば、方向を指示できるカーソルキーを用いて主被写体領域を選択するよう構成しても良い。この場合においても、常に位置関係の変化する主被写体候補を直接選択するのではなく、画面上に並んだ主候補画像を選択するため、確実に所望の主被写体領域を選択することが可能となる。
In addition, the present invention is applicable to any device provided with an image pickup device other than a video camera, such as a digital camera or a mobile phone equipped with a camera, or a display device such as a television, a car navigation system, or a game machine. is there.
(2)
In the above-described embodiment, it is assumed that one main subject area is selected, but a plurality of main subject areas may be selectable.
(3)
In the above-described embodiment, the main subject area is selected using the touch panel. However, the main subject area may be selected using another type of operation unit. For example, the main subject area may be selected using a cursor key that can indicate a direction. Even in this case, the main subject candidate whose position relationship is always changed is not directly selected, but the main candidate images arranged on the screen are selected, so that a desired main subject region can be surely selected. .
(4)
前述の実施形態では、表示用画像に候補画像、登録画像および文字情報を重畳して表示するようにしているが、異なる表示方法を用いてもよい。例えば、候補画像を半透明にすることで、候補画像が表示される領域においても表示用画像が透けて見えるよう構成しても良い。あるいは、表示用画像が候補画像と重ならないよう表示用画像を縮小し、表示部160に候補画像と表示用画像とを重畳させずに表示するよう構成しても良い。
(5)
前述の実施形態では、候補領域として人間の顔を検出するようにしているが、人体や、ペットなどを検出部130にて検出し、候補領域とするようにしてもなんら問題はない。あるいは、特定の物体に限らず、入力される画像の差分を取ることで得られる移動領域や、特定の色成分を含む領域を検出部130にて検出し、候補領域とするように構成しても良い。画像の差分を取ることで候補領域を検出する場合、検出部130は、異なるタイミングで取得された2つの画像データを比較することで、動いている被写体を認識し、特定の視覚的特徴を有する候補領域を検出する。
(4)
In the above-described embodiment, the candidate image, the registered image, and the character information are displayed superimposed on the display image. However, different display methods may be used. For example, the candidate image may be made translucent so that the display image can be seen through even in the region where the candidate image is displayed. Alternatively, the display image may be reduced so that the display image does not overlap the candidate image, and the candidate image and the display image may be displayed on the
(5)
In the above-described embodiment, a human face is detected as a candidate area. However, there is no problem even if a human body, a pet, or the like is detected by the
(6)
前述の実施形態では、システム制御部157と検出部130を別の構成としているが、検出部130が担う処理をシステム制御部157にて行なってもよい。また、プログラムはROMに格納されているが、このプログラムが外部の記録媒体から読み込まれるよう構成しても良い。
(7)
検出部130が検出する領域は人間の顔を表す領域に限定されない。例えば、検出部130が人間の体の全部または一部を表す領域を検出してもよいし、特定の色成分を含む領域であってもよい。
(8)
前述の実施形態では、生成部1620が候補画像および登録画像に対して区画領域410a〜410dの大きさに合わせて拡大処理および縮小処理を行うが、処理前の候補画像および登録画像が区画領域410a〜410dの範囲内に収まるのであれば、拡大処理を行わない構成であってもよい。
(6)
In the above-described embodiment, the
(7)
The area detected by the
(8)
In the above-described embodiment, the
また、候補表示領域410が画面の下側に配置されているが、候補表示領域410の配置は前述の実施形態に限定されない。
(9)
前述の第1実施形態では、第1装飾枠411aおよび第2装飾枠411bが候補画像に付加されているが、図17に示すように第1装飾枠411aおよび第2装飾枠411bのような装飾枠を付加しない実施形態も考えられる。主被写体領域として選択されている顔領域が識別しやすいように主被写体領域の検出枠だけ他の検出枠と異なる視覚的特徴を持たしてもよい。
また、第1検出枠430aと第1装飾枠411aとは、同じ視覚的特徴を有しているが、両枠430aおよび411aが対応していることが認識できれば、実質的に同じ視覚的特徴を持たせていてもよい。例えば、図4においては、第1装飾枠411aおよび第2装飾枠411bでは破線の間隔を異ならせているが、枠の色を変えるようにしてもよい。
Further, although the
(9)
In the first embodiment described above, the first
The
(10)
前述の実施形態では、顔領域の座標情報に基づいて顔領域を追尾する機能を実現しているが、顔領域の移動量を動きベクトルとして記憶しておき、複数の候補画像が存在するような場合の判定精度を高める方法を用いても良い。また、画像データ間において顔の大きさが大きく変わることはないと考えられるため、画像データ間において顔領域の大きさの変化量がある一定範囲に収まっていることを条件に加えても良い。
(11)
図16に示した表示例は本実施形態における一例である。例えば、登録画像データを文字情報とともに表示部160に表示する構成であってもよい。つまり、第2実施形態と第3実施形態とを組み合わせた実施形態も考えられる。
(10)
In the above-described embodiment, the function of tracking the face area based on the coordinate information of the face area is realized. However, the movement amount of the face area is stored as a motion vector, and there are a plurality of candidate images. You may use the method of raising the determination precision in a case. Further, since it is considered that the size of the face does not change greatly between the image data, it may be added as a condition that the amount of change in the size of the face area is within a certain range between the image data.
(11)
The display example shown in FIG. 16 is an example in the present embodiment. For example, the registered image data may be displayed on the
(12)
図5で示したフローチャートにおいては、ステップS320にて顔領域が画面内から消失していると判定された場合、ステップS330において、候補情報リストから消失したと判定された顔領域に関する情報が直ちに削除されているが、一定時間経過後にこれらの情報を削除するよう構成しても良い。この場合、短時間のオクルージョンやフレームアウトが顔領域に対して発生しても、区画領域410a〜410dに表示される候補画像は変わらないため、主被写体領域を選択しようとした瞬間に候補表示領域410内の表示内容が変わってしまい、主被写体領域の選択に失敗してしまう状況を回避することができる。また、画面内に存在しない主被写体領域を選択することができるため、主被写体が画面に入ってきた際に迅速に主被写体領域に対して自動合焦制御および自動露出制御が行われるという良好な効果も得られる。
(12)
In the flowchart shown in FIG. 5, if it is determined in step S320 that the face area has disappeared from the screen, information regarding the face area determined to have disappeared from the candidate information list in step S330 is immediately deleted. However, the information may be deleted after a predetermined time has elapsed. In this case, even if a short-time occlusion or frame-out occurs in the face area, the candidate images displayed in the
(13)
また、図7に示したフローチャートにおいては、画面内に主被写体が存在しないと判定した場合、通常の自動合焦制御および自動露出制御を直ちに行うようにしているが、一定時間経過後に通常の自動合焦制御および自動露出制御を行うようにしても良い。一定時間が経過するまでの間に行う自動合焦制御および自動露出制御の制御方法については種々考えられるが、例えば、自動合焦制御および自動露出制御を停止させても良い。主被写体の短時間のオクルージョンやフレームアウトに対して、自動合焦制御および自動露出制御が追従しなくなるため、画面のボケや画面の明るさの急激な切り替わりが発生しにくくなり、良好な撮影画像を得ることが可能になる。
(14)
前述の実施形態では、候補画像の表示順序を候補情報リストの順としているが、顔領域の位置に合わせて候補画像の表示位置を決定してもよい。例えば、図4に示す表示例では、左側の顔400bの候補画像が区画領域410bに表示されており、右側の顔400aの候補画像が区画領域410bの左側の区画領域410aに表示されているが、顔400aおよび400bの配置に合わせて、区画領域410aに顔400bの候補画像が表示され、かつ、区画領域410bに顔400aの候補画像が表示されるようにしてもよい。この場合、顔領域の位置関係と候補画像の位置関係とが対応するため、候補画像と顔領域との対応関係をユーザーがより把握しやすくなる。
(13)
In the flowchart shown in FIG. 7, when it is determined that the main subject does not exist in the screen, normal automatic focusing control and automatic exposure control are performed immediately. Focus control and automatic exposure control may be performed. Various control methods of automatic focusing control and automatic exposure control performed until a predetermined time elapses are conceivable. For example, automatic focusing control and automatic exposure control may be stopped. Automatic focus control and automatic exposure control do not follow the short occlusion and frame out of the main subject, making it difficult for screen blur and screen brightness to change suddenly, resulting in good shot images Can be obtained.
(14)
In the above-described embodiment, the display order of the candidate images is the order of the candidate information list. However, the display position of the candidate images may be determined in accordance with the position of the face area. For example, in the display example shown in FIG. 4, the candidate image of the
(15)
前述の第2実施形態では、登録されていない顔が検出されても、候補画像データは候補表示領域410に表示されないが、第1実施形態と同様に、登録されていない顔が検出された場合に検出用画像データから候補画像データを生成し、候補表示領域410に表示してもよい。つまり、第1実施形態と第2実施形態とを組み合わせる構成もあり得る。
また、登録情報の登録時、認識処理用の登録特徴量が記録媒体155に格納されるのではなく、ビデオカメラ500内に設けられた不揮発性メモリ(図示せず)に格納されるようにしてもよい。この場合、記録媒体155を別の記録媒体に交換しても、登録情報を不揮発性メモリから読み込み可能となり、機器の利便性が向上する。不揮発性メモリとしては、フラッシュメモリおよびハードディスクドライブなどが考えられる。
(15)
In the second embodiment described above, even if an unregistered face is detected, the candidate image data is not displayed in the
In addition, when registering registration information, a registration feature amount for recognition processing is not stored in the
(16)
各機能ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部または全部を含むように1チップ化されても良い。
なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。
(16)
Each functional block may be individually made into one chip by a semiconductor device such as an LSI, or may be made into one chip so as to include a part or the whole.
Here, although LSI is used, it may be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.
Further, the method of circuit integration is not limited to LSI, and implementation with a dedicated circuit or a general-purpose processor is also possible. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
Further, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology. Biotechnology can be applied as a possibility.
(17)
前述の実施形態の各処理は、ハードウェアにより実現されてもよいし、ソフトウェアにより実現されてもよいし、ソフトウェアおよびハードウェアの混在処理により実現されてもよい。
(17)
Each process of the above-described embodiment may be realized by hardware, may be realized by software, or may be realized by a mixed process of software and hardware.
本発明に係る表示装置によれば、主被写体領域を指定することが容易となるため、本発明は、映像上の特定の領域に対して合焦制御や露出制御を行う装置の分野において有用である。 The display device according to the present invention makes it easy to specify a main subject area, and thus the present invention is useful in the field of an apparatus that performs focus control and exposure control for a specific area on an image. is there.
100 ビデオカメラ
130 検出部
157 システム制御部
160 表示部
180 操作部
220 顔検出部
700 認識部
1620 リスト管理部
1620 生成部
1640 合成部
1650 選択部
1660 登録部
DESCRIPTION OF SYMBOLS 100
Claims (24)
特定の視覚的特徴を有する少なくとも1つの候補領域を前記画像データから検出する検出部と、
前記検出部により検出された各前記候補領域を識別するための少なくとも1つの候補識別情報を生成する生成部と、
前記候補識別情報と前記画像データとが合成された合成画像データを生成する合成部と、
前記合成画像データを前記映像として表示する表示部と、
前記映像に表れている前記候補識別情報のうち特定の前記候補識別情報を指定する指定情報の入力を受け付ける操作部と、
前記操作部に入力された前記指定情報に基づいて、前記操作部を介して指定された前記候補識別情報に対応する前記候補領域を基準領域として選択する選択部と、
を備えた表示装置。 A display device for displaying a plurality of image data as video,
A detection unit for detecting at least one candidate region having a specific visual feature from the image data;
A generating unit that generates at least one candidate identification information for identifying each candidate area detected by the detecting unit;
A combining unit that generates combined image data in which the candidate identification information and the image data are combined;
A display unit for displaying the composite image data as the video;
An operation unit for receiving input of designation information for designating specific candidate identification information among the candidate identification information appearing in the video;
Based on the designation information input to the operation unit, a selection unit that selects the candidate region corresponding to the candidate identification information designated through the operation unit as a reference region;
A display device comprising:
請求項1に記載の表示装置。 The combining unit combines the candidate identification information and the image data so that the candidate identification information is arranged at a specific position on the screen of the display unit.
The display device according to claim 1.
請求項1または2に記載の表示装置。 The combining unit combines the candidate identification information and the image data so that a plurality of the candidate identification information are arranged on the screen of the display unit.
The display device according to claim 1.
請求項1から3のいずれかに記載の表示装置。 The synthesizing unit synthesizes the candidate identification information and the image data so that the candidate identification information is arranged in a lower half region in the vertical direction of the video displayed on the display unit;
The display device according to claim 1.
請求項1から4のいずれかに記載の表示装置。 The composition unit combines the candidate identification information and the image data so that the candidate identification information is superimposed on an image generated based on the image data in a state where the video is displayed on the display unit. To synthesize,
The display device according to claim 1.
請求項1から5のいずれかに記載の表示装置。 The area of the first display area where the candidate identification information is displayed on the screen of the display unit is smaller than the area of the second display area other than the first display area,
The display device according to claim 1.
前記1から6のいずれかに記載の表示装置。 The generation unit extracts candidate image data in each candidate area detected from one image data, and sets the extracted candidate image data as the candidate identification information.
7. The display device according to any one of 1 to 6.
請求項7に記載の表示装置。 The generation unit compares the size of the partition area in which one candidate image is displayed as the candidate identification information with the size of the candidate image, and adjusts the size of the candidate image based on a comparison result.
The display device according to claim 7.
請求項8に記載の表示装置。 When the candidate image is smaller than the partition area, the generation unit performs an enlargement process on the candidate image according to the partition area, and sets the candidate image subjected to the enlargement process as the candidate identification information ,
The display device according to claim 8.
請求項8または9に記載の表示装置。 When the candidate image is larger than the partition area, the generation unit performs a reduction process on the candidate image according to the partition area, and sets the candidate image subjected to the reduction process as the candidate identification information ,
The display device according to claim 8 or 9.
請求項1から10のいずれかに記載の表示装置。 When combining the candidate identification information and the image data, the combining unit adds first decoration information indicating the candidate area to each candidate area, and the candidate identification information corresponding to the candidate area 2nd decoration information indicating that is added to each area where the candidate identification information is displayed,
The display device according to claim 1.
前記基準領域に対応する前記候補識別情報に付加されている前記第2装飾情報は他の前記第2装飾情報とは異なる視覚的特徴であって対応する前記第1装飾情報と実質的に同一の視覚的特徴を有している、
請求項11に記載の表示装置。 The first decoration information added to the reference area has a visual feature different from the other first decoration information,
The second decoration information added to the candidate identification information corresponding to the reference area is a visual feature different from the other second decoration information and is substantially the same as the corresponding first decoration information. Have visual features,
The display device according to claim 11.
請求項1から12のいずれかに記載の表示装置。 The detection unit compares reference information representing the specific visual feature with the image data, and detects a region that satisfies the criteria information as the candidate region.
The display device according to claim 1.
請求項1から13のいずれかに記載の表示装置。 The candidate region having the specific visual feature is a region representing all or part of a human body;
The display device according to claim 1.
請求項1から14のいずれかに記載の表示装置。 The candidate area having the specific visual feature is an area representing a human face;
The display device according to claim 1.
請求項1から13のいずれかに記載の表示装置。 The candidate region having the specific visual feature is a region including a specific color component;
The display device according to claim 1.
請求項1から12のいずれかに記載の表示装置。 The detection unit detects the candidate region having the specific visual feature by comparing two image data acquired at different timings.
The display device according to claim 1.
前記選択部は、前記操作部を介して入力された前記指定情報に基づいて、前記指定情報が示す位置に表示されている前記候補識別情報を特定し、特定された前記候補識別情報に対応する前記候補領域を前記基準領域として選択する、
請求項1から17のいずれかに記載の表示装置。 The designation information indicates a position on the screen of the display unit,
The selection unit identifies the candidate identification information displayed at the position indicated by the designation information based on the designation information input via the operation unit, and corresponds to the identified candidate identification information Selecting the candidate region as the reference region;
The display device according to claim 1.
請求項1から18のいずれかに記載の表示装置。 The operation unit includes a touch panel unit that detects a contact position on the screen of the display unit and generates the designation information indicating the contact position.
The display device according to claim 1.
請求項1から19のいずれかに記載の表示装置。 The detection unit generates a detection feature amount indicating a visual feature of the candidate area for each detected candidate area.
The display device according to claim 1.
前記検出特徴量を前記登録特徴量と照合し、前記検出特徴量と合致する前記登録特徴量と関連付けられている前記候補識別情報を特定する登録情報取得部と、をさらに備え、
前記合成部は、前記登録情報取得部により特定された前記候補識別情報と前記画像データとを合成し、前記合成画像データを生成する、
請求項20に記載の表示装置。 A registration unit that associates the detected feature amount generated by the detection unit with the candidate identification information corresponding to the candidate region from which the detected feature amount is generated;
A registered information acquisition unit that matches the detected feature value with the registered feature value and identifies the candidate identification information associated with the registered feature value that matches the detected feature value;
The synthesizing unit synthesizes the candidate identification information identified by the registration information acquisition unit and the image data to generate the synthesized image data;
The display device according to claim 20.
前記登録部は、前記文字情報を前記登録特徴量と関連付ける、
請求項21に記載の表示装置。 The operation unit is adapted to accept input of character information,
The registration unit associates the character information with the registered feature amount;
The display device according to claim 21.
特定の視覚的特徴を有する少なくとも1つの候補領域を前記画像データから検出する検出ステップと、
前記検出ステップで検出された各前記候補領域を識別するための少なくとも1つの候補識別情報を生成する生成ステップと、
前記候補識別情報と前記画像データとが合成された合成画像データを生成する合成ステップと、
前記合成画像データを前記映像として表示する表示ステップと、
前記映像に表れている前記候補識別情報のうち特定の前記候補識別情報を指定する指定情報の入力を受け付ける操作ステップと、
前記操作部に入力された前記指定情報に基づいて、前記操作部を介して指定された前記候補識別情報に対応する前記候補領域を基準領域として選択する選択ステップと、
を備えた表示方法。 A display method for displaying a plurality of image data as video,
Detecting at least one candidate region having a specific visual feature from the image data;
Generating at least one candidate identification information for identifying each candidate area detected in the detecting step;
Generating a composite image data in which the candidate identification information and the image data are combined;
A display step of displaying the composite image data as the video;
An operation step of receiving input of designation information for designating the specific candidate identification information among the candidate identification information appearing in the video;
A selection step of selecting, as a reference area, the candidate area corresponding to the candidate identification information specified via the operation unit based on the designation information input to the operation unit;
Display method with.
特定の視覚的特徴を有する少なくとも1つの候補領域を前記画像データから検出する検出部と、
前記検出部により検出された各前記候補領域を識別するための少なくとも1つの候補識別情報を生成する生成部と、
前記候補識別情報と前記画像データとが合成された合成画像データを生成する合成部と、
前記合成画像データを前記映像として表示する表示部と、
前記映像に表れている前記候補識別情報のうち特定の前記候補識別情報を指定する指定情報の入力を受け付ける操作部と、
前記操作部に入力された前記指定情報に基づいて、前記操作部を介して指定された前記候補識別情報に対応する前記候補領域を基準領域として選択する選択部と、
を備えた集積回路。 An integrated circuit for displaying a plurality of image data as video,
A detection unit for detecting at least one candidate region having a specific visual feature from the image data;
A generating unit that generates at least one candidate identification information for identifying each candidate area detected by the detecting unit;
A combining unit that generates combined image data in which the candidate identification information and the image data are combined;
A display unit for displaying the composite image data as the video;
An operation unit for receiving input of designation information for designating specific candidate identification information among the candidate identification information appearing in the video;
Based on the designation information input to the operation unit, a selection unit that selects the candidate region corresponding to the candidate identification information designated through the operation unit as a reference region;
Integrated circuit with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009166156A JP2011023898A (en) | 2009-07-14 | 2009-07-14 | Display device, display method, and integrated circuit |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009166156A JP2011023898A (en) | 2009-07-14 | 2009-07-14 | Display device, display method, and integrated circuit |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011023898A true JP2011023898A (en) | 2011-02-03 |
Family
ID=43633597
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009166156A Pending JP2011023898A (en) | 2009-07-14 | 2009-07-14 | Display device, display method, and integrated circuit |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011023898A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013087974A1 (en) * | 2011-12-16 | 2013-06-20 | Nokia Corporation | Method and apparatus for image capture targeting |
JP2013135446A (en) * | 2011-12-27 | 2013-07-08 | Canon Inc | Imaging apparatus and control method thereof |
JP2013150265A (en) * | 2012-01-23 | 2013-08-01 | Olympus Imaging Corp | Imaging apparatus, display method, and program |
JP2014039084A (en) * | 2012-08-10 | 2014-02-27 | Olympus Imaging Corp | Imaging apparatus |
JP2017126883A (en) * | 2016-01-14 | 2017-07-20 | キヤノン株式会社 | Image processing apparatus, imaging apparatus and image processing program |
WO2018051809A1 (en) * | 2016-09-16 | 2018-03-22 | ソニーセミコンダクタソリューションズ株式会社 | Image pickup device and electronic apparatus |
JP2018093500A (en) * | 2017-12-28 | 2018-06-14 | 株式会社ニコン | Image processing apparatus, imaging apparatus, and image processing program |
-
2009
- 2009-07-14 JP JP2009166156A patent/JP2011023898A/en active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013087974A1 (en) * | 2011-12-16 | 2013-06-20 | Nokia Corporation | Method and apparatus for image capture targeting |
US9813607B2 (en) | 2011-12-16 | 2017-11-07 | Nokia Technologies Oy | Method and apparatus for image capture targeting |
JP2013135446A (en) * | 2011-12-27 | 2013-07-08 | Canon Inc | Imaging apparatus and control method thereof |
JP2013150265A (en) * | 2012-01-23 | 2013-08-01 | Olympus Imaging Corp | Imaging apparatus, display method, and program |
JP2014039084A (en) * | 2012-08-10 | 2014-02-27 | Olympus Imaging Corp | Imaging apparatus |
JP2017126883A (en) * | 2016-01-14 | 2017-07-20 | キヤノン株式会社 | Image processing apparatus, imaging apparatus and image processing program |
WO2018051809A1 (en) * | 2016-09-16 | 2018-03-22 | ソニーセミコンダクタソリューションズ株式会社 | Image pickup device and electronic apparatus |
EP3515057A4 (en) * | 2016-09-16 | 2019-10-02 | Sony Semiconductor Solutions Corporation | Image pickup device and electronic apparatus |
US10795024B2 (en) | 2016-09-16 | 2020-10-06 | Sony Semiconductor Solutions Corporation | Imaging device and electronic device |
US12061264B2 (en) | 2016-09-16 | 2024-08-13 | Sony Semiconductor Solutions Corporation | Imaging device and electronic device |
JP2018093500A (en) * | 2017-12-28 | 2018-06-14 | 株式会社ニコン | Image processing apparatus, imaging apparatus, and image processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5867424B2 (en) | Image processing apparatus, image processing method, and program | |
JP5206095B2 (en) | Composition determination apparatus, composition determination method, and program | |
US20110157423A1 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2011023898A (en) | Display device, display method, and integrated circuit | |
US9712750B2 (en) | Display control device and associated methodology of identifying a subject in an image | |
JP2010183317A (en) | Imaging device, image composition and display device, image composition and display method, and program | |
JP2008206018A (en) | Imaging apparatus and program | |
JP6029021B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP2010010936A (en) | Image recording apparatus, image recording method, image processing apparatus, image processing method, and program | |
US20100329552A1 (en) | Method and apparatus for guiding user with suitable composition, and digital photographing apparatus | |
KR20150119621A (en) | display apparatus and image composition method thereof | |
CN110502117B (en) | Screenshot method in electronic terminal and electronic terminal | |
JPWO2016199483A1 (en) | Image processing apparatus, image processing method, and program | |
KR20170060411A (en) | Method and photographing device for controlling the photographing device according to proximity of a user | |
US8856192B2 (en) | Method and apparatus for updating composition database by using composition pattern of user, and digital photographing apparatus | |
JP2008017169A (en) | Electronic camera | |
US9767587B2 (en) | Image extracting apparatus, image extracting method and computer readable recording medium for recording program for extracting images based on reference image and time-related information | |
JP2009089220A (en) | Imaging apparatus | |
US10447935B2 (en) | Image generating apparatus, image generating method and computer readable recording medium for recording program for generating new image from images related to reference image | |
JP2009088742A (en) | Imaging apparatus, imaging control program, and imaging method | |
JP2014123908A (en) | Image processing system, image clipping method, and program | |
WO2011048742A1 (en) | Semiconductor integrated circuit, and image capturing device provided therewith | |
US9641757B2 (en) | Image processing apparatus that sets moving image area, image pickup apparatus, and method of controlling image processing apparatus | |
US10748580B2 (en) | Information processing apparatus | |
KR101436327B1 (en) | Background first photographing method and photographing apparatus |