JP2006101186A - Camera - Google Patents

Camera Download PDF

Info

Publication number
JP2006101186A
JP2006101186A JP2004284648A JP2004284648A JP2006101186A JP 2006101186 A JP2006101186 A JP 2006101186A JP 2004284648 A JP2004284648 A JP 2004284648A JP 2004284648 A JP2004284648 A JP 2004284648A JP 2006101186 A JP2006101186 A JP 2006101186A
Authority
JP
Japan
Prior art keywords
image
tracked
subject
monitor
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004284648A
Other languages
Japanese (ja)
Inventor
Kenji Suzuki
健司 鈴木
Yuko Hattori
佑子 服部
Mari Sugihara
麻理 杉原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2004284648A priority Critical patent/JP2006101186A/en
Publication of JP2006101186A publication Critical patent/JP2006101186A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To make a specific subject to be tracked selectable with easy operation at photographing. <P>SOLUTION: The camera comprises an imaging part, a display part and a detection part. The imaging part photographs an optical image formed by a photographic lens and generates a video signal of a moving image. The display part has a monitor and displays the video signal on the monitor as an image. Further, the display part is a touch panel type and selects a specified portion, corresponding to a location touched on the monitor from the image displayed on the monitor. The detection part compares the specific portion with an image expressed by a video signal, generated after selecting the specific portion and detects an image part, corresponding to the specific portion from the video signal. Namely, a subject to be traced can be selected only by touching the monitor, the subject can be selected by easy operation at photographing, without requiring complicated operations. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、カメラ、特にビデオカメラに関する。具体的には、顔認識処理によって人物である被写体を検出し、この被写体を追尾する技術に関する。   The present invention relates to a camera, particularly a video camera. Specifically, the present invention relates to a technique for detecting a subject that is a person by face recognition processing and tracking the subject.

ビデオカメラにより撮影される多くの映像では、動いている人物が主要被写体である。従って、動いている人物の位置、特に顔の位置を検出及び追尾し、その人物に露出条件やピントを自動的に合わせることが望まれていた。そこで、特許文献1のビデオカメラは、髪の毛や肌色の領域を画像から検出することで人物の顔を検出し、検出した顔の位置に追従して自動焦点制御を行うことを試みている。   In many images taken by a video camera, a moving person is the main subject. Accordingly, it has been desired to detect and track the position of a moving person, particularly the face, and automatically adjust the exposure condition and focus to the person. In view of this, the video camera disclosed in Patent Document 1 attempts to detect a human face by detecting a hair or skin color region from an image, and to perform autofocus control following the detected face position.

また、画像中から人物の顔を検出する処理の詳細については、特許文献2や特許文献3などにも開示されている。
特開平6−30318号公報 特開2001−309225号公報 特開2004−128715号公報
Details of processing for detecting a person's face from an image are also disclosed in Patent Literature 2, Patent Literature 3, and the like.
JP-A-6-30318 JP 2001-309225 A JP 2004-128715 A

実際の撮影では、追尾対象となる特定の人物に加えて、他の不特定の人物も映されることが想定される。しかしながら従来のビデオカメラは、人物を追尾することは可能でも、複数の人物の中から特定の人物を検出及び追尾し、その特定の人物に露出条件やピントを合わせることができなかった。従って、特定の人物のみを検出及び追尾可能にすることが要望されていた。その際、追尾対象にする人物は、容易な操作によってユーザが撮影時に選択できることが望ましい。   In actual shooting, in addition to the specific person to be tracked, it is assumed that other unspecified persons are also shown. However, even though a conventional video camera can track a person, it cannot detect and track a specific person from a plurality of persons and cannot adjust the exposure condition and focus to the specific person. Therefore, there has been a demand for enabling detection and tracking of only a specific person. At that time, it is desirable that the person to be tracked can be selected by the user at the time of shooting by an easy operation.

本発明の目的は、特定の人物のみを検出及び追尾し、その人物に露出条件またはピントを合わせる技術を提供することである。
本発明の別の目的は、追尾対象にする特定の被写体を、容易な操作によって撮影時に選択可能にする技術を提供することである。
An object of the present invention is to provide a technique for detecting and tracking only a specific person and adjusting the exposure condition or focus to that person.
Another object of the present invention is to provide a technique that enables a specific subject to be tracked to be selected at the time of photographing by an easy operation.

請求項1の発明は、撮影レンズにより形成される光像を撮像し、動画像の映像信号を生成する撮像部と、モニタを有すると共に、映像信号を画像としてモニタに表示する表示部とを備えたカメラである。本請求項の発明は、以下の点を特徴とする。第1に、表示部は、タッチパネル式であり、モニタの表示画像から、モニタ上で接触動作がされた箇所に対応する特定部位を抽出する。第2に、特定部位と、特定部位の抽出後に生成された映像信号が表す画像とを比較し、特定部位に該当する画像部分を映像信号から検出する検出部を有する。   The invention of claim 1 includes an imaging unit that captures a light image formed by the photographing lens and generates a video signal of a moving image, and a display unit that has a monitor and displays the video signal as an image on the monitor. Camera. The invention of this claim is characterized by the following points. 1stly, a display part is a touch panel type, and extracts the specific site | part corresponding to the location where contact operation was performed on the monitor from the display image of a monitor. Second, the image processing apparatus includes a detection unit that compares the specific part with an image represented by the video signal generated after the specific part is extracted, and detects an image part corresponding to the specific part from the video signal.

請求項2の発明は、請求項1のカメラにおいて、顔認識処理、服の模様の認識、音声認識の少なくともいずれかの手段によって特定部位に該当する画像部分を検出部が検出することを特徴とする。
請求項3の発明は、請求項1または請求項2のカメラにおいて、検出部の検出結果に基づいて、撮影レンズの画角内において特定部位に該当する被写体を追尾し、露出条件及び撮影レンズのピントの少なくともいずれかを追尾対象の被写体に合わせる追尾部を有することを特徴とする。
According to a second aspect of the present invention, in the camera of the first aspect, the detection unit detects an image portion corresponding to the specific part by at least one of face recognition processing, clothing pattern recognition, and voice recognition. To do.
According to a third aspect of the present invention, in the camera of the first or second aspect, the subject corresponding to the specific part is tracked within the angle of view of the photographic lens based on the detection result of the detection unit, and the exposure condition and the photographic lens It has a tracking unit for adjusting at least one of the focus to a subject to be tracked.

請求項4の発明は、請求項3のカメラにおいて、追尾対象の被写体が画角内から外れた場合、追尾対象の被写体の位置に関する情報を、表示部がモニタに表示することを特徴とする。
請求項5の発明は、請求項1〜請求項4のいずれかのカメラにおいて、特定部位を登録及び記憶する記憶部を有することを特徴とする。
According to a fourth aspect of the present invention, in the camera of the third aspect, when the subject to be tracked is out of the angle of view, the display unit displays information on the position of the subject to be tracked on the monitor.
According to a fifth aspect of the present invention, the camera according to any one of the first to fourth aspects includes a storage unit for registering and storing a specific part.

請求項6のカメラは、撮像部と、検出部と、追尾部とを備えたことを特徴とする。撮像部は、撮影レンズにより形成される光像を撮像し、動画像の映像信号を生成する。検出部は、予め登録された特定画像と、映像信号が表す画像とを比較し、特定画像に該当する画像部分を映像信号から検出する。追尾部は、検出部の検出結果に基づいて、撮影レンズの画角内において特定画像に該当する被写体を追尾し、露出条件及び撮影レンズのピントの少なくともいずれかを追尾対象の被写体に合わせる。   According to a sixth aspect of the present invention, the camera includes an imaging unit, a detection unit, and a tracking unit. The imaging unit captures a light image formed by the photographic lens and generates a video signal of a moving image. The detection unit compares a specific image registered in advance with an image represented by the video signal, and detects an image portion corresponding to the specific image from the video signal. The tracking unit tracks the subject corresponding to the specific image within the angle of view of the photographic lens based on the detection result of the detection unit, and matches at least one of the exposure condition and the focus of the photographic lens with the subject to be tracked.

請求項7の発明は、請求項6のカメラにおいて、顔認識処理、服の模様の認識、音声認識の少なくともいずれかの手段によって特定画像に該当する画像部分を検出部が検出することを特徴とする。
請求項8の発明は、請求項3、請求項4、請求項6、請求項7のいずれかのカメラにおいて、追尾対象の被写体が画角内から外れた場合、画角内全体に合う露出条件に近づくように、追尾部が露出条件を段階的に変更することを特徴とする。
The invention according to claim 7 is the camera according to claim 6, wherein the detection unit detects an image portion corresponding to the specific image by at least one of face recognition processing, clothing pattern recognition, and voice recognition. To do.
In the camera of any one of claims 3, 4, 6, and 7, when the subject to be tracked deviates from the angle of view, the exposure condition that fits the entire angle of view is achieved. The tracking unit changes the exposure condition step by step so as to approach.

請求項9の発明は、請求項3、請求項4、請求項6、請求項7のいずれかのカメラにおいて、追尾対象の被写体が撮影レンズの画角内から外れた場合、追尾部が露出条件を画角内全体に適切な条件に切り替えることを特徴とする。
請求項10の発明は、請求項3、請求項4、請求項6、請求項7のいずれかのカメラにおいて、追尾対象の被写体が撮影レンズの画角内から外れた場合、被写体が画角内から外れた前後において、追尾部が露出条件を変えないことを特徴とする。
According to a ninth aspect of the present invention, in the camera according to any one of the third, fourth, sixth, and seventh aspects, when the subject to be tracked is out of the field angle of the photographing lens, the tracking portion is exposed. Is switched to a condition suitable for the entire angle of view.
According to a tenth aspect of the present invention, in the camera of any one of the third, fourth, sixth, and seventh aspects, when the subject to be tracked is out of the field angle of the photographing lens, the subject is within the field angle. The tracking unit is characterized in that it does not change the exposure condition before and after being deviated from.

本発明の一形態では、映像信号を画像としてモニタに表示し、表示画像から、モニタ上で接触動作がされた箇所に対応する特定部位を抽出した後、特定部位に該当する被写体を新たに生成される映像信号から検出する。従って、追尾対象にする被写体の選択は、複雑な操作を伴わず、容易な操作によって撮影時に実行できる。
本発明の別の一形態では、顔認識処理のみにより画角内の人物を検出するのではなく、特定画像と、映像信号が表す画像とを比較し、特定画像に該当する画像部分を映像信号から検出する。従って、顔画像などの個人を識別可能なものを特定画像として予め登録しておけば、他の人物とは区別して特定の人物のみを検出できる。そして、この検出結果に基づいて特定画像に該当する被写体を追尾するので、他の人物とは区別して特定の人物に露出条件またはピントを合わせることができる。
In one embodiment of the present invention, a video signal is displayed as an image on a monitor, and a specific part corresponding to a place where a contact operation is performed on the monitor is extracted from the display image, and then a subject corresponding to the specific part is newly generated. Detected from the video signal. Accordingly, the selection of the subject to be tracked can be executed at the time of shooting by a simple operation without complicated operation.
In another embodiment of the present invention, the person within the angle of view is not detected only by face recognition processing, but the specific image is compared with the image represented by the video signal, and the image portion corresponding to the specific image is detected as the video signal. Detect from. Therefore, if an image that can identify an individual such as a face image is registered in advance as a specific image, only a specific person can be detected separately from other persons. Since the subject corresponding to the specific image is tracked based on the detection result, the exposure condition or the focus can be adjusted to the specific person in distinction from other persons.

以下、本発明の実施の形態について、構成、動作、効果、補足事項の順に図面を参照しながら説明する。
<本実施形態の構成>
図1は、本実施形態のビデオカメラのブロック図を示している。図に示すように、ビデオカメラ8は、撮影レンズ12と、撮像素子20と、アナログ信号処理部24と、A/D変換部28と、タイミングジェネレータ32と、焦点制御部36と、音声検出部38と、操作部40と、MPU(Micro Processor Unit)44と、システムバス48と、画像処理部52と、メモリ56と、登録用メモリ60と、記録読み出し部64と、交換可能な記録媒体68と、モニタ制御部84と、タッチパネル式のモニタ88とを有している。
Hereinafter, embodiments of the present invention will be described in the order of configuration, operation, effect, and supplementary matter with reference to the drawings.
<Configuration of this embodiment>
FIG. 1 shows a block diagram of the video camera of this embodiment. As shown in the figure, the video camera 8 includes a photographing lens 12, an image sensor 20, an analog signal processing unit 24, an A / D conversion unit 28, a timing generator 32, a focus control unit 36, and a sound detection unit. 38, an operation unit 40, an MPU (Micro Processor Unit) 44, a system bus 48, an image processing unit 52, a memory 56, a registration memory 60, a recording / reading unit 64, and an exchangeable recording medium 68. And a monitor control unit 84 and a touch panel type monitor 88.

撮像素子18は、赤色光、緑色光、青色光のいずれかを選択的に透過させる多数の画素を例えばベイヤー正方配列として配置したものであり、動画撮影が可能なものである。
MPU44は、ビデオカメラ8のシステム制御を行う。
操作部40は、電源釦、動画一時停止釦、撮影モード等を設定するための釦群を有している(図示せず)。
The imaging element 18 is configured by arranging a large number of pixels that selectively transmit any one of red light, green light, and blue light in, for example, a Bayer square arrangement, and is capable of moving image shooting.
The MPU 44 performs system control of the video camera 8.
The operation unit 40 includes a button group for setting a power button, a moving image pause button, a shooting mode, and the like (not shown).

本実施形態の主な特徴は、第1追尾モード、第2追尾モード、第3追尾モード、第4追尾モードの4つの撮影モードを有することと、モニタ88がタッチパネル式であることである。これら4つの撮影モードの特徴の1つは、他の人物とは区別して特定の人物を検出及び追尾できることである。
第1追尾モードでは、動画表示中において一旦動画を停止して静止画表示にし、モニタ88上でタッチされた画像領域を追尾対象の被写体の画像とし、その画像に基づいて追尾を行う。第2追尾モードでは、動画表示中にモニタ88上でタッチされた画像領域を追尾対象の被写体の画像とし、同様に追尾を行う。第3追尾モードでは、記録媒体68中の映像をモニタ88上に再生し、モニタ88上でタッチされた画像領域を追尾対象の被写体の画像とする。第4追尾モードでは、撮影前に既に登録されている特定画像のいずれかを選択し、それを追尾対象の被写体の画像とする。
The main features of this embodiment are that it has four shooting modes of a first tracking mode, a second tracking mode, a third tracking mode, and a fourth tracking mode, and that the monitor 88 is a touch panel type. One of the features of these four shooting modes is that a specific person can be detected and tracked separately from other persons.
In the first tracking mode, during the moving image display, the moving image is temporarily stopped to be displayed as a still image, the image area touched on the monitor 88 is set as an image of the subject to be tracked, and tracking is performed based on the image. In the second tracking mode, the image area touched on the monitor 88 during moving image display is used as the image of the subject to be tracked, and tracking is performed in the same manner. In the third tracking mode, the video in the recording medium 68 is reproduced on the monitor 88, and the image area touched on the monitor 88 is set as the image of the subject to be tracked. In the fourth tracking mode, any one of the specific images already registered before shooting is selected and used as the image of the subject to be tracked.

図2は、モニタ88の表示例を示している。追尾対象の被写体の選択は、図2(a)に示すようにモニタ88の表示画像においてその被写体の顔領域を指でタッチすることで行われる。或いは、顔の輪郭を指でなぞる等によって行ってもよい。そして、画像における顔の領域面積が小さい等の原因により、ユーザがタッチした領域に対して顔認識できなかった場合、認識できなかったことと、その原因とが図2(b)のようにモニタ88の表示画像に重畳して表示される
また、追尾対象の被写体が選択された後、ビデオカメラ8が画角内にその被写体を検出した場合、図2(c)に示すようにモニタ88の表示画像において、追尾対象の人物の顔に例えば赤の十字が重畳して表示される。さらに、本実施形態のもう1つの特徴は、追尾対象の被写体が画角内から外れた場合に、図2(d)に示すようにその被写体の位置情報をモニタ88に表示することである。本実施形態では一例として、追尾対象の被写体が存在すると考えられる方向を矢印で表示する。
FIG. 2 shows a display example on the monitor 88. The subject to be tracked is selected by touching the face area of the subject on the display image of the monitor 88 with a finger as shown in FIG. Alternatively, it may be performed by tracing the outline of the face with a finger. If the face cannot be recognized for the area touched by the user due to the small area of the face in the image or the like, the fact that the face could not be recognized and the cause is monitored as shown in FIG. When the video camera 8 detects the subject within the angle of view after the subject to be tracked is selected, as shown in FIG. In the display image, for example, a red cross is superimposed and displayed on the face of the person to be tracked. Further, another feature of the present embodiment is that, when the subject to be tracked is out of the angle of view, the position information of the subject is displayed on the monitor 88 as shown in FIG. In this embodiment, as an example, the direction in which the subject to be tracked is considered to be present is displayed with an arrow.

<本実施形態の動作説明>
本実施形態のビデオカメラ8は、電源釦がオンされると、電源オン処理を行う。この後、ユーザは、操作部40の釦群を操作して、撮影モードなどの設定が可能である。以下、上述した第1〜第4追尾モードのいずれかに設定されている場合について、順に動作を説明する。なお、実際には公知の他の撮影モードに設定されている場合もあるが、他の撮影モードは本願には直接関係がないので、説明を省略する。
<Description of operation of this embodiment>
The video camera 8 of this embodiment performs a power-on process when the power button is turned on. Thereafter, the user can set the shooting mode and the like by operating the button group of the operation unit 40. Hereinafter, the operation will be described in order for the case where one of the first to fourth tracking modes described above is set. Actually, other known shooting modes may be set, but the other shooting modes are not directly related to the present application, and thus the description thereof is omitted.

図3、図4、図5、図6は、それぞれ、第1追尾モード、第2追尾モード、第3追尾モード、第4追尾モードでのビデオカメラ8の動作を示す流れ図である。まず、図3に示すステップ番号に従って、第1追尾モードから説明する。
[ステップS1]ユーザは、追尾対象にする人物の音声をビデオカメラ8に対して録音する。MPU44は、音声検出部38が検出する音声を、追尾対象の人物の音声として登録用メモリ60に記憶させる。
FIGS. 3, 4, 5, and 6 are flowcharts showing the operation of the video camera 8 in the first tracking mode, the second tracking mode, the third tracking mode, and the fourth tracking mode, respectively. First, the first tracking mode will be described according to the step numbers shown in FIG.
[Step S1] The user records the audio of the person to be tracked on the video camera 8. The MPU 44 stores the sound detected by the sound detection unit 38 in the registration memory 60 as the sound of the person to be tracked.

[ステップS2]音声検出部38は、音声の検出を開始する。また、撮像素子20は、露光されて電荷の蓄積及び排出を繰り返し、映像信号を所定のフレームレート(例えば30フレーム/秒)で連続的に出力する。この映像信号は、アナログ信号処理部24によりクランプ処理や感度補正処理が施された後、A/D変換部28によりデジタルの映像信号に変換される。この映像信号は、ホワイトバランス調整やカラープロセス処理等が画像処理部52により施された後、モニタ88に動画表示される。   [Step S2] The voice detection unit 38 starts voice detection. Further, the image pickup device 20 is repeatedly exposed and repeatedly accumulates and discharges charges, and continuously outputs a video signal at a predetermined frame rate (for example, 30 frames / second). This video signal is subjected to clamp processing and sensitivity correction processing by the analog signal processing unit 24 and then converted to a digital video signal by the A / D conversion unit 28. The video signal is subjected to white balance adjustment, color process processing, and the like by the image processing unit 52 and then displayed as a moving image on the monitor 88.

[ステップS3]動画一時停止釦がオンされた場合、それに同期してMPU44は、モニタ88上の表示画像をその時点で表示されていたものに固定する。なお、撮像素子20の露光による映像信号の生成動作は、継続して行ってよい。この後ステップS4に進む。動画一時停止釦がオンされない場合、MPU44は待機する。
[ステップS4]モニタ88上の表示画像は静止しており、ユーザは、モニタ88上で追尾対象にしたい被写体人物の顔領域をタッチする(前述の図2(a)参照)。ユーザが特定の領域をなぞるようにタッチした場合、MPU44は、なぞられた領域に対応する画像(なぞられた領域内に表示されている画像)を、モニタ制御部84を介して抽出する。ユーザが一点のみタッチした場合、MPU44は、タッチされた部分を中心として肌色部分及び黒色部分(髪の毛に相当)が包括されるように、画像を抽出する。
[Step S3] When the moving image pause button is turned on, in synchronization with it, the MPU 44 fixes the display image on the monitor 88 to the one displayed at that time. Note that the video signal generation operation by the exposure of the image sensor 20 may be continuously performed. Thereafter, the process proceeds to step S4. If the video pause button is not turned on, the MPU 44 waits.
[Step S4] The display image on the monitor 88 is stationary, and the user touches the face area of the subject person to be tracked on the monitor 88 (see FIG. 2A). When the user touches to trace a specific area, the MPU 44 extracts an image corresponding to the traced area (an image displayed in the traced area) via the monitor control unit 84. When the user touches only one point, the MPU 44 extracts an image so that the skin color portion and the black portion (corresponding to hair) are included around the touched portion.

[ステップS5]ステップS4で抽出した画像領域には、特定人物の顔として認識できる程度に特徴部分が表れているか否かをMPU44は判定する。この判定は例えば、顔認識処理を行い、顔認識ができた場合に特徴点を解析することにより行われる。
顔認識処理では、抽出した画像領域において、唇、目、眉毛等の顔の特徴点を探す。唇の位置は、例えば、周囲よりもやや赤い領域を検出することで判定できる。目の位置は、例えば、瞳に相当する黒く丸い部分と、その両側の白い部分とを検出することで判定できる。両眉毛の位置は、例えば、両目の上方において周囲よりもやや黒い2つの領域を検出することで判定できる。そして、これら顔の特徴点を内側に含むと共にほぼ肌色と見なせる領域を検出し、これにより画像における顔の位置、及び顔の領域面積を判定する。
[Step S5] The MPU 44 determines whether or not a feature portion appears in the image region extracted in step S4 to such an extent that it can be recognized as the face of a specific person. This determination is performed, for example, by performing face recognition processing and analyzing feature points when face recognition is possible.
In the face recognition processing, facial feature points such as lips, eyes, and eyebrows are searched for in the extracted image region. The position of the lips can be determined, for example, by detecting an area slightly redder than the surroundings. The position of the eyes can be determined, for example, by detecting a black round part corresponding to the pupil and white parts on both sides thereof. The position of both eyebrows can be determined, for example, by detecting two areas slightly blacker than the surroundings above the eyes. Then, an area that includes these facial feature points on the inside and can be regarded almost as a skin color is detected, and thereby the position of the face in the image and the area of the face area are determined.

上述の顔認識ができた場合、眉毛の両端、両目の端、唇の両端等の顔の特徴部分の座標の組み合わせと、顔の輪郭と、頬や額等の色彩とを判定する。但し、求めた特徴部分の座標の組み合わせにおいて、左右非対称の度合いが大きい場合、判定は失敗したものとする。この原因としては、顔がビデオカメラ8に対して十分正面を向いていなかったことが考えられる。そして、判定に成功した場合、特徴部分が十分明瞭に表れているとしてステップS7に進む。顔認識ができなかった場合、或いは、顔認識はできたが特徴部分の判定ができなかった場合、ステップS6に進む。   When the above-described face recognition can be performed, the combination of the coordinates of the facial features such as the ends of the eyebrows, the ends of both eyes, and the ends of the lips, the outline of the face, and the colors of the cheeks and forehead are determined. However, if the degree of left-right asymmetry is large in the obtained combination of coordinates of the characteristic portion, the determination is assumed to have failed. This may be because the face was not sufficiently facing the video camera 8. If the determination is successful, the process proceeds to step S7 on the assumption that the characteristic portion has appeared sufficiently clearly. If face recognition could not be performed, or if face recognition could be performed but feature portions could not be determined, the process proceeds to step S6.

[ステップS6]MPU44は、ステップS5において顔認識或いは特徴部分の判定ができなかった原因を判定する。原因としては、画像における顔の領域面積が小さい、顔がビデオカメラ8に対して十分正面を向いていなかった等が挙げられる。そしてMPU44は、顔認識または特徴部分の判定ができなかったことと、その原因とを前述の図2(b)のようにモニタ88に表示させる(例えば、『顔の領域面積を大きくして下さい』、『もっと正面を向いたものにして下さい』等)。これにより、ステップS3、S4の操作の再実行をユーザに促す。この後、ステップS3に戻る。   [Step S6] The MPU 44 determines the reason why the face recognition or the feature portion could not be determined in step S5. Causes include a small face area in the image and a face that is not sufficiently facing the video camera 8. Then, the MPU 44 displays the fact that the face recognition or the feature portion could not be determined and the cause thereof on the monitor 88 as shown in FIG. 2B (for example, “increase the area of the face area”). “Please make it more front-facing”). This prompts the user to re-execute the operations in steps S3 and S4. Thereafter, the process returns to step S3.

[ステップS7]MPU44は、ステップS5で判定した顔の特徴部分の座標の組み合わせと、顔の輪郭と、頬や額等の色彩と、ステップS4で抽出した画像領域とを追尾対象の人物の識別情報として登録用メモリ60に記憶させる。この後、ステップS2と同様の動画撮影、モニタ88上の動画表示を再開する。また、ユーザは、ビデオカメラ8を特定人物に向ける。これ以降、後述のステップS10までの間において、ユーザのトリガー操作があった場合、MPU44は、割り込み処理的に、記録読み出し部64に記録媒体68への動画及び音声の記録を開始させる。   [Step S7] The MPU 44 identifies the person to be tracked based on the combination of the coordinates of the facial feature determined in Step S5, the outline of the face, the colors of the cheeks and forehead, and the image area extracted in Step S4. Information is stored in the registration memory 60. Thereafter, the moving image shooting similar to step S2 and the moving image display on the monitor 88 are resumed. In addition, the user points the video camera 8 toward a specific person. Thereafter, when a user's trigger operation is performed until step S10 described later, the MPU 44 causes the recording / reading unit 64 to start recording a moving image and audio on the recording medium 68 in an interrupt process.

[ステップS8]MPU44は、生成された映像信号における最新のフレームに対して前述の顔認識処理を行い、顔領域を検出する。顔領域が検出された場合、顔部分の画像を抽出してからステップS9に進み、検出されない場合、また新たに生成された最新のフレームに対して同様の処理を行う。なお、顔の検出は、生成される全フレームに対して行う必要はなく、例えば1フレーム/秒でよい。   [Step S8] The MPU 44 performs the aforementioned face recognition processing on the latest frame in the generated video signal to detect a face area. If a face area is detected, an image of the face portion is extracted and then the process proceeds to step S9. If not detected, the same process is performed on the newly generated latest frame. Note that face detection need not be performed on all generated frames, and may be, for example, 1 frame / second.

[ステップS9]MPU44は、ステップS8で抽出した顔領域と、登録用メモリ60に記憶させた追尾対象の人物の識別情報との合致判定を行う。具体的には、特徴部分の座標の組み合わせと、顔の輪郭と、頬や額等の色彩とが所定の割合以上で合致すれば、同一人物と判定する。
顔領域の画像による合致判定が微妙な場合、MPU44は、判定時に音声検出部38により検出される音声と、ステップS1で登録した追尾対象の人物の音声とが一致するか否かを判断する。音声が一致すれば同一人物と判定する。音声の一致は、例えば音の周波数で判断すればよい。同一人物と判定された場合、撮影レンズ12の画角内に主要被写体が入ったと判断できるのでステップS10に進み、同一人物と判定されなかった場合、ステップS8に戻る。
[Step S <b> 9] The MPU 44 determines whether the face area extracted in Step S <b> 8 matches the identification information of the tracking target person stored in the registration memory 60. Specifically, if the combination of the coordinates of the feature portion, the face outline, and the colors of the cheeks and the forehead match at a predetermined ratio or more, it is determined that they are the same person.
When the match determination based on the face area image is delicate, the MPU 44 determines whether or not the sound detected by the sound detection unit 38 at the time of determination matches the sound of the person to be tracked registered in step S1. If the voices match, it is determined that they are the same person. The coincidence of voices may be determined, for example, based on the sound frequency. If it is determined that the person is the same person, it can be determined that the main subject is within the angle of view of the photographic lens 12, so the process proceeds to step S10. If it is not determined that the person is the same person, the process returns to step S8.

[ステップS10]MPU44は、前述の図2(c)のような表示を行うことで追尾対象の人物を検出したことをユーザに知らせると共に、追尾の動作を開始する。具体的には、MPU44及び焦点制御部36は、画角内におけるステップS9で抽出した顔領域の位置に基づいて、追尾対象の人物の顔に撮影レンズ12のピントを合わせる。また、MPU44は、追尾対象の人物の顔が適正露出になるように絞り値、シャッタスピード等の露出条件を設定する。そして、この後は、新たに生成された最新のフレームから追尾対象の人物の顔を検出し、ピント位置及び露出条件を随時更新する動作を撮影終了まで繰り返す。   [Step S10] The MPU 44 informs the user that the person to be tracked has been detected by performing the display as shown in FIG. 2C, and starts the tracking operation. Specifically, the MPU 44 and the focus control unit 36 focus the photographing lens 12 on the face of the person to be tracked based on the position of the face area extracted in step S9 within the angle of view. Further, the MPU 44 sets exposure conditions such as an aperture value and a shutter speed so that the face of the person to be tracked has a proper exposure. After that, the operation of detecting the face of the person to be tracked from the newly generated latest frame and updating the focus position and the exposure condition as needed is repeated until the end of shooting.

なお、本実施形態では、露出条件の内の撮像感度(撮像素子20のISO値)は例えば100で固定とするが、変えてもよい。また、本実施形態では一例として、追尾開始時において記録媒体68への動画及び音声の記録が開始されていなければ開始するが、ユーザのトリガー操作がない限り録画しないようにしてもよい。
[ステップS11]新たに生成された最新のフレームに対して顔領域の検出を行い、顔領域が検出されたら、追尾対象と一致するか否かを判定する。一致する場合、画角内における抽出した顔領域に対し、ピント及び露出条件を合わせた後、ステップS14に進む。ステップS14では、撮影終了の指示がない限りこのステップ11に戻る。従って、ピント位置と、露出条件とが所定の時間間隔で更新される。
In the present embodiment, the imaging sensitivity (ISO value of the imaging device 20) in the exposure condition is fixed at 100, for example, but may be changed. In the present embodiment, as an example, when recording is not started, the recording and recording of the moving image and the sound on the recording medium 68 are started. However, the recording may not be performed unless the user performs a trigger operation.
[Step S11] A face area is detected with respect to the newly generated latest frame. When the face area is detected, it is determined whether or not the face area matches the tracking target. If they match, after adjusting the focus and exposure conditions for the extracted face area within the angle of view, the process proceeds to step S14. In step S14, the process returns to step 11 as long as there is no instruction to end photographing. Accordingly, the focus position and the exposure condition are updated at predetermined time intervals.

この更新の間隔、即ち、ステップS11で最新のフレームに対して顔領域の検出を行った後、ステップS14を介して再度ステップS11に戻って顔領域の検出を行う間隔は、撮像素子20のフレームレートの間隔と同じである必要はなく、例えば1秒でよい。また、このステップS11で顔領域が検出されなかった場合、或いは、検出されても追尾対象と一致しない場合、追尾対象の人物が画角内から外れたものと判断して、ステップS12に進む。なお、追尾対象の人物が画角内から外れても、撮影や記録媒体68への記録は継続して行う。   This update interval, that is, after detecting the face area for the latest frame in step S11, returns to step S11 again via step S14, and the interval for detecting the face area is the frame of the image sensor 20. It does not have to be the same as the rate interval, and may be 1 second, for example. If no face area is detected in step S11, or if it does not match the tracking target even if it is detected, it is determined that the person to be tracked is out of the angle of view, and the process proceeds to step S12. Even if the person to be tracked is out of the angle of view, shooting and recording on the recording medium 68 are continued.

[ステップS12]MPU44は、最新のフレームの直前の数フレームから追尾対象の人物の顔領域をそれぞれ検出する。MPU44は、検出した顔領域の画角内における位置をフレーム毎に比較して、その人物の動いている方向を判定する。そして、MPU44は、その方向を例えば矢印でモニタ88上の画像に重畳して表示させる(前述の図2(d)参照)。   [Step S12] The MPU 44 detects the face area of the person to be tracked from several frames immediately before the latest frame. The MPU 44 compares the position of the detected face area within the angle of view for each frame, and determines the direction in which the person is moving. Then, the MPU 44 displays the direction superimposed on the image on the monitor 88 with an arrow, for example (see FIG. 2D described above).

[ステップS13]MPU44は、画角内全体が適正露出になる露出条件を算出し、算出した露出条件になるように、露出条件を現在のものから段階的に変更する。これは、露出条件の算出対象領域を追尾対象の顔領域から画面全体に徐々に拡大する意味ではなく、画角内全体が適正露出となる条件に徐々に近づくように、露出条件の各々のパラメータを何回かに分けて変更する意味である。   [Step S13] The MPU 44 calculates an exposure condition in which the entire angle of view is properly exposed, and changes the exposure condition step by step from the current one so that the calculated exposure condition is obtained. This does not mean that the exposure condition calculation target area is gradually expanded from the tracking target face area to the entire screen, but each parameter of the exposure condition so that it gradually approaches the condition where the entire angle of view is properly exposed. Means to change it in several times.

例えば、追尾中には露出条件が{絞り2、シャッタスピード1/60秒}であり、ここで算出した露出条件が{絞り16、シャッタスピード1/200秒}であれば、まず、露出条件を例えば{絞り4、シャッタスピード1/100秒}に変更する。この後、{絞り8、シャッタスピード1/150秒}に変更後、算出した露出条件に変更する。この後、ステップS8に戻る。   For example, if the exposure condition is {aperture 2, shutter speed 1/60 sec} during tracking and the exposure condition calculated here is {aperture 16, shutter speed 1/200 sec}, first the exposure condition is changed. For example, it is changed to {aperture 4, shutter speed 1/100 seconds}. Thereafter, after changing to {aperture 8, shutter speed 1/150 seconds}, the exposure condition is changed to the calculated exposure condition. Thereafter, the process returns to step S8.

[ステップS14]撮影終了の指示がされない場合、ステップS11に戻って追尾を継続する。撮影終了の指示がされた場合、撮影及び記録を終了する。以上が第1追尾モードの動作説明である。
次に、図4に示すステップ番号に従って、第2追尾モードを説明する。
[ステップS31]前記ステップS2と同様に、音声検出、動画撮影、及びモニタ88上の動画表示が開始される。第2追尾モードでは、これらの処理は撮影終了まで継続して行われる。
[Step S14] If an instruction to end shooting is not given, the process returns to step S11 to continue tracking. When an instruction to end shooting is given, shooting and recording are ended. The above is the description of the operation in the first tracking mode.
Next, the second tracking mode will be described according to the step numbers shown in FIG.
[Step S31] As in step S2, voice detection, moving image shooting, and moving image display on the monitor 88 are started. In the second tracking mode, these processes are continuously performed until the end of shooting.

[ステップS32]ユーザは、動画が表示されているモニタ88上で、追尾対象にしたい被写体人物の顔領域をタッチする。MPU44は、タッチされた、或いはなぞられた領域に対応する画像を前記ステップS4と同様に抽出する。また、MPU44は、タッチされた時点を中心とする前後の例えば5秒程度の間に音声検出部38により検出された音声を、追尾対象の人物の音声として登録用メモリ60に記憶させる。   [Step S32] The user touches the face area of the subject person to be tracked on the monitor 88 on which the moving image is displayed. The MPU 44 extracts an image corresponding to the touched or traced area as in step S4. In addition, the MPU 44 stores, in the registration memory 60, the sound detected by the sound detection unit 38, for example, for about 5 seconds before and after the touched point, as the sound of the person to be tracked.

[ステップS33]ステップS32で抽出した画像領域に対して、前記ステップS5と同様の顔認識処理を行い、顔認識ができた場合、特徴部分の判定を行う。特徴部分の座標の組み合わせと、顔の輪郭と、頬や額等の色彩との判定に成功した場合、ステップS35に進む。顔認識ができなかった場合、或いは、顔認識はできたが特徴部分の判定ができなかった場合、ステップS34に進む。   [Step S33] The face recognition process similar to that in step S5 is performed on the image region extracted in step S32. If the face recognition is completed, the feature portion is determined. If the determination of the combination of the coordinates of the feature portion, the face outline, and the color such as the cheek or forehead is successful, the process proceeds to step S35. If face recognition could not be performed, or if face recognition could be performed but feature portions could not be determined, the process proceeds to step S34.

[ステップS34]前記ステップS6と同様に、顔認識または特徴部分の判定ができなかったことと、その原因とをモニタ88に表示する。さらにMPU44は、ステップS32で追尾対象の人物の声として登録用メモリ60に記憶させた音声を消去する。この後、ステップS32に戻る。
[ステップS35]MPU44は、ステップS33で判定した顔の特徴部分の座標の組み合わせと、顔の輪郭と、頬や額等の色彩と、ステップS32で抽出した画像領域とを追尾対象の人物の識別情報として登録用メモリ60に記憶させる。これ以降にユーザのトリガー操作があった場合、割り込み処理的に、記録媒体68への動画及び音声の記録を開始する。以降のステップS36〜S42の処理は、追尾対象の人物を検出して、それにピント及び露出条件を合わす処理であり、ステップ番号の違いを除いて第1追尾モードのステップS8〜S14とそれぞれ同様である。以上が第2追尾モードの動作説明である。
[Step S34] Similar to step S6, the face recognition or the feature portion cannot be determined and the cause thereof are displayed on the monitor 88. Further, the MPU 44 deletes the voice stored in the registration memory 60 as the voice of the person to be tracked in step S32. Thereafter, the process returns to step S32.
[Step S35] The MPU 44 identifies the person to be tracked based on the combination of the coordinates of the facial feature determined in Step S33, the face outline, the color of the cheeks and the forehead, and the image area extracted in Step S32. Information is stored in the registration memory 60. If the user performs a trigger operation thereafter, recording of moving images and audio on the recording medium 68 is started in an interrupt process. The subsequent processes in steps S36 to S42 are processes for detecting a tracking target person and adjusting the focus and exposure conditions thereto, and are the same as steps S8 to S14 in the first tracking mode except for the difference in step numbers. is there. The above is the description of the operation in the second tracking mode.

次に、図5に示すステップ番号に従って、第3追尾モードを説明する。
[ステップS61]MPU44は、記録媒体68に記録された映像信号の読み出しを記録読み出し部64に行わせ、その動画をモニタ88に表示させ、その音声を不図示の音声出力部から再生させる。
[ステップS62]ユーザは、追尾対象にしたい人物の映像が表示されると、その顔領域をモニタ88上で選択する。MPU44は、前記ステップS32と同様にタッチされた或いはなぞられた領域内の画像を抽出し、タッチされた時点を中心とする前後の例えば5秒程度の音声を追尾対象の人物の音声として登録用メモリ60に記憶させる。なお、撮影しながらの動画表示ではなく、再生であるので、一時停止釦(図示せず)を押す等により静止画表示にして選択することも可能である。
Next, the third tracking mode will be described according to the step numbers shown in FIG.
[Step S61] The MPU 44 causes the recording / reading unit 64 to read the video signal recorded on the recording medium 68, displays the moving image on the monitor 88, and reproduces the sound from a sound output unit (not shown).
[Step S62] When an image of a person to be tracked is displayed, the user selects the face area on the monitor 88. The MPU 44 extracts an image in the touched or traced area in the same manner as in step S32, and registers, for example, a voice of about 5 seconds before and after the touched point as the voice of the person to be tracked. Store in the memory 60. Since it is not a moving image display while shooting, but playback, it is possible to select a still image display by pressing a pause button (not shown) or the like.

[ステップS63]ステップS62で抽出した画像領域に対して、前記ステップS5と同様の顔認識処理を行い、顔認識ができた場合、特徴部分の判定を行う。この判定に成功した場合、ステップS65に進む。顔認識ができなかった場合、或いは、顔認識はできたが特徴部分の判定ができなかった場合、ステップS64に進む。
[ステップS64]前記ステップS34と同様に、顔認識または特徴部分の判定ができなかったことと、その原因とをモニタ88に表示し、ステップ62で追尾対象の人物の声として登録用メモリ60に記憶させた音声を消去する。この後、ステップS62に戻る。
[Step S63] The face recognition process similar to that in Step S5 is performed on the image region extracted in Step S62, and when face recognition is completed, the feature portion is determined. If this determination is successful, the process proceeds to step S65. If face recognition could not be performed, or if face recognition could be performed but feature portions could not be determined, the process proceeds to step S64.
[Step S64] Similar to step S34, the fact that face recognition or feature portion determination has failed and the cause thereof are displayed on the monitor 88, and the voice of the person to be tracked is recorded in the registration memory 60 in step 62. Erase the stored voice. Thereafter, the process returns to step S62.

[ステップS65]MPU44は、ステップS64で判定した顔の特徴部分の座標の組み合わせと、顔の輪郭と、頬や額等の色彩と、ステップS62で抽出した画像領域とを追尾対象の人物の識別情報として登録用メモリ60に記憶させる。
[ステップS66]前記ステップS2と同様に撮像素子20の露光が開始され、モニタ88の動画表示が開始される。また、音声検出部38は、音声の検出を開始する。これ以降にユーザのトリガー操作があった場合、割り込み処理的に、記録媒体68への動画及び音声の記録を開始する。以降のステップS67〜S73の処理は、ステップ番号の違いを除いて第1追尾モードのステップS8〜S14とそれぞれ同様である。以上が第3追尾モードの動作説明である。
[Step S65] The MPU 44 identifies the person to be tracked by the combination of the coordinates of the facial feature determined in Step S64, the face outline, the color of the cheeks and the forehead, and the image area extracted in Step S62. Information is stored in the registration memory 60.
[Step S66] In the same manner as in step S2, exposure of the image sensor 20 is started, and moving image display on the monitor 88 is started. In addition, the sound detection unit 38 starts detecting sound. Thereafter, when the user performs a trigger operation, recording of a moving image and audio on the recording medium 68 is started in an interrupt process. Subsequent steps S67 to S73 are the same as steps S8 to S14 in the first tracking mode except for the difference in the step numbers. The above is the description of the operation in the third tracking mode.

次に、第4追尾モードを説明する。第4追尾モードでは、登録メモリ用60には、複数の人物の識別情報(顔画像、顔の特徴部分の座標の組み合わせ、顔の輪郭、頬や額等の色彩)、及び音声が、ID番号により人物毎に区別されて予め登録されている。登録方法は例えば、第2追尾モードのように特定人物を撮影してモニタ88に表示させ、モニタ上88でタッチされた画像部分に対して顔認識及び特徴部分の判定を行い、判定結果と共に音声を登録用メモリ60に記憶させればよい。或いは、第3追尾モードのように記録媒体68中の映像をモニタ88上に再生し、同様に登録してもよい。   Next, the fourth tracking mode will be described. In the fourth tracking mode, the registration memory 60 includes a plurality of person identification information (a face image, a combination of coordinates of facial features, a color of a face outline, a cheek, a forehead, etc.), and a voice ID number. Thus, each person is distinguished and registered in advance. For example, as in the second tracking mode, the registration method is such that a specific person is photographed and displayed on the monitor 88, face recognition and feature part determination are performed on the image part touched on the monitor 88, and the sound together with the determination result May be stored in the registration memory 60. Alternatively, the video in the recording medium 68 may be reproduced on the monitor 88 and registered in the same manner as in the third tracking mode.

以下、図6に示すステップ番号に従って、第4追尾モードの処理の流れを説明する。
[ステップS91]MPU44は、登録用メモリ60に登録された複数の人物の顔画像をモニタ88に表示させる。
[ステップS92]ユーザは、追尾対象にしたい人物の顔画像をモニタ88上でタッチする。MPU44は、タッチされた顔画像に該当する人物を追尾対象に設定する。
Hereinafter, the process flow of the fourth tracking mode will be described according to the step numbers shown in FIG.
[Step S91] The MPU 44 displays on the monitor 88 face images of a plurality of persons registered in the registration memory 60.
[Step S92] The user touches on the monitor 88 the face image of the person to be tracked. The MPU 44 sets a person corresponding to the touched face image as a tracking target.

[ステップS93]前記ステップS2と同様に撮像素子20の露光が開始され、モニタ88の動画表示が開始される。また、音声検出部38は、音声の検出を開始する。これ以降にユーザのトリガー操作があった場合、割り込み処理的に、記録媒体68への動画及び音声の記録を開始する。以降のステップS94〜S100の処理は、ステップ番号の違いを除いて第1追尾モードのステップS8〜S14とそれぞれ同様である。以上が第4追尾モードの動作説明である。   [Step S93] As in step S2, exposure of the image sensor 20 is started, and moving image display on the monitor 88 is started. In addition, the sound detection unit 38 starts detecting sound. If the user performs a trigger operation thereafter, recording of moving images and audio on the recording medium 68 is started in an interrupt process. The subsequent steps S94 to S100 are the same as steps S8 to S14 in the first tracking mode except for the difference in the step numbers. The above is the description of the operation in the fourth tracking mode.

<本実施形態の効果>
第1追尾モードでは、追尾及び録画前の動画撮影時に動画一時停止釦がオンされると、モニタ88上の表示画像をその時点で表示されていたものに固定する。ユーザは、モニタ88上の静止画像において、追尾対象にしたい人物の顔部分をタッチするだけでその人物を追尾対象として選択できる。従って、選択に際してはタイミングを逃すおそれや複雑な操作はないので、追尾対象にする人物を容易な操作によって撮影時に選択できる。
<Effect of this embodiment>
In the first tracking mode, when the moving image pause button is turned on during moving image shooting before tracking and recording, the display image on the monitor 88 is fixed to the one displayed at that time. The user can select a person as a tracking target simply by touching the face portion of the person to be tracked in the still image on the monitor 88. Therefore, since there is no possibility of missing timing or complicated operations at the time of selection, a person to be tracked can be selected at the time of shooting by an easy operation.

追尾対象の人物の顔画像に基づいて、顔の特徴部分の座標の組み合わせと、顔の輪郭と、頬や額等の色彩とを求め、これら識別情報を追尾対象の人物に該当するか否かの合致判定に用いる。これら識別情報は、通常は個人によって異なるので、複数の人物が画角内に存在しても、その中から追尾対象である特定の人物のみを検出できる。従って、他の人物とは区別して特定の人物のみをして追尾し、その人物に露出条件及びピントを合わせることができる。   Based on the face image of the person to be tracked, the combination of the coordinates of the facial features, the face outline, and the color of the cheek and forehead, etc. are obtained, and whether or not these identification information corresponds to the person to be tracked It is used for the match judgment. Since these pieces of identification information usually differ from person to person, even if a plurality of persons are present in the angle of view, only a specific person as a tracking target can be detected from them. Therefore, only a specific person can be tracked and distinguished from other persons, and the exposure condition and focus can be adjusted to that person.

顔画像に基づいた識別情報による合致判定が微妙な場合、前もって登録した追尾対象の人物の音声と、合致判定時に検出される音声とを比較して判定する。従って、例えば追尾対象の人物がビデオカメラ8から離れ、その顔画像が小さくなって合致判定が微妙になった場合にも、確実に判定できる。
追尾対象の人物が画角内から外れた場合、外れた直前の複数のフレーム画像から動き検出を行い、その人物の動いている方向を判定する。この方向に基づいて、追尾対象の人物の現在位置の方向をモニタ88に表示する。従って、ユーザは、表示された方向にビデオカメラ8を向けるだけで、追尾対象の人物を再度画角内に収めることができる。
When the match determination based on the identification information based on the face image is delicate, the determination is made by comparing the voice of the person to be tracked registered in advance with the voice detected at the match determination. Therefore, for example, even when the person to be tracked leaves the video camera 8 and the face image becomes small and the match determination becomes delicate, the determination can be made reliably.
When the tracking target person deviates from the angle of view, motion detection is performed from a plurality of frame images immediately before deviating, and the moving direction of the person is determined. Based on this direction, the direction of the current position of the person to be tracked is displayed on the monitor 88. Therefore, the user can place the person to be tracked within the angle of view again simply by pointing the video camera 8 in the displayed direction.

また、追尾対象の人物が画角内から外れた場合、画角内全体に合う露出条件に近づくように、露出条件を段階的に変更する。従って、記録映像において画面の明るさなどが急激に変化するおそれはなく、良好な映像として録画できる。
第2対尾モードでは、追尾対象にしたい人物の選択時において静止画表示に切り替えずに動画表示を継続することを除いて、第1追尾モードと同様に動作する。追尾対象にしたい人物の動きが比較的緩やかな場合、動画表示の状態でもタイミングを逃すことなくモニタ88上でその顔画像をタッチできる。従って、第2対尾モードにおいても上述した第1追尾モードと同様の効果が得られる。
In addition, when the tracking target person deviates from the angle of view, the exposure condition is changed step by step so as to approach the exposure condition suitable for the entire angle of view. Therefore, there is no possibility that the brightness of the screen changes rapidly in the recorded video, and the video can be recorded as a good video.
In the second pairing mode, the operation is the same as in the first tracking mode, except that the moving image display is continued without switching to the still image display when the person to be tracked is selected. When the movement of the person to be tracked is relatively slow, the face image can be touched on the monitor 88 without missing the timing even in the moving image display state. Accordingly, the same effect as that of the first tracking mode described above can be obtained in the second tail mode.

第3対尾モードでは、記録媒体68中の映像をモニタ88上に再生し、その映像から追尾対象の人物を選択することを除いて、第1追尾モードと同様に動作する。従って、第3対尾モードにおいても上述した第1追尾モードと同様の効果が得られる。このモードは、追尾対象の人物の選択時において、その人物を撮影する必要がない。従って、例えば防犯カメラにおいて特定の人物を検出したいが、その人物を予め撮影することが困難な場合に有効である。   In the third pairing mode, the same operation as in the first tracking mode is performed except that the video in the recording medium 68 is reproduced on the monitor 88 and a person to be tracked is selected from the video. Therefore, the same effect as that of the first tracking mode described above can be obtained in the third tail mode. In this mode, it is not necessary to photograph the person when the person to be tracked is selected. Therefore, for example, it is effective when it is desired to detect a specific person in a security camera but it is difficult to photograph the person in advance.

第4追尾モードでは、予め登録された複数の人物の顔画像から追尾対象の人物を選択することを除いて、第1追尾モードと同様に動作するので、第1追尾モードと同様の効果が得られる。また、第4追尾モードも、第3対尾モードと同様に追尾対象の人物の選択時において、その人物を撮影する必要がない。従って、第3追尾モードと同様の効果が得られる。   In the fourth tracking mode, the same operation as in the first tracking mode is performed except that a tracking target person is selected from face images of a plurality of persons registered in advance. Thus, the same effect as in the first tracking mode is obtained. It is done. Also, in the fourth tracking mode, it is not necessary to photograph the person when the tracking target person is selected, as in the third pairing mode. Therefore, the same effect as the third tracking mode can be obtained.

<本実施形態の補足事項>
第1〜第4追尾モードにおいて、追尾対象の人物が画角内から外れた場合に、露出条件を段階的に変更する例を述べた。本発明は、かかる実施形態に限定されるものではない。追尾対象の人物が画角内から外れた場合に、露出条件を変えないようにしてもよい。これは、追尾対象の人物がすぐに画角内に戻る可能性が高い場合、追尾対象の人物に合わせた露出条件のままにしておく方がよいからである。或いは、追尾対象の人物が画角内から外れた場合に、露出設定が画角内全体に合うように1度で切り替えてもよい。
<Supplementary items of this embodiment>
In the first to fourth tracking modes, the example in which the exposure condition is changed stepwise when the tracking target person deviates from the angle of view has been described. The present invention is not limited to such an embodiment. The exposure condition may not be changed when the tracking target person falls outside the angle of view. This is because if there is a high possibility that the tracking target person will soon return to the angle of view, it is better to leave the exposure conditions according to the tracking target person. Alternatively, when the person to be tracked is out of the angle of view, the exposure setting may be switched at once so that the exposure setting matches the entire angle of view.

追尾対象の人物が画角内から外れた場合に、記録媒体68への記録を中断しない例を述べた。本発明は、かかる実施形態に限定されるものではない。追尾対象の人物が画角内から外れた瞬間に記録を一時停止し、追尾対象の人物が再び画角内に入ったら記録を再開するようにしてもよい。即ち、追尾対象の人物が映っているフレームのみが記録されるようにしてもよい。そのようにすれば、記録時間を節約できる上に、追尾対象の人物が映っているフレーム画像から画像を抽出する場合において、その作業を効率的に行うことができる。   An example has been described in which the recording on the recording medium 68 is not interrupted when the tracking target person falls outside the angle of view. The present invention is not limited to such an embodiment. Recording may be paused at the moment when the tracking target person falls outside the angle of view, and the recording may be resumed when the tracking target person enters the angle of view again. That is, only the frame in which the person to be tracked is shown may be recorded. By doing so, it is possible to save the recording time and to efficiently perform the work when extracting the image from the frame image in which the person to be tracked is shown.

登録された1つの被写体のみを検出して追尾する例を述べた。本発明は、かかる実施形態に限定されるものではない。例えば、複数の人物を優先順位と共に予め登録しておき、複数の人物を追尾対象としてもよい。その場合、画角内に1人の人物のみが検出されたら、その人物のみを追尾し、複数の人物が検出されたら、最も優先順位の高い人物を追尾すればよい。   An example in which only one registered subject is detected and tracked has been described. The present invention is not limited to such an embodiment. For example, a plurality of persons may be registered in advance with a priority order, and the plurality of persons may be set as tracking targets. In that case, when only one person is detected within the angle of view, only that person is tracked, and when a plurality of persons are detected, the person with the highest priority may be tracked.

第2追尾モードにおいて、追尾対象の人物の顔画像の選択時(ステップS32)に音声も同時に登録する例を述べた。本発明は、かかる実施形態に限定されるものではない。音声登録は、例えばステップS31の前などで、顔画像の選択時とは別に行ってもよい。
第1〜第4追尾モードにおいて、追尾対象の人物に対して露出条件とピントの両方を合わせる例を述べたが、露出条件とピントの内、一方のみを合わせてもよい。
In the second tracking mode, an example has been described in which voice is also registered at the same time when a face image of a person to be tracked is selected (step S32). The present invention is not limited to such an embodiment. The voice registration may be performed separately from the selection of the face image, for example, before step S31.
In the first to fourth tracking modes, the example in which both the exposure condition and the focus are adjusted for the person to be tracked has been described. However, only one of the exposure condition and the focus may be adjusted.

画角内で追尾対象の人物を検出したことをユーザに知らせる手段として、図2(c)のような重畳表示を行う例を述べた。本発明は、かかる実施形態に限定されるものではない。例えば、操作部40の1つとしてランプを設けておき、ランプを点滅させる方法でもよい。なお、記録が開始されているので、音によって知らせることは望ましくない。
本発明による特定の人物を追尾する技術、及び撮影時にタッチパネルによって追尾対象の人物を選択する技術をビデオカメラに適用する例を述べたが、本発明はデジタルスチルカメラ等の他のカメラにも適用可能である。また、追尾対象は、人物ではない他の動物であっても実施可能である。
As an example of informing the user that the tracking target person has been detected within the angle of view, an example in which superimposed display as shown in FIG. 2C is performed has been described. The present invention is not limited to such an embodiment. For example, a method in which a lamp is provided as one of the operation units 40 and the lamp blinks may be used. Since recording has started, it is not desirable to notify by sound.
Although the example of applying the technique for tracking a specific person according to the present invention and the technique for selecting a person to be tracked by a touch panel at the time of shooting to a video camera has been described, the present invention is also applied to other cameras such as a digital still camera. Is possible. Further, the tracking target can be carried out even if it is another animal that is not a person.

モニタ88上でユーザが直接タッチした部分に対応する画像領域を抽出する例を述べた。本発明は、かかる実施形態に限定されるものではない。例えば、タッチ用のペンなどを用い、モニタ表面においてペンの先端が接触した部分に対応する画像領域を抽出してもよい。
連続的に生成される動画のフレームから特定の人物を検出する例を述べた。本発明は、かかる実施形態に限定されるものではない。追尾対象の人物に無線発信リモコンを持たせて、このリモコンが発信する電波に基づいてその人物を検出するようにしてもよい。
The example in which the image area corresponding to the part directly touched by the user on the monitor 88 is extracted has been described. The present invention is not limited to such an embodiment. For example, a touch pen or the like may be used to extract an image area corresponding to a portion where the tip of the pen contacts on the monitor surface.
An example has been described in which a specific person is detected from frames of continuously generated moving images. The present invention is not limited to such an embodiment. A person to be tracked may have a wireless transmission remote controller, and the person may be detected based on radio waves transmitted from the remote controller.

第1〜第4追尾モードにおいて、検出した顔画像と追尾対象の人物との合致判定が微妙な場合に、音声により判定する例を述べた。本発明は、かかる実施形態に限定されるものではない。
音声は判断基準とせず、顔画像による識別情報のみから判定してもよい。
或いは、追尾対象の人物の顔画像及び識別情報を登録せず、音声のみを登録し、音声のみから追尾対象の人物を検出してもよい。具体的には例えば、検出される音声から音源の方向を判定して、その方向に顔画像が検出された場合に、それを追尾対象の人物と判定すればよい。
In the first to fourth tracking modes, an example has been described in which the determination is made by voice when the matching determination between the detected face image and the person to be tracked is delicate. The present invention is not limited to such an embodiment.
Audio may not be used as a determination criterion, but may be determined only from identification information based on a face image.
Alternatively, the face image and identification information of the person to be tracked may not be registered, only the sound may be registered, and the person to be tracked may be detected only from the sound. Specifically, for example, the direction of the sound source is determined from the detected sound, and when a face image is detected in that direction, it may be determined as a person to be tracked.

或いは、顔画像、及び音声は登録せず、追尾対象の人物の服装の画像を抽出し、その服装の色彩や模様などをパターン認識し、追尾対象の人物の合致判定を服装のみで行ってもよい。
或いは、音声は登録せず、顔画像と、顔画像による識別情報と、服装の画像と、服装の画像に対するパターン認識結果とを登録してもよい。この場合例えば、顔画像による識別情報のみでは合致判定があいまいな場合に、服装に基づいて判定すればよい。
Alternatively, face images and voices are not registered, images of the clothes of the person to be tracked are extracted, the colors and patterns of the clothes are recognized, and the match determination of the person to be tracked is performed only with clothes. Good.
Alternatively, the face image, the identification information based on the face image, the clothing image, and the pattern recognition result for the clothing image may be registered without registering the voice. In this case, for example, when the match determination is ambiguous only with the identification information based on the face image, the determination may be made based on clothes.

或いは、顔画像による識別情報は用いず、服装のパターン認識結果と、音声とに基づいて追尾対象の人物の合致判定を行ってもよい。
或いは、顔画像による識別情報、服装のパターン認識結果、音声の3つを合致判定に用いてもよい。
請求項と本実施形態との対応関係は、例えば以下の通りである。
Alternatively, the identification information based on the face image may not be used, and the matching determination of the person to be tracked may be performed based on the clothes pattern recognition result and the voice.
Alternatively, the identification information based on the face image, the pattern recognition result of the clothes, and the voice may be used for the match determination.
The correspondence between the claims and the present embodiment is as follows, for example.

請求項記載の撮像部は、撮影レンズ12、撮像素子20、アナログ信号処理部24、A/D変換部28、タイミングジェネレータ32、焦点制御部36、音声検出部38と、これらに映像信号を生成させるMPU44の機能とに対応する。なお、映像信号を生成する動作の詳細は公知なので、説明を省略した。
請求項記載の表示部は、モニタ88と、モニタ88に映像を表示させるモニタ制御部84及びMPU44の機能とに対応する。
The image pickup unit described in the claims includes the photographing lens 12, the image pickup device 20, the analog signal processing unit 24, the A / D conversion unit 28, the timing generator 32, the focus control unit 36, and the sound detection unit 38, and generates a video signal therein. This corresponds to the function of the MPU 44 to be executed. The details of the operation for generating the video signal are well known, and the description thereof is omitted.
The display unit described in the claims corresponds to the monitor 88 and the functions of the monitor control unit 84 and the MPU 44 that cause the monitor 88 to display an image.

請求項記載の検出部は、画角内において、追尾対象として設定した人物の顔画像に該当する被写体を検出するMPU44の機能に対応する。
請求項記載の追尾部は、画角内において、追尾対象として設定した人物の顔画像に該当する被写体を追尾し、露出条件及びピントを合わせるようにビデオカメラ8の各部を制御するMPU44の機能に対応する。
The detection unit recited in the claims corresponds to the function of the MPU 44 that detects a subject corresponding to the face image of a person set as a tracking target within the angle of view.
The tracking unit described in the claims is a function of the MPU 44 that controls each unit of the video camera 8 to track the subject corresponding to the face image of the person set as the tracking target within the angle of view and to adjust the exposure condition and the focus. Correspond.

請求項記載の特定部位は、第1〜第3追尾モードにおいて、ステップS4、S32、S62で抽出される画像領域に対応する。
請求項記載の特定画像は、第4追尾モードにおいて、登録用メモリ60に登録された顔画像に対応する。
請求項記載の記憶部は、登録用メモリ60と、追尾対象の人物の識別情報を登録用メモリ60に記憶させるMPU44の機能とに対応する。
The specific portion described in the claims corresponds to the image region extracted in steps S4, S32, and S62 in the first to third tracking modes.
The specific image described in the claims corresponds to the face image registered in the registration memory 60 in the fourth tracking mode.
The storage unit described in the claims corresponds to the registration memory 60 and the function of the MPU 44 that stores the identification information of the tracking target person in the registration memory 60.

以上詳述したように本発明は、ビデオカメラの分野において大いに利用可能である。   As described in detail above, the present invention can be used greatly in the field of video cameras.

本実施形態のビデオカメラのブロック図である。It is a block diagram of the video camera of this embodiment. モニタの表示例を示す説明図である。It is explanatory drawing which shows the example of a display of a monitor. 本実施形態のビデオカメラにおける第1追尾モードでの動作を示す流れ図である。It is a flowchart which shows the operation | movement in the 1st tracking mode in the video camera of this embodiment. 本実施形態のビデオカメラにおける第2追尾モードでの動作を示す流れ図である。It is a flowchart which shows the operation | movement in the 2nd tracking mode in the video camera of this embodiment. 本実施形態のビデオカメラにおける第3追尾モードでの動作を示す流れ図である。It is a flowchart which shows the operation | movement in the 3rd tracking mode in the video camera of this embodiment. 本実施形態のビデオカメラにおける第4追尾モードでの動作を示す流れ図である。It is a flowchart which shows the operation | movement in the 4th tracking mode in the video camera of this embodiment.

符号の説明Explanation of symbols

8 ビデオカメラ
12 撮影レンズ
20 撮像素子
24 アナログ信号処理部
28 A/D変換部
32 タイミングジェネレータ
36 焦点制御部
38 音声検出部
40 操作部
44 MPU
48 システムバス
52 画像処理部
56 メモリ
60 登録用メモリ
64 記録読み出し部
68 記録媒体
84 モニタ制御部
88 モニタ
8 Video Camera 12 Shooting Lens 20 Image Sensor 24 Analog Signal Processing Unit 28 A / D Conversion Unit 32 Timing Generator 36 Focus Control Unit 38 Audio Detection Unit 40 Operation Unit 44 MPU
48 system bus 52 image processing unit 56 memory 60 registration memory 64 recording / reading unit 68 recording medium 84 monitor control unit 88 monitor

Claims (10)

撮影レンズにより形成される光像を撮像し、動画像の映像信号を生成する撮像部と、
モニタを有すると共に、前記映像信号を画像として前記モニタに表示する表示部と
を備えたカメラであって、
前記表示部は、タッチパネル式であり、前記モニタの表示画像から、前記モニタ上で接触動作がされた箇所に対応する特定部位を抽出し、
前記特定部位と、前記特定部位の抽出後に生成された前記映像信号が表す画像とを比較し、前記特定部位に該当する画像部分を前記映像信号から検出する検出部を有する
ことを特徴とするカメラ。
An imaging unit that captures a light image formed by the photographing lens and generates a video signal of a moving image;
A camera having a monitor and a display unit for displaying the video signal as an image on the monitor,
The display unit is a touch panel type, and extracts from the display image of the monitor a specific part corresponding to the place where the contact operation is performed on the monitor,
A camera having a detection unit that compares the specific part and an image represented by the video signal generated after the specific part is extracted, and detects an image part corresponding to the specific part from the video signal. .
請求項1に記載のカメラにおいて、
前記検出部は、顔認識処理、服の模様の認識、音声認識の少なくともいずれかの手段によって前記特定部位に該当する画像部分を検出する
ことを特徴とするカメラ。
The camera of claim 1,
The detection unit detects an image portion corresponding to the specific part by at least one of face recognition processing, clothing pattern recognition, and voice recognition.
請求項1または請求項2に記載のカメラにおいて、
前記検出部の検出結果に基づいて、前記撮影レンズの画角内において前記特定部位に該当する被写体を追尾し、露出条件及び前記撮影レンズのピントの少なくともいずれかを追尾対象の前記被写体に合わせる追尾部を有する
ことを特徴とするカメラ。
The camera according to claim 1 or 2,
Based on the detection result of the detection unit, the subject corresponding to the specific part is tracked within the angle of view of the photographing lens, and at least one of the exposure condition and the focus of the photographing lens is matched to the subject to be tracked A camera characterized by having a part.
請求項3に記載のカメラにおいて、
追尾対象の前記被写体が前記画角内から外れた場合、前記表示部は、追尾対象の前記被写体の位置に関する情報を前記モニタに表示する
ことを特徴とするカメラ。
The camera according to claim 3.
When the subject to be tracked is out of the angle of view, the display unit displays information on the position of the subject to be tracked on the monitor.
請求項1〜請求項4のいずれか1項に記載のカメラにおいて、
前記特定部位を登録及び記憶する記憶部を有する
ことを特徴とするカメラ。
The camera according to any one of claims 1 to 4,
A camera having a storage unit for registering and storing the specific part.
撮影レンズにより形成される光像を撮像し、動画像の映像信号を生成する撮像部と、
予め登録された特定画像と、前記映像信号が表す画像とを比較し、前記特定画像に該当する画像部分を前記映像信号から検出する検出部と、
前記検出部の検出結果に基づいて、前記撮影レンズの画角内において前記特定画像に該当する被写体を追尾し、露出条件及び前記撮影レンズのピントの少なくともいずれかを追尾対象の前記被写体に合わせる追尾部と
を備えたことを特徴とするカメラ。
An imaging unit that captures a light image formed by the photographing lens and generates a video signal of a moving image;
A detection unit that compares a specific image registered in advance with an image represented by the video signal and detects an image portion corresponding to the specific image from the video signal;
Based on the detection result of the detection unit, the subject corresponding to the specific image is tracked within the angle of view of the photographing lens, and at least one of the exposure condition and the focus of the photographing lens is matched to the subject to be tracked And a camera.
請求項6に記載のカメラにおいて、
前記検出部は、顔認識処理、服の模様の認識、音声認識の少なくともいずれかの手段によって前記特定画像に該当する画像部分を検出する
ことを特徴とするカメラ。
The camera according to claim 6, wherein
The detection unit detects an image portion corresponding to the specific image by at least one of face recognition processing, clothes pattern recognition, and voice recognition.
請求項3、請求項4、請求項6、請求項7のいずれか1項に記載のカメラにおいて、
追尾対象の前記被写体が前記画角内から外れた場合、前記追尾部は、前記画角内全体に合う露出条件に近づくように、露出条件を段階的に変更する
ことを特徴とするカメラ。
The camera according to any one of claims 3, 4, 6, and 7,
When the subject to be tracked is out of the angle of view, the tracking unit changes the exposure condition step by step so as to approach the exposure condition that fits the entire angle of view.
請求項3、請求項4、請求項6、請求項7のいずれか1項に記載のカメラにおいて、
追尾対象の前記被写体が前記撮影レンズの画角内から外れた場合、前記追尾部は、露出条件を前記画角内全体に適切な条件に切り替える
ことを特徴とするカメラ。
The camera according to any one of claims 3, 4, 6, and 7,
When the subject to be tracked deviates from within the angle of view of the photographing lens, the tracking unit switches the exposure condition to an appropriate condition within the entire angle of view.
請求項3、請求項4、請求項6、請求項7のいずれか1項に記載のカメラにおいて、
追尾対象の前記被写体が前記撮影レンズの画角内から外れた場合、前記追尾部は、前記被写体が前記画角内から外れた前後において露出条件を変えない
ことを特徴とするカメラ。
The camera according to any one of claims 3, 4, 6, and 7,
When the subject to be tracked is out of the field angle of the photographing lens, the tracking unit does not change the exposure condition before and after the subject is out of the field angle.
JP2004284648A 2004-09-29 2004-09-29 Camera Withdrawn JP2006101186A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004284648A JP2006101186A (en) 2004-09-29 2004-09-29 Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004284648A JP2006101186A (en) 2004-09-29 2004-09-29 Camera

Publications (1)

Publication Number Publication Date
JP2006101186A true JP2006101186A (en) 2006-04-13

Family

ID=36240585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004284648A Withdrawn JP2006101186A (en) 2004-09-29 2004-09-29 Camera

Country Status (1)

Country Link
JP (1) JP2006101186A (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007311901A (en) * 2006-05-16 2007-11-29 Casio Comput Co Ltd Imaging apparatus, imaging method, and program
JP2008098755A (en) * 2006-10-06 2008-04-24 Sony Corp Imaging apparatus and method
JP2008109552A (en) * 2006-10-27 2008-05-08 Sanyo Electric Co Ltd Imaging device with chasing function
JP2008182662A (en) * 2006-09-14 2008-08-07 Olympus Imaging Corp Camera
JP2008187591A (en) * 2007-01-31 2008-08-14 Fujifilm Corp Imaging apparatus and imaging method
WO2008133237A1 (en) 2007-04-23 2008-11-06 Sharp Kabushiki Kaisha Image picking-up device, computer readable recording medium including recorded program for control of the device, and control method
JP2008270896A (en) * 2007-04-16 2008-11-06 Casio Comput Co Ltd Imaging device and program thereof
JP2009017135A (en) * 2007-07-03 2009-01-22 Canon Inc Imaging device, imaging method, and program
WO2009013850A1 (en) * 2007-07-23 2009-01-29 Panasonic Corporation Imaging device
JP2009020190A (en) * 2007-07-10 2009-01-29 Canon Inc Focus regulator, imaging device, and control method therefor
JP2009164830A (en) * 2007-12-28 2009-07-23 Casio Comput Co Ltd Imaging apparatus and program thereof
JP2009229585A (en) * 2008-03-19 2009-10-08 Fujinon Corp Autofocus system
WO2009142098A1 (en) 2008-04-23 2009-11-26 日本電気株式会社 Image processing device, camera, image processing method, and program
JP2010134915A (en) * 2008-11-04 2010-06-17 Omron Corp Image processing device
JP2010166199A (en) * 2009-01-14 2010-07-29 Casio Computer Co Ltd Image capturing apparatus, and program
JP2010217613A (en) * 2009-03-18 2010-09-30 Nec Corp Information processing apparatus having autofocus function, and method or the like for controlling the same
JP2010256642A (en) * 2009-04-27 2010-11-11 Daiichikosho Co Ltd Karaoke system with singer image taking function
EP2402884A2 (en) 2010-07-02 2012-01-04 Sony Corporation Image processing device and image processing method
JP2012186535A (en) * 2011-03-03 2012-09-27 Nikon Corp Electronic device and grouping method
JP2013007851A (en) * 2011-06-23 2013-01-10 Nikon Corp Imaging apparatus
WO2013089190A1 (en) 2011-12-16 2013-06-20 オリンパスイメージング株式会社 Imaging device and imaging method, and storage medium for storing tracking program processable by computer
JP2013145314A (en) * 2012-01-13 2013-07-25 Canon Inc Image processing apparatus, imaging apparatus, control method and program
JP2013172313A (en) * 2012-02-21 2013-09-02 Nikon Corp Information processing device and information processing program
JP2013214833A (en) * 2012-03-30 2013-10-17 Nikon Corp Area determination device, image pickup device, and area determination program
US8577098B2 (en) 2009-10-27 2013-11-05 Canon Kabushiki Kaisha Apparatus, method and program for designating an object image to be registered
US8599251B2 (en) 2006-09-14 2013-12-03 Olympus Imaging Corp. Camera
JP2014011729A (en) * 2012-07-02 2014-01-20 Olympus Imaging Corp Imaging device
JP2014095907A (en) * 2013-12-17 2014-05-22 Nikon Corp Imaging apparatus
JP6144849B1 (en) * 2014-03-19 2017-06-07 クアルコム,インコーポレイテッド Method and apparatus for establishing a connection between electronic devices
JP2017525193A (en) * 2014-06-09 2017-08-31 ゼットティーイー コーポレーションZte Corporation Photography method, apparatus and terminal

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007311901A (en) * 2006-05-16 2007-11-29 Casio Comput Co Ltd Imaging apparatus, imaging method, and program
JP2008182662A (en) * 2006-09-14 2008-08-07 Olympus Imaging Corp Camera
US8599251B2 (en) 2006-09-14 2013-12-03 Olympus Imaging Corp. Camera
JP2008098755A (en) * 2006-10-06 2008-04-24 Sony Corp Imaging apparatus and method
JP2008109552A (en) * 2006-10-27 2008-05-08 Sanyo Electric Co Ltd Imaging device with chasing function
JP2008187591A (en) * 2007-01-31 2008-08-14 Fujifilm Corp Imaging apparatus and imaging method
JP2008270896A (en) * 2007-04-16 2008-11-06 Casio Comput Co Ltd Imaging device and program thereof
WO2008133237A1 (en) 2007-04-23 2008-11-06 Sharp Kabushiki Kaisha Image picking-up device, computer readable recording medium including recorded program for control of the device, and control method
US8780227B2 (en) 2007-04-23 2014-07-15 Sharp Kabushiki Kaisha Image pick-up device, control method, recording medium, and portable terminal providing optimization of an image pick-up condition
JP2009017135A (en) * 2007-07-03 2009-01-22 Canon Inc Imaging device, imaging method, and program
JP2009020190A (en) * 2007-07-10 2009-01-29 Canon Inc Focus regulator, imaging device, and control method therefor
US8279324B2 (en) 2007-07-10 2012-10-02 Canon Kabushiki Kaisha Focus control apparatus, image sensing apparatus, and control method therefor
WO2009013850A1 (en) * 2007-07-23 2009-01-29 Panasonic Corporation Imaging device
US8294813B2 (en) 2007-07-23 2012-10-23 Panasonic Corporation Imaging device with a scene discriminator
CN101772952A (en) * 2007-07-23 2010-07-07 松下电器产业株式会社 Imaging device
JP5039786B2 (en) * 2007-07-23 2012-10-03 パナソニック株式会社 Imaging device
JP2009164830A (en) * 2007-12-28 2009-07-23 Casio Comput Co Ltd Imaging apparatus and program thereof
JP2009229585A (en) * 2008-03-19 2009-10-08 Fujinon Corp Autofocus system
EP2276234A4 (en) * 2008-04-23 2017-11-22 NEC Corporation Image processing device, camera, image processing method, and program
US8682031B2 (en) 2008-04-23 2014-03-25 Nec Corporation Image processing device, camera, image processing method, and program
WO2009142098A1 (en) 2008-04-23 2009-11-26 日本電気株式会社 Image processing device, camera, image processing method, and program
JP2010134915A (en) * 2008-11-04 2010-06-17 Omron Corp Image processing device
JP2010166199A (en) * 2009-01-14 2010-07-29 Casio Computer Co Ltd Image capturing apparatus, and program
JP2010217613A (en) * 2009-03-18 2010-09-30 Nec Corp Information processing apparatus having autofocus function, and method or the like for controlling the same
JP2010256642A (en) * 2009-04-27 2010-11-11 Daiichikosho Co Ltd Karaoke system with singer image taking function
US8577098B2 (en) 2009-10-27 2013-11-05 Canon Kabushiki Kaisha Apparatus, method and program for designating an object image to be registered
US8947553B2 (en) 2010-07-02 2015-02-03 Sony Corporation Image processing device and image processing method
US8643740B2 (en) 2010-07-02 2014-02-04 Sony Corporation Image processing device and image processing method
EP2402884A2 (en) 2010-07-02 2012-01-04 Sony Corporation Image processing device and image processing method
US9311712B2 (en) 2010-07-02 2016-04-12 Sony Corporation Image processing device and image processing method
JP2012186535A (en) * 2011-03-03 2012-09-27 Nikon Corp Electronic device and grouping method
JP2013007851A (en) * 2011-06-23 2013-01-10 Nikon Corp Imaging apparatus
WO2013089190A1 (en) 2011-12-16 2013-06-20 オリンパスイメージング株式会社 Imaging device and imaging method, and storage medium for storing tracking program processable by computer
US9113073B2 (en) 2011-12-16 2015-08-18 Olympus Imaging Corp. Imaging apparatus and imaging method of the same, and storage medium to store computer-processible tracking program
JP2013145314A (en) * 2012-01-13 2013-07-25 Canon Inc Image processing apparatus, imaging apparatus, control method and program
US9426354B2 (en) 2012-01-13 2016-08-23 Canon Kabushiki Kaisha Image processing apparatus, image sensing apparatus, control method, and recording medium
JP2013172313A (en) * 2012-02-21 2013-09-02 Nikon Corp Information processing device and information processing program
JP2013214833A (en) * 2012-03-30 2013-10-17 Nikon Corp Area determination device, image pickup device, and area determination program
JP2014011729A (en) * 2012-07-02 2014-01-20 Olympus Imaging Corp Imaging device
JP2014095907A (en) * 2013-12-17 2014-05-22 Nikon Corp Imaging apparatus
JP6144849B1 (en) * 2014-03-19 2017-06-07 クアルコム,インコーポレイテッド Method and apparatus for establishing a connection between electronic devices
JP2017517780A (en) * 2014-03-19 2017-06-29 クアルコム,インコーポレイテッド Method and apparatus for establishing a connection between electronic devices
JP2017525193A (en) * 2014-06-09 2017-08-31 ゼットティーイー コーポレーションZte Corporation Photography method, apparatus and terminal

Similar Documents

Publication Publication Date Title
JP2006101186A (en) Camera
US20240069412A1 (en) Image pickup device and method of tracking subject thereof
US8831282B2 (en) Imaging device including a face detector
JP4442330B2 (en) Electronic camera and electronic camera system
JP5867424B2 (en) Image processing apparatus, image processing method, and program
JP5251215B2 (en) Digital camera
JP6103948B2 (en) IMAGING DEVICE, REMOTE OPERATION TERMINAL, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD AND PROGRAM, REMOTE OPERATION TERMINAL CONTROL METHOD AND PROGRAM
KR101537948B1 (en) Photographing method and apparatus using pose estimation of face
JP6862202B2 (en) Image processing device, imaging device and control method
US20120127333A1 (en) Camera
JP2009239833A (en) Imaging apparatus
JP2007251429A (en) Moving image imaging unit, and zoom adjustment method
JP2010041435A (en) Image device and control method thereof
JP4891674B2 (en) camera
JP4853707B2 (en) Imaging apparatus and program thereof
JP2009171428A (en) Control method and program for digital camera apparatus and electronic zoom
JP5690080B2 (en) Moving image data generation device and moving image data generation method
JP2014033265A (en) Imaging device, imaging method, and program
JP6494455B2 (en) Video processing apparatus, video processing method, and program
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2021150760A (en) Imaging apparatus and method for controlling the same
JP7342883B2 (en) Imaging control device, imaging device, imaging control method
JP4849330B2 (en) Display control apparatus and method, imaging apparatus, information processing apparatus and method, and program
JP2006128793A (en) Image pickup device and control method thereof
JP2020115679A (en) Object detection device, detection control method, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20071204