JP5225446B2 - Equipment with camera - Google Patents

Equipment with camera Download PDF

Info

Publication number
JP5225446B2
JP5225446B2 JP2011208535A JP2011208535A JP5225446B2 JP 5225446 B2 JP5225446 B2 JP 5225446B2 JP 2011208535 A JP2011208535 A JP 2011208535A JP 2011208535 A JP2011208535 A JP 2011208535A JP 5225446 B2 JP5225446 B2 JP 5225446B2
Authority
JP
Japan
Prior art keywords
image
face
unit
remote
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011208535A
Other languages
Japanese (ja)
Other versions
JP2012039640A (en
Inventor
晴義 押目
勝信 平良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2011208535A priority Critical patent/JP5225446B2/en
Publication of JP2012039640A publication Critical patent/JP2012039640A/en
Application granted granted Critical
Publication of JP5225446B2 publication Critical patent/JP5225446B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Description

本発明は、カメラ付き携帯電話機、カメラ付きPDA(Personal Digital Assistant)、デジタルカメラ等のカメラ付き機器に関するものである。   The present invention relates to a camera-equipped device such as a camera-equipped mobile phone, a camera-equipped PDA (Personal Digital Assistant), and a digital camera.

従来、カメラ付き携帯電話機やデジタルカメラ等のカメラ付き機器には、シャッターを押す者が誰もいない場合に使用する自動撮影機能として、通常、セルフタイマー機能が備えられている。セルフタイマーが設定されている状態において、シャッターボタンが押されると、一定時間後にシャッターが切られ、撮影された画像がメモリに保存される。ユーザは、シャッターボタンを押した後、撮影位置へ移動し、撮影準備を整えてシャッターが切られるのを待つことになる。   2. Description of the Related Art Conventionally, camera-equipped devices such as camera-equipped mobile phones and digital cameras are usually provided with a self-timer function as an automatic photographing function used when no one presses the shutter. When the self-timer is set and the shutter button is pressed, the shutter is released after a predetermined time, and the photographed image is stored in the memory. After pressing the shutter button, the user moves to the shooting position, prepares for shooting, and waits for the shutter to be released.

しかしながら、セルフタイマー機能を用いた場合には、どうしても時間的制約があるため、何らかの原因により撮影準備に手間取ってしまうと、準備が完了する前にシャッターが切られてしまうことが起こり得る。この場合、もう一度、セルフタイマーをセットし直して撮影を行わなければならなくなる。   However, when the self-timer function is used, there is a time restriction, so if it takes time to prepare for shooting for some reason, the shutter may be released before the preparation is completed. In this case, it is necessary to set the self-timer again and perform shooting.

一方、これらカメラ付き機器の中には、リモートコントローラ(リモコン)を備え、リモコンによる遠隔操作を行うことによりシャッターを切ることができるようにしたもの、即ち、リモートシャッター機能を備えたものもある(たとえば、特許文献1)。   On the other hand, some of these camera-equipped devices are equipped with a remote controller (remote control) and can be operated by remote control with the remote control, that is, have a remote shutter function ( For example, Patent Document 1).

このように、リモコンによって撮影操作を行う場合には、十分に撮影準備が整った後に、撮影者の所望のタイミングでシャッターを切ることができる。   As described above, when the photographing operation is performed by the remote controller, the shutter can be released at a timing desired by the photographer after the photographing preparation is sufficiently completed.

なお、最近では、被写体の顔やその顔の表情を検出し、顔の表情や動きに応じて自動的にシャッターが切れるカメラ付き機器も開発されている(たとえば、特許文献2)。   Recently, a camera-equipped device that detects a subject's face and facial expressions and automatically releases the shutter according to facial expressions and movements has been developed (for example, Patent Document 2).

特開2007−41205号公報JP 2007-41205 A 特開2008−42319号公報JP 2008-42319 A

しかしながら、リモートシャッター機能を有するカメラ付き機器にあっては、機器と一緒にリモコンを持ち歩かなければならず、リモコンを携帯するのを忘れてしまったり、リモコンの電池が切れてしまったりした場合には、リモートシャッター機能を活用できない。   However, if you have a camera-equipped device with a remote shutter function, you must carry the remote control with the device, and if you forget to carry the remote control or the remote control battery runs out The remote shutter function cannot be used.

また、顔の動きや表情により自動撮影するカメラ付き機器にあっては、被写体の笑顔の表情などを逃さずに撮影することができる点には優れているが、あくまで機器側が撮影タイミングを決めるため、必ずしも撮影者の意図するタイミングでシャッターが切られない。さらに、表情やポーズが制限され、自由な表情、ポーズで撮影が行えない惧れもある。   In addition, a camera-equipped device that automatically shoots according to facial movements and facial expressions is superior in that it can shoot without missing the facial expression of the subject's smile, but the device side only decides the shooting timing. The shutter is not necessarily released at the timing intended by the photographer. Furthermore, facial expressions and poses are limited, and there is a possibility that shooting with free facial expressions and poses will not be possible.

本発明は、このような課題を解消するためになされたものであり、撮影者が意図する所望のタイミングでシャッター動作を行わせることができる、操作性に優れたカメラ付き機器を提供することを目的とする。   The present invention has been made to solve such a problem, and provides a camera-equipped device that can perform a shutter operation at a desired timing intended by a photographer and has excellent operability. Objective.

本発明のカメラ付き機器は、撮影画像を画像情報として出力するカメラ部と、前記画像情報を記憶する記憶部と、特定の画像に関する情報を前記撮影画像から検出す検出部と
、前記検出部によって前記特定の画像が検出された後、前記特定の画像が検出されなくなり、その後、再び、前記特定の画像が検出されたことに基づいて、前記画像情報を前記記憶部に記憶させるための制御処理を実行すリモート記憶部と、顔画像を含む前記特定の画像に関する情報を登録する画像登録部と、を備え、前記リモート記憶部による前記制御処理は、前記カメラ部による撮像が開始された後、前記検出部によって前記特定の画像が検出されたことに応じて起動され、前記検出部は、前記画像登録部に登録された前記特定の画像に関する情報に基づいて前記特定の画像の検出を行うことを特徴とするカメラ付き機器。

Camera apparatus of the present invention includes a camera unit for outputting a photographed image as image information, a storage unit that stores the image information, a detection unit that detect information about a specific image from the captured image, wherein the detection unit After the specific image is detected by the control, the specific image is not detected, and then the control for storing the image information in the storage unit again based on the detection of the specific image. and remote storage unit to run the process, and an image registration unit for registering the information about the specific image including the face image, the control processing by the remote storage unit, imaging by the camera unit is started after, wherein the detecting unit specific image is activated in response to detected, the detecting unit, based on the information on the specific image registered in the image registration section Camera device, characterized in that the detection of serial particular image.

前記検出部によって検出された前記特定の画像を前記撮影画像中において追跡する追跡部をさらに備え、前記リモート記憶部による制御処理が起動された後、前記追跡部により前記特定の画像が前記撮像画像から抜け出したことが検出されたことに応じて、前記リモート記憶部による制御処理が停止されることを特徴とする。

A tracking unit that tracks the specific image detected by the detection unit in the captured image is further included, and after the control process by the remote storage unit is activated, the specific image is captured by the tracking unit. The control process by the remote storage unit is stopped in response to the detection of the exit from the remote control unit .

前記リモート記憶部による制御処理が起動された後、前記検出部によって検出された前記顔画像の大きさが閾値を超えたことに応じて、前記リモート記憶部による制御処理が停止されることを特徴とする。

After the control process by the remote storage unit is activated, the control process by the remote storage unit is stopped in response to the size of the face image detected by the detection unit exceeding a threshold value. And

以上のとおり、本発明によれば、撮影者が意図する所望のタイミングでシャッター動作を行わせることができる、操作性に優れたカメラ付き機器を提供することができる。   As described above, according to the present invention, it is possible to provide a camera-equipped device capable of performing a shutter operation at a desired timing intended by a photographer and having excellent operability.

本発明の効果ないし意義は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態に記載されたものに何ら制限されるものではない。   The effects and significance of the present invention will become more apparent from the following description of embodiments. However, the following embodiment is merely an example when the present invention is implemented, and the present invention is not limited to what is described in the following embodiment.

実施の形態に係る携帯電話機の外観構成を示す図The figure which shows the external appearance structure of the mobile telephone which concerns on embodiment 実施の形態に係る携帯電話機の全体構成を示すブロック図1 is a block diagram showing the overall configuration of a mobile phone according to an embodiment 実施の形態に係るリモート撮影モードを実現するための機能ブロック図Functional block diagram for realizing the remote shooting mode according to the embodiment 実施の形態に係るリモート撮影モードにおいて実行される撮影処理の処理フローを示す図The figure which shows the processing flow of the imaging | photography process performed in the remote imaging | photography mode which concerns on embodiment. 実施の形態に係るリモート撮影モードの流れを説明するための図The figure for demonstrating the flow of the remote imaging | photography mode which concerns on embodiment 変更例1に係るリモート撮影モードを実現するための機能ブロック図Functional block diagram for realizing the remote shooting mode according to the first modification 変更例1に係るリモート撮影モードにおいて実行される撮影処理の処理フローを示す図The figure which shows the processing flow of the imaging | photography process performed in the remote imaging | photography mode which concerns on the example 1 of a change. 変更例2に係るリモート撮影モードを実現するための機能ブロック図Functional block diagram for realizing the remote shooting mode according to the second modification 変更例2に係る自動撮影処理の処理フローを示す図The figure which shows the processing flow of the automatic imaging | photography process which concerns on the example 2 of a change. 変更例3に係るリモート撮影モードを実現するための機能ブロック図Functional block diagram for realizing the remote shooting mode according to Modification 3 変更例3に係るリモート撮影モードを自動設定する処理、および自動解除する処理の処理フローを示す図The figure which shows the processing flow of the process which sets automatically the remote imaging | photography mode which concerns on the example 3 of a change, and the process which cancels automatically. 変更例3に係るリモート撮影モードの自動設定/解除の流れについて説明するための図The figure for demonstrating the flow of the automatic setting / cancellation of the remote shooting mode which concerns on the example 3 of a change 変更例3に係る構成を、実施の形態に適用する場合の機能ブロック図Functional block diagram in the case of applying the configuration according to the third modification to the embodiment

以下、本発明の実施の形態につき図面を参照して説明する。図1は携帯電話機の外観構成を示す図であり、同図(a)は、第2キャビネットが開放された状態の携帯電話機の正面図、同図(b)は同じ状態での側面図である。同図(c)は同図(b)のA−A´断面図である。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing an external configuration of a mobile phone. FIG. 1A is a front view of the mobile phone with the second cabinet opened, and FIG. 1B is a side view of the same state. . FIG. 2C is a cross-sectional view taken along the line AA ′ of FIG.

携帯電話機は、第1キャビネット1と第2キャビネット2を備えている。第1キャビネット1の正面側には、テンキー部11が配されている。テンキー部11には、複数個の番号・文字入力キーや通話開始キー、通話終了キーなどが備えられている。テンキー部11の背後には、バックライト装置12(以下、「キーバックライト」という)が配されている。キーバックライト12は、光源となるLEDを備え、テンキー部11に光を供給する。これにより、ユーザは、周囲が暗くても各キーに付された表示を見ることができる。   The mobile phone includes a first cabinet 1 and a second cabinet 2. A numeric keypad 11 is disposed on the front side of the first cabinet 1. The numeric keypad 11 is provided with a plurality of number / character input keys, a call start key, a call end key, and the like. A backlight device 12 (hereinafter referred to as “key backlight”) is disposed behind the numeric keypad 11. The key backlight 12 includes an LED serving as a light source, and supplies light to the numeric keypad 11. Thereby, the user can see the display attached to each key even when the surrounding is dark.

第1キャビネット1の内部には、カメラモジュール13が配されている。カメラモジュール13のレンズ窓(図示せず)は、第1キャビネット1の背面に臨んでおり、このレンズ窓から被写体の像がカメラモジュール13に取り込まれる。   A camera module 13 is disposed inside the first cabinet 1. A lens window (not shown) of the camera module 13 faces the back surface of the first cabinet 1, and an object image is taken into the camera module 13 from the lens window.

第2キャビネット2の正面側には、縦長の矩形状を有するディスプレイ21が配されており、その表示面が正面に臨んでいる。このディスプレイ21は、たとえば、液晶パネルや有機ELなどを用いて構成することができる。ディスプレイ21の背後には、バックラ
イト装置22(以下、「パネルバックライト」という)が配されている。パネルバックライト22は、光源となるLEDを備え、ディスプレイ21に光を供給する。
A display 21 having a vertically long rectangular shape is disposed on the front side of the second cabinet 2, and the display surface faces the front. The display 21 can be configured using, for example, a liquid crystal panel or an organic EL. Behind the display 21 is a backlight device 22 (hereinafter referred to as “panel backlight”). The panel backlight 22 includes an LED serving as a light source and supplies light to the display 21.

第2キャビネット2の正面側には、さらに、メインキー部23が配されている。メインキー部23には、各種の機能モード(カメラモード、メールモード、インターネットモード、電話帳モード)を起動するためのモードキー、画面をスクロールしたりハイライトフォーカスを移動させたりするための移動キー、各種の決定動作を行うための決定キーなどが配されている。   A main key portion 23 is further arranged on the front side of the second cabinet 2. The main key unit 23 includes a mode key for starting various function modes (camera mode, mail mode, Internet mode, phone book mode), and a movement key for scrolling the screen and moving the highlight focus. In addition, determination keys for performing various determination operations are arranged.

なお、テンキー部11やメインキー部23は、タッチパネルやタッチセンサを用いて実現することもできる。   The numeric keypad 11 and the main key unit 23 can be realized using a touch panel or a touch sensor.

第2キャビネット2は、スライド機構部3によって、第1キャビネット1に対し図1のX軸方向にスライド可能に連結されている。図1(c)に示すように、スライド機構3は、ガイド板31とガイド溝32によって構成されている。ガイド板31は、第2キャビネット2の背面の左右両端部に設けられており、その下端に突条31aを有する。ガイド溝32は、第1キャビネット1の側面に、スライド方向(図1のX軸方向)に沿って形成されている。ガイド板31の突条31aは、ガイド溝32に係合されている。   The second cabinet 2 is connected to the first cabinet 1 by a slide mechanism unit 3 so as to be slidable in the X-axis direction of FIG. As shown in FIG. 1C, the slide mechanism 3 includes a guide plate 31 and a guide groove 32. The guide plate 31 is provided at both left and right end portions of the back surface of the second cabinet 2, and has a protrusion 31a at the lower end thereof. The guide groove 32 is formed on the side surface of the first cabinet 1 along the slide direction (X-axis direction in FIG. 1). The protrusion 31 a of the guide plate 31 is engaged with the guide groove 32.

携帯電話機を閉じた状態では、図1(b)に一点鎖線で示すように、第2キャビネット2が第1キャビネット1の上に略完全に重なっている。この状態(閉じた状態)では、第2キャビネット2の背後にテンキー部11の全てのキーが隠れた状態となる。第2キャビネット2は、ガイド板31がガイド溝32の終端位置に達するまでスライドする(開いた状態とする)ことができる。第2キャビネット2が完全に開くと、図1(a)に示すように、テンキー部11の全てのキーが外部に露出する。   When the cellular phone is closed, the second cabinet 2 is almost completely overlapped with the first cabinet 1 as indicated by a one-dot chain line in FIG. In this state (closed state), all the keys of the numeric keypad 11 are hidden behind the second cabinet 2. The second cabinet 2 can be slid (opened) until the guide plate 31 reaches the end position of the guide groove 32. When the second cabinet 2 is completely opened, as shown in FIG. 1A, all the keys of the numeric keypad 11 are exposed to the outside.

図2は、携帯電話機の全体構成を示すブロック図である。本実施の形態の携帯電話機は、上述した各構成要素の他、CPU100、映像エンコーダ101、マイク102、音声エンコーダ103、通信モジュール104、メモリ105、バックライト駆動回路106、映像デコーダ107、音声デコーダ108、スピーカ109を備えている。   FIG. 2 is a block diagram showing the overall configuration of the mobile phone. In addition to the above-described components, the cellular phone according to the present embodiment includes a CPU 100, a video encoder 101, a microphone 102, an audio encoder 103, a communication module 104, a memory 105, a backlight driving circuit 106, a video decoder 107, and an audio decoder 108. The speaker 109 is provided.

カメラモジュール13は、撮像レンズ13a、撮像素子13bなどから構成されている。撮像レンズ13aは、被写体の像を撮像素子13b上に結像させる。撮像素子13bは、例えばCCDからなり、取り込んだ画像に応じた画像信号を生成し、映像エンコーダ101へ出力する。映像エンコーダ101は、撮像素子13bからの画像信号を、CPU100が処理できるディジタルの画像信号に変換してCPU100へ出力する。   The camera module 13 includes an imaging lens 13a, an imaging element 13b, and the like. The imaging lens 13a forms an image of the subject on the imaging element 13b. The image sensor 13 b is composed of, for example, a CCD, generates an image signal corresponding to the captured image, and outputs the image signal to the video encoder 101. The video encoder 101 converts the image signal from the image sensor 13 b into a digital image signal that can be processed by the CPU 100 and outputs the digital image signal to the CPU 100.

マイク102は、音声信号を電気信号に変換して音声エンコーダ103へ出力する。音声エンコーダ103は、マイク102からの音声信号を、CPU100が処理できるディジタルの音声信号に変換してCPU100へ出力する。   The microphone 102 converts the audio signal into an electric signal and outputs it to the audio encoder 103. The audio encoder 103 converts the audio signal from the microphone 102 into a digital audio signal that can be processed by the CPU 100 and outputs the digital audio signal to the CPU 100.

通信モジュール104は、CPU100からの音声信号や画像信号、テキスト信号などを無線信号に変換し、アンテナ104aを介して基地局へ送信する。また、アンテナ104aを介して受信した無線信号を音声信号や画像信号、テキスト信号などに変換してCPU100へ出力する。   The communication module 104 converts a voice signal, an image signal, a text signal, and the like from the CPU 100 into a radio signal, and transmits it to the base station via the antenna 104a. Further, the wireless signal received via the antenna 104a is converted into an audio signal, an image signal, a text signal, etc., and output to the CPU 100.

メモリ105は、ROMおよびRAMを含む。メモリ105には、CPU100に制御機能を付与するための制御プログラムが記憶されている。また、メモリ105には、カメラモジュール24で撮影した画像データや通信モジュール104を介して外部から取り込んだ画像データ、テキストデータ(メールデータ)などが所定のファイル形式で保存され
る。
The memory 105 includes a ROM and a RAM. The memory 105 stores a control program for giving a control function to the CPU 100. The memory 105 stores image data captured by the camera module 24, image data captured from the outside via the communication module 104, text data (mail data), and the like in a predetermined file format.

バックライト駆動回路106は、CPU100からの制御信号に応じた電圧信号をパネルバックライト22、キーバックライト12に供給する。   The backlight drive circuit 106 supplies a voltage signal corresponding to the control signal from the CPU 100 to the panel backlight 22 and the key backlight 12.

映像デコーダ107は、CPU100からの映像信号をディスプレイ21で表示できるアナログの映像信号に変換し、ディスプレイ21に出力する。   The video decoder 107 converts the video signal from the CPU 100 into an analog video signal that can be displayed on the display 21, and outputs the analog video signal to the display 21.

音声デコーダ108は、CPU100からの音声信号をスピーカ109で出力できるアナログの音声信号に変換し、スピーカ109に出力する。スピーカ109は、音声デコーダ108からの音声信号を音声として再生する。   The audio decoder 108 converts the audio signal from the CPU 100 into an analog audio signal that can be output from the speaker 109 and outputs the analog audio signal to the speaker 109. The speaker 109 reproduces the audio signal from the audio decoder 108 as audio.

CPU100は、カメラモジュール13、マイク102、メインキー部23、テンキー部11など各部からの入力信号に基づいて、通信モジュール104、映像デコーダ107、音声デコーダ108などの各部に制御信号を出力することにより、種々の機能モードの処理を行う。   The CPU 100 outputs a control signal to each unit such as the communication module 104, the video decoder 107, and the audio decoder 108 based on input signals from each unit such as the camera module 13, the microphone 102, the main key unit 23, and the numeric keypad unit 11. The processing of various function modes is performed.

たとえば、CPU100は、カメラモードのモードキーが押されると、カメラを起動する。そして、このカメラモードにおいて、カメラモジュール13から送られてき画像をプレビュー画像としてディスプレイ21に表示させる。カメラモジュール13からは毎秒数十コマの画像が送られてくるため、ディスプレイ21には、ほぼ動画状態で画像が表示される。   For example, the CPU 100 activates the camera when a mode key of the camera mode is pressed. In this camera mode, the image sent from the camera module 13 is displayed on the display 21 as a preview image. Since an image of several tens of frames is sent from the camera module 13 every second, the image is displayed on the display 21 in a substantially moving image state.

ユーザによってシャッターキー(たとえば、決定キーが割り当てられている)が押されると、CPU100は、そのタイミングで撮影された画像を、JPEGなど所定のファイル形式によってメモリ105に記憶させる。   When a user presses a shutter key (for example, a determination key is assigned), the CPU 100 causes the memory 105 to store an image captured at that timing in a predetermined file format such as JPEG.

さて、本実施の形態の携帯電話機は、カメラモードの中の1つの機能として、リモート撮影モードの機能を備えている。ユーザ自らが撮影写真に加わる場合に、所定のキー操作を行うことでリモート撮影モードを起動させることができる。   Now, the mobile phone according to the present embodiment has a remote shooting mode function as one of the functions in the camera mode. When the user himself / herself joins the photographed photograph, the remote photographing mode can be activated by performing a predetermined key operation.

図3は、リモート撮影モードを実現するための機能ブロック図である。   FIG. 3 is a functional block diagram for realizing the remote shooting mode.

CPU100およびメモリ105は、リモート撮影モードを実現するため、顔抽出部501と、顔パラメータ抽出部502と、登録制御部503と、顔登録部504と、マッチング判定部505と、撮影制御部506とを備えている。   In order to realize the remote shooting mode, the CPU 100 and the memory 105 include a face extraction unit 501, a face parameter extraction unit 502, a registration control unit 503, a face registration unit 504, a matching determination unit 505, and a shooting control unit 506. It has.

顔抽出部501、顔パラメータ抽出部502、登録制御部503、マッチング判定部505および撮影制御部506は、CPU100によって実行されるソフトウェアの機能として実現される。また、顔登録部504には、メモリ105の一部の記憶領域が割り当てられる。   The face extraction unit 501, the face parameter extraction unit 502, the registration control unit 503, the matching determination unit 505, and the shooting control unit 506 are realized as software functions executed by the CPU 100. In addition, a part of the storage area of the memory 105 is allocated to the face registration unit 504.

カメラモジュール13から出力された画像データは、映像エンコーダ101を介してCPU100に入力され、この画像データが顔抽出部501や顔パラメータ抽出部502によって取得される。   Image data output from the camera module 13 is input to the CPU 100 via the video encoder 101, and this image data is acquired by the face extraction unit 501 and the face parameter extraction unit 502.

顔抽出部501は、1コマ毎あるいは数コマ毎に、1画面分(1フレーム分)の画像データを取得し、この画像データを基にその画像の中に含まれる顔画像の領域(顔領域)を抽出する。たとえば、顔抽出部501は、画像中の肌色を検出し、さらに、目、鼻、口などの特徴部分を画像の濃淡等に基づいて検出することにより、顔領域の抽出を行う。そし
て、顔領域を特定するための情報、たとえば顔の輪郭の位置情報(以下、「顔領域情報」という)を顔パラメータ抽出部502に出力する。なお、顔抽出部501は、1画面中に顔画像が複数個あれば、全ての顔領域を抽出する。
The face extraction unit 501 acquires image data for one screen (for one frame) for each frame or for every several frames, and based on this image data, a face image region (face region) included in the image ). For example, the face extraction unit 501 detects a skin color in the image, and further extracts a face region by detecting feature parts such as eyes, nose, and mouth based on the density of the image. Then, information for specifying the face area, for example, position information of the face outline (hereinafter referred to as “face area information”) is output to the face parameter extraction unit 502. Note that if there are a plurality of face images in one screen, the face extraction unit 501 extracts all face areas.

顔パラメータ抽出部502は、顔抽出部501と同じタイミングで、1画面分の画像データを取得し、顔抽出部501から送られてきた顔領域情報を基に、顔領域に対応する画像データから、その顔画像を特徴づけるためのパラメータを抽出する。たとえば、パラメータには、目、鼻、口などの各パーツの形状、各パーツ間の間隔の比率、肌の色等が挙げられる。   The face parameter extraction unit 502 acquires image data for one screen at the same timing as the face extraction unit 501, and based on the face region information sent from the face extraction unit 501, the image data corresponding to the face region is acquired. Then, parameters for characterizing the face image are extracted. For example, the parameters include the shape of each part such as the eyes, nose and mouth, the ratio of the spacing between the parts, and the color of the skin.

このように、顔パラメータ抽出部502は、顔抽出部501により抽出された全ての顔領域について、それぞれ顔画像のパラメータを抽出し、マッチング判定部505へ出力する。   As described above, the face parameter extraction unit 502 extracts the parameters of the face image for all the face regions extracted by the face extraction unit 501, and outputs them to the matching determination unit 505.

マッチング判定部505は、送られてきた顔画像のパラメータと、顔登録部504に登録されている顔画像のパラメータとを照合し、登録され顔画像とのマッチング率(適合率)を算出する。   The matching determination unit 505 compares the sent face image parameter with the face image parameter registered in the face registration unit 504, and calculates a matching rate (matching rate) with the registered face image.

顔登録部504への顔画像のパラメータの登録は、登録制御部503により行われる。登録制御部503は、ユーザからの登録操作の入力を受けると、顔パラメータ抽出部502に対し、顔登録部504へパラメータを送るよう指示する。顔パラメータ抽出部502は、この指示を受けて、そのときに抽出した顔画像のパラメータを顔登録部504へ送る。このようにして、顔登録部504に顔画像のパラメータが登録される。   Registration of face image parameters in the face registration unit 504 is performed by the registration control unit 503. When receiving a registration operation input from the user, the registration control unit 503 instructs the face parameter extraction unit 502 to send parameters to the face registration unit 504. In response to this instruction, the face parameter extraction unit 502 sends the parameters of the face image extracted at that time to the face registration unit 504. In this way, face image parameters are registered in the face registration unit 504.

マッチング判定部505は、抽出された全ての顔領域の顔画像に対するマッチング率を算出して撮影制御部506へ出力する。   The matching determination unit 505 calculates a matching rate for the face images of all the extracted face regions and outputs the matching rate to the imaging control unit 506.

撮影制御部506は、送られてきたマッチング率を、予め設定された閾値と比較することにより、画像中に登録された顔画像が存在するか否かを判定し、この判定結果に基づいて撮影処理を行う。   The shooting control unit 506 determines whether or not a registered face image exists in the image by comparing the sent matching rate with a preset threshold value, and shooting is performed based on the determination result. Process.

図4は、リモート撮影モードにおいて実行される撮影処理の処理フローを示す図である。また、図5(a)は、リモート撮影モードが起動してから撮影が完了するまでの操作の流れを、イラスト画を用いて示した図である。さらに、図5(b)は、検出されたマッチング率の推移とそれに伴う制御動作の流れを示す図である。なお、図5(b)に示すマッチング率の棒グラフは、便宜上、同じ人物の顔画像について常に同じ高さになるように描かれているが、同じ人物の顔画像であっても、少し向きが変わるなどすればマッチング率が変動するため、実際は若干グラフの高さが異なってくる。以下、これら図を参照して制御動作について説明する。   FIG. 4 is a diagram illustrating a processing flow of imaging processing executed in the remote imaging mode. FIG. 5A is a diagram showing the flow of operations from the start of the remote shooting mode to the completion of shooting using illustrations. Further, FIG. 5B is a diagram illustrating the transition of the detected matching rate and the flow of the control operation associated therewith. Note that the matching rate bar graph shown in FIG. 5B is drawn so that the face image of the same person always has the same height for convenience, but the orientation of the face image of the same person is slightly different. If it changes, the matching rate will fluctuate, so the graph height will actually differ slightly. Hereinafter, the control operation will be described with reference to these drawings.

まず、リモート撮影モードを利用する前に、予め、ユーザによって自分の顔画像を登録する作業が行われる。カメラモジュール13よりユーザが撮影されている状態で、ユーザもしくは別の人が登録操作行うと、上述したように登録制御部504が動作して、ユーザの顔画像のパラメータが顔登録部504に登録される。こうして、ユーザは、リモート撮影モードの設定を行える状態となる。   First, before using the remote shooting mode, an operation of registering his / her face image is performed in advance by the user. When the user or another person performs a registration operation while the user is photographed from the camera module 13, the registration control unit 504 operates as described above, and the parameters of the user's face image are registered in the face registration unit 504. Is done. In this way, the user can set the remote shooting mode.

なお、上記のように登録する際に撮影を行うのではなく、予め撮影されてメモリ105に記憶されている画像から顔画像のパラメータを抽出し、顔登録部504に登録する構成とすることも可能である。   It is also possible to adopt a configuration in which face image parameters are extracted from an image that has been previously captured and stored in the memory 105 and registered in the face registration unit 504 instead of being captured when registering as described above. Is possible.

次に、ユーザによって、リモート撮影モードのためのキー操作が行われると、リモート撮影モードが起動する。   Next, when the key operation for the remote shooting mode is performed by the user, the remote shooting mode is activated.

リモート撮影モードが起動すると、モード起動中は常に顔抽出部501、顔パラメータ抽出部502およびマッチング判定部505が動作し、一定時間間隔(1コマまたは数コマ間隔)で1画面分の全ての顔画像のマッチング率がマッチング判定部505から撮影制御部506へ出力される。   When the remote shooting mode is activated, the face extraction unit 501, the face parameter extraction unit 502, and the matching determination unit 505 always operate during the mode activation, and all faces for one screen at a fixed time interval (one frame or several frame intervals). The matching rate of the image is output from the matching determination unit 505 to the shooting control unit 506.

撮影制御部506は、まず、初期設定として、リモートフラグ(RFG)およびシャッターフラグ(SFG)をリセットする。   The imaging control unit 506 first resets the remote flag (RFG) and the shutter flag (SFG) as an initial setting.

次に、撮影制御部506は、1画面分の顔画像のマッチング率を取得し(S102)、1画面毎に、取得したマッチング率を閾値と比較し、閾値を超えるものがあるか否かを判定する(S103)。   Next, the imaging control unit 506 acquires the matching rate of the face image for one screen (S102), compares the acquired matching rate with a threshold value for each screen, and determines whether there is an item exceeding the threshold value. Determine (S103).

顔画像を登録したユーザ(以下、「登録ユーザ」という)が、カメラモジュール13の撮影領域に入っていない場合(図5(a)の画面(A))には、画像中に他の人物がいてその顔画像が抽出されたとしても、そのマッチング率は低い値となる(図5(b)の時間領域(A))。   If the user who registered the face image (hereinafter referred to as “registered user”) is not in the shooting area of the camera module 13 (screen (A) in FIG. 5A), another person is included in the image. Even if the face image is extracted, the matching rate is low (time region (A) in FIG. 5B).

この場合、撮影制御部506は、閾値を超えるマッチング率の顔画像がないと判定し(S103:NO)、さらに、RFGはリセットされたままであるため(S105:NO)、ステップS102の処理に戻り、次に送られてくる1画面分の顔画像のマッチング率を取得する。   In this case, the imaging control unit 506 determines that there is no face image with a matching rate exceeding the threshold (S103: NO), and further, since RFG remains reset (S105: NO), the process returns to step S102. Then, the matching rate of the face image for one screen sent next is acquired.

その後、登録ユーザが撮影領域に入ってくると(図5(a)の画面(B))、登録ユーザの顔画像が抽出される。そして、その顔画像のマッチング率は高い値となる(図5(b)の時間領域(B))。   Thereafter, when the registered user enters the shooting area (screen (B) in FIG. 5A), the registered user's face image is extracted. The matching rate of the face image is a high value (time region (B) in FIG. 5B).

これにより、撮影制御部506は、閾値を超えるマッチング率の顔画像があると判定すると(S103:YES)、リセット状態にあるRFGをセット状態とする(S104:NO→S107)。これにより、リモート撮影の準備状態となる。その後、撮影制御部506は、ステップS102の処理に戻り、次に送られてくる1画面分の顔画像のマッチング率を取得する。   Accordingly, when the imaging control unit 506 determines that there is a face image with a matching rate exceeding the threshold (S103: YES), the RFG in the reset state is set (S104: NO → S107). As a result, the remote shooting is ready. Thereafter, the imaging control unit 506 returns to the process of step S102, and acquires the matching rate of the face image for one screen sent next.

さて、撮影位置に着いた登録ユーザは、撮影準備が整うと、撮影を行うための動作を行う。即ち、撮影指示の合図として、自分の顔を一旦隠して再び現す動作を行う。たとえば、登録ユーザは顔を一旦下に向けた後にもとに戻す動作を行う(図5(a)の画面(C)→(D))。登録ユーザが顔を隠す動作を行うと、その顔画像が抽出されなくなるため、マッチング率が閾値を超える顔画像がなくなり、そして、再び顔を現す動作を行うと、マッチング率が閾値を超える顔画像が再び現れる(図5(b)の時間領域(C)→(D))。   Now, the registered user who has arrived at the shooting position performs an operation for shooting when preparation for shooting is completed. That is, as a signal for shooting instructions, an operation of temporarily hiding his face and reappearing is performed. For example, the registered user performs an operation of turning the face down and then returning it (screen (C) → (D) in FIG. 5A). When the registered user performs an operation of hiding the face, the face image is not extracted, so there is no face image whose matching rate exceeds the threshold value, and when the operation of showing the face again is performed, the face image whose matching rate exceeds the threshold value Appears again (time region (C) → (D) in FIG. 5B).

撮影制御部506は、リモート撮影の準備状態において、マッチング率が閾値を超える顔画像がないと判定すると(S103:NO)、このときは、RFGがセットさており(S105:YES)、かつSFGは未だリセット状態であるため(S108:NO)、SFGをセットする(S109)。   If the shooting control unit 506 determines that there is no face image in which the matching rate exceeds the threshold value in the remote shooting preparation state (S103: NO), RFG is set (S105: YES), and SFG is Since it is still in the reset state (S108: NO), SFG is set (S109).

その後、撮影制御部506は、再び、マッチング率が閾値を超える顔画像があると判定すると(S103:YES)、このときは、RFGおよびSFGがともにセット状態であ
るため(S104:YES→S106:YES)、自動撮影を開始する(S110)。
Thereafter, when the imaging control unit 506 determines again that there is a face image whose matching rate exceeds the threshold (S103: YES), since both RFG and SFG are in the set state (S104: YES → S106: YES), automatic shooting is started (S110).

撮影制御部506は、たとえば、一定の遅延時間(3秒後など)が経過した後に、シャッター動作を行い、そのときにカメラモジュール13が撮影した画像の画像データをメモリ105に記憶させる。このとき、登録ユーザ等に撮影することを知らせるため、「ピッ、ピッ、ピッ、カシャ」というような報知音を、スピーカ109から出力させるようにすると良い。また、報知音とともに、あるいは報知音に変えて、LED等の発光部を発光させたり、ディスプレイ21の表示状態を変えるようにしたりすることもできる。   For example, the imaging control unit 506 performs a shutter operation after a certain delay time (after 3 seconds or the like) has elapsed, and stores the image data of the image captured by the camera module 13 in the memory 105 at that time. At this time, in order to notify a registered user or the like of shooting, a notification sound such as “beep, beep, beep, crush” may be output from the speaker 109. In addition to the notification sound or in place of the notification sound, a light emitting unit such as an LED can emit light, or the display state of the display 21 can be changed.

なお、自動撮影の動作としては、上記のものに限られず、上記遅延時間の経過を待たずに、直ちにシャッター動作を行うようにしても良いし、オートフォーカス機能が設けられていれば、フォーカス調整後にシャッター動作を行うにしても良い。   Note that the automatic shooting operation is not limited to the above, and the shutter operation may be performed immediately without waiting for the delay time to elapse, or if an autofocus function is provided, focus adjustment may be performed. A shutter operation may be performed later.

こうして、撮影が完了する(図5(a)の画面(E))。続けて撮影を行いたい場合、登録ユーザは、先と同様に、顔を隠した後に現す動作を行う。こうすると、撮影処理が実行され(ステップS103:YES→S104:YES→S106:YES→S110)、新たに撮影された画像の画像データがメモリ105記憶される。   Thus, shooting is completed (screen (E) in FIG. 5A). When the user wants to continue shooting, the registered user performs the operation after hiding his face, as before. In this way, shooting processing is executed (step S103: YES → S104: YES → S106: YES → S110), and image data of a newly shot image is stored in the memory 105.

その後、ユーザによって、リモート撮影モード解除のためのキー操作が行われると、リモート撮影モードが停止される。   Thereafter, when the user performs a key operation for canceling the remote shooting mode, the remote shooting mode is stopped.

以上、本実施の形態によれば、登録ユーザは、顔を一旦下に向けた後にもとに戻すなど、自分の顔を隠して再び現す動作を行うだけで、自分の意図する所望のタイミングで写真撮影(画像記憶)を行うことができる。しかも、リモコンがいらないので、リモコンを携帯するのを忘れるなどしても、リモート撮影が行えなくなる心配がない。   As described above, according to the present embodiment, the registered user can simply perform the operation of hiding his face and re-appearing, such as turning the face down and then returning to the original position, and at the desired timing. Photographing (image storage) can be performed. Moreover, since there is no need for a remote control, there is no worry that remote shooting will not be possible even if you forget to carry the remote control.

したがって、カメラの操作性に優れた携帯電話機を実現することができる。   Therefore, a mobile phone excellent in camera operability can be realized.

<変更例1>
上記実施の形態では、検出タイミング毎の画像中においてマッチング率が閾値を超える顔画像があれば、撮影領域に登録ユーザが存在するとみなしている。このため、画像中に登録ユーザと顔の似た人物がいたときには、登録ユーザの顔画像がなくなっても、似た人物の顔画像が閾値を超えていれば、登録ユーザの顔画像があると判定されてしまう。これにより、登録ユーザが撮影動作を行っても適正に写真撮影がなされない、という問題が起こり得る。
<Modification 1>
In the above embodiment, if there is a face image whose matching rate exceeds the threshold in the image at each detection timing, it is considered that the registered user exists in the shooting region. For this reason, if there is a person whose face is similar to that of the registered user in the image, even if the face image of the registered user disappears, if the face image of the similar person exceeds the threshold, there is a face image of the registered user. It will be judged. Thereby, even if a registered user performs a photographing operation, there may be a problem that photography is not properly performed.

これを解消するための一つの方法としては、閾値を高く設定する方法がある。しかし、登録ユーザとの撮影距離が遠くなり抽出される顔画像が小さくなると、マッチング率が低下するため、このような場合に閾値が高すぎると、登録ユーザを検出できない惧れが生じる。また、登録ユーザが顔の向きを変えるだけでマッチング率は変動するので、閾値が高すぎる場合には、この変動によってマッチング率が閾値を下回ったり上回ったりし、登録ユーザが意図しないのにシャッター動作が行われて写真撮影されてしまう、という事態も起こり得る。   As one method for solving this, there is a method of setting the threshold value high. However, if the photographing distance to the registered user is far and the extracted face image is small, the matching rate decreases. In such a case, if the threshold is too high, the registered user may not be detected. In addition, since the matching rate fluctuates simply by changing the orientation of the face of the registered user, if the threshold is too high, the variation may cause the matching rate to fall below or exceed the threshold, and the shutter operation is not intended by the registered user. It can happen that a photograph is taken and a photo is taken.

そこで、上記実施の形態に比べて、制御処理は複雑になるものの、登録ユーザの顔画像の有無を精度よく判定できるよう、以下に示す変更例1のような構成を採用することができる。   Therefore, although the control process is complicated as compared with the above-described embodiment, a configuration such as the following modified example 1 can be employed so that the presence / absence of a registered user's face image can be accurately determined.

図6は、変更例1に係るリモート撮影モードを実現するための機能ブロック図である。   FIG. 6 is a functional block diagram for realizing the remote shooting mode according to the first modification.

本変更例では、マッチング判定部505と撮影制御部506との間に、ターゲット特定部511と、ターゲット追跡部512と、顔有無検出部513とが配されている。その他の構成は、上記実施の形態と同様である。   In the present modification example, a target specifying unit 511, a target tracking unit 512, and a face presence / absence detecting unit 513 are arranged between the matching determination unit 505 and the imaging control unit 506. Other configurations are the same as those in the above embodiment.

ターゲット特定部511は、マッチング判定部505から取得したマッチング率と、顔抽出部501から送られてくる顔領域情報とに基づいて、どの顔領域の顔画像が登録ユーザの顔画像であると推定されるかを特定し、その顔画像の顔領域情報をターゲット追跡部512に出力する。   Based on the matching rate acquired from the matching determination unit 505 and the face region information sent from the face extraction unit 501, the target specifying unit 511 estimates that the face image of which face region is the registered user's face image. And the face area information of the face image is output to the target tracking unit 512.

ターゲット追跡部512は、登録ユーザの顔画像の顔領域情報を受け取ると、カメラモジュール13からの画像データを一定間隔(1コマあるいは数コマ間隔)で取得することにより、ターゲットである顔領域の動きを追跡し、その位置の情報(以下、「ターゲット位置情報」という)を顔有無検出部513に出力する。なお、ターゲットの追跡手法としては、たとえば、動きベクトルを用いた周知の手法(たとえば、特開2006−323437号公報を参照)を採用することができる。   When the target tracking unit 512 receives the facial area information of the registered user's facial image, the target tracking unit 512 acquires the image data from the camera module 13 at regular intervals (one frame or several frames), thereby moving the movement of the target facial area. And the position information (hereinafter referred to as “target position information”) is output to the face presence / absence detection unit 513. As a target tracking method, for example, a well-known method using a motion vector (see, for example, JP-A-2006-323437) can be employed.

顔有無検出部513は、顔抽出部501から送られてくる顔領域情報とターゲット追跡部512から送られてくるターゲット位置情報とに基づいて、画像中の登録ユーザの顔画像の有無を検出する。顔有無検出部513は、ターゲット位置情報に適合するような顔領域情報があれば、すなわち、追跡中のターゲットの位置に顔画像が検出されれば、画像中に登録ユーザの顔画像が存在するとして、顔有り信号を撮影制御部506へ出力する。一方、ターゲット位置情報に適合するような顔領域情報がなければ、すなわち、追跡中のターゲットの位置に顔画像が検出されなければ、画像中に登録ユーザの顔画像が存在しないとして、顔無し信号を撮影制御部506へ出力する。   The face presence / absence detection unit 513 detects the presence / absence of a registered user's face image in the image based on the face area information sent from the face extraction unit 501 and the target position information sent from the target tracking unit 512. . If there is face area information that matches the target position information, that is, if a face image is detected at the target position being tracked, the face presence / absence detection unit 513 includes the face image of the registered user. The face presence signal is output to the imaging control unit 506. On the other hand, if there is no face area information that matches the target position information, that is, if a face image is not detected at the target position being tracked, the faceless signal indicates that there is no registered user's face image in the image. Is output to the imaging control unit 506.

撮影制御部506は、顔有無検出部513により検出された顔有無の結果に基づいて所定の撮影動作を行う。   The imaging control unit 506 performs a predetermined imaging operation based on the result of the presence / absence of the face detected by the face presence / absence detection unit 513.

図7は、変更例1に係るリモート撮影モードにおいて実行される撮影処理の処理フローを示す図である。同図(a)は、登録ユーザの顔画像を特定するための処理(ターゲット特定処理)を示す図である。このターゲット特定処理は、ターゲット特定部511とターゲット追跡部512によって実行される。また、同図(b)は、登録ユーザの顔有無の検出結果に基づいて撮影を行うための処理(自動撮影処理)の処理フローを示す図である。この自動撮影処理は、ターゲット追跡部512、顔有無検出部513および撮影制御部506によって実行される。以下、図7を参照して、制御動作について説明する。   FIG. 7 is a diagram illustrating a processing flow of imaging processing executed in the remote imaging mode according to the first modification. FIG. 6A is a diagram showing a process (target specifying process) for specifying a registered user's face image. This target specifying process is executed by the target specifying unit 511 and the target tracking unit 512. FIG. 7B is a diagram illustrating a processing flow of processing (automatic imaging processing) for performing imaging based on the detection result of the presence / absence of the registered user's face. This automatic shooting process is executed by the target tracking unit 512, the face presence / absence detection unit 513, and the shooting control unit 506. Hereinafter, the control operation will be described with reference to FIG.

リモート撮影モードが起動すると、まず、ターゲット特定処理が行われる。ターゲット特定部511は、1画面分の顔画像のマッチング率と顔領域情報を取得し(S201)、1画面毎に、取得したマッチング率を閾値と比較して閾値を超えるものがあるか否かを判定する(S202)。そして、閾値を超えるものがあれば(S202:YES)、その顔画像のマッチング率がターゲット特定処理を開始してから最高のマッチング率であるか否かを判定し(S203)、最高のマッチング率であれば(S203:YES)、その顔画像が登録ユーザの顔画像のであると判定して、その顔画像に関する顔領域情報をターゲット追跡部512に送る。ターゲット追跡部512は、その顔領域情報で特定される顔領域をターゲット候補とし、その動きの追跡を開始する(S204)。   When the remote shooting mode is activated, first, target identification processing is performed. The target specifying unit 511 acquires a matching ratio and face area information of a face image for one screen (S201), and compares the acquired matching ratio with a threshold value for each screen to determine whether there is a threshold value that exceeds the threshold value. Is determined (S202). If there is an object that exceeds the threshold (S202: YES), it is determined whether or not the matching rate of the face image is the highest matching rate after the target specifying process is started (S203), and the highest matching rate is determined. If so (S203: YES), it is determined that the face image is that of the registered user, and face area information related to the face image is sent to the target tracking unit 512. The target tracking unit 512 sets the face area specified by the face area information as a target candidate, and starts tracking the movement (S204).

ターゲット特定部511は、リモート撮影モードが起動してからの時間を計測している。本変更例では、登録ユーザがリモート撮影モードの設定操作を行ってから撮影位置に移動するまでの時間を見越して、登録ユーザを最終的に特定するためサーチ時間が設定されている。   The target specifying unit 511 measures the time after the remote shooting mode is activated. In this modified example, the search time is set to finally identify the registered user in anticipation of the time from when the registered user performs the remote shooting mode setting operation to when the registered user moves to the shooting position.

ターゲット特定部511は、サーチ時間が経過していなければ(S205:NO)、ステップS201の処理に戻り、次に送られてくる1画面分の顔画像のマッチング率と顔領域情報を取得する。こうして、サーチ時間が経過するまで、ステップS201からS204の処理が繰り返される。この間、マッチング率が最高の顔画像が検出される度に、ターゲット候補が更新され、更新されたターゲット候補の動きが追跡される。なお、この間にターゲット候補が画像中からいなくなれば、ターゲット追跡部512は、追跡を中断して次の顔領域情報を受け取るまで待機する。   If the search time has not elapsed (S205: NO), the target identification unit 511 returns to the process of step S201, and acquires the matching ratio and face area information of the face image for one screen sent next. In this way, the processing of steps S201 to S204 is repeated until the search time has elapsed. During this time, each time a face image with the highest matching rate is detected, the target candidate is updated, and the movement of the updated target candidate is tracked. If the target candidate disappears from the image during this period, the target tracking unit 512 stops the tracking and waits until the next face area information is received.

こうして、サーチ時間が経過すると(S205:YES)、ターゲット特定部511は、ターゲット候補が存在しているか否かを判定する(S206)。そして、ターゲット候補が存在していれば(S206:YES)、そのときのターゲット候補を正式なターゲットとして確定し(S207)、ターゲット特定処理を終了する。以降、ターゲット追跡部512は、確定したターゲットの追跡を行うこととなる。   Thus, when the search time has elapsed (S205: YES), the target specifying unit 511 determines whether or not a target candidate exists (S206). If a target candidate exists (S206: YES), the target candidate at that time is determined as an official target (S207), and the target specifying process is terminated. Thereafter, the target tracking unit 512 tracks the determined target.

このように、本変更例では、サーチ時間を設けて、その時間の中でマッチング率が最も高い顔画像を登録ユーザの顔画像と特定することで、撮影領域に登録ユーザと顔の似た人物がいても、その人物の顔画像を登録ユーザの顔画像とみなしてしまうのを防止することができる。   As described above, in this modified example, a search time is provided, and the face image having the highest matching rate in that time is specified as the face image of the registered user, so that a person who has a face similar to the registered user in the shooting area. Even if it is, it is possible to prevent the person's face image from being regarded as a registered user's face image.

一方、登録ユーザが、移動するのに手間取るなどしてサーチ時間内に撮影領域内に入ることができず、サーチ時間内にターゲット候補が特定されない場合(S206:NO)には、サーチ時間の計測がリセットされ(S208)、S201に戻って、再度、ターゲット候補のサーチ動作が行われる。   On the other hand, if the registered user cannot enter the shooting area within the search time due to troublesome movement, and the target candidate is not specified within the search time (S206: NO), the search time is measured. Is reset (S208), the process returns to S201, and the target candidate search operation is performed again.

なお、ターゲット特定部511は、ターゲット特定処理が完了すると、ターゲット追跡部512に対してターゲットが確定した旨の信号を送る。ターゲット追跡部512はこの確定信号を受け取ると、顔有無検出部513へのターゲット位置情報の出力を開始する。   When the target specifying process is completed, the target specifying unit 511 sends a signal indicating that the target has been determined to the target tracking unit 512. Upon receiving this confirmation signal, the target tracking unit 512 starts outputting target position information to the face presence / absence detection unit 513.

ターゲット特定処理が完了すると、続いて、自動撮影処理が開始される。撮影制御部506は、まず、シャッターフラグ(SFG)をリセット状態とする(S301)。   When the target specifying process is completed, the automatic photographing process is started. First, the imaging control unit 506 resets the shutter flag (SFG) (S301).

ターゲット追跡部512は、ターゲット、即ち登録ユーザと推定された顔画像の追跡を行い(S302)、ターゲットが撮影領域内から外れなければ(S303:NO)、顔抽出部501から顔領域情報が出力されるタイミングに合わせて、ターゲット位置情報を顔有無検出部513へ出力する。   The target tracking unit 512 tracks the target, that is, the face image estimated as a registered user (S302). If the target does not deviate from the imaging region (S303: NO), the face extraction unit 501 outputs the face region information. The target position information is output to the face presence / absence detection unit 513 in accordance with the timing.

顔有無検出部513は、上述のように、顔抽出部501から送られてくる顔領域情報とターゲット追跡部512から送られてくるターゲット位置情報とに基づいて、登録ユーザの顔画像の有無を検出し、顔有り信号または顔無し信号を撮影制御部506へ出力する(S304)。   As described above, the face presence / absence detection unit 513 determines the presence / absence of a registered user's face image based on the face area information sent from the face extraction unit 501 and the target position information sent from the target tracking unit 512. Then, a face presence signal or a face absence signal is output to the photographing control unit 506 (S304).

登録ユーザが、上記実施の形態と同様、自分の顔を隠した後に現す動作を行うと、顔有無検出部513からは顔無し信号が出力され、その後、顔有り信号が出力される。   When a registered user performs an operation that appears after hiding his / her face, the face presence / absence detection unit 513 outputs a faceless signal, and then a face presence signal is output.

撮影制御部506は、顔無し信号を受け取ると、ターゲットとなる顔画像、即ち登録ユーザの顔画像がないと判定し(S305:NO)、このときはSFGがリセット状態にあるため(S307:NO)、SFGをセットする(S308)。そして、次に、顔有り信号を受け取ると、登録ユーザの顔画像があると判定し(S305:YES)、このときはSFGがセット状態にあるため(S306:YES)、自動撮影を行う(S309)。自動撮影の動作については、上記実施の形態と同様である。   Upon receiving the faceless signal, the imaging control unit 506 determines that there is no target face image, that is, no registered user face image (S305: NO), and at this time, the SFG is in a reset state (S307: NO). ) And SFG are set (S308). Next, when a face presence signal is received, it is determined that there is a registered user's face image (S305: YES). At this time, the SFG is in a set state (S306: YES), so automatic shooting is performed (S309). ). The operation of automatic shooting is the same as in the above embodiment.

なお、登録ユーザが、何らかの事情で撮影領域から出た場合、ターゲット追跡部512はステップS303でターゲットが撮影領域から外れたと判定する(S303:YES)。この場合、自動撮影処理が終了し、ターゲット追跡部512からは、ターゲット特定部511、顔有無検出部513および撮影制御部506にリセット信号がされる。これに基づいて、図7(a)に示すターゲット特定処理から再び自動撮影のための処理が開始される。   When the registered user leaves the shooting area for some reason, the target tracking unit 512 determines that the target has left the shooting area in step S303 (S303: YES). In this case, the automatic shooting process is terminated, and the target tracking unit 512 sends a reset signal to the target specifying unit 511, the face presence / absence detection unit 513, and the shooting control unit 506. Based on this, the process for automatic photographing is started again from the target specifying process shown in FIG.

以上、本変更例の構成によれば、登録ユーザであると判定した顔画像の動き追跡するようにしているので、同じ画像中に登録ユーザと似た顔の人物がいた場合でも、登録ユーザの顔画像の有無を精度よく検出でき、適正に自動撮影処理に移ることができる。   As described above, according to the configuration of this modified example, the movement of the face image determined to be a registered user is tracked. Therefore, even when a person with a face similar to the registered user exists in the same image, the registered user's The presence / absence of a face image can be accurately detected, and the process can be appropriately shifted to automatic photographing processing.

<変更例2>
写真撮影を行う際、その時々の状況に応じて、撮影に関する所定の設定や調整が行われ得る。たとえば、自動撮影における上記遅延時間の有無の設定やフラッシュのオン/オフの設定、ズームの調整等が行われ得る。登録ユーザは、これらの設定等を、リモート撮影モードの設定を行う際あるいはそれ以前に行う場合もあるが、撮影位置に着いてから行う場合もある。
<Modification 2>
When taking a picture, predetermined settings and adjustments relating to the picture can be made according to the situation at that time. For example, the setting of the presence / absence of the delay time, the setting of flash on / off, and zoom adjustment in automatic shooting can be performed. The registered user may perform these settings or the like when setting the remote shooting mode or before that, but may also perform the settings after reaching the shooting position.

そこで、本変更例では、登録ユーザの顔の状態(顔が左右に向いている状態)や他の部分(手など)の状態に基づいて、撮影に関する設定等を行うことができる構成とされている。   Therefore, in the present modification example, it is configured such that settings relating to shooting can be performed based on the state of the registered user's face (the face is facing left and right) and the state of other parts (such as hands). Yes.

図8は、変更例2に係るリモート撮影モードを実現するための機能ブロック図である。本変更例では、図6に示す変更例1の機能ブロックに対し、状態検出部521が付加されている。   FIG. 8 is a functional block diagram for realizing the remote shooting mode according to the second modification. In this modification, a state detection unit 521 is added to the functional block of Modification 1 shown in FIG.

状態検出部521には、ターゲット追跡部512から登録ユーザの顔画像に関するターゲット位置情報が入力される。また、状態検出部521には、画像データが入力される。状態検出部521は、これら入力に基づいて、登録ユーザの顔画像の状態を検出し、その状態に応じた設定等の指示信号を撮影制御部506へ出力する。   The target position information related to the registered user's face image is input from the target tracking unit 512 to the state detection unit 521. In addition, image data is input to the state detection unit 521. The state detection unit 521 detects the state of the registered user's face image based on these inputs, and outputs an instruction signal such as a setting corresponding to the state to the imaging control unit 506.

状態検出部521には、顔画像の状態とそれに対応する指示内容とが予め設定されている。たとえば、遅延時間の有無が顔の左右の向きにより設定される場合、右向きの顔画像に対して遅延時間有りの指示内容が、左向きの顔画像に対して遅延時間無しの指示内容が設定されている。   In the state detection unit 521, the state of the face image and the corresponding instruction content are set in advance. For example, if the presence / absence of delay time is set according to the left / right orientation of the face, the instruction content with delay time is set for the face image facing right and the instruction content without delay time is set for the face image facing left Yes.

顔の向きを検出する方法としては、公知の検出方法、たとえば、特開2000−97676号公報に示されている手法を用いることができる。この場合、状態検出部521は、顔領域となる肌色領域の重心位置に対する目、鼻、口等の相対位置に基づいて、顔画像が右向きであるのか左向きであるのかを検出する。即ち、登録ユーザの顔が右を向けば、肌色領域において目、鼻、口等が右に偏るので、状態検出部521は、顔が右を向いていると判定し、遅延時間有りの指示信号を出力する。一方、登録ユーザの顔が左を向けば、肌色領域において目、鼻、口等が左に偏るので、状態検出部521は、顔が左を向いていると判定し、遅延時間無しの指示信号を出力する。なお、顔画像が左右に向く範囲は、勿論、顔抽出部501によって顔画像が検出される範囲となる。   As a method for detecting the orientation of the face, a known detection method, for example, a technique disclosed in Japanese Patent Laid-Open No. 2000-97676 can be used. In this case, the state detection unit 521 detects whether the face image is facing right or left, based on the relative positions of the eyes, nose, mouth, and the like with respect to the barycentric position of the skin color area serving as the face area. That is, if the registered user's face turns to the right, the eyes, nose, mouth, and the like are biased to the right in the skin color area, so the state detection unit 521 determines that the face is facing right, and an instruction signal with a delay time Is output. On the other hand, if the registered user's face turns to the left, the eyes, nose, mouth, and the like are biased to the left in the skin color area, so the state detection unit 521 determines that the face is facing the left, Is output. Note that the range in which the face image is directed to the left and right is, of course, the range in which the face image is detected by the face extraction unit 501.

撮影制御部506は、動作検出部521から設定等の指示信号を受けると、これに従って設定等の処理を行う。   When the imaging control unit 506 receives an instruction signal for setting or the like from the operation detection unit 521, the imaging control unit 506 performs processing such as setting according to the instruction signal.

図9は、変更例2に係る自動撮影処理の処理フローを示す図である。同図の処理フローでは、撮影に関する設定等を実行するため、図7の処理フローに対し、撮影制御部506によるステップS311およびS312の処理が付加されている。   FIG. 9 is a diagram illustrating a processing flow of automatic photographing processing according to the second modification. In the processing flow of the figure, in order to execute settings related to shooting, the processing of steps S311 and S312 by the shooting control unit 506 is added to the processing flow of FIG.

撮影制御部506は、登録ユーザの顔画像(ターゲット)が特定された後に顔画像があると判定すると(S305:YES→S306:NO)、動作検出部521から機能設定等の指示があったか否かを判定する(S311)。そして、機能設定等の指示があれば、その指示に従った処理を行う(S312)。   If it is determined that there is a face image after the registered user's face image (target) is specified (S305: YES → S306: NO), the imaging control unit 506 determines whether or not there has been an instruction for function setting or the like from the operation detection unit 521. Is determined (S311). If there is an instruction for function setting or the like, processing according to the instruction is performed (S312).

たとえば、上記遅延時間の有無が設定される場合、登録ユーザが顔を右に向ければ遅延時間有りの設定が行われ、登録ユーザが顔を左に向ければ遅延時間無しの設定が行われる。   For example, when the presence / absence of the delay time is set, if the registered user turns his face to the right, the setting with the delay time is performed, and if the registered user turns the face to the left, the setting without the delay time is performed.

以上、本変更例の構成によれば、登録ユーザが携帯電話機とは離れた場所から撮影に関する設定や調整を行うことが可能となるため、使い勝手が向上する。   As described above, according to the configuration of the present modified example, it becomes possible for the registered user to make settings and adjustments related to shooting from a place away from the mobile phone, so that usability is improved.

なお、本変更例では、顔画像の状態に応じて上記遅延時間以外の設定等がなされる構成とされても良い。たとえば、携帯電話機にフラッシュ機能が具備されている場合には、フラッシュのオン/オフが設定されても良く、また、ズーム機能が具備されている場合には、ズームのイン/アウトの調整が行われても良い。この場合は、ディスプレイ21がカメラのレンズ窓と同じ向きに切り替えられる機構を設けて、被写体(登録ユーザ)方向からズーム状況を確認できるようにすることが望ましい。   Note that in this modification example, settings other than the delay time may be made according to the state of the face image. For example, if the mobile phone has a flash function, the flash may be turned on / off. If the mobile phone has a zoom function, the zoom in / out adjustment is performed. It may be broken. In this case, it is desirable to provide a mechanism for switching the display 21 in the same direction as the lens window of the camera so that the zoom status can be confirmed from the subject (registered user) direction.

また、本変更例では、顔の状態ではなく、顔以外の部分の状態に応じて機能設定等がなされる構成とされても良い。たとえば、指で方向を指す状態が検出され、指の向きに応じて機能設定等がなされても良い。ただし、本変更例の場合は、登録ユーザの顔領域が追跡される構成であるため、顔以外の状態を検出する場合には、登録ユーザの状態であることが判別できるよう、登録ユーザの顔画像の周辺の状態のみが検出される構成とされることが望ましい。   Further, in the present modification example, a function setting or the like may be made according to the state of a portion other than the face, not the face state. For example, a state indicating a direction with a finger may be detected, and function setting or the like may be performed according to the direction of the finger. However, in the case of this modification example, the registered user's face area is tracked. Therefore, when a state other than the face is detected, the registered user's face is determined so that the registered user's state can be determined. It is desirable that only the peripheral state of the image be detected.

<変更例3>
上記実施の形態および変更例1、2では、リモート撮影モードの設定/解除が所定のキー操作により行われる。よって、登録ユーザは、リモート撮影モードを利用する度に、設定および解除の操作をしなければならない。
<Modification 3>
In the above-described embodiment and modification examples 1 and 2, setting / canceling of the remote shooting mode is performed by a predetermined key operation. Therefore, each time the registered user uses the remote shooting mode, he / she has to perform setting and canceling operations.

そこで、本変更例では、リモート撮影モードの設定/解除(起動/停止)が、キー操作によらずに自動で行われる構成としている。   Therefore, in this modification example, the remote shooting mode is set / released (start / stop) automatically without any key operation.

図10は、変更例3に係るリモート撮影モードを実現するための機能ブロック図である。本変更例では、図6に示す変更例1の機能ブロックに対し、モード制御部531が付加されている。   FIG. 10 is a functional block diagram for realizing the remote shooting mode according to the third modification. In this modified example, a mode control unit 531 is added to the functional block of the modified example 1 shown in FIG.

変更例1では、ターゲット追跡部512からのリセット信号が、顔有無検出部513、撮影制御部506およびターゲット特定部511に出力されていたが、本変更例では、モード制御部531に出力される。   In the first modification, the reset signal from the target tracking unit 512 is output to the face presence / absence detection unit 513, the imaging control unit 506, and the target specifying unit 511. However, in the present modification, the reset signal is output to the mode control unit 531. .

また、本変更例では、リモート撮影モードが起動していないときでも、顔抽出部501、顔パラメータ抽出部502およびマッチング判定部505が動作し、モード制御部531には、マッチング判定部505からマッチング率が入力されるとともに、顔抽出部50
1から顔位置情報が入力される。
In the present modification example, even when the remote shooting mode is not activated, the face extraction unit 501, the face parameter extraction unit 502, and the matching determination unit 505 operate, and the mode control unit 531 receives matching from the matching determination unit 505. The rate is input and the face extraction unit 50
Face position information is input from 1.

モード制御部531は、リモート撮影モードが起動されていない状態において、入力されたマッチング率に基づいてリモート撮影モードを起動させる。また、リモート撮影モードが起動している状態において、入力されたマッチング率、顔領域情報およびリセット信号に基づいてリモート撮影モードを停止させる。   The mode control unit 531 activates the remote photographing mode based on the input matching rate in a state where the remote photographing mode is not activated. In the state where the remote shooting mode is activated, the remote shooting mode is stopped based on the input matching rate, face area information, and reset signal.

図11は、変更例3に係るリモート撮影モードを自動設定する処理、および自動解除する処理の処理フローを示す図である。同図(a)は自動設定の処理フローを示し、同図(b)は自動解除の処理フローを示す。また、図12は、変更例3に係るリモート撮影モードの自動設定/解除の流れを、イラスト画を用いて示した図である。同図(a)は自動設定の流れを示し、同図(b)、(c)は自動解除の流れを示す。以下、これらの図を参照して制御動作について説明する。   FIG. 11 is a diagram illustrating a processing flow of processing for automatically setting the remote shooting mode and processing for automatically canceling according to the third modification. FIG. 4A shows a processing flow for automatic setting, and FIG. 4B shows a processing flow for automatic cancellation. FIG. 12 is a diagram illustrating the flow of automatic setting / cancellation of the remote shooting mode according to the modification example 3 using an illustration. FIG. 4A shows the flow of automatic setting, and FIGS. 2B and 2C show the flow of automatic cancellation. Hereinafter, the control operation will be described with reference to these drawings.

図11(a)を参照して、モード制御部531は、1画面分の顔画像のマッチング率を取得し(S401)、1画面毎に、取得したマッチング率を閾値と比較し、閾値を超えるものがあるか否かを判定する(S402)。   Referring to FIG. 11A, the mode control unit 531 acquires the matching rate of the face image for one screen (S401), compares the acquired matching rate with a threshold value for each screen, and exceeds the threshold value. It is determined whether or not there is something (S402).

登録ユーザが、写真撮影に加わらず撮影領域に入らなければ、マッチング率が閾値を超えないので(S402:NO)、リモート撮影モードはオフのままとなる(図12(a)の画面(A))。   If the registered user does not participate in photography and does not enter the photography area, the matching rate does not exceed the threshold (S402: NO), so the remote photography mode remains off (screen (A) in FIG. 12A). ).

一方、登録ユーザが、撮影に加わるために撮影領域に入ると、マッチング率が閾値を超えるので(S402:YES)、モード制御部531は、画像中に登録ユーザの顔画像があると判定して、リモート撮影モードを起動する(S403;図12(a)の画面(B))。   On the other hand, when the registered user enters the shooting area to participate in shooting, the matching rate exceeds the threshold (S402: YES), so the mode control unit 531 determines that there is a registered user's face image in the image. Then, the remote shooting mode is activated (S403; screen (B) in FIG. 12A).

本変更例では、リモート撮影モードが起動すると同時に撮影準備状態に移行する。即ち、本変更例では、変更例1の場合と違って、図7(a)のターゲット特定処理が行われず、ステップS402で閾値を超えたと判定した顔画像(複数あれば、マッチング率が最高のもの)を登録ユーザの顔画像とみなして、その顔領域情報をターゲット追跡部512へ出力する。これにより、以降は図7(b)の自動撮影処理が行われる。   In this modification example, when the remote shooting mode is activated, the shooting preparation state is entered. That is, in this modified example, unlike the modified example 1, the target specifying process in FIG. 7A is not performed, and the face image determined to have exceeded the threshold value in step S402 (if there are multiple face images, the matching rate is the highest). ) Is regarded as a registered user's face image, and the face area information is output to the target tracking unit 512. Thereby, the automatic photographing process of FIG. 7B is performed thereafter.

次に、図11(b)を参照して、モード制御部531は、リモート撮影モードの起動中、1画面分の顔画像のマッチング率と顔領域情報を取得し(S501)、マッチング率を超える顔画像、即ち登録ユーザの顔画像の顔領域のサイズが閾値を超えたか(拡大したか)否かを判定する(S502)。また、顔領域のサイズが閾値を超えなければ(S502:NO)、顔領域(ターゲット)が撮影領域から外れたか否か、即ちターゲット追跡部512からリセット信号が出力されたか否かを判定する(S503)。   Next, with reference to FIG. 11B, the mode control unit 531 acquires the matching ratio and face area information for one screen of the face image during activation of the remote shooting mode (S501), and exceeds the matching ratio. It is determined whether or not the size of the face image, that is, the face area of the registered user's face image has exceeded (enlarged) the threshold (S502). If the size of the face area does not exceed the threshold (S502: NO), it is determined whether or not the face area (target) is out of the shooting area, that is, whether or not a reset signal is output from the target tracking unit 512 ( S503).

撮影が継続されている間、登録ユーザは遠近方向にあまり大きく動くことがなく、また、撮影領域から離れることもないので、その顔領域のサイズは閾値を超えず(S502:NO)、また、リセット信号が入力されることもない(S503:NO)。よって、この場合は、リモート撮影モードが起動したままとなる(図12(b)の画面(C)、図12(c)の画面(E))。   While the shooting is continued, the registered user does not move much in the perspective direction and does not move away from the shooting area, so the size of the face area does not exceed the threshold (S502: NO), and A reset signal is not input (S503: NO). Therefore, in this case, the remote shooting mode remains activated (screen (C) in FIG. 12B, screen (E) in FIG. 12C).

一方、撮影が終了すると、登録ユーザは、携帯電話機(カメラモジュール13)の方に向かう。このとき、登録ユーザの顔画像は、撮影領域内で携帯電話機に近づくか、撮影領域から外れるかする。   On the other hand, when shooting is completed, the registered user heads toward the mobile phone (camera module 13). At this time, the registered user's face image is close to the mobile phone in the shooting area or is out of the shooting area.

モード制御部531は、顔画像が撮影領域内で携帯電話機に近づくことによって、その顔領域のサイズが閾値を超えたと判定すると(S502:YES)、リモート撮影モードを停止する(S504;図12(b)の画面(D))。あるいは、顔領域が撮影領域から外れることにより、リセット信号が入力されると(S503:YES)、リモート撮影モードを停止する(S504;図12(b)の画面(F))。   When the mode control unit 531 determines that the size of the face area exceeds the threshold by approaching the mobile phone within the shooting area (S502: YES), the mode control unit 531 stops the remote shooting mode (S504; FIG. 12 ( Screen (D) of b). Alternatively, when the reset signal is input because the face area is out of the shooting area (S503: YES), the remote shooting mode is stopped (S504; screen (F) in FIG. 12B).

以上、本変更例の構成によれば、登録ユーザが逐一キー操作を行うことなく、リモート撮影モードの起動、停止を行うことができるので、操作性をより一層向上させることができる。   As described above, according to the configuration of this modified example, since the registered user can start and stop the remote shooting mode without performing key operations one by one, the operability can be further improved.

なお、本変更例では、リモート撮影モードの起動および停止の双方が自動で行われる構成とされているが、どちらか一方のみが自動で行われる構成とされても良い。   In the present modification example, the remote shooting mode is both automatically activated and stopped, but only one of them may be automatically performed.

また、本変更例では、登録ユーザの顔領域のサイズが閾値を超えたときと顔領域が画像中から外れたときの双方が判定され、リモート撮影モードが停止される構成とされているが、どちらか一方のみが判定される構成とされても良い。   Further, in this modified example, both the case where the size of the registered user's face area exceeds the threshold and the case where the face area is out of the image are determined, and the remote shooting mode is stopped. Only one of them may be determined.

さらに、本変更例は、図3ないし図5に示す上記実施の形態にも適用され得る。ただし、上記実施の形態においては、ターゲット追跡部512が具備されていないため、登録ユーザの顔領域のサイズが閾値を超えたときのみに、リモート撮影モードが停止される構成とされる。   Furthermore, the present modification can be applied to the above-described embodiment shown in FIGS. However, in the above embodiment, since the target tracking unit 512 is not provided, the remote shooting mode is stopped only when the size of the registered user's face area exceeds the threshold.

図13は、変更例3に係る構成を、上記実施の形態に適用する場合の機能ブロック図である。同図に示すように、モード制御部531には、マッチング判定部505からマッチング率が入力されるとともに、顔抽出部501から顔領域情報が入力される。   FIG. 13 is a functional block diagram when the configuration according to the modification example 3 is applied to the embodiment. As shown in the figure, the mode control unit 531 receives the matching rate from the matching determination unit 505 and the face area information from the face extraction unit 501.

この構成においては、リモート撮影モードを起動させる処理として、図11(a)と同様の処理が行われる。一方、リモート撮影モードを停止させる処理として、図11(b)と同様な処理がなされるが、ステップS503の処理は除かれる。この場合は、ステップS502で顔領域のサイズが閾値を超えていないと判定されると、ステップS511の処理に戻るような処理フローとなる。   In this configuration, a process similar to that in FIG. 11A is performed as a process for starting the remote shooting mode. On the other hand, as the process for stopping the remote shooting mode, the same process as in FIG. 11B is performed, but the process of step S503 is excluded. In this case, if it is determined in step S502 that the size of the face area does not exceed the threshold value, the process flow returns to the process in step S511.

<その他>
本発明の実施形態は、上記以外にさらに種々の変更が可能である。
<Others>
The embodiment of the present invention can be variously modified in addition to the above.

たとえば、上記実施の形態では、シャッター動作が行われると、直ちに撮影された画像の画像データがメモリ105に正式に記憶される構成とされている。しかしながら、このような構成に限らず、メモリ105やCPU100などに一時的な記憶領域が設けられ、シャッター動作が行われると、この一時記憶領域に撮影画像が一旦保存され、その後、登録ユーザ等により所定の保存操作がなされると、メモリ105に正式に記憶される構成とされても良い。   For example, in the above embodiment, when the shutter operation is performed, the image data of the captured image is immediately stored in the memory 105. However, the present invention is not limited to this configuration, and a temporary storage area is provided in the memory 105, the CPU 100, and the like, and when a shutter operation is performed, a captured image is temporarily stored in the temporary storage area. When a predetermined storage operation is performed, the memory 105 may be officially stored.

このように、特許請求の範囲に記載された本発明の記憶部は、上記実施の形態のメモリ105のように撮影画像を正式に記憶するための手段のみに限られるものでなく、上記一時記憶領域のように撮影画像を一時的に記憶するための手段をも含む概念である。   As described above, the storage unit of the present invention described in the claims is not limited to a unit for officially storing a photographed image like the memory 105 of the above-described embodiment. This is a concept including means for temporarily storing a photographed image like a region.

また、上記実施の形態では、カメラ付き携帯電話機を例示したが、本発明のカメラ付き機器は、携帯電話機に限られず、カメラ付きPDA(Personal Digital Assistant)やデジタルカメラ等とすることができる。   In the above embodiment, the camera-equipped mobile phone is illustrated. However, the camera-equipped device of the present invention is not limited to the mobile phone, and can be a PDA (Personal Digital Assistant) with a camera, a digital camera, or the like.

この他、本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。   In addition, the embodiment of the present invention can be variously modified as appropriate within the scope of the technical idea shown in the claims.

13 カメラモジュール(カメラ部)
105 メモリ(記憶部)
501 顔抽出部(顔検出部)
502 顔パラメータ抽出部(顔検出部)
504 顔登録部
505 マッチング判定部(顔検出部)
506 撮影制御部(顔検出部、リモート記憶部)
511 ターゲット特定部(顔検出部)
512 ターゲット追跡部(顔検出部、追跡部)
513 顔有無検出部(顔検出部)
521 状態検出部
531 モード制御部
13 Camera module (camera part)
105 Memory (storage unit)
501 Face extraction unit (face detection unit)
502 Face parameter extraction unit (face detection unit)
504 Face registration unit 505 Matching determination unit (face detection unit)
506 Shooting control unit (face detection unit, remote storage unit)
511 Target identification unit (face detection unit)
512 Target tracking unit (face detection unit, tracking unit)
513 Face presence / absence detection unit (face detection unit)
521 State detection unit 531 Mode control unit

Claims (3)

撮影画像を画像情報として出力するカメラ部と、
前記画像情報を記憶する記憶部と、
定の画像に関する情報を前記撮影画像から検出す検出部と、
前記検出部によって前記特定の画像が検出された後、前記特定の画像が検出されなくなり、その後、再び、前記特定の画像が検出されたことに基づいて、前記画像情報を前記記憶部に記憶させるための制御処理を実行すリモート記憶部と、
顔画像を含む前記特定の画像に関する情報を登録する画像登録部と、を備え、
前記リモート記憶部による前記制御処理は、前記カメラ部による撮像が開始された後、前記検出部によって前記特定の画像が検出されたことに応じて起動され、
前記検出部は、前記画像登録部に登録された前記特定の画像に関する情報に基づいて前記特定の画像の検出を行う、
ことを特徴とするカメラ付き機器。
A camera unit that outputs a captured image as image information;
A storage unit for storing the image information;
A detecting section that detect information about a specific image from the captured image,
After the specific image is detected by the detection unit, the specific image is no longer detected, and then the image information is stored in the storage unit again based on the detection of the specific image. and remote storage unit that perform control processing for,
An image registration unit for registering information on the specific image including a face image,
The control process by the remote storage unit is started in response to the detection of the specific image by the detection unit after imaging by the camera unit is started,
The detection unit detects the specific image based on information on the specific image registered in the image registration unit;
A camera-equipped device.
請求項1記載のカメラ付き機器において、
前記出部によって検出された前記特定の画像を前記撮影画像中において追跡する追跡部をさらに備え、
前記リモート記憶部による制御処理が起動された後、前記追跡部により前記特定の画像が前記撮像画像から抜け出したことが検出されたことに応じて、前記リモート記憶部による制御処理が停止される。
The camera-equipped device according to claim 1,
Further comprising a tracking unit that tracks the specific image detected by the detection unit during the photographic image,
After the control process by the remote storage unit is activated, the control process by the remote storage unit is stopped in response to the tracking unit detecting that the specific image has escaped from the captured image.
請求項1記載のカメラ付き機器において、
前記リモート記憶部による制御処理が起動された後、前検出部によって検出された前記顔画像の大きさが閾値を超えたことに応じて、前記リモート記憶部による制御処理が停止される。
The camera-equipped device according to claim 1,
Wherein after the control processing by the remote storage unit is started, in response to the size of the facial image detected by the front Symbol detection unit exceeds the threshold value, the control processing by the remote storage unit is stopped.
JP2011208535A 2011-09-26 2011-09-26 Equipment with camera Active JP5225446B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011208535A JP5225446B2 (en) 2011-09-26 2011-09-26 Equipment with camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011208535A JP5225446B2 (en) 2011-09-26 2011-09-26 Equipment with camera

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008300761A Division JP4927808B2 (en) 2008-11-26 2008-11-26 Equipment with camera

Publications (2)

Publication Number Publication Date
JP2012039640A JP2012039640A (en) 2012-02-23
JP5225446B2 true JP5225446B2 (en) 2013-07-03

Family

ID=45851037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011208535A Active JP5225446B2 (en) 2011-09-26 2011-09-26 Equipment with camera

Country Status (1)

Country Link
JP (1) JP5225446B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5087856B2 (en) * 2006-04-05 2012-12-05 株式会社ニコン Electronic camera
JP4998122B2 (en) * 2007-07-10 2012-08-15 カシオ計算機株式会社 Imaging apparatus and program thereof

Also Published As

Publication number Publication date
JP2012039640A (en) 2012-02-23

Similar Documents

Publication Publication Date Title
JP4927808B2 (en) Equipment with camera
US10270975B2 (en) Preview image display method, apparatus and storage medium
JP4659088B2 (en) Mobile device with camera
CN106572299B (en) Camera opening method and device
KR101670222B1 (en) Image capturing apparatus and control method thereof
WO2017020498A1 (en) Image shooting method and device
CN104982024B (en) Mobile terminal and method for starting shooting of mobile terminal
JP6426484B2 (en) Mobile terminal
CN107426502B (en) Shooting method and device, electronic equipment and storage medium
EP3258414B1 (en) Prompting method and apparatus for photographing
KR20100027700A (en) Photographing method and apparatus
CN106257913B (en) Image pickup control apparatus and control method thereof
CN111385456A (en) Photographing preview method and device and storage medium
JP5594485B2 (en) Portable communication device
CN107122697B (en) Automatic photo obtaining method and device and electronic equipment
JP2008098954A (en) Imaging apparatus, method, and program
KR20120126842A (en) Portable apparatus containing a camera module and method for self capture using the portable apparatus
CN110891139B (en) On-off control method and device for shooting function, electronic equipment and storage medium
JP5225446B2 (en) Equipment with camera
JP2009130636A (en) Imaging apparatus
JP2005027002A (en) Camera with communication function
JP2010161704A (en) Mobile terminal, photographing control method thereof, program, and recording medium
JP2010026459A (en) Imaging device
CN112752030A (en) Imaging method, imaging device, and storage medium
CN116193235A (en) Shooting method, shooting device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130312

R150 Certificate of patent or registration of utility model

Ref document number: 5225446

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3