JP2010114842A - Image capturing apparatus and method - Google Patents

Image capturing apparatus and method Download PDF

Info

Publication number
JP2010114842A
JP2010114842A JP2008287988A JP2008287988A JP2010114842A JP 2010114842 A JP2010114842 A JP 2010114842A JP 2008287988 A JP2008287988 A JP 2008287988A JP 2008287988 A JP2008287988 A JP 2008287988A JP 2010114842 A JP2010114842 A JP 2010114842A
Authority
JP
Japan
Prior art keywords
face
unit
visible light
determination
face recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008287988A
Other languages
Japanese (ja)
Inventor
Katsu Okuda
克 奥田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung R&D Institute Japan Co Ltd
Original Assignee
Samsung Yokohama Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Yokohama Research Institute filed Critical Samsung Yokohama Research Institute
Priority to JP2008287988A priority Critical patent/JP2010114842A/en
Publication of JP2010114842A publication Critical patent/JP2010114842A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image capturing apparatus with which a picture intended by a photographer can easily be taken by using visible light communication. <P>SOLUTION: The image capturing apparatus includes a face position specifying unit for specifying a position of a face in a photographic image, a face recognition unit for recognizing the position of the face included in the photographic image, a position decision unit for determining a positional relationship between the position specified by the face position specifying unit and the position recognized by the face recognition unit, a data modulation unit for modulating information based on the decision result of the position decision unit, and a visible light emission unit for emitting a visible light on which the information modulated by the data modulation unit is superimposed. As a result, the picture intended by a photographer can easily be taken by using the visible light communication. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像装置及び撮像方法に関し、特に可視光通信機能を備える撮像装置に関する。   The present invention relates to an imaging apparatus and an imaging method, and particularly relates to an imaging apparatus having a visible light communication function.

デジタルスチルカメラ等の撮像装置の分野において、消費電力を低減させたり、装置の小型化・軽量化を図ったりするために、撮影を補助する補助光の発光にLED(Light Emitting Diode;発光ダイオード)が用いられ始めている。そして、LEDから発光される光に情報を重畳して送信しようとする可視光通信技術も撮像装置の分野において用いられ始めている(例えば、特許文献1、2参照)。   In the field of imaging devices such as digital still cameras, LEDs (Light Emitting Diodes) are used to emit auxiliary light that assists shooting in order to reduce power consumption and reduce the size and weight of the device. Are beginning to be used. And the visible light communication technique which superimposes and transmits information on the light emitted from the LED has started to be used in the field of imaging devices (see, for example, Patent Documents 1 and 2).

さて、デジタルスチルカメラを用いて、自分で自分を撮影しようとする場合には、三脚やテーブル等にデジタルスチルカメラを固定してアングルを決めた後に、セルフタイマーモードで撮影する方法がある。また、自分で自分の画像を撮影しようとする場合には、デジタルスチルカメラに顔検出機能を組み込み、被写体の顔が笑顔になった時点で自動撮影を開始するといった方法もある。   When using a digital still camera to photograph yourself, there is a method of photographing in a self-timer mode after fixing the digital still camera on a tripod or table and determining the angle. In addition, when trying to photograph one's own image, there is a method in which a face detection function is incorporated in a digital still camera and automatic photographing is started when the subject's face becomes a smile.

特開2007−312204号公報JP 2007-312204 A 特開2007−295446号公報JP 2007-295446 A

しかし、デジタルスチルカメラを固定してアングルを決めた後にセルフタイマーモードを使用して自分で自分を撮影する場合では、所望の位置に顔が来るように撮影するのは難しい。すなわち、セルフタイマーモードで撮影する場合には、カメラと立ち位置とを何度も往復して撮影を繰り返し、何度も撮影画像を確認することで、ようやく所望の画像を撮影できることが多く、撮影に時間がかかってしまうという問題があった。また、被写体の状態を検出して自動撮影する場合であっても、撮影者が自分の位置を判断することは出来ず、顔に焦点が合っている場合であっても背景が隠れてしまっているなど、意図通りの写真を撮影することが難しいという問題があった。   However, when the self-timer mode is used to photograph yourself after fixing the digital still camera and determining the angle, it is difficult to photograph so that the face comes to a desired position. In other words, when shooting in the self-timer mode, it is often possible to finally shoot a desired image by repeating the shooting by reciprocating between the camera and the standing position many times and confirming the shot image many times. There was a problem that it took time. Also, even when the subject's condition is detected and automatic shooting is performed, the photographer cannot determine his / her position, and the background is hidden even when the face is in focus. There was a problem that it was difficult to take pictures as intended.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、可視光通信を用いて意図通りの写真を容易に撮影することが可能な、新規かつ改良された撮像装置及び撮像方法を提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is a new and improved technique capable of easily taking a photograph as intended using visible light communication. Another object of the present invention is to provide an imaging apparatus and an imaging method.

上記課題を解決するために、本発明のある観点によれば、撮影画像における顔の位置を指定する顔位置指定部と、撮影画像に含まれる顔の位置を認識する顔認識部と、顔位置指定部で指定した位置と、顔認識部で認識した位置との位置関係を判定する位置判定部と、位置判定部での判定結果に基づいた情報を変調するデータ変調部と、データ変調部で変調した情報が重畳された可視光を発光する可視光発光部と、を含む、撮像装置が提供される。   In order to solve the above problem, according to an aspect of the present invention, a face position specifying unit that specifies a face position in a captured image, a face recognition unit that recognizes the position of a face included in the captured image, and a face position A position determination unit that determines the positional relationship between the position specified by the specification unit and the position recognized by the face recognition unit, a data modulation unit that modulates information based on the determination result in the position determination unit, and a data modulation unit An imaging device is provided that includes a visible light emitting unit that emits visible light on which modulated information is superimposed.

かかる構成によれば、顔位置指定部は撮影画像における顔の位置を指定し、顔認識部は撮影画像に含まれる顔の位置を認識する。そして、位置判定部は顔位置指定部で指定した位置と、顔認識部で認識した位置との位置関係を判定し、データ変調部は位置判定部での判定結果に基づいた情報を変調し、可視光発光部はデータ変調部で変調した情報が重畳された可視光を発光する。その結果、撮像しようとする画像に対して顔認識処理を実行し、顔認識処理の結果認識できた顔の位置と、予め指定した顔の位置との位置関係に応じてデータを生成し、可視光通信によって該データを送信することで、可視光通信を用いて意図通りの写真を容易に撮影することが可能となる。   According to this configuration, the face position specifying unit specifies the position of the face in the captured image, and the face recognition unit recognizes the position of the face included in the captured image. Then, the position determination unit determines the positional relationship between the position specified by the face position specification unit and the position recognized by the face recognition unit, the data modulation unit modulates information based on the determination result in the position determination unit, The visible light emitting unit emits visible light on which the information modulated by the data modulating unit is superimposed. As a result, face recognition processing is performed on the image to be imaged, and data is generated according to the positional relationship between the face position recognized as a result of the face recognition processing and the position of the face specified in advance. By transmitting the data by optical communication, it is possible to easily take a photograph as intended using visible light communication.

位置判定部の判定の結果、顔位置指定部で指定した位置と、顔認識部で認識した位置とが一致している場合には、データ変調部は撮影を開始する旨の情報を変調してもよい。   As a result of the determination by the position determination unit, if the position specified by the face position specifying unit and the position recognized by the face recognition unit match, the data modulation unit modulates information to start shooting. Also good.

位置判定部は、可視光発光部が撮影を開始する旨の情報が重畳された可視光を発光した後に、顔位置指定部で指定した位置と、顔認識部で認識した位置との位置関係を再度判定し、データ変調部は、位置判定部が判定した結果、顔位置指定部で指定した位置と、顔認識部で認識した位置とが一致していない場合には、撮影を中止する旨の情報を変調してもよい。   The position determination unit emits visible light on which information indicating that the visible light emitting unit starts photographing is superimposed, and then determines the positional relationship between the position specified by the face position specifying unit and the position recognized by the face recognition unit. If the position specified by the face position specifying unit does not match the position recognized by the face recognizing unit as a result of the determination by the position determining unit, the data modulating unit Information may be modulated.

位置判定部の判定の結果、顔位置指定部で指定した位置と、顔認識部で認識した位置とが一致していない場合には、データ変調部は顔の位置を移動させるための情報を変調してもよい。   As a result of the determination by the position determination unit, if the position specified by the face position specifying unit and the position recognized by the face recognition unit do not match, the data modulation unit modulates information for moving the face position May be.

また、上記課題を解決するために、本発明の別の観点によれば、撮影画像における顔の位置を指定する顔位置指定ステップと、撮影画像に含まれる顔の位置を認識する顔認識ステップと、顔位置指定ステップで指定した位置と、顔認識ステップで認識した位置との位置関係を判定する位置判定ステップと、位置判定ステップでの判定結果に基づいた情報を変調するデータ変調ステップと、データ変調ステップで変調した情報が重畳された可視光を発光する可視光発光ステップと、を含む、撮像方法が提供される。   In order to solve the above problem, according to another aspect of the present invention, a face position specifying step for specifying a face position in a captured image, and a face recognition step for recognizing the position of a face included in the captured image, A position determination step for determining a positional relationship between the position specified in the face position specification step and the position recognized in the face recognition step, a data modulation step for modulating information based on the determination result in the position determination step, and data There is provided an imaging method including a visible light emission step of emitting visible light on which information modulated in the modulation step is superimposed.

かかる構成によれば、顔位置指定ステップは撮影画像における顔の位置を指定し、顔認識ステップは撮影画像に含まれる顔の位置を認識する。そして、位置判定ステップは顔位置指定ステップで指定した位置と、顔認識ステップで認識した位置との位置関係を判定し、データ変調ステップは位置判定ステップでの判定結果に基づいた情報を変調し、可視光発光ステップはデータ変調ステップで変調した情報が重畳された可視光を発光する。その結果、撮像しようとする画像に対して顔認識処理を実行し、顔認識処理の結果認識できた顔の位置と、予め指定した顔の位置との位置関係に応じてデータを生成し、可視光通信によって該データを送信することで、可視光通信を用いて意図通りの写真を容易に撮影することが可能となる。   According to this configuration, the face position specifying step specifies the position of the face in the captured image, and the face recognition step recognizes the position of the face included in the captured image. The position determination step determines the positional relationship between the position specified in the face position specification step and the position recognized in the face recognition step, the data modulation step modulates information based on the determination result in the position determination step, The visible light emitting step emits visible light on which the information modulated in the data modulation step is superimposed. As a result, face recognition processing is performed on the image to be imaged, and data is generated according to the positional relationship between the face position recognized as a result of the face recognition processing and the position of the face specified in advance. By transmitting the data by optical communication, it is possible to easily take a photograph as intended using visible light communication.

以上説明したように本発明によれば、可視光通信を用いて容易に意図通りの写真を撮影することが可能な、新規かつ改良された撮像装置及び撮像方法を提供することができる。   As described above, according to the present invention, it is possible to provide a new and improved imaging apparatus and imaging method capable of easily taking a photograph as intended using visible light communication.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

まず、本発明の一実施形態にかかる撮像装置の構成について説明する。図1は、本発明の一実施形態にかかる撮像装置100の構成について説明する説明図である。以下、図1を用いて本発明の一実施形態にかかる撮像装置100の構成について説明する。   First, the configuration of an imaging apparatus according to an embodiment of the present invention will be described. FIG. 1 is an explanatory diagram illustrating a configuration of an imaging apparatus 100 according to an embodiment of the present invention. Hereinafter, the configuration of the imaging apparatus 100 according to the embodiment of the present invention will be described with reference to FIG.

図5に示したように、本発明の第1の実施形態に係る撮像装置100は、ズームレンズ102と、絞り104と、フォーカスレンズ106と、駆動装置102a、104a、106aと、CMOSイメージセンサ108と、アンプ一体型のCDS(Correlated Double Sampling)回路110と、A/D変換器112と、画像入力コントローラ114と、画像信号処理部116と、圧縮処理部120と、LCD(Liquid Crystal Display)ドライバ122と、LCD124と、制御部128と、操作部132と、メモリ134と、VRAM(Video Random Access Memory)136と、メディアコントローラ138と、記録メディア140と、モータドライバ142a、142b、142cと、LEDドライバ156と、LED158と、を含んで構成される。   As shown in FIG. 5, the imaging apparatus 100 according to the first embodiment of the present invention includes a zoom lens 102, a diaphragm 104, a focus lens 106, driving devices 102a, 104a, and 106a, and a CMOS image sensor 108. An amplifier integrated CDS (Correlated Double Sampling) circuit 110, an A / D converter 112, an image input controller 114, an image signal processing unit 116, a compression processing unit 120, and an LCD (Liquid Crystal Display) driver. 122, LCD 124, control unit 128, operation unit 132, memory 134, VRAM (Video Random Access Memory) 136, media controller 138, recording medium 140, and motor driver 142a. 142b, and 142c, an LED driver 156, configured to include a LED 158, a.

ズームレンズ102は、駆動装置102aによって光軸方向に前後して移動させることで焦点距離が連続的に変化するレンズであり、被写体の大きさを変化して撮影する。絞り104は、画像を撮影する際に、駆動装置104aによって、CMOSイメージセンサ108に入ってくる光量を調節する。フォーカスレンズ106は、駆動装置106aによって光軸方向に前後して移動させることで被写体のピントを調節するものである。本実施形態では、フォーカスレンズ106を遠距離から近距離に駆動させながら、複数の露光時間で露光制御することで合焦評価値を得る。   The zoom lens 102 is a lens in which the focal length is continuously changed by being moved back and forth in the optical axis direction by the driving device 102a. The zoom lens 102 changes the size of the subject and shoots. The diaphragm 104 adjusts the amount of light entering the CMOS image sensor 108 by the driving device 104a when taking an image. The focus lens 106 adjusts the focus of the subject by being moved back and forth in the optical axis direction by the driving device 106a. In the present embodiment, a focus evaluation value is obtained by performing exposure control over a plurality of exposure times while driving the focus lens 106 from a long distance to a short distance.

本実施形態においては、ズームレンズ102およびフォーカスレンズ106は1枚のみ示しているが、ズームレンズ102の枚数は2枚以上であってもよく、フォーカスレンズ106の枚数も2枚以上であってもよい。   In this embodiment, only one zoom lens 102 and focus lens 106 are shown, but the number of zoom lenses 102 may be two or more, and the number of focus lenses 106 may be two or more. Good.

CMOSイメージセンサ108は、本発明のX−Yアドレス型撮像素子の一例であり、ズームレンズ102、絞り104およびフォーカスレンズ106から入射された光を電気信号に変換するための素子である。本実施形態においては電子シャッタによって入射光を制御して、電気信号を取り出す時間を調節しているが、メカシャッタを用いて入射光を制御して、電気信号を取り出す時間を調節してもよい。   The CMOS image sensor 108 is an example of an XY address type image sensor of the present invention, and is an element for converting light incident from the zoom lens 102, the diaphragm 104, and the focus lens 106 into an electrical signal. In this embodiment, the incident light is controlled by the electronic shutter to adjust the time for extracting the electric signal. However, the time for extracting the electric signal may be adjusted by controlling the incident light using the mechanical shutter.

CDS回路110は、CMOSイメージセンサ108から出力された電気信号の雑音を除去する、サンプリング回路の一種であるCDS回路と、雑音を除去した後に電気信号を増幅するアンプとが一体となった回路である。本実施形態ではCDS回路とアンプとが一体となった回路を用いて撮像装置100を構成しているが、CDS回路とアンプとを別々の回路で構成してもよい。   The CDS circuit 110 is a circuit in which a CDS circuit that is a kind of sampling circuit that removes noise from the electrical signal output from the CMOS image sensor 108 and an amplifier that amplifies the electrical signal after removing the noise are integrated. is there. In the present embodiment, the imaging apparatus 100 is configured using a circuit in which a CDS circuit and an amplifier are integrated. However, the CDS circuit and the amplifier may be configured as separate circuits.

A/D変換器112は、CMOSイメージセンサ108で生成された電気信号をデジタル信号に変換して、画像の生データを生成するものである。   The A / D converter 112 converts the electrical signal generated by the CMOS image sensor 108 into a digital signal, and generates raw image data.

画像入力コントローラ114は、A/D変換器で生成された画像の生データのメモリ134への入力を制御するものである。   The image input controller 114 controls input of raw image data generated by the A / D converter to the memory 134.

画像信号処理部116は、CMOSイメージセンサ108から得られる画像の生データに対して、光量のゲイン補正やホワイトバランスを調整するものである。画像信号処理部116は、本発明の露光データ取得部としての機能を有しており、撮影した画像の露光データを取得する。露光データには合焦評価値(AF評価値)やAE(Auto Exposure;自動露光)評価値を含んでおり、画像信号処理部116において合焦評価値やAE評価値を算出する。   The image signal processing unit 116 adjusts the light amount gain correction and the white balance for the raw image data obtained from the CMOS image sensor 108. The image signal processing unit 116 has a function as an exposure data acquisition unit of the present invention, and acquires exposure data of a photographed image. The exposure data includes a focus evaluation value (AF evaluation value) and an AE (Auto Exposure) evaluation value, and the image signal processing unit 116 calculates the focus evaluation value and the AE evaluation value.

圧縮処理部120は、画像信号処理部116で光量のゲイン補正やホワイトバランスの調整が行われた画像を、適切な形式の画像データに圧縮する。画像の圧縮形式は可逆形式であっても非可逆形式であってもよい。適切な形式の例として、JPEG(Joint Photographic Experts Group)形式やJPEG2000形式に変換してもよい。   The compression processing unit 120 compresses the image whose light amount gain correction and white balance adjustment have been performed by the image signal processing unit 116 into image data of an appropriate format. The image compression format may be a reversible format or an irreversible format. As an example of a suitable format, you may convert into a JPEG (Joint Photographic Experts Group) format and a JPEG2000 format.

LCD124は、撮影操作する前のライブビュー表示や、撮像装置100の各種設定画面や、撮影した画像を表示する。画像データや撮像装置100の各種情報のLCD124への表示は、LCDドライバ122を介して行われる。   The LCD 124 displays a live view display before photographing operation, various setting screens of the imaging apparatus 100, and photographed images. Display of image data and various information of the imaging apparatus 100 on the LCD 124 is performed via the LCD driver 122.

制御部128は、CMOSイメージセンサ108やCDS回路110などに対して信号系の命令を行ったり、操作部132の操作に対する操作系の命令を行ったりする。本実施形態においては、制御部を1つだけ含んでいるが、信号系の命令と操作系の命令とを別々の制御部で(例えば、CPUとDSPに分けて)実行するようにしてもよい。   The control unit 128 issues a signal-related command to the CMOS image sensor 108, the CDS circuit 110, or the like, or issues an operation-related command for the operation of the operation unit 132. In the present embodiment, only one control unit is included, but a signal-related command and an operation-related command may be executed by separate control units (for example, divided into a CPU and a DSP). .

操作部132は、撮像装置100の操作を行ったり、撮影時の各種の設定を行ったりするための部材が配置されている。操作部132に配置される部材には、電源ボタン、撮影モードの選択する十字キーおよび選択ボタン、被写体の撮影動作を開始するシャッタボタン等を含んでいてもよい。   The operation unit 132 is provided with members for operating the imaging apparatus 100 and performing various settings at the time of shooting. The members arranged in the operation unit 132 may include a power button, a cross key and a selection button for selecting a shooting mode, a shutter button for starting a shooting operation of the subject, and the like.

メモリ134は、撮影した画像を一時的に記憶するものである。メモリ134は、複数の画像を記憶できるだけの記憶容量を有している。メモリ134への画像の読み書きは画像入力コントローラ114によって制御される。メモリ134としては、例えば、図5に示したようにSDRAM(Synchronous Dynamic Random Access Memory)を用いてもよい。   The memory 134 temporarily stores captured images. The memory 134 has a storage capacity sufficient to store a plurality of images. Reading and writing of images to and from the memory 134 is controlled by the image input controller 114. As the memory 134, for example, an SDRAM (Synchronous Dynamic Random Access Memory) may be used as shown in FIG.

VRAM136は、LCD124に表示する内容を保持するものであり、LCD124の解像度や最大発色数はVRAM136の容量に依存する。   The VRAM 136 holds contents displayed on the LCD 124, and the resolution and the maximum number of colors of the LCD 124 depend on the capacity of the VRAM 136.

記録メディア140は、画像記録部の一例であり、撮影した画像や画像合成部118で合成した画像を記録するものである。記録メディア140への入出力は、メディアコントローラ138によって制御される。記録メディア140には、フラッシュメモリにデータを記録するカード型の記憶装置であるメモリカードを用いることができる。   The recording medium 140 is an example of an image recording unit, and records captured images and images synthesized by the image synthesis unit 118. Input / output to / from the recording medium 140 is controlled by the media controller 138. As the recording medium 140, a memory card that is a card-type storage device that records data in a flash memory can be used.

モータドライバ142a、142b、142cはズームレンズ102、絞り104およびフォーカスレンズ106を動作させる駆動装置102a、104a、106aを制御する。モータドライバ142a、142b、142cを介してズームレンズ102、絞り104およびフォーカスレンズ106を動作させることで、被写体の大きさや光の量、ピントを調節する。   The motor drivers 142a, 142b, and 142c control the driving devices 102a, 104a, and 106a that operate the zoom lens 102, the diaphragm 104, and the focus lens 106. By operating the zoom lens 102, the diaphragm 104, and the focus lens 106 via the motor drivers 142a, 142b, and 142c, the size of the subject, the amount of light, and the focus are adjusted.

LEDドライバ156は、LED158に対して電流を供給するものである。LED158は、本発明の可視光発光部の一例であり、LEDドライバ156からの電流の供給を受けて発光するものである。LED158がLEDドライバ156から電流の供給を受けて発光することで、被写体に対して光を照射することができる。   The LED driver 156 supplies current to the LED 158. The LED 158 is an example of the visible light emitting unit of the present invention, and emits light upon receiving a current supplied from the LED driver 156. The LED 158 receives light from the LED driver 156 and emits light, so that the subject can be irradiated with light.

LED158は、同一の色を発するものを1つだけ設けてもよく、同一の色を発するものを複数設けてもよい。さらに、本発明の撮像装置は異なる色で(例えば、赤、青、緑の三原色で)発光するLEDをさらに設けてもよい。   Only one LED 158 that emits the same color may be provided, or a plurality of LEDs 158 that emit the same color may be provided. Furthermore, the imaging device of the present invention may further include LEDs that emit light in different colors (for example, three primary colors of red, blue, and green).

そして、本実施形態にかかる撮像装置100は、LED158が発光する可視光によって情報を送信する可視光通信機能を備える。撮像装置100は、制御部128においてLED158の発光パターンを制御することで、可視光に重畳して情報を送信することができる。   And the imaging device 100 concerning this embodiment is provided with the visible light communication function which transmits information with the visible light which LED158 emits. The imaging apparatus 100 can transmit information superimposed on visible light by controlling the light emission pattern of the LED 158 in the control unit 128.

上述した制御部128は、タイミングジェネレータ(TG)144と、顔位置指定部146と、顔認識部148と、位置判定部150と、データ変調部152と、を含んで構成される。   The control unit 128 described above includes a timing generator (TG) 144, a face position designation unit 146, a face recognition unit 148, a position determination unit 150, and a data modulation unit 152.

タイミングジェネレータ144は、CMOSイメージセンサ108にタイミング信号を入力する。タイミングジェネレータ144からのタイミング信号によりシャッタ速度が決定される。つまり、タイミングジェネレータ144からのタイミング信号によりCMOSイメージセンサ108の駆動が制御され、CMOSイメージセンサ108が駆動する時間内に被写体からの映像光を入射することで、画像データの基となる電気信号が生成される。   The timing generator 144 inputs a timing signal to the CMOS image sensor 108. The shutter speed is determined by the timing signal from the timing generator 144. That is, the drive of the CMOS image sensor 108 is controlled by the timing signal from the timing generator 144, and the image signal from the subject is incident within the time that the CMOS image sensor 108 is driven, so that the electrical signal that is the basis of the image data is generated. Generated.

顔位置指定部146は、撮像装置100で撮像しようとする画像における顔の位置を指定するものである。撮像装置100で撮像しようとする画像における顔の位置は、撮像者の操作によって指定することができ、撮像者の操作に応じて顔位置指定部で顔の位置が指定される。   The face position designating unit 146 designates the position of the face in the image to be captured by the image capturing apparatus 100. The position of the face in the image to be imaged by the imaging apparatus 100 can be designated by the photographer's operation, and the face position is designated by the face position designation unit according to the operation of the photographer.

顔認識部148は、撮像装置100で撮像しようとする画像に含まれている顔の位置を認識するものである。撮像装置100で撮像しようとする画像における顔の位置を、予め顔位置指定部146で指定し、撮像装置100で撮像しようとしている画像に含まれている顔の位置を顔認識部148で認識することで、撮像者が望んでいる位置に顔があるかどうかを判定することが可能となる。   The face recognition unit 148 recognizes the position of a face included in an image to be captured by the image capturing apparatus 100. The face position in the image to be imaged by the imaging apparatus 100 is designated in advance by the face position designation unit 146, and the face recognition unit 148 recognizes the position of the face included in the image to be imaged by the imaging apparatus 100. Thus, it is possible to determine whether or not the face is in a position desired by the photographer.

位置判定部150は、顔位置指定部146で指定した顔の位置と、顔認識部148が認識した顔の位置との位置関係を判定するものである。位置判定部150の判定結果によって、後述のデータ変調部152で変調するデータの内容が決まる。   The position determination unit 150 determines the positional relationship between the face position designated by the face position designation unit 146 and the face position recognized by the face recognition unit 148. The content of data to be modulated by the data modulation unit 152 described later is determined by the determination result of the position determination unit 150.

位置判定部150において、顔位置指定部146で指定した顔の位置と、顔認識部148が認識した顔の位置とが一致していると判定した場合には、制御部128は、データ変調部152に対して、位置が合っている旨の情報を変調するように指示する。一方、位置判定部150において、顔位置指定部146で指定した顔の位置と、顔認識部148が認識した顔の位置とが一致していないと判定した場合には、制御部128は、データ変調部152に対して、位置が異なっている旨の情報を変調するように指示する。   When the position determination unit 150 determines that the face position specified by the face position specifying unit 146 matches the face position recognized by the face recognition unit 148, the control unit 128 displays the data modulation unit. 152 is instructed to modulate the information indicating that the position is correct. On the other hand, if the position determination unit 150 determines that the face position specified by the face position specifying unit 146 and the face position recognized by the face recognition unit 148 do not match, the control unit 128 Instructs the modulation unit 152 to modulate information indicating that the positions are different.

なお、位置判定部150における位置関係の判定処理は、顔認識部148で顔が認識できた直後に開始するのではなく、顔認識部148での顔認識処理の結果、認識された顔の位置が所定の時間、所定の範囲を超えて移動しなかった時点で開始してもよい。   Note that the positional relationship determination processing in the position determination unit 150 does not start immediately after the face recognition unit 148 can recognize the face, but the face position recognized as a result of the face recognition processing in the face recognition unit 148. May be started at a point in time that does not move beyond a predetermined range for a predetermined time.

データ変調部152は、位置判定部150の判定結果に応じた情報を、可視光通信用のデータに変調するものである。上述したように、位置判定部150において、顔位置指定部146で指定した顔の位置と、顔認識部148が認識した顔の位置とが一致していると判定した場合には、制御部128の指示に基づいて、位置が合っている旨の情報を変調する。また、位置判定部150において、顔位置指定部146で指定した顔の位置と、顔認識部148が認識した顔の位置とが一致していないと判定した場合には、制御部128の指示に基づいて、位置が異なっている旨の情報を変調する。具体的な情報の内容については後に詳述する。また、可視光通信用のデータへの変調方法については、本発明とは直接関係がないため、ここでは詳細な説明は割愛する。   The data modulation unit 152 modulates information corresponding to the determination result of the position determination unit 150 into visible light communication data. As described above, when the position determination unit 150 determines that the face position specified by the face position specifying unit 146 matches the face position recognized by the face recognition unit 148, the control unit 128. Based on the instruction, the information indicating that the position is correct is modulated. If the position determination unit 150 determines that the face position designated by the face position designation unit 146 and the face position recognized by the face recognition unit 148 do not match, the control unit 128 instructs Based on this, the information indicating that the positions are different is modulated. Details of specific information will be described later. In addition, the modulation method to the data for visible light communication is not directly related to the present invention, and therefore a detailed description is omitted here.

以上、図1を用いて本発明の一実施形態にかかる撮像装置100の構成について説明した。次に、本発明の一実施形態にかかる撮像装置100の動作について説明する。   The configuration of the imaging apparatus 100 according to the embodiment of the present invention has been described above using FIG. Next, the operation of the imaging apparatus 100 according to an embodiment of the present invention will be described.

図2は、本発明の一実施形態にかかる撮像装置100の動作について説明する流れ図である。以下、図2を用いて、本発明の一実施形態にかかる撮像装置100の動作について説明する。   FIG. 2 is a flowchart for explaining the operation of the imaging apparatus 100 according to the embodiment of the present invention. Hereinafter, the operation of the imaging apparatus 100 according to the embodiment of the present invention will be described with reference to FIG.

本発明の一実施形態にかかる撮像装置100を用いて自分の画像を撮影するには、まず撮影場所を選択して、撮像装置100の操作によって撮影画像における顔の位置を指定する(ステップS102)。   In order to photograph one's own image using the imaging apparatus 100 according to the embodiment of the present invention, first, a photographing place is selected, and the position of the face in the photographed image is designated by operation of the imaging apparatus 100 (step S102). .

図3は、撮像装置100を用いて、撮影画像における顔の位置を指定する場合の一例について説明する説明図である。図3では、LCD124に、被写体の顔の位置を設定するための顔枠162を表示させている状態について示している。撮像装置100のLCD124にライブビュー表示されている画像に対して、上下左右ボタン132bを用いて顔枠162をLCD124上で移動させることができる。また、ズームボタン132cを用いて顔枠の大きさを変化させることができる。顔枠162の動作は顔位置指定部146で制御する。   FIG. 3 is an explanatory diagram for explaining an example in which the position of the face in the photographed image is designated using the imaging device 100. FIG. 3 shows a state in which a face frame 162 for setting the position of the subject's face is displayed on the LCD 124. The face frame 162 can be moved on the LCD 124 by using the up / down / left / right buttons 132b with respect to the image displayed on the LCD 124 of the imaging apparatus 100 in the live view. Further, the size of the face frame can be changed using the zoom button 132c. The operation of the face frame 162 is controlled by the face position designation unit 146.

上記ステップS102で顔の位置を指定すると、続いて撮像装置100の動作モードを撮影判断モードに移行させる(ステップS104)。本実施形態における撮影判断モードとは、ズームレンズ102、絞り104およびフォーカスレンズ106を通して撮像装置100に入ってくる画像に対して顔認識処理を実行し、顔の位置が予め指定した位置に存在した場合に、自動的に撮影を開始するモードのことである。撮影判断モードへは、例えば撮影者によるシャッタボタン132aや上下左右ボタン132bの操作によって移行させるようにしてもよい。   When the position of the face is specified in step S102, the operation mode of the imaging apparatus 100 is subsequently shifted to the shooting determination mode (step S104). In the present embodiment, the shooting determination mode is performed by performing face recognition processing on an image that enters the imaging apparatus 100 through the zoom lens 102, the diaphragm 104, and the focus lens 106, and the face position exists at a predetermined position. In this case, it is a mode in which shooting is automatically started. You may make it transfer to imaging | photography judgment mode, for example by operation of the shutter button 132a and the up / down / left / right button 132b by the photographer.

上記ステップS104で、撮像装置100の動作モードを撮影判断モードに移行させると、ズームレンズ102、絞り104およびフォーカスレンズ106を通して撮像装置100に入ってくる画像に対して、顔認識部148で顔認識処理を実行する。ズームレンズ102、絞り104およびフォーカスレンズ106を通して撮像装置100に入ってくる画像は、LCD124にライブビュー表示させてもよい。   When the operation mode of the imaging apparatus 100 is shifted to the shooting determination mode in step S104, the face recognition unit 148 performs face recognition on an image that enters the imaging apparatus 100 through the zoom lens 102, the diaphragm 104, and the focus lens 106. Execute the process. An image that enters the imaging apparatus 100 through the zoom lens 102, the diaphragm 104, and the focus lens 106 may be displayed on the LCD 124 as a live view.

そして、顔認識部148で顔認識処理を実行して得られる顔の位置と、上記ステップS102で指定した顔枠の位置とのずれを位置判定部150で検出する(ステップS106)。そして、ステップS106における判定の結果、顔認識部148で顔認識処理を実行して得られる顔の位置が、上記ステップS102で指定した顔の位置と合っているかどうかを位置判定部150で判定する(ステップS108)。なお、ステップS108での、位置判定部150における位置関係の判定処理は、顔認識部148で顔が認識できた直後に開始するのではなく、顔認識部148での顔認識処理の結果、認識された顔の位置が所定の時間、所定の範囲を超えて移動しなかった時点で開始してもよい。   Then, the position determination unit 150 detects a shift between the face position obtained by executing the face recognition processing by the face recognition unit 148 and the position of the face frame specified in step S102 (step S106). Then, as a result of the determination in step S106, the position determination unit 150 determines whether the face position obtained by executing the face recognition process in the face recognition unit 148 matches the face position specified in step S102. (Step S108). Note that the positional relationship determination processing in the position determination unit 150 in step S108 does not start immediately after the face recognition unit 148 can recognize the face, but is recognized as a result of the face recognition processing in the face recognition unit 148. It may be started when the position of the face that has been moved does not move beyond a predetermined range for a predetermined time.

図4は、撮像装置100による被写体の顔の位置判定の一例について示す説明図である。図4では、ズームレンズ102、絞り104およびフォーカスレンズ106を通して撮像装置100に入り、LCD124に表示されている画像に対して顔検出処理を実行し、検出した顔と、予め指定した顔枠162との位置関係を説明する。図4に示した例では、顔検出処理で検出した顔の位置が、顔枠162の位置から左にずれている。   FIG. 4 is an explanatory diagram illustrating an example of the determination of the position of the face of the subject by the imaging apparatus 100. In FIG. 4, the face detection process is performed on the image displayed on the LCD 124 by entering the imaging apparatus 100 through the zoom lens 102, the diaphragm 104, and the focus lens 106, and the detected face and the face frame 162 specified in advance are displayed. The positional relationship will be described. In the example illustrated in FIG. 4, the position of the face detected by the face detection process is shifted to the left from the position of the face frame 162.

上記ステップS108における判定の結果、顔認識部148で顔認識処理を実行して得られる顔の位置と、上記ステップS102で指定した顔枠の位置とが一致しておらず、上記ステップS102で指定した顔枠の位置に顔が存在しない場合には、データ変調部152において、顔の位置の移動を被撮影者に対して通知するデータを変調し、可視光通信データを生成する(ステップS110)。顔の位置の移動を通知するデータは、例えば文字、画像、音声等によって生成される。例えば文字によって顔の位置の移動を被撮影者に対して通知する場合には、「右」、「左」等の文字データを変調して可視光通信データを生成する。また例えば、画像によって顔の位置の移動を被撮影者に対して通知する場合には、右向きや左向き矢印等の画像データを変調して可視光通信データを生成する。また例えば、音声によって顔の位置の移動を被撮影者に対して通知する場合には、「右です」、「左です」等の音声データを変調して可視光通信データを生成する。   As a result of the determination in step S108, the position of the face obtained by executing the face recognition processing by the face recognition unit 148 does not match the position of the face frame specified in step S102, and is specified in step S102. If there is no face at the position of the face frame, the data modulation unit 152 modulates data for notifying the subject of the movement of the face position, and generates visible light communication data (step S110). . The data for notifying the movement of the face position is generated by, for example, characters, images, sounds, and the like. For example, when notifying the subject of the movement of the face position by characters, the visible light communication data is generated by modulating character data such as “right” and “left”. Further, for example, when notifying the subject of the movement of the face position by an image, visible light communication data is generated by modulating image data such as a right-pointing or left-pointing arrow. Further, for example, when notifying the subject of the movement of the face position by voice, voice data such as “right” and “left” is modulated to generate visible light communication data.

また、上記ステップS102で指定した顔枠の位置に顔が存在した場合であっても、顔枠に対して顔が大きすぎる場合には、位置判定部150は、被撮影者が撮像装置100に近づきすぎていると判断してもよい。かかる場合には、制御部128はデータ変調部152に対し、撮像装置100から離れるよう促すためのデータの変調を指示する。   In addition, even when a face is present at the position of the face frame specified in step S102, if the face is too large relative to the face frame, the position determination unit 150 causes the person to be photographed to the imaging apparatus 100. You may decide that you are too close. In such a case, the control unit 128 instructs the data modulation unit 152 to modulate data for prompting the user to leave the imaging apparatus 100.

また、上記ステップS102で指定した顔枠の位置に顔が存在した場合であっても、顔枠に対して顔が小さすぎる場合には、位置判定部150は、被撮影者が撮像装置100から離れすぎていると判断してもよい。かかる場合には、制御部128はデータ変調部152に対し、撮像装置100に近づくよう促すためのデータの変調を指示する。   In addition, even when a face is present at the position of the face frame specified in step S102, if the face is too small with respect to the face frame, the position determination unit 150 causes the subject to move from the imaging device 100. You may decide that you are too far away. In such a case, the control unit 128 instructs the data modulation unit 152 to modulate data for prompting the data modulation unit 152 to approach the imaging device 100.

なお、顔認識部148で顔認識処理を実行した結果、顔が2つ以上検出された場合には、検出された顔のうち、上記ステップS102で指定した顔枠の位置に最も近い顔が対象であると判断し、上記ステップS102で指定した顔枠の位置に最も近い顔に対して位置判定処理を行ってもよい。   When two or more faces are detected as a result of executing the face recognition processing by the face recognition unit 148, the face closest to the position of the face frame specified in step S102 is selected among the detected faces. The position determination process may be performed on the face closest to the position of the face frame specified in step S102.

また、顔認識部148で顔認識処理を実行した結果、顔が2つ以上検出された場合には、データ変調部152において、複数人写っている旨を被撮影者に対して通知するデータを変調してもよい。   In addition, when two or more faces are detected as a result of the face recognition processing performed by the face recognition unit 148, the data modulation unit 152 provides data for notifying the photographed person that a plurality of people are captured. You may modulate.

上記ステップS110で可視光通信データを生成すると、撮像装置100は、LED158から発光される可視光にデータを重畳して、可視光通信データを送信する(ステップS112)。撮像装置100から可視光通信データを送信すると、上記ステップS106に戻って、顔認識部148による顔認識処理を再度実行する。LED158から発光される可視光を、例えば被撮影者が保持している携帯端末で受光し、当該携帯端末で復調することで、撮像装置100からの情報を当該携帯端末で確認することができる。   When the visible light communication data is generated in step S110, the imaging apparatus 100 superimposes the data on the visible light emitted from the LED 158 and transmits the visible light communication data (step S112). When visible light communication data is transmitted from the imaging apparatus 100, the process returns to step S106, and the face recognition process by the face recognition unit 148 is executed again. The visible light emitted from the LED 158 is received by, for example, a portable terminal held by the subject and demodulated by the portable terminal, whereby information from the imaging device 100 can be confirmed by the portable terminal.

なお、本実施形態にかかる撮像装置100における、可視光通信データの生成方法は、任意の方法を用いることが可能であり、特定の方法に限定されるものではない。例えば、一般的に用いられている、赤、青、緑のそれぞれの色で発光するLEDにデータを割り当てて発光パターンを調整する方式(色多重方式)を用いて、可視光通信データを生成してもよい。   In addition, the visible light communication data generation method in the imaging apparatus 100 according to the present embodiment can use any method, and is not limited to a specific method. For example, visible light communication data is generated using a commonly used method (color multiplexing method) that assigns data to LEDs that emit light in red, blue, and green colors and adjusts the light emission pattern. May be.

図5は、撮像装置100からの情報を可視光で受信する場合の一例について示したものである。図5では、撮像装置100と、撮像装置100からの情報を受信する携帯端末200と、を図示している。携帯端末200は、LED158から発光される可視光を受光し、LED158の発光パターンに基づいて情報を復調し、復調した情報を出力する機能を有する端末である。そして、携帯端末200は、撮像装置100を用いた撮影時には、被写体となる人物が保有しておくことが望ましい。なお、携帯端末200としては、可視光に重畳された情報を復調できる   FIG. 5 shows an example when information from the imaging apparatus 100 is received by visible light. FIG. 5 illustrates the imaging device 100 and the mobile terminal 200 that receives information from the imaging device 100. The mobile terminal 200 is a terminal having a function of receiving visible light emitted from the LED 158, demodulating information based on the light emission pattern of the LED 158, and outputting the demodulated information. The portable terminal 200 is desirably held by a person who is a subject when photographing using the imaging apparatus 100. Note that the mobile terminal 200 can demodulate information superimposed on visible light.

上記ステップS112において、撮像装置100のLED158から可視光が発光されると、携帯端末200は、LED158からの可視光を受光し、受光した可視光の発光パターンに基づいて情報を復調する。そして、携帯端末200では、復調した情報を画面に表示したり、スピーカから出力したりすることで、撮像装置100で生成された情報を出力することができる。   In step S112, when visible light is emitted from the LED 158 of the imaging apparatus 100, the mobile terminal 200 receives the visible light from the LED 158 and demodulates information based on the received light emission pattern. The mobile terminal 200 can output the information generated by the imaging device 100 by displaying the demodulated information on a screen or by outputting it from a speaker.

例えば、図4に示した例のように、被写体の顔の位置が、予め指定した顔枠162の位置より左にずれていた場合には、撮像装置100からは、被写体に対して、(被写体側から見て)左に移動するよう促す情報が、可視光に重畳して送信される。撮像装置100で発光された可視光を、被写体が保有する携帯端末200で受光し、復調することで、被写体となっている人物は、自分がどの方向に移動すれば良いのかを把握することが可能となる。   For example, as in the example illustrated in FIG. 4, when the position of the subject's face is shifted to the left from the position of the face frame 162 specified in advance, the imaging apparatus 100 (for the subject) Information prompting to move to the left (viewed from the side) is transmitted superimposed on the visible light. Visible light emitted from the imaging device 100 is received by the portable terminal 200 held by the subject and demodulated, so that the person who is the subject can know which direction he should move. It becomes possible.

一方、上記ステップS106における顔認識処理、および上記ステップS108における判定処理の結果、上記ステップS102で指定した顔枠の位置に顔が存在した場合には、撮影開始を通知するデータをデータ変調部152において変調し、可視光通信データを生成する(ステップS114)。そして撮像装置100は、ステップS114で生成された、撮影開始を通知するための可視光通信データを、LED158から発光される可視光に重畳して送信する(ステップS116)。撮影開始を通知するデータが重畳された可視光を、被写体が保有する携帯端末200で受光し、復調することで、被写体となっている人物は、撮像装置100で撮影が開始されることを把握することが可能となる。   On the other hand, as a result of the face recognition process in step S106 and the determination process in step S108, if a face is present at the position of the face frame specified in step S102, data notifying the start of shooting is sent to the data modulation unit 152. To generate visible light communication data (step S114). Then, the imaging apparatus 100 transmits the visible light communication data generated in step S114 for notifying the start of photographing superimposed on the visible light emitted from the LED 158 (step S116). Visible light on which data for notifying the start of imaging is superimposed is received by the portable terminal 200 held by the subject and demodulated, so that the person who is the subject grasps that the imaging device 100 starts shooting. It becomes possible to do.

上記ステップS116で、撮像装置100が、撮影開始を通知するための可視光通信データを、LED158から発光される可視光に重畳して送信すると、続いて撮像装置100はセルフタイマーモードに移行する(ステップS118)。そして、所定の時間が経過すると、撮像装置100は自動的に撮像処理を実行し、被写体を撮影する(ステップS120)。なお、撮像装置100がセルフタイマーモードに移行する際には、撮像装置100は、セルフタイマー用のLEDの発光を開始してもよい。撮像装置100がセルフタイマー用のLEDの発光を開始することで、被撮影者はセルフタイマーによる撮影の開始を認識することができる。   In step S116, when the imaging apparatus 100 transmits visible light communication data for notifying the start of imaging superimposed on visible light emitted from the LED 158, the imaging apparatus 100 subsequently shifts to the self-timer mode ( Step S118). Then, when a predetermined time has elapsed, the imaging apparatus 100 automatically executes an imaging process to photograph the subject (step S120). Note that when the imaging apparatus 100 shifts to the self-timer mode, the imaging apparatus 100 may start light emission of the LED for the self-timer. When the imaging apparatus 100 starts light emission of the self-timer LED, the subject can recognize the start of shooting by the self-timer.

以上、図2〜図5を用いて、本発明の一実施形態にかかる撮像装置100の動作について説明した。以上説明したように、本発明の一実施形態にかかる撮像装置100を用いることで、撮像装置100から離れた場所に位置する被写体に対して、撮影位置を指示することができる。   The operation of the imaging apparatus 100 according to the embodiment of the present invention has been described above with reference to FIGS. As described above, by using the imaging device 100 according to the embodiment of the present invention, it is possible to instruct a shooting position with respect to a subject located at a location away from the imaging device 100.

なお、上記ステップS104で撮影判断モードへ移行してから所定の時間が経過するまでに、顔認識部148で顔認識処理を実行しても顔を検出できなかった場合には、制御部128は、撮影判断モードを停止させてもよい。また、上記ステップS104で撮影判断モードへ移行してから所定の時間が経過しても、顔認識部148で顔認識処理を実行しても顔を検出できなかった場合には、顔が認識できなかった旨をデータ変調部150で変調して可視光通信データを生成し、当該可視光通信データを、LED158から発光される可視光に重畳して送信してもよい。   Note that if the face recognition unit 148 does not detect a face even after executing a face recognition process before a predetermined time elapses after the transition to the shooting determination mode in step S104, the control unit 128 The shooting determination mode may be stopped. In addition, even if a predetermined time has elapsed since the transition to the shooting determination mode in step S104 above, if a face is not detected even if face recognition processing is executed by the face recognition unit 148, the face can be recognized. The visible light communication data may be generated by modulating the data modulation unit 150 to the effect that the data does not exist, and the visible light communication data may be superimposed on the visible light emitted from the LED 158 and transmitted.

なお、上述の例では、撮像装置100は、顔認識処理の結果あらかじめ指定した顔枠の位置に顔が存在した場合には、撮影開始を通知するデータを送信し、そのままセルフタイマーモードに移行していたが、撮影開始を通知するデータを送信してからセルフタイマーモードに移行するまでに、被写体が動いてしまう場合も考えられる。以下においては、撮影開始を通知するデータを送信してからセルフタイマーモードに移行するまで、再度顔の位置を判定する処理を実行する場合について説明する。   In the above-described example, when a face exists at the position of the face frame specified in advance as a result of the face recognition process, the imaging apparatus 100 transmits data notifying the start of shooting and proceeds to the self-timer mode as it is. However, there may be a case where the subject moves from the time when the data for notifying the start of shooting is transmitted until the self-timer mode is entered. In the following, a case will be described in which the process of determining the face position is executed again from the time when the data for notifying the start of shooting is transmitted until the mode is shifted to the self-timer mode.

図6は、本発明の一実施形態にかかる撮像装置100の動作の別の例について説明する流れ図である。以下、図6を用いて、本発明の一実施形態にかかる撮像装置100の動作の別の例について説明する。   FIG. 6 is a flowchart for explaining another example of the operation of the imaging apparatus 100 according to the embodiment of the present invention. Hereinafter, another example of the operation of the imaging apparatus 100 according to the embodiment of the present invention will be described with reference to FIG.

なお、図6に示した流れ図において、ステップS102からステップS116までは、図2に示した流れ図における各ステップと同一であるため、詳細な説明は省略する。   In the flowchart shown in FIG. 6, steps S102 to S116 are the same as the steps in the flowchart shown in FIG.

ステップS116において、撮像装置100が、撮影開始を通知するための可視光通信データを、LED158から発光される可視光に重畳して送信すると、続いて、セルフタイマーモードに移行する前に、顔認識部148による顔認識処理および位置判定部150による顔位置の判定処理を実行し、あらかじめ指定した顔の位置に被写体の顔が位置しているかどうかを判定する(ステップS122)。   In step S116, when the imaging apparatus 100 transmits the visible light communication data for notifying the start of shooting superimposed on the visible light emitted from the LED 158, the face recognition is performed before the mode is shifted to the self-timer mode. The face recognition process by the unit 148 and the face position determination process by the position determination unit 150 are executed, and it is determined whether or not the face of the subject is located at the face position specified in advance (step S122).

上記ステップS122での判定の結果、予め指定した顔の位置に、顔認識部148で検出した被写体の顔が位置している場合には、撮像装置100はそのままセルフタイマーモードに移行し(ステップS124)、所定の時間の経過後に、撮像装置100は自動的に撮像処理を実行し、被写体を撮影する(ステップS126)。撮像装置100がセルフタイマーモードに移行する際には、撮像装置100は、セルフタイマー用のLEDの発光を開始してもよい。撮像装置100がセルフタイマー用のLEDの発光を開始することで、被撮影者はセルフタイマーによる撮影の開始を認識することができる。   As a result of the determination in step S122, if the face of the subject detected by the face recognition unit 148 is located at the face position specified in advance, the imaging apparatus 100 shifts to the self-timer mode as it is (step S124). ) After a predetermined time elapses, the imaging apparatus 100 automatically executes an imaging process to photograph the subject (step S126). When the imaging apparatus 100 shifts to the self-timer mode, the imaging apparatus 100 may start light emission of the self-timer LED. When the imaging apparatus 100 starts light emission of the self-timer LED, the subject can recognize the start of shooting by the self-timer.

一方、上記ステップS122での判定の結果、予め指定した顔の位置に、顔認識部148で検出した被写体の顔が位置しなくなった場合には、制御部128はデータ変調部152に対し、指定位置からの顔の逸脱を知らせるデータを変調するよう指示する。指示を受けたデータ変調部152は、指定位置からの顔の逸脱を知らせるデータを変調し、可視光通信データを生成する(ステップS128)。そして撮像装置100は、ステップS128で生成された、指定位置からの顔の逸脱を通知するための可視光通信データを、LED158から発光される可視光に重畳して送信する(ステップS130)。   On the other hand, as a result of the determination in step S122, when the face of the subject detected by the face recognition unit 148 is no longer positioned at the face position designated in advance, the control unit 128 instructs the data modulation unit 152 to designate the face. Instructs to modulate the data indicating the deviation of the face from the position. Receiving the instruction, the data modulation unit 152 modulates data notifying the deviation of the face from the designated position, and generates visible light communication data (step S128). Then, the imaging apparatus 100 transmits the visible light communication data generated in step S128 for notifying the deviation of the face from the designated position superimposed on the visible light emitted from the LED 158 (step S130).

なお、指定位置からの顔の逸脱を知らせるデータは、多少の位置のずれが生じた場合には変調せずに、予め指定した顔枠に、顔認識部148で検出した被写体の顔が全く重なっていない場合に限って、データ変調部152において変調するようにしてもよい。   It should be noted that the data notifying the deviation of the face from the designated position is not modulated when a slight positional deviation occurs, and the face of the subject detected by the face recognition unit 148 overlaps the face frame designated in advance. However, the modulation may be performed by the data modulation unit 152 only when it is not.

上記ステップS130で、指定位置からの顔の逸脱を通知するための可視光通信データを送信した撮像装置100は、続いて、制御部128においてセルフタイマーの動作を停止させ(ステップS132)、制御部128はデータ変調部152に対し、セルフタイマーの動作の停止を知らせるデータを変調するよう指示する。指示を受けたデータ変調部152は、セルフタイマーの動作の停止を知らせるデータを変調し、可視光通信データを生成する(ステップS134)。   In step S130, the imaging device 100 that has transmitted visible light communication data for notifying the deviation of the face from the designated position subsequently stops the operation of the self-timer in the control unit 128 (step S132). 128 instructs the data modulation unit 152 to modulate data notifying the stop of the operation of the self-timer. Receiving the instruction, the data modulation unit 152 modulates the data notifying the stop of the operation of the self-timer and generates visible light communication data (step S134).

そして撮像装置100は、上記ステップS134で生成された、セルフタイマーの動作の停止を通知するための可視光通信データを、LED158から発光される可視光に重畳して送信する(ステップS136)。ステップS136で、セルフタイマーの動作の停止を通知するための可視光通信データを送信すると、ステップS106に戻って、顔認識部148による顔認識処理を実行する。なお、撮像装置100がセルフタイマーの動作を開始する際にセルフタイマー用のLEDの発光を開始していた場合には、撮像装置100がセルフタイマーの動作を停止するときは、セルフタイマー用のLEDの発光を停止することが望ましい。   Then, the imaging apparatus 100 transmits the visible light communication data generated in step S134 for notifying the stop of the operation of the self-timer superimposed on the visible light emitted from the LED 158 (step S136). When the visible light communication data for notifying the stop of the operation of the self-timer is transmitted in step S136, the process returns to step S106 and the face recognition process by the face recognition unit 148 is executed. If the imaging device 100 has started to emit the self-timer LED when starting the self-timer operation, when the imaging device 100 stops the self-timer operation, the self-timer LED It is desirable to stop the light emission.

このように、撮影開始を通知するデータを送信してからセルフタイマーモードに移行するまでに、被写体が動いてしまった場合には、あらかじめ指定した位置からの顔の逸脱およびセルフタイマーの停止を、撮像装置100から可視光通信によって送信することで、撮像装置100から離れた場所に位置している被写体に対して、あらかじめ指定した位置からずれてしまったことを通知することができる。そして、被写体は、可視光通信によって送信されたデータを復調することができる装置(例えば携帯端末200)を保有することにより、撮像装置100から送信された情報を受け取ることが可能になる。   In this way, if the subject has moved between sending the data to notify the start of shooting and shifting to the self-timer mode, the deviation of the face from the position specified in advance and the stop of the self-timer, By transmitting from the imaging device 100 by visible light communication, it is possible to notify the subject located at a location away from the imaging device 100 that the subject has shifted from the position designated in advance. Then, the subject can receive information transmitted from the imaging device 100 by holding a device (for example, the portable terminal 200) that can demodulate data transmitted by visible light communication.

なお、上述の例では、指定位置からの顔の逸脱およびセルフタイマーの停止に関する情報を撮像装置100で生成し、2度に渡って撮像装置100から送信したが、本発明においてはかかる例に限定されないことは言うまでもない。例えば、指定位置からの逸脱およびセルフタイマーの停止に関する情報をまとめて一度に撮像装置100から可視光通信によって送信してもよい。   In the above-described example, information regarding the deviation of the face from the designated position and the stop of the self-timer is generated by the imaging device 100 and transmitted twice from the imaging device 100. However, the present invention is limited to such an example. It goes without saying that it is not done. For example, information regarding deviation from the specified position and stopping of the self-timer may be collectively transmitted from the imaging apparatus 100 by visible light communication at a time.

以上説明したように、本発明の一実施形態によれば、撮像装置100を用いて、予め撮影しようとする画像における顔の位置を指定し、撮影判断モードに移行させることで、撮像装置100で顔認識処理を実行し、予め指定した位置と、顔認識処理で認識できた顔の位置とが一致した場合に、自動的に撮像装置100で撮影処理が開始される。また、顔の位置が一致していない場合には、可視光通信を用いて被写体に対して顔の位置の移動を促す情報を送信する。これにより、自分で自分の写真を撮影する場合に、撮像装置100と自分の立ち位置との間を何度も往復することなく、希望のレイアウトで写真を撮影することができる。   As described above, according to an embodiment of the present invention, the imaging apparatus 100 is used to designate the position of a face in an image to be captured in advance and shift to the imaging determination mode. When the face recognition process is executed and the position designated in advance matches the position of the face recognized by the face recognition process, the imaging process is automatically started by the imaging apparatus 100. If the face positions do not match, information that prompts the subject to move the face position is transmitted using visible light communication. Thereby, when taking a photograph of himself / herself, the photograph can be taken with a desired layout without reciprocating between the imaging apparatus 100 and his / her standing position many times.

なお、上述した撮像装置100の動作は、撮像装置100の内部にコンピュータプログラムを記憶させ、当該コンピュータプログラムを制御部128が読み出して順次実行することによってなされるようにしてもよい。   Note that the above-described operation of the imaging apparatus 100 may be performed by storing a computer program in the imaging apparatus 100, and reading out the computer program and sequentially executing the computer program.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

本発明は、撮像装置に適用可能であり、特に可視光通信機能を備えた撮像装置に適用可能である。   The present invention can be applied to an imaging apparatus, and in particular, can be applied to an imaging apparatus having a visible light communication function.

本発明の一実施形態にかかる撮像装置100の構成について説明する説明図である。It is explanatory drawing explaining the structure of the imaging device 100 concerning one Embodiment of this invention. 本発明の一実施形態にかかる撮像装置100の動作について説明する流れ図である。6 is a flowchart for explaining the operation of the imaging apparatus 100 according to the embodiment of the present invention. 撮影画像における顔の位置を指定する場合の一例について説明する説明図である。It is explanatory drawing explaining an example in the case of designating the position of the face in a picked-up image. 被写体の顔の位置判定の一例について示す説明図である。It is explanatory drawing shown about an example of the position determination of a to-be-photographed object. 撮像装置100からの情報を可視光で受信する場合の一例について示したものである。An example in the case of receiving the information from the imaging device 100 with visible light is shown. 本発明の一実施形態にかかる撮像装置100の動作の別の例について説明する流れ図である。It is a flowchart explaining another example of operation | movement of the imaging device 100 concerning one Embodiment of this invention.

符号の説明Explanation of symbols

100 撮像装置
102 ズームレンズ
104 絞り
106 フォーカスレンズ
102a、104a、106a 駆動装置
108 CMOSイメージセンサ
110 CDS回路
112 A/D変換器
114 画像入力コントローラ
116 画像信号処理部
120 圧縮処理部
122 LCDドライバ
124 LCD
128 制御部
132 操作部
132a シャッタボタン
132b 上下左右ボタン
132c ズームボタン
134 メモリ
136 VRAM
138 メディアコントローラ
140 記録メディア
144 タイミングジェネレータ
146 顔位置指定部
148 顔認識部
150 位置判定部
152 データ変調部
156 LEDドライバ
158 LED
200 携帯端末
DESCRIPTION OF SYMBOLS 100 Imaging device 102 Zoom lens 104 Aperture 106 Focus lens 102a, 104a, 106a Driving device 108 CMOS image sensor 110 CDS circuit 112 A / D converter 114 Image input controller 116 Image signal processing unit 120 Compression processing unit 122 LCD driver 124 LCD
128 Control Unit 132 Operation Unit 132a Shutter Button 132b Up / Down / Left / Right Button 132c Zoom Button 134 Memory 136 VRAM
138 Media controller 140 Recording medium 144 Timing generator 146 Face position designation unit 148 Face recognition unit 150 Position determination unit 152 Data modulation unit 156 LED driver 158 LED
200 Mobile terminal

Claims (5)

撮影画像における顔の位置を指定する顔位置指定部と、
撮影画像に含まれる顔の位置を認識する顔認識部と、
前記顔位置指定部で指定した位置と、前記顔認識部で認識した位置との位置関係を判定する位置判定部と、
前記位置判定部での判定結果に基づいた情報を変調するデータ変調部と、
前記データ変調部で変調した情報が重畳された可視光を発光する可視光発光部と、
を含む、撮像装置。
A face position designating unit for designating the position of the face in the captured image;
A face recognition unit that recognizes the position of the face included in the captured image;
A position determination unit that determines a positional relationship between the position specified by the face position specifying unit and the position recognized by the face recognition unit;
A data modulation unit that modulates information based on a determination result in the position determination unit;
A visible light emitter that emits visible light on which information modulated by the data modulator is superimposed;
An imaging apparatus.
前記位置判定部の判定の結果、前記顔位置指定部で指定した位置と、前記顔認識部で認識した位置とが一致している場合には、前記データ変調部は撮影を開始する旨の情報を変調する、請求項1に記載の撮像装置。   If the position specified by the face position specifying unit matches the position recognized by the face recognizing unit as a result of the determination by the position determining unit, the data modulation unit starts shooting. The imaging device according to claim 1, wherein the imaging device is modulated. 前記位置判定部は、前記可視光発光部が前記撮影を開始する旨の情報が重畳された可視光を発光した後に、前記顔位置指定部で指定した位置と、前記顔認識部で認識した位置との位置関係を再度判定し、
前記データ変調部は、前記位置判定部が判定した結果、前記顔位置指定部で指定した位置と、前記顔認識部で認識した位置とが一致していない場合には、撮影を中止する旨の情報を変調する、請求項2に記載の撮像装置。
The position determination unit emits visible light on which information indicating that the visible light emitting unit starts the photographing is superimposed, and then the position designated by the face position designation unit and the position recognized by the face recognition unit Again determine the positional relationship with
The data modulation unit is configured to stop photographing when the position specified by the face position specifying unit and the position recognized by the face recognition unit do not match as a result of the determination by the position determining unit. The imaging device according to claim 2, which modulates information.
前記位置判定部の判定の結果、前記顔位置指定部で指定した位置と、前記顔認識部で認識した位置とが一致していない場合には、前記データ変調部は顔の位置を移動させるための情報を変調する、請求項1に記載の撮像装置。   As a result of the determination by the position determination unit, if the position specified by the face position specifying unit and the position recognized by the face recognition unit do not match, the data modulation unit moves the face position The imaging device according to claim 1, which modulates the information. 撮影画像における顔の位置を指定する顔位置指定ステップと、
撮影画像に含まれる顔の位置を認識する顔認識ステップと、
前記顔位置指定ステップで指定した位置と、前記顔認識ステップで認識した位置との位置関係を判定する位置判定ステップと、
前記位置判定ステップでの判定結果に基づいた情報を変調するデータ変調ステップと、
前記データ変調ステップで変調した情報が重畳された可視光を発光する可視光発光ステップと、
を含む、撮像方法。
A face position specifying step for specifying the position of the face in the captured image;
A face recognition step for recognizing the position of the face included in the captured image;
A position determination step for determining a positional relationship between the position specified in the face position specifying step and the position recognized in the face recognition step;
A data modulation step for modulating information based on the determination result in the position determination step;
A visible light emitting step of emitting visible light on which the information modulated in the data modulation step is superimposed;
An imaging method including:
JP2008287988A 2008-11-10 2008-11-10 Image capturing apparatus and method Withdrawn JP2010114842A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008287988A JP2010114842A (en) 2008-11-10 2008-11-10 Image capturing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008287988A JP2010114842A (en) 2008-11-10 2008-11-10 Image capturing apparatus and method

Publications (1)

Publication Number Publication Date
JP2010114842A true JP2010114842A (en) 2010-05-20

Family

ID=42303020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008287988A Withdrawn JP2010114842A (en) 2008-11-10 2008-11-10 Image capturing apparatus and method

Country Status (1)

Country Link
JP (1) JP2010114842A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012010162A (en) * 2010-06-25 2012-01-12 Kyocera Corp Camera device
JP2013229767A (en) * 2012-04-25 2013-11-07 Casio Comput Co Ltd Communication system, information terminal, communication method, and program
WO2016178267A1 (en) * 2015-05-01 2016-11-10 オリンパス株式会社 Image-capturing instructing device, image capturing system, image capturing method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012010162A (en) * 2010-06-25 2012-01-12 Kyocera Corp Camera device
JP2013229767A (en) * 2012-04-25 2013-11-07 Casio Comput Co Ltd Communication system, information terminal, communication method, and program
US8903957B2 (en) 2012-04-25 2014-12-02 Casio Computer Co., Ltd. Communication system, information terminal, communication method and recording medium
WO2016178267A1 (en) * 2015-05-01 2016-11-10 オリンパス株式会社 Image-capturing instructing device, image capturing system, image capturing method, and program

Similar Documents

Publication Publication Date Title
USRE46834E1 (en) Image capturing apparatus and control method therefor
JP2013013050A (en) Imaging apparatus and display method using imaging apparatus
JP2008054288A (en) Imaging apparatus
JP2006238076A (en) Photographic apparatus
JP2005269562A (en) Photographing apparatus
JP2009177328A (en) Imaging device
JP4652998B2 (en) Imaging device
JP2009081808A (en) Device, method and program for controlling photographing, and photographing apparatus
JP2009058834A (en) Imaging apparatus
JP2006145629A (en) Imaging apparatus
JP2009267831A (en) Image recording device and method
JP2007281647A (en) Electronic camera and image processing apparatus
JP2010114842A (en) Image capturing apparatus and method
JP2007266657A (en) Photographing apparatus
JP2010141609A (en) Imaging apparatus
JP4717840B2 (en) Imaging apparatus and control method thereof
JP2001197349A (en) Identification picture photographing system
JP2009077143A (en) Automatic photographing apparatus
JP2005078009A (en) Camera
JP4852504B2 (en) Imaging apparatus and focus state display method
JP2007028546A (en) Imaging apparatus
JP2007074402A (en) Display device, display operation device, processor, photographing device, and display method
JP2010134176A (en) Photographing device and photographing method
JP2006148273A (en) Imaging apparatus
JP2007248995A (en) Imaging apparatus, imaging method, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120110