JP2012015661A - Imaging device and imaging method - Google Patents

Imaging device and imaging method Download PDF

Info

Publication number
JP2012015661A
JP2012015661A JP2010148389A JP2010148389A JP2012015661A JP 2012015661 A JP2012015661 A JP 2012015661A JP 2010148389 A JP2010148389 A JP 2010148389A JP 2010148389 A JP2010148389 A JP 2010148389A JP 2012015661 A JP2012015661 A JP 2012015661A
Authority
JP
Japan
Prior art keywords
imaging
unit
range
operator
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010148389A
Other languages
Japanese (ja)
Inventor
Kazunori Tamura
一紀 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2010148389A priority Critical patent/JP2012015661A/en
Publication of JP2012015661A publication Critical patent/JP2012015661A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce restriction of a presence position of an operator when imaging is controlled in accordance with an operator's gesture.SOLUTION: An imaging device has plural imaging units for achieving image data, an imaging range changing unit for individually changing at least one of an imaging direction and an imaging field angle of each of the plural imaging units to change an imaging range, a gesture detector for detecting an operator's gesture from the image data achieved by any one imaging unit, and an imaging controller for performing control of changing an imaging range to be recorded and imaging control containing an imaging instruction to the plural imaging units in accordance with the detected gesture. When the change of the imaging range to be recorded is controlled, the imaging controller controls the imaging range changing means to change the imaging range of an imaging unit concerned as some imaging unit out of the plural imaging units in accordance with the gesture detected by the gesture detector. When an operator is not contained in the imaging range of the imaging unit concerned, change of the imaging ranges of other imaging units than the imaging unit concerned is restricted to the range within which the operator is contained.

Description

本発明は、複数の撮像部を備えた撮像装置及び撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method including a plurality of imaging units.

従来、撮像装置の撮像範囲に存在している被写体のジェスチャ動作を検出し、所定の撮像動作を自動で行う撮像装置が知られている(特許文献1、2参照)。   2. Description of the Related Art Conventionally, imaging apparatuses that detect a gesture operation of a subject existing in an imaging range of an imaging apparatus and automatically perform a predetermined imaging operation are known (see Patent Documents 1 and 2).

特許文献1には、撮像装置の撮像範囲に存在している被写体の顔の表情又はジェスチャを検出し、所定の顔の表情又はジェスチャを検出したときに自動的に撮影処理を行い、取得された撮影画像の記録を行う撮像装置が記載されている。   In Patent Document 1, a facial expression or gesture of a subject existing in the imaging range of an imaging device is detected, and when a predetermined facial expression or gesture is detected, a photographing process is automatically performed and acquired. An imaging device that records a captured image is described.

特許文献2には、予め設定された追尾エリア内において、被写体の位置とその被写体が任意の位置を指し示すジェスチャを検出し、検出した被写体の位置とジェスチャによって指し示された位置とに基づいて、撮影画像から自動的に画像切り出しを行う撮像装置が記載されている。   In Patent Document 2, in a tracking area set in advance, a position of a subject and a gesture in which the subject points to an arbitrary position are detected, and based on the detected position of the subject and the position indicated by the gesture, An imaging apparatus that automatically cuts out an image from a captured image is described.

しかし、特許文献1,2に記載された撮像装置は、撮影対象(記録画像、表示画像等の最終的な出力画像に含まれる対象)である被写体のジェスチャに応じて所定の撮像動作を自動で行うものであり、ジェスチャを検出すべき人物等は、常に撮像装置の撮像範囲内に存在していることを前提としている。   However, the imaging devices described in Patent Documents 1 and 2 automatically perform a predetermined imaging operation according to a gesture of a subject that is a subject to be photographed (a subject included in a final output image such as a recorded image or a display image). It is assumed that a person or the like whose gesture is to be detected is always present within the imaging range of the imaging device.

また、特許文献3には、3次元画像の撮像が可能な複数の撮像部を備えた複眼の撮像装置が記載されている。複眼の撮像装置は、2つの撮像部で同一の被写体を撮像し、視差を有する2つの画像データを合成することで立体感のある3次元画像を生成する。   Patent Document 3 describes a compound eye imaging apparatus including a plurality of imaging units capable of capturing a three-dimensional image. The compound-eye imaging device captures the same subject with two imaging units, and generates a three-dimensional image with a stereoscopic effect by synthesizing two image data having parallax.

特開2010−34685号公報JP 2010-34685 A 特開2007−158680号公報JP 2007-158680 A 特開2008−129439号公報JP 2008-129439 A

ところで、操作者の意図的なジェスチャに応じて撮像装置を制御することを想定した場合、操作者が撮像範囲に含まれなくなるような画角での撮像指示も想定されるが、特許文献1、2に記載された撮像装置では、操作者が撮像範囲に含まれなくなる画角での撮像は不可能である。   By the way, when it is assumed that the imaging apparatus is controlled in accordance with an operator's intentional gesture, an imaging instruction at an angle of view such that the operator is not included in the imaging range is also assumed. In the imaging apparatus described in 2, it is impossible to capture an image at an angle of view where the operator is not included in the imaging range.

特許文献3に記載された複眼の撮像装置において、ジェスチャに応じて撮像装置を制御することを想定した場合、複数の撮像部それぞれの撮像範囲は連動しているため、いずれの撮像部の撮像範囲に操作者が存在しない場合には、ジェスチャに応じたコントロールを行うことができない。   In the compound-eye imaging device described in Patent Literature 3, when it is assumed that the imaging device is controlled in accordance with a gesture, the imaging ranges of the plurality of imaging units are linked to each other. If there is no operator, control according to the gesture cannot be performed.

本発明は、操作者のジェスチャに応じた制御を行う際に、操作者の存在位置の制約を減少させた撮像装置及び撮像方法を提供する。   The present invention provides an imaging apparatus and an imaging method in which restrictions on an operator's location are reduced when performing control according to an operator's gesture.

操作者のジェスチャに応じた撮像を行う撮像装置であって、
所定の撮像範囲の画像データを取得する複数の撮像部と、
前記複数の撮像部のそれぞれの撮像方向と撮像画角の少なくとも一方を個別に変更して前記撮像範囲を変更する撮像範囲変更部と、
前記複数の撮像部のうちのいずれか1つの撮像部が取得した前記画像データから、前記操作者のジェスチャを検出するジェスチャ検出部と、
検出されたジェスチャに応じて、記録すべき撮像範囲の変更制御、及び前記複数の撮像部に対する撮影指示を含む撮像制御を行う撮像制御部と、を備え、
前記撮像制御部は、前記記録すべき撮像範囲の変更制御に際して、前記撮影範囲変更手段を制御して、前記複数の撮像部のうちの一部の撮像部である本撮像部の撮影範囲を、前記ジェスチャ検出部で検出したジェスチャに応じて変更させるとともに、前記本撮像部の撮像範囲から前記操作者が含まれなくなる場合は、当該本撮像部以外の撮像部の撮像範囲の変更を前記操作者が含まれる範囲に制限する撮像装置。
An imaging device that performs imaging according to an operator's gesture,
A plurality of imaging units for acquiring image data of a predetermined imaging range;
An imaging range changing unit for changing the imaging range by individually changing at least one of the imaging direction and the imaging angle of view of each of the plurality of imaging units;
A gesture detection unit that detects the gesture of the operator from the image data acquired by any one of the plurality of imaging units;
An imaging control unit that performs imaging control including change control of an imaging range to be recorded and imaging instructions for the plurality of imaging units according to the detected gesture;
The imaging control unit controls the imaging range changing unit when changing the imaging range to be recorded, and sets the imaging range of the main imaging unit, which is a part of the plurality of imaging units, When the operator is not included from the imaging range of the main imaging unit, the imaging range of the imaging unit other than the main imaging unit is changed when the operator is changed according to the gesture detected by the gesture detection unit. Imaging device limited to a range including.

操作者のジェスチャに応じた撮像を行う撮像装置の撮像方法であって、
所定の撮像範囲の画像データを複数の撮像部から取得するステップと、
前記複数の撮像部のそれぞれの撮像方向と撮像画角の少なくとも一方を個別に変更して前記撮像範囲を撮像範囲変更部によって変更するステップと、
前記複数の撮像部のうちのいずれか1つの撮像部が取得した前記画像データから、前記操作者のジェスチャをジェスチャ検出部によって検出するステップと、
検出されたジェスチャに応じて、記録すべき撮像範囲の変更制御、及び前記複数の撮像部に対する撮影指示を含む撮像制御を撮像制御部によって行うステップと、を含み、
前記撮像制御部によって、前記記録すべき撮像範囲の変更制御に際して、前記撮影範囲変更手段を制御して、前記複数の撮像部のうちの少なくとも1つの撮像部である本撮像部の撮影範囲を、前記ジェスチャ検出部で検出したジェスチャに応じて変更させるとともに、前記本撮像部の撮像範囲から前記操作者が含まれなくなる場合は、当該本撮像部以外の撮像部の撮像範囲の変更を前記操作者が含まれる範囲に制限し、
前記本撮像部のうちの1つの撮像部で取得した画像データに基づいて、前記記録すべき撮像範囲に対応する画像を前記表示部に表示させる撮像方法。
An imaging method of an imaging device that performs imaging according to an operator's gesture,
Acquiring image data of a predetermined imaging range from a plurality of imaging units;
Changing at least one of the imaging direction and the imaging angle of view of each of the plurality of imaging units individually and changing the imaging range by the imaging range changing unit;
Detecting a gesture of the operator by a gesture detection unit from the image data acquired by any one of the plurality of imaging units;
A step of performing an imaging control including an imaging range change control to be recorded and an imaging instruction for the plurality of imaging units by the imaging control unit according to the detected gesture,
When changing the imaging range to be recorded by the imaging control unit, the imaging range changing means is controlled, and the imaging range of the main imaging unit, which is at least one imaging unit among the plurality of imaging units, When the operator is not included from the imaging range of the main imaging unit, the imaging range of the imaging unit other than the main imaging unit is changed when the operator is changed according to the gesture detected by the gesture detection unit. To a range that includes
An imaging method for causing the display unit to display an image corresponding to the imaging range to be recorded, based on image data acquired by one of the main imaging units.

本発明によれば、操作者のジェスチャに応じた制御を行う際に、操作者の存在位置の制約を減少させた撮像装置及び撮像方法を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, when performing control according to an operator's gesture, the imaging device and imaging method which reduced the restrictions of an operator's presence position can be provided.

撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of an imaging device. 被写体を撮像している状態を示す図である。It is a figure which shows the state which is image | photographing a to-be-photographed object. 取得した画像データに基づいて表示された画像の例を示す図である。It is a figure which shows the example of the image displayed based on the acquired image data. 撮像の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of an imaging. 撮像の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of an imaging. 撮像の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of an imaging. 撮像の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of an imaging. 撮像の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of an imaging. 撮像の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of an imaging. 撮像の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of an imaging.

図1は、複数の撮像系を備えた撮像装置の構成を示すブロック図である。なお、撮像装置として2つの撮像部を有するデジタルカメラを例に説明する。   FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus including a plurality of imaging systems. A digital camera having two imaging units will be described as an example of the imaging device.

この撮像装置において、2つの撮像部は、水平方向に人間の両眼の間隔以上の距離を隔てて設けられている。2つの撮像部は、右眼撮像系と左眼撮像系とを含む。右眼撮像系にはレンズ群1Rと、CCD型又はMOS型の固体撮像素子5Rと、この両者の間に設けられた絞り2Rと、赤外線カットフィルタ3Rと、光学ローパスフィルタ4Rとが含まれる。左眼撮像系にはレンズ群1Lと、CCD型又はMOS型の固体撮像素子5Lと、この両者の間に設けられた絞り2Lと、赤外線カットフィルタ3Lと、光学ローパスフィルタ4Lとが含まれる。撮像装置は、同一被写体を右眼撮像系及び左眼撮像系のそれぞれの視点から撮像可能である。   In this imaging apparatus, the two imaging units are provided in the horizontal direction with a distance greater than or equal to the distance between the human eyes. The two imaging units include a right eye imaging system and a left eye imaging system. The right-eye imaging system includes a lens group 1R, a CCD type or MOS type solid-state imaging device 5R, a diaphragm 2R provided therebetween, an infrared cut filter 3R, and an optical low-pass filter 4R. The left-eye imaging system includes a lens group 1L, a CCD type or MOS type solid-state imaging device 5L, an aperture 2L provided therebetween, an infrared cut filter 3L, and an optical low-pass filter 4L. The imaging device can image the same subject from the respective viewpoints of the right eye imaging system and the left eye imaging system.

レンズ群1R,1Lには、それぞれ、ズーム位置を調整するためのズームレンズと、フォーカス位置を調整するためのフォーカスレンズ等が含まれている。このズームレンズとフォーカスレンズは、右眼撮像系と左眼撮像系とで同期して移動するようになっている。また、この撮像装置は、レンズ群1R,1Lは、いずれか一方のみを制御して、ズームレンズやフォーカスレンズを移動させることができる。又は、レンズ群1R,1Lそれぞれのズームレンズやフォーカスレンズを異なる位置となるように制御することができる。   Each of the lens groups 1R and 1L includes a zoom lens for adjusting the zoom position, a focus lens for adjusting the focus position, and the like. The zoom lens and the focus lens are moved synchronously between the right eye imaging system and the left eye imaging system. In this imaging apparatus, the zoom lens and the focus lens can be moved by controlling only one of the lens groups 1R and 1L. Alternatively, the zoom lenses and focus lenses of the lens groups 1R and 1L can be controlled to be in different positions.

撮像装置の電気制御系全体を統括制御するシステム制御部11は、所定のプログラムによって動作するプロセッサを主体に構成されている。システム制御部11は、レンズ駆動部8を制御してレンズ群1R,1Lのフォーカスレンズ位置やズームレンズ位置の調整を行ったり、絞り駆動部9を介し絞り2R,2Lの開口量を制御して露光量調整を行ったりする。   The system control unit 11 that performs overall control of the entire electrical control system of the imaging apparatus is mainly configured by a processor that operates according to a predetermined program. The system control unit 11 controls the lens driving unit 8 to adjust the focus lens position and zoom lens position of the lens groups 1R and 1L, and controls the aperture amounts of the apertures 2R and 2L via the aperture driving unit 9. Adjust the exposure amount.

また、システム制御部11は、撮像素子駆動部10を介して固体撮像素子5R,5Lを駆動し、レンズ群1R,1Lを通して撮像した被写体画像を撮像信号として出力させる。システム制御部11には、操作部14を通してユーザからの指示信号が入力される。   Further, the system control unit 11 drives the solid-state imaging devices 5R and 5L via the imaging device driving unit 10, and outputs subject images captured through the lens groups 1R and 1L as imaging signals. An instruction signal from the user is input to the system control unit 11 through the operation unit 14.

撮像装置の電気制御系は、更に、固体撮像素子5Rの出力に接続された相関二重サンプリング処理等のアナログ信号処理を行うアナログ信号処理部6Rと、このアナログ信号処理部6Rから出力された撮像信号をデジタル信号に変換するA/D変換回路7Rと、固体撮像素子5Lの出力に接続された相関二重サンプリング処理等のアナログ信号処理を行うアナログ信号処理部6Lと、このアナログ信号処理部6Lから出力された撮像信号をデジタル信号に変換するA/D変換回路7Lとを備え、これらはシステム制御部11によって制御される。   The electrical control system of the imaging apparatus further includes an analog signal processing unit 6R that performs analog signal processing such as correlated double sampling processing connected to the output of the solid-state imaging device 5R, and the imaging output from the analog signal processing unit 6R. An A / D conversion circuit 7R that converts a signal into a digital signal, an analog signal processing unit 6L that performs analog signal processing such as correlated double sampling processing connected to the output of the solid-state imaging device 5L, and the analog signal processing unit 6L And an A / D conversion circuit 7L that converts the imaging signal output from the digital signal into a digital signal, and these are controlled by the system control unit 11.

更に、このデジタルカメラの電気制御系は、メインメモリ16と、メインメモリ16に接続されたメモリ制御部15と、A/D変換回路7R,7Lから出力される撮像信号にそれぞれ所定のデジタル信号処理(補間演算やガンマ補正演算,RGB/YC変換処理等)を行って画像データを生成するデジタル信号処理部17と、デジタル信号処理部17で生成された画像データをJPEG形式に圧縮したり圧縮画像データを伸張したりする圧縮伸張処理部18と、着脱自在の記録媒体21が接続される外部メモリ制御部20と、画像データに基づく画像を立体視可能に表示する表示部23が接続される表示制御部22とを備え、これらは、制御バス24及びデータバス25によって相互に接続され、システム制御部11からの指令によって制御される。   Further, the electric control system of the digital camera includes a main memory 16, a memory control unit 15 connected to the main memory 16, and imaging signals output from the A / D conversion circuits 7R and 7L. Digital signal processing unit 17 that generates image data by performing (interpolation calculation, gamma correction calculation, RGB / YC conversion processing, etc.), and the image data generated by digital signal processing unit 17 is compressed into a JPEG format or a compressed image A display to which a compression / expansion processing unit 18 that expands data, an external memory control unit 20 to which a detachable recording medium 21 is connected, and a display unit 23 that displays an image based on image data in a stereoscopic manner are connected. And a control unit 22, which are connected to each other by a control bus 24 and a data bus 25 and controlled by a command from the system control unit 11. It is.

表示部23は、撮影済み画像を表示するための画像表示部として利用されるとともに、各種設定時にGUIとして利用される。また、撮影時には、表示部23に固体撮像素子5R,5Lから取得した画像データがスルー画として連続的に表示され、電子ファインダ等として利用される。   The display unit 23 is used as an image display unit for displaying a captured image, and is used as a GUI at various settings. Further, at the time of photographing, the image data acquired from the solid-state imaging devices 5R and 5L is continuously displayed as a through image on the display unit 23 and used as an electronic viewfinder or the like.

立体視表示の仕組みとしては、表示部23に表示される立体画像データは、右画像データと左画像データとから構成されている。右画像データ及び左画像データは、細長い短冊形状をしており、交互に並列される。   As a stereoscopic display mechanism, the stereoscopic image data displayed on the display unit 23 is composed of right image data and left image data. The right image data and the left image data have an elongated strip shape and are alternately arranged in parallel.

表示部23は、表示方式として、例えば時分割視差画像方式を用いる。時分割視差画像方式とは、1つの液晶表示部に右画像データと左画像データを交互に表示すると共に、右画像データを表示したときには、液晶表示部のバックライトからの光を観察者の右目の方向に向けて照射し、左画像データを表示したときには、表示部に内蔵されたバックライトからの光を観察者の左目の方向に向けて照射することで、観察者に立体画像を認識させる方式である。   The display unit 23 uses, for example, a time division parallax image method as a display method. In the time division parallax image method, right image data and left image data are alternately displayed on one liquid crystal display unit, and when the right image data is displayed, light from the backlight of the liquid crystal display unit is displayed on the right eye of the observer. When the left image data is displayed by irradiating in the direction of, the viewer recognizes the stereoscopic image by irradiating light from the backlight built in the display unit toward the left eye of the observer It is a method.

以下の例では、図1の2つの撮像部を備えた撮像装置の構成を例に説明する。   In the following example, the configuration of an imaging apparatus including the two imaging units in FIG. 1 will be described as an example.

さらに、撮像装置には、画像認識部31と、動作検出部32と、撮像制御部33と、を備える。画像認識部31、動作検出部32、撮像制御部33は、制御バス24及びデータバス25によって相互に接続され、システム制御部11からの指令によって制御される。画像認識部31と、動作検出部32とは、ジェスチャ検出部として機能する。   Furthermore, the imaging apparatus includes an image recognition unit 31, an operation detection unit 32, and an imaging control unit 33. The image recognition unit 31, the operation detection unit 32, and the imaging control unit 33 are connected to each other by the control bus 24 and the data bus 25, and are controlled by a command from the system control unit 11. The image recognition unit 31 and the motion detection unit 32 function as a gesture detection unit.

画像認識部31は、取得された画像データに基づいて顔画像を検出し、検出した顔画像に基づいて顔認識を行うことで操作者を認識する。   The image recognition unit 31 detects a face image based on the acquired image data, and recognizes the operator by performing face recognition based on the detected face image.

動作検出部32は、画像認識部31によって認識された操作者のジェスチャを検出する。撮像装置は、操作者のジェスチャを検出して自動で変更制御を行う。ここで、ジェスチャとは、操作者が行う動作(例えば、手を挙げる等の動作)をいう。ジェスチャには、撮像範囲の変更制御、及び撮像指示に関する所定の制御内容が設定されている。例えば、操作者の手をあげるというジェスチャに、光学ズームを駆動して複数の撮像部それぞれの撮像範囲を変更する制御が設定されている。撮像装置は、撮像範囲に含まれる操作者のジェスチャを検出し、該ジェスチャに応じて制御される。こうして、操作者は、撮像装置の操作部14から手指等の直接入力を行うことなく、離れた位置から撮像装置に所望の制御を実行させることができる。   The motion detection unit 32 detects the operator's gesture recognized by the image recognition unit 31. The imaging apparatus detects the operator's gesture and automatically performs change control. Here, the gesture refers to an operation performed by an operator (for example, an operation such as raising a hand). The gesture is set with predetermined control content related to imaging range change control and imaging instructions. For example, control for changing the imaging range of each of the plurality of imaging units by driving the optical zoom is set for the gesture of raising the hand of the operator. The imaging device detects an operator's gesture included in the imaging range, and is controlled according to the gesture. Thus, the operator can cause the imaging apparatus to execute desired control from a remote position without directly inputting a finger or the like from the operation unit 14 of the imaging apparatus.

撮像制御部33は、検出されたジェスチャに応じて、記録すべき撮像範囲の変更制御、及び撮像部に対する撮像指示を含む制御を行う。   The imaging control unit 33 performs control including change control of the imaging range to be recorded and imaging instruction to the imaging unit in accordance with the detected gesture.

次に、撮像装置を用いて、撮像を実行する例を説明する。
図2は、図1の撮像装置を用いて、操作者を含む複数の人物を撮像している状態を示している。図2では、4人の人物が存在し、図中矢印で示す人物が操作者である。操作者は撮像装置から離れた位置に立っている。この例では、撮像装置において、操作者が手をあげるジェスチャが検出され、検出したジェスチャに応じて光学ズームを実行する。操作者は、撮像装置の表示部で記録すべき撮像範囲に対応する画像を確認することができる。
Next, an example in which imaging is performed using an imaging device will be described.
FIG. 2 shows a state in which a plurality of persons including the operator are imaged using the imaging apparatus of FIG. In FIG. 2, there are four persons, and the person indicated by the arrow in the figure is the operator. The operator stands at a position away from the imaging device. In this example, a gesture in which the operator raises his / her hand is detected in the imaging apparatus, and optical zoom is executed in accordance with the detected gesture. The operator can confirm an image corresponding to the imaging range to be recorded on the display unit of the imaging apparatus.

図3は、図2の状態の撮像装置の表示部に表示される画像を示している。図3Aは2つの撮像部のうち一方(ジェスチャ検出用撮像部)で取得された画像データに基づく画像を示している。図3Bは2つの撮像部のうち他方(本撮像部)で取得された画像データに基づく画像を示している。   FIG. 3 shows an image displayed on the display unit of the imaging apparatus in the state of FIG. FIG. 3A shows an image based on the image data acquired by one of the two imaging units (gesture detection imaging unit). FIG. 3B shows an image based on the image data acquired by the other (main imaging unit) of the two imaging units.

図3Aに示すように、ジェスチャ検出用撮像部は、その撮像範囲に操作者を含むように制御されている。ジェスチャ検出用撮像部で取得される画像データから操作者のジェスチャを検出することができる。図3Bに示すように、本撮像部は、ジェスチャに応じた光学ズームによって撮像範囲が変更制御されている。本撮像部は、ジェスチャに応じた撮像画角で画像データを取得でき、この画像データに基づいて記録すべき撮像範囲に対応する画像を得ることができる。一方で、本撮像部は、変更された撮像範囲に操作者を含まないため、操作者のジェスチャを検出することができない。仮に、操作者のジェスチャに応じて2つの撮像部の撮像範囲を光学ズームで変更制御すると、操作者が撮像範囲に含まれなくなり、その後、撮像装置をコントロールできなくなる。そこで、この撮像装置は、撮像制御部33が、光学ズームで記録すべき撮像範囲の変更制御に際して、図3Bに示すように、光学ズームを制御して本撮像部の撮像範囲をジェスチャに応じて変更させる。また、図3Aに示すように、撮像装置は、本撮像部の撮像範囲から操作者が含まれなくなる場合は、ジェスチャ検出用撮像部の撮像範囲の変更を操作者が含まれる範囲に制限する。   As shown in FIG. 3A, the gesture detection imaging unit is controlled to include an operator in the imaging range. An operator's gesture can be detected from the image data acquired by the gesture detection imaging unit. As shown in FIG. 3B, the imaging range of the main imaging unit is controlled to be changed by an optical zoom corresponding to the gesture. The main imaging unit can acquire image data at an imaging angle of view corresponding to a gesture, and can acquire an image corresponding to an imaging range to be recorded based on the image data. On the other hand, since the imaging unit does not include the operator in the changed imaging range, it cannot detect the operator's gesture. If the imaging range of the two imaging units is changed and controlled by the optical zoom according to the gesture of the operator, the operator is not included in the imaging range, and thereafter the imaging device cannot be controlled. Therefore, in the imaging apparatus, when the imaging control unit 33 controls the change of the imaging range to be recorded with the optical zoom, as shown in FIG. 3B, the imaging range of the main imaging unit is controlled according to the gesture by controlling the optical zoom. Change it. Further, as illustrated in FIG. 3A, when the operator is not included from the imaging range of the main imaging unit, the imaging device limits the change of the imaging range of the gesture detection imaging unit to a range including the operator.

本撮像部とジェスチャ検出用撮像部それぞれで、異なる撮像範囲を撮像する場合には、本撮像部又はジェスチャ検出用撮像部のいずれかで取得した画像データに基づいて、記録すべき撮像範囲に対応する画像を表示させる。   When different imaging ranges are captured by the main imaging unit and the gesture detection imaging unit, it corresponds to the imaging range to be recorded based on the image data acquired by either the main imaging unit or the gesture detection imaging unit. Display the image to be displayed.

以下では、ジェスチャに応じた変更制御としては、画角を光学ズームによって変更する制御である場合を例に説明する。   Hereinafter, a case where the change control according to the gesture is control for changing the angle of view by optical zoom will be described as an example.

この例では、光学ズームによって撮像部の撮像画角を変更して撮像部の撮像範囲を変更する手段を撮像範囲変更部とする。撮像範囲変更部は、撮像部の撮像方向を変更するものであってもよい。撮像範囲変更部は、2つの撮像部のそれぞれの撮像方向と撮像画角の少なくとも一方を個別に変更して撮像範囲を変更するものである。撮像範囲変更部は、撮像部の撮像方向を変更するものとしては、例えば、撮像装置を保持する雲台の移動を制御する手段、パン・チルト機構を制御する手段、画像データのトリミング処理を行う手段、を用いてもよい。   In this example, a means for changing the imaging field angle of the imaging unit by changing the imaging field angle of the imaging unit by optical zoom is an imaging range changing unit. The imaging range changing unit may change the imaging direction of the imaging unit. The imaging range changing unit changes the imaging range by individually changing at least one of the imaging direction and the imaging angle of view of each of the two imaging units. The imaging range changing unit changes the imaging direction of the imaging unit, for example, means for controlling the movement of the camera platform holding the imaging device, means for controlling the pan / tilt mechanism, and trimming processing of image data Means may be used.

次に、操作者のジェスチャに応じて、所定の制御や撮像を実行する手順を説明する。以下の説明では、図1で示す撮像装置の構成を例に説明する。   Next, a procedure for executing predetermined control and imaging according to an operator's gesture will be described. In the following description, the configuration of the imaging apparatus shown in FIG. 1 will be described as an example.

図4は、撮像の手順の一例を示すフローチャートである。なお、以下で参照する図では、ジェスチャ検出用撮像部をジェスチャ用カメラともいう。
この例では、最初に、ステップS1において、画像認識部31が、2つの撮像部のうち一方から取得された画像データから顔画像の検出を行い、検出した顔画像に基づいて顔認識を行う。そして、認識された被写体の人物を操作者として設定する。顔認識は、画像データから検出された顔画像と予め登録された登録画像データとを比較し、両者がどの程度一致するか判断し、一致する場合には顔画像の人物を操作者として認識する。この手順後、ステップS2へ進む。なお、2つの撮像部それぞれから取得された画像データで顔検出を用いて行ってもよい。
FIG. 4 is a flowchart illustrating an example of an imaging procedure. In the drawings referred to below, the gesture detection imaging unit is also referred to as a gesture camera.
In this example, first, in step S1, the image recognition unit 31 detects a face image from image data acquired from one of the two imaging units, and performs face recognition based on the detected face image. The recognized subject person is set as the operator. In face recognition, a face image detected from image data is compared with registered image data registered in advance to determine how much they match. If they match, the person in the face image is recognized as an operator. . After this procedure, the process proceeds to step S2. Note that face detection may be performed on image data acquired from each of the two imaging units.

ステップS2において、動作検出部32が認識された操作者のジェスチャを検出する。ジェスチャは、例えば、画像データにおいて操作者の領域を取得して特徴点を算出し、この特徴点の変化パターンが所定のパターンに一致するか否かに基づいて判別する。そして、ステップS3へ進む。   In step S2, the motion detection unit 32 detects the recognized gesture of the operator. The gesture is determined based on whether or not the feature point is calculated by acquiring the operator's region in the image data and the change pattern of the feature point matches a predetermined pattern. Then, the process proceeds to step S3.

ステップS3において、動作検出部32が、ジェスチャの有無を判別する。ジェスチャを検出した場合には、ジェスチャに予め関連付けられて設定された変更制御を設定し、ステップS4へ進む。ここでは、操作者の手を挙げるというジェスチャに予め関連つけられた光学ズームが行われる。一方、ジェスチャを検出しなかった場合にはステップS10へ進む。   In step S3, the motion detection unit 32 determines the presence or absence of a gesture. If a gesture is detected, the change control set in advance associated with the gesture is set, and the process proceeds to step S4. Here, an optical zoom associated in advance with the gesture of raising the hand of the operator is performed. On the other hand, if no gesture is detected, the process proceeds to step S10.

ステップS4において、撮像制御部33は、光学ズームの実行によって2つの撮像部の撮像範囲を変更制御したとき、操作者が検出できなくならないかを判別する。操作者の検出が不可能である場合には、ステップS5へ進む。操作者の検出が可能である場合には、ステップS7へ進む。   In step S4, the imaging control unit 33 determines whether or not the operator cannot detect when the imaging range of the two imaging units is changed and controlled by executing the optical zoom. If the operator cannot be detected, the process proceeds to step S5. If the operator can be detected, the process proceeds to step S7.

ステップS5において、ジェスチャ検出用撮像部で操作者が撮像されるか否かを判断する。ジェスチャ検出用撮像部で、操作者を検出可能と判断した場合には、ステップS6へ進む。ジェスチャ検出用撮像部で操作者の検出が不可能であると判断した場合には、ステップS8へ進む。   In step S5, it is determined whether or not the operator is imaged by the gesture detection imaging unit. If the gesture detection imaging unit determines that the operator can be detected, the process proceeds to step S6. If the gesture detection imaging unit determines that the operator cannot be detected, the process proceeds to step S8.

ステップS6において、2つの撮像部のうち一方をジェスチャ検出用撮像部に設定し、実際にジェスチャ検出用撮像部で撮像を開始する。ジェスチャ検出用撮像部は、その撮像範囲が操作者を含む範囲となるように、撮像制御部33によって制御される。一方、本撮像部は、ジェスチャによって指示された光学ズームによってその撮像範囲が変更制御される。このとき、表示部には、本撮像部で撮像した画像データに基づいて、記録すべき撮像範囲に対応する画像を表示する。又は、表示部は、ジェスチャ検出用撮像部で撮像した画像データに基づく画像を表示してもよい。その後、ステップS10へ進む。   In step S6, one of the two image pickup units is set as the gesture detection image pickup unit, and the image pickup is actually started by the gesture detection image pickup unit. The gesture detection imaging unit is controlled by the imaging control unit 33 such that the imaging range is a range including the operator. On the other hand, the imaging range of the main imaging unit is changed and controlled by the optical zoom instructed by the gesture. At this time, an image corresponding to the imaging range to be recorded is displayed on the display unit based on the image data captured by the main imaging unit. Alternatively, the display unit may display an image based on the image data captured by the gesture detection imaging unit. Then, it progresses to step S10.

ステップS7では、光学ズームを実行した際に、2つの撮像部のそれぞれの撮像範囲に操作者を含むと判断されたため、撮像制御部33は、2つの撮像部それぞれの撮像範囲を光学ズームによって変更する。その後、ステップS10へ進む。   In step S7, when the optical zoom is executed, it is determined that the respective imaging ranges of the two imaging units include the operator. Therefore, the imaging control unit 33 changes the imaging ranges of the two imaging units by the optical zoom. To do. Then, it progresses to step S10.

ステップS8では、ステップS5で2つの撮像部のうちいずれの撮像範囲においても操作者が検出不可能と判断した結果をうけ、警告動作を実行する。警告動作としてはタリーを点滅させる方法や、表示部23に表示を行う方法などがある。   In step S8, a warning operation is executed in response to the result of the operator's determination that detection is not possible in any imaging range of the two imaging units in step S5. The warning operation includes a method of blinking a tally and a method of displaying on the display unit 23.

ステップS10において、撮像指示が行われた否かを判別する。撮像指示は、操作者がジェスチャによって行ってもよく、他の人物が撮像装置の操作部14に直接入力したものであってもよい。撮像指示がある場合には、S11へ進む。撮像指示がない場合には、ステップS1へ戻って、上記手順を繰り返す。   In step S10, it is determined whether or not an imaging instruction has been issued. The imaging instruction may be given by an operator using a gesture, or may be input directly by another person to the operation unit 14 of the imaging apparatus. If there is an imaging instruction, the process proceeds to S11. If there is no imaging instruction, the process returns to step S1 and the above procedure is repeated.

ステップS11において、ジェスチャ検出用撮像部が本撮像部とは異なる撮像範囲で撮像して、操作者を検出する動作が設定されている状態であるか否かを判別する。ジェスチャ検出用撮像部が操作者を検出する動作を行っている場合には、ステップS12へ進む。ジェスチャ検出用撮像部が操作者を検出する動作を行っていない場合には、ステップS15へ進む。   In step S11, it is determined whether or not the gesture detection imaging unit captures an image in an imaging range different from that of the main imaging unit and an operation for detecting an operator is set. When the gesture detection imaging unit performs an operation of detecting the operator, the process proceeds to step S12. If the gesture detection imaging unit is not performing an operation of detecting the operator, the process proceeds to step S15.

ステップS12において、撮像制御部33は、ジェスチャ検出用撮像部による操作者を検出する動作を一時的に中断し、該ジェスチャ検出用撮像部の撮像範囲を、本撮像部と同じようにジェスチャに応じて変更制御された撮像範囲に切り換える。このとき、ジェスチャ検出用撮像部は、本撮像部と同じ動作状態、つまり、光学ズームによって撮像範囲が変更されている状態になる。また、中断されたジェスチャ検出用撮像部の動作状態を示すデータがメインメモリ16に記録される。そして、ステップS13へ進む。   In step S12, the imaging control unit 33 temporarily interrupts the operation of detecting the operator by the gesture detection imaging unit, and sets the imaging range of the gesture detection imaging unit according to the gesture in the same manner as the main imaging unit. To switch to the imaging range under change control. At this time, the gesture detection imaging unit is in the same operation state as the main imaging unit, that is, the imaging range is changed by the optical zoom. In addition, data indicating the operation state of the interrupted gesture detection imaging unit is recorded in the main memory 16. Then, the process proceeds to step S13.

ステップS13において、記録のための画像データを取得する撮像制御が実行される。このとき、ジェスチャに応じて、変更制御された撮像範囲で2つの撮像部それぞれから画像データが取得される。取得された画像データに基づく画像は、2つの撮像部の配置に基づく視差を含む。取得した画像データをメインメモリ16に記録する動作である。この手順の後、ステップS14へ進む。   In step S13, imaging control for acquiring image data for recording is executed. At this time, image data is acquired from each of the two imaging units in the imaging range subjected to change control according to the gesture. The image based on the acquired image data includes parallax based on the arrangement of the two imaging units. In this operation, the acquired image data is recorded in the main memory 16. After this procedure, the process proceeds to step S14.

ステップS14において、撮像制御を行った後で、ジェスチャ検出用撮像部の撮像範囲を操作者が含まれる範囲に変更する。このとき、撮像制御部33は、メインメモリ16から先のジェスチャ検出用撮像部の動作状態を示すデータを読み出し、ジェスチャ検出用撮像部の撮像範囲を、撮像制御に切り換える直前の撮像範囲(つまり、操作者を含むように制限された撮像範囲)に戻す制御を行う。本撮像部及びジェスチャ検出用撮像部のうちの1つの撮像部で取得した画像データに基づいて、記録すべき撮像範囲に対応する画像を表示部23に表示させる。その後、フローを終了する。   In step S14, after performing the imaging control, the imaging range of the gesture detection imaging unit is changed to a range including the operator. At this time, the imaging control unit 33 reads data indicating the operation state of the previous gesture detection imaging unit from the main memory 16, and the imaging range immediately before switching the imaging range of the gesture detection imaging unit to imaging control (that is, The control is performed to return to the imaging range limited to include the operator. Based on the image data acquired by one of the main imaging unit and the gesture detection imaging unit, an image corresponding to the imaging range to be recorded is displayed on the display unit 23. Thereafter, the flow ends.

ステップS15では、2つの撮像部は、いずれもジェスチャ検出用撮像部に設定されていないとする判断をうけ、特に2つの撮像部の撮像範囲を変更することなく、撮像を実行する。2つの撮像部それぞれから画像データを取得し、メインメモリ16に記録する。その後、フローを終了する。   In step S <b> 15, the two imaging units determine that neither is set as a gesture detection imaging unit, and performs imaging without changing the imaging range of the two imaging units. Image data is acquired from each of the two imaging units and recorded in the main memory 16. Thereafter, the flow ends.

撮像装置は、取得した画像データを合成して3次元画像データを作成する。また、撮像装置は、取得した1つの画像データのみに基づいて2次元画像データを作成してもよい。2次元画像データ及び3次元画像データは、メインメモリ16に記憶される。   The imaging apparatus combines the acquired image data to create three-dimensional image data. Further, the imaging apparatus may create two-dimensional image data based on only one acquired image data. The two-dimensional image data and the three-dimensional image data are stored in the main memory 16.

こうすれば、操作者は、ジェスチャに応じた変更制御によって該操作者が検出できなくなる場合においても、記録すべき撮像範囲を表示部で確認できる。したがって、操作者は、撮像範囲に対する存在位置の制約をうけることなく、撮像装置をジェスチャで制御することができる。   In this way, the operator can check the imaging range to be recorded on the display unit even when the operator cannot detect the change control according to the gesture. Therefore, the operator can control the image capturing apparatus with a gesture without being restricted by the position of the image capturing range.

また、撮像装置は、撮像指示があったとき、2つの撮像部をともにジェスチャに応じた変更制御に切り替えて、撮像を行う。こうすれば、視差を有する2つの画像データを取得し、これら画像データを合成することで3次元画像を得ることができる。   In addition, when an imaging instruction is given, the imaging device switches the two imaging units to change control corresponding to the gesture and performs imaging. In this way, it is possible to obtain a three-dimensional image by acquiring two pieces of image data having parallax and synthesizing these image data.

撮像制御を行った後で、ジェスチャ検出用撮像部の撮像範囲が操作者を含むように再度、制御される。こうすれば、撮像装置が操作者を認識できなくなることを防止できる。また、操作者は、撮像後に直ぐにジェスチャによって撮像装置をコントロールすることができる。   After performing the imaging control, the control is performed again so that the imaging range of the gesture detection imaging unit includes the operator. This can prevent the imaging apparatus from recognizing the operator. Further, the operator can control the imaging device with a gesture immediately after imaging.

次に、上述した手順の一部を変形した例を説明する。この例では、認識した複数の被写体に登録画像データとして登録された人物を複数含むか否かを判別する場合を説明する。図5はこの例の手順を示すフローチャートである。図5ではジェスチャを検出する手順以降のフローについては、図4に記載したものと同じであるため、記載せず省略している。   Next, an example in which a part of the above procedure is modified will be described. In this example, a case will be described in which it is determined whether or not a plurality of recognized subjects include a plurality of persons registered as registered image data. FIG. 5 is a flowchart showing the procedure of this example. In FIG. 5, the flow after the procedure for detecting a gesture is the same as that described in FIG.

先ず、ステップS21において、画像認識部31が、画像データに基づいて顔検出を検出する。そして、顔検出で検出された顔画像に基づいて人物を認識する顔認識を行う。その後、ステップS22へ進む。なお、画像データは、2つの撮像部のうちいずれから取得したものでもよい。   First, in step S21, the image recognition unit 31 detects face detection based on image data. Then, face recognition is performed for recognizing a person based on a face image detected by face detection. Thereafter, the process proceeds to step S22. Note that the image data may be acquired from either of the two imaging units.

ステップS22において、顔認識を行い、検出された被写体の顔画像と予め登録された登録画像データとの一致があったかを判別する。登録画像データと一致する顔画像が1つでもあった場合にはステップS23へ進む。登録画像データと一致する顔画像が1つもなかった場合には、ジェスチャを検出する手順(図4のステップS3参照)へ進む。   In step S22, face recognition is performed to determine whether there is a match between the detected face image of the subject and registered image data registered in advance. If there is even one face image that matches the registered image data, the process proceeds to step S23. If no face image matches the registered image data, the process proceeds to the procedure for detecting a gesture (see step S3 in FIG. 4).

ステップS23において、登録画像データと一致する顔画像が複数であったか否かを判別する。登録画像データと一致する顔画像が複数であった場合には、ステップS24へ進む。登録画像データと一致する顔画像が複数でなかった場合には、ステップS25へ進む。   In step S23, it is determined whether or not there are a plurality of face images that match the registered image data. If there are a plurality of face images that match the registered image data, the process proceeds to step S24. If there are not a plurality of face images that match the registered image data, the process proceeds to step S25.

ステップS24において、複数の被写体に対して操作者とすべき優先順位をつけ、これら複数の被写体のうち、最も操作者とすべき優先順位が高い人物を操作者に設定する。優先順位のつけ方としては、例えば、登録画像データに順位を予め設定する。その後、ジェスチャを検出する手順(図4のステップS3参照)へ進む。   In step S24, a priority order to be set as an operator is assigned to a plurality of subjects, and a person having the highest priority order to be set as an operator among the plurality of subjects is set as the operator. As a method of assigning priorities, for example, priorities are set in advance for registered image data. Thereafter, the process proceeds to a procedure for detecting a gesture (see step S3 in FIG. 4).

ステップS25では、ステップS23において登録画像データと一致する顔画像と判別された人物を操作者に設定する。その後、ジェスチャを検出する手順(図4のステップS3参照)へ進む。   In step S25, the person determined as the face image matching the registered image data in step S23 is set as the operator. Thereafter, the process proceeds to a procedure for detecting a gesture (see step S3 in FIG. 4).

こうすれば、特定の人物のジェスチャのみを検出し、撮像装置を制御することができる。   In this way, only the gesture of a specific person can be detected and the imaging device can be controlled.

また、撮像装置は、登録画像データに順位を予め設定することで、最も操作者とすべき優先順位が高い人物のジェスチャを最優先で検出し、この人物が検出できない場合に、次に操作者とすべき優先順位が高い人物のジェスチャを検出し、検出したジェスチャに応じた変更制御を実行してもよい。   Further, the imaging device detects the gesture of the person with the highest priority to be the operator by setting the order in the registered image data in advance, and if this person cannot be detected, the operator next A gesture of a person with a high priority to be detected may be detected, and change control corresponding to the detected gesture may be executed.

次に、上述した手順の一部を変形した例を説明する。図6はこの例の手順を示すフローチャートである。図6では、図4に示したステップS1からステップS10と同じ手順を先に行うものであるため、これらの手順については説明せずに省略する。   Next, an example in which a part of the above procedure is modified will be described. FIG. 6 is a flowchart showing the procedure of this example. In FIG. 6, since the same procedure as step S1 to step S10 shown in FIG. 4 is performed first, these procedures will not be described and will be omitted.

ステップS31において、図4のステップS11と同じように、撮像指示の後、ジェスチャ検出用撮像部が操作者を検出する動作を行っているか否かを判別する。ジェスチャ検出用撮像部が操作者を検出する動作を行っているか場合には、ステップS32へ進む。ジェスチャ検出用撮像部が操作者を検出する動作を行っていない場合には、ステップS34へ進む。   In step S31, as in step S11 of FIG. 4, after the imaging instruction, it is determined whether or not the gesture detection imaging unit is performing an operation of detecting the operator. If the gesture detection imaging unit is performing an operation of detecting an operator, the process proceeds to step S32. If the gesture detection imaging unit is not performing an operation of detecting the operator, the process proceeds to step S34.

ステップS32において、本撮像部の撮像範囲で取得された画像データに基づいて、AE(自動露出制御)、AF(自動焦点調節)、AWB(オートホワイトバランス)のうち少なくとも1つを実行する。その後、撮像を実行するステップへ進む。   In step S32, at least one of AE (automatic exposure control), AF (automatic focus adjustment), and AWB (auto white balance) is executed based on the image data acquired in the imaging range of the main imaging unit. Then, it progresses to the step which performs imaging.

ステップS34において、2つの撮像部それぞれの撮像範囲で取得された画像データに基づいて、AE(自動露出制御)、AF(自動焦点調節)、AWB(オートホワイトバランス)のうち少なくとも1つを実行する。その後、本撮像を実行するステップへ進む。   In step S34, at least one of AE (automatic exposure control), AF (automatic focus adjustment), and AWB (auto white balance) is executed based on the image data acquired in the imaging ranges of the two imaging units. . Thereafter, the process proceeds to the step of executing the main imaging.

こうすれば、取得される画像データを最適化することができる。また、AE、AF、AWBの値は、スルー画、撮像制御時の画像データのいずれに適用してもよい。   In this way, the acquired image data can be optimized. Further, the values of AE, AF, and AWB may be applied to any of the through image and the image data at the time of imaging control.

次に、上述した手順の一部を変形した例を説明する。図7はこの例の手順を示すフローチャートである。図7では、ジェスチャを検出する手順以降のフローについては、図4に記載したものと同じであるため、記載せず省略している。   Next, an example in which a part of the above procedure is modified will be described. FIG. 7 is a flowchart showing the procedure of this example. In FIG. 7, the flow after the procedure for detecting a gesture is the same as that described in FIG.

先ず、ステップS41において、上記例と同様にジェスチャ検出部によって操作者の検出を開始する。そして、ステップS42へ進む。   First, in step S41, detection of an operator is started by the gesture detection unit as in the above example. Then, the process proceeds to step S42.

ステップS42において、顔検出によって検出された顔画像と予め登録された登録画像データと比較し、操作者として認識できるか否かを判別する。操作者として認識できる場合には、ステップS43へ進む。操作者として認識できない場合には、撮像範囲には操作者が含まれていないと判断して、ステップS44へ進む。操作者の認識に用いる画像データは、2つの撮像部のうちいずれで取得されたものでもよい。   In step S42, the face image detected by the face detection is compared with registered image data registered in advance, and it is determined whether or not the operator can be recognized. If it can be recognized as an operator, the process proceeds to step S43. If the operator cannot be recognized, it is determined that the operator is not included in the imaging range, and the process proceeds to step S44. The image data used for operator recognition may be acquired by either of the two imaging units.

ステップS43において、登録画像データと一致する顔画像の人物を操作者に設定する。そして、ジェスチャを検出するステップ(図4のステップS2)へ進む。   In step S43, a person whose face image matches the registered image data is set as the operator. And it progresses to the step (step S2 of FIG. 4) which detects a gesture.

ステップS44では、ステップS42で検出された被写体には操作者が含まれていないと判断された結果をうけ、現在の撮像範囲で取得した画像データより以前の画像データに操作者が検出されていたかを判別する。この例では、画像データを1コマとしたとき、過去の100コマから操作者を検出したか否かを判別する。過去の画像データと、操作者の検出の有無とに関する情報は、メインメモリ16に記録されたものを読み出す。過去の100コマから操作者を検出した場合には、操作者が撮像範囲から外れたと判断し、ステップS45へ進む。過去の100コマから操作者を検出できなかった場合には、ステップS42へ戻る。なお、コマ数ではなく、所定時間前から現時点までに撮像された画像データにおける操作者の検出の有無から、操作者が撮像範囲に含まれているか否かを判別してもよい。   In step S44, based on the result determined that the operator detected in step S42 does not include the operator, was the operator detected in image data before the image data acquired in the current imaging range? Is determined. In this example, when the image data is one frame, it is determined whether or not an operator is detected from the past 100 frames. Information recorded in the main memory 16 is read as information regarding past image data and whether or not the operator has detected. If an operator is detected from the past 100 frames, it is determined that the operator has gone out of the imaging range, and the process proceeds to step S45. If the operator cannot be detected from the past 100 frames, the process returns to step S42. Note that it may be determined whether or not the operator is included in the imaging range based on the presence or absence of the operator's detection in the image data captured from a predetermined time before the current time, instead of the number of frames.

ステップS45において、警告動作を実行する。警告動作としてはタリーを点滅させる方法や、表示部23に表示を行う方法などがある。警告動作は、操作者が検出不可能と判断してから所定時間経過後に行われることが望ましい。   In step S45, a warning operation is executed. The warning operation includes a method of blinking a tally and a method of displaying on the display unit 23. The warning operation is desirably performed after a predetermined time has elapsed since the operator determined that the detection was impossible.

図8は、図7の手順の一部を変形した例を示すフローチャートである。図8はこの例の手順を示すフローチャートである。この例においてステップS51〜S54は、図7の手順のステップS41〜S44と同じであるため、ここでは説明せずに省略する。   FIG. 8 is a flowchart showing an example in which a part of the procedure of FIG. 7 is modified. FIG. 8 is a flowchart showing the procedure of this example. In this example, steps S51 to S54 are the same as steps S41 to S44 in the procedure of FIG.

ステップS55では、ステップS54で現在の撮像範囲で取得した画像データより以前の画像データに操作者が検出されていたという判別の結果をうけ、操作者を探すカメラ動作を実行する。操作者を探すカメラ動作は、例えば、撮像範囲変更部によって2つ撮像部のうち少なくとも一方の撮像範囲を変更する。   In step S55, a camera operation for searching for an operator is executed based on the determination result that the operator has been detected in the image data before the image data acquired in the current imaging range in step S54. In the camera operation for searching for an operator, for example, at least one of the two imaging units is changed by the imaging range changing unit.

こうすれば、撮像装置は、撮像範囲に操作者が含まれなくなったと判断したとき場合に、操作者を撮像範囲に含むように制御が行われる。   In this way, when the imaging apparatus determines that the operator is no longer included in the imaging range, control is performed so that the operator is included in the imaging range.

図9は、上記の手順の一部を変形した例を示すフローチャートである。   FIG. 9 is a flowchart showing an example in which a part of the above procedure is modified.

先ず、ステップS61において、上述の例の手順と同様に操作者を検出する。そして、ステップS62へ進む。   First, in step S61, an operator is detected in the same manner as in the above-described example. Then, the process proceeds to step S62.

ステップS62において、取得した画像データから、撮像範囲と認識された操作者との位置関係に応じて、検出した操作者が所定の位置にいるか判別する。画像データは、本撮像部とジェスチャ検出用撮像部とのいずれから取得されたものでもよい。撮像範囲が中央領域と該中央領域を囲むように端部領域が設定されている場合に、該端部領域を所定の位置として設定する。検出した操作者が撮像範囲の端部領域に含まれるときには、ステップS63へ進む。検出した操作者が撮像範囲の中央領域に含まれるときには、ジェスチャを検出する手順(図4のステップS3参照)へ進む。   In step S62, it is determined from the acquired image data whether the detected operator is at a predetermined position according to the positional relationship with the operator recognized as the imaging range. The image data may be acquired from either the main imaging unit or the gesture detection imaging unit. When the imaging region is set so as to surround the central region and the central region, the end region is set as a predetermined position. When the detected operator is included in the end region of the imaging range, the process proceeds to step S63. When the detected operator is included in the central region of the imaging range, the process proceeds to a procedure for detecting a gesture (see step S3 in FIG. 4).

ステップS63において、操作者が撮像範囲の中央領域に含まれるように、撮像範囲変更部によって撮像部の撮像範囲を変更する。こうして、変更された撮像範囲に中央領域に操作者が含まれる。   In step S63, the imaging range changing unit changes the imaging range of the imaging unit so that the operator is included in the central region of the imaging range. Thus, the operator is included in the central area in the changed imaging range.

こうすれば、操作者が撮像範囲に含まれなくなることを未然に防ぐことができる。   In this way, it is possible to prevent the operator from being included in the imaging range.

図10は、上記の手順の一部を変形した例を示すフローチャートである。図10では、図4に示したステップS1からステップS10と同じ手順を先に行うものであるため、これらの手順については説明せずに省略する。この手順では、前提として、先に撮像指示があったものとする。   FIG. 10 is a flowchart showing an example in which a part of the above procedure is modified. In FIG. 10, since the same procedure as step S1 to step S10 shown in FIG. 4 is performed first, these procedures will not be described and will be omitted. In this procedure, it is assumed that an imaging instruction has been given first.

ステップ71において、ジェスチャ検出用撮像部によって操作者を検出する動作が行われているか否かを判別する。ジェスチャ検出用撮像部によって操作者を検出する動作が行われている場合には、ステップS72へ進む。ジェスチャ検出用撮像部によって操作者を検出する動作が行われていない場合には、ステップS76へ進む。   In step 71, it is determined whether or not an operation for detecting the operator is performed by the gesture detection imaging unit. When the operation for detecting the operator is performed by the gesture detection imaging unit, the process proceeds to step S72. When the operation for detecting the operator is not performed by the gesture detection imaging unit, the process proceeds to step S76.

ステップS72において、ジェスチャ検出用撮像部で撮像を行い、画像データを取得し、記録する。その後、ステップS73へ進む。   In step S72, an image is captured by the gesture detection imaging unit, and image data is acquired and recorded. Thereafter, the process proceeds to step S73.

ステップS73において、撮像制御部33は、ジェスチャ検出用撮像部の撮像範囲を、本撮像部と同様にジェスチャに応じて変更する制御を行う。その後、ステップS74へ進む。   In step S <b> 73, the imaging control unit 33 performs control to change the imaging range of the gesture detection imaging unit in accordance with the gesture, similarly to the main imaging unit. Thereafter, the process proceeds to step S74.

ステップS74において、2つの撮像部それぞれが、ジェスチャに応じて変更制御された撮像範囲で撮像する。そして、取得された画像データが記録される。その後、ステップS75へ進む。   In step S74, each of the two imaging units captures an image within an imaging range that is change-controlled according to the gesture. The acquired image data is recorded. Thereafter, the process proceeds to step S75.

ステップS75において、撮像制御を行った後で、ジェスチャ検出用撮像部の撮像範囲を操作者が含まれる範囲に変更する。そして、フローを終了する。   In step S75, after performing imaging control, the imaging range of the gesture detection imaging unit is changed to a range in which the operator is included. Then, the flow ends.

ステップS76では、2つの撮像部のそれぞれの撮像範囲がジェスチャに応じた変更制御によって変更されたものであると判断し、撮像制御部33の撮像制御によって2つの撮像部で撮像を行う。取得された2つ画像データは、それぞれ記録される。そして、フローを終了する。   In step S76, it is determined that the respective imaging ranges of the two imaging units have been changed by the change control according to the gesture, and imaging is performed by the two imaging units by the imaging control of the imaging control unit 33. The two acquired image data are recorded respectively. Then, the flow ends.

こうすれば、ジェスチャ検出用撮像部で操作者を検出する動作をおこなっている状態と、2つの撮像部がともにジェスチャに応じて変更制御されている状態とで、それぞれ撮像を行い、画像データを取得、記録でき、撮像時の状況がわかりやすくなる。   In this way, the image is captured in the state in which the operation for detecting the operator is performed in the gesture detection imaging unit, and in the state in which the two imaging units are both changed and controlled according to the gesture, and the image data is acquired. Can be acquired and recorded, making it easier to understand the situation at the time of imaging.

次に、本発明の変形例を説明する。
上述の例では、撮像装置は、2つの撮像部のうち一方の撮像部で取得した画像データに基づく画像を表示する表示部を備えた構成としたが、表示部を備えていない構成とすることもできる。撮像装置に通知手段として機能するLEDが設けられていれば、光学ズームを行った場合に2つ撮像部のいずれかの撮像範囲内に操作者が含まれなくなるときに、LEDを点滅させることで、操作者に撮像部の撮像範囲内に操作者が含まれなくなったことを通知することができる。
Next, a modified example of the present invention will be described.
In the above example, the imaging device is configured to include a display unit that displays an image based on image data acquired by one of the two imaging units. However, the imaging device is configured not to include a display unit. You can also. If the imaging device is provided with an LED that functions as a notification means, when the optical zoom is performed, the LED blinks when the operator is not included in one of the imaging ranges of the two imaging units. The operator can be notified that the operator is no longer included in the imaging range of the imaging unit.

LEDを備えた撮像装置の動作例を説明する。
先ず、上述の例と同様に操作者のジェスチャを検出する。そして、ジェスチャに基づく光学ズームを行った場合に撮像部の撮像範囲内に操作者が含まれなくなるとき、複数の撮像部のうち少なくとも1つで電子ズームを実行して操作者の検出を継続する。このとき、LEDを点滅させるなどの手段によって、電子ズームを実行していることを操作者に通知する。
An example of the operation of the imaging apparatus provided with the LED will be described.
First, the operator's gesture is detected as in the above example. When an optical zoom based on a gesture is performed, when the operator is not included in the imaging range of the imaging unit, at least one of the plurality of imaging units performs electronic zoom and continues to detect the operator. . At this time, the operator is notified that the electronic zoom is being executed by means such as blinking the LED.

撮像装置は、外部表示装置(例えばテレビジョン)と接続可能なインターフェースを備え、撮像部で取得される画像データに基づく画像を、外部表示装置に表示可能であってもよい。複数の撮像部を備え、外部表示装置に接続された撮像装置では、通常時には複数の撮像部それぞれで操作者を撮像し、2つの撮像部のいずれか1つから取得される画像を外部表示装置に表示させることができる。光学ズームを行った場合に撮像部の撮像範囲内に操作者が含まれなくなるときには、2つの撮像部のうち一方の撮像部を電子ズームに切り替えることで操作者を撮像できる状態を維持する。このとき、外部表示装置には、記録される画像を表示させるか、又は、操作者を表示させることができる。例えば、撮像範囲に複数の人物が存在し、そのうち不特定の人物が操作者となる場合には、異なる撮像範囲の2つの撮像部のうち一方の撮像部を操作者のジェスチャを検出する電子ズームに切り換え、電子ズームに切り換えられた撮像部で撮像された画像を外部表示装置に表示させることができる。   The imaging device may include an interface that can be connected to an external display device (for example, a television), and may be able to display an image based on image data acquired by the imaging unit on the external display device. In an imaging apparatus including a plurality of imaging units and connected to an external display device, an operator is usually imaged by each of the plurality of imaging units, and an image acquired from one of the two imaging units is displayed on the external display device Can be displayed. When the optical zoom is performed and the operator is not included in the imaging range of the imaging unit, one of the two imaging units is switched to the electronic zoom to maintain a state where the operator can be imaged. At this time, the recorded image can be displayed or the operator can be displayed on the external display device. For example, when there are a plurality of persons in an imaging range and an unspecified person is an operator, an electronic zoom that detects an operator's gesture in one imaging unit of two imaging units in different imaging ranges The image captured by the image capturing unit switched to the electronic zoom can be displayed on the external display device.

本明細書は、以下の事項を開示する。
(1)操作者のジェスチャに応じた撮像を行う撮像装置であって、
所定の撮像範囲の画像データを取得する複数の撮像部と、
前記複数の撮像部のそれぞれの撮像方向と撮像画角の少なくとも一方を個別に変更して前記撮像範囲を変更する撮像範囲変更部と、
前記複数の撮像部のうちのいずれか1つの撮像部が取得した前記画像データから、前記操作者のジェスチャを検出するジェスチャ検出部と、
検出されたジェスチャに応じて、記録すべき撮像範囲の変更制御、及び前記複数の撮像部に対する撮影指示を含む撮像制御を行う撮像制御部と、を備え、
前記撮像制御部は、前記記録すべき撮像範囲の変更制御に際して、前記撮影範囲変更手段を制御して、前記複数の撮像部のうちの一部の撮像部である本撮像部の撮影範囲を、前記ジェスチャ検出部で検出したジェスチャに応じて変更させるとともに、前記本撮像部の撮像範囲から前記操作者が含まれなくなる場合は、当該本撮像部以外の撮像部の撮像範囲の変更を前記操作者が含まれる範囲に制限する撮像装置。
(2)(1)に記載の撮像装置であって、
前記複数の撮像部のうちのいずれか1つの撮像部で取得した前記画像データに基づいて、前記記録すべき撮像範囲に対応する画像を表示する表示部を備え、
前記複数の撮像部のうちの1つの撮像部で取得した前記画像データに基づいて、前記記録すべき撮像範囲に対応する画像を前記表示部に表示させる撮像装置。
(3)(1)又は(2)に記載の撮像装置であって、
前記撮像制御部は、前記本撮像部以外の前記撮像部の撮像範囲を前記ジェスチャに応じて変更して前記撮像制御を行う撮像装置。
(4)(1)から(3)のいずれか1つに記載の撮像装置であって、
前記撮像制御部は、前記撮像制御を行った後で、前記本撮像部以外の前記撮像部の撮像範囲を前記操作者が含まれる範囲に変更する撮像装置。
(5)(1)から(4)のいずれか1つに記載の撮像装置であって、
前記ジェスチャ検出部は、取得した前記画像データに顔検出及び顔認識を行うことで前記操作者を決定する撮像装置。
(6)(1)から(5)のいずれか1つに記載の撮像装置であって、
前記ジェスチャ検出部は、取得した前記画像データから複数の被写体を検出し、前記複数の被写体と予め登録された登録画像データとを比較して前記操作者とすべき優先順位を決定し、該優先順位に基づいて前記操作者を設定する撮像装置。
(7)(1)から(6)のいずれか1つに記載の撮像装置であって、
前記本撮像部で取得された前記画像データに基づいて、自動露出制御、自動焦点調節、オートホワイトバランスのうち少なくとも1つを行う撮像装置。
(8)(1)から(7)のいずれか1つに記載の撮像装置であって、
前記ジェスチャ検出部において前記画像データから前記操作者が検出されない場合に、警告を行う撮像装置。
(9)(1)から(8)のいずれか1つに記載の撮像装置であって、
前記ジェスチャ検出部において前記画像データから前記操作者が検出されない場合に、前記本撮像部以外の撮像部の前記撮像範囲を変更する撮像装置。
(10)(1)から(9)のいずれか1つに記載の撮像装置であって、
取得した前記画像データから、撮像範囲と認識された前記操作者との位置関係に応じて、前記撮像範囲を変更する撮像装置。
(11)(1)から(10)のいずれか1つに記載の撮像装置であって、
前記撮像制御部は、撮像指示に応じて、前記本撮像部及び前記本撮像部以外の撮像部のみによる撮像と、前記本撮像部以外の前記撮像部の撮像範囲を前記ジェスチャに応じて変更して前記複数の撮像部で行う撮像と、を制御する撮像装置。
(12)操作者のジェスチャに応じた撮像を行う撮像装置の撮像方法であって、
所定の撮像範囲の画像データを複数の撮像部から取得するステップと、
前記複数の撮像部のそれぞれの撮像方向と撮像画角の少なくとも一方を個別に変更して前記撮像範囲を撮像範囲変更部によって変更するステップと、
前記複数の撮像部のうちのいずれか1つの撮像部が取得した前記画像データから、前記操作者のジェスチャをジェスチャ検出部によって検出するステップと、
検出されたジェスチャに応じて、記録すべき撮像範囲の変更制御、及び前記複数の撮像部に対する撮影指示を含む撮像制御を撮像制御部によって行うステップと、を含み、
前記撮像制御部によって、前記記録すべき撮像範囲の変更制御に際して、前記撮影範囲変更手段を制御して、前記複数の撮像部のうちの少なくとも1つの撮像部である本撮像部の撮影範囲を、前記ジェスチャ検出部で検出したジェスチャに応じて変更させるとともに、前記本撮像部の撮像範囲から前記操作者が含まれなくなる場合は、当該本撮像部以外の撮像部の撮像範囲の変更を前記操作者が含まれる範囲に制限し、
前記本撮像部のうちの1つの撮像部で取得した画像データに基づいて、前記記録すべき撮像範囲に対応する画像を前記表示部に表示させる撮像方法。
(13)(12)に記載の撮像方法であって、
前記複数の撮像部のうちの一部の撮像部で取得した画像データに基づいて、記録すべき撮像範囲に対応する画像を表示部に表示するステップを含み、該ステップでは、前記本撮像部のうちの1つの撮像部で取得した画像データに基づいて、前記記録すべき撮像範囲に対応する画像を前記表示部に表示させる撮像方法。
(14)(12)又は(13)に記載の撮像方法であって、
前記撮像制御部は、前記本撮像部以外の前記撮像部の撮像範囲を前記ジェスチャに応じて変更して前記撮像制御を行う撮像方法。
(15)(12)から(14)のいずれか1つに記載の撮像方法であって、
前記撮像制御部は、前記撮像制御を行った後で、前記本撮像部以外の前記撮像部の撮像範囲を前記操作者が含まれる範囲に変更する撮像方法。
(16)(12)から(15)のいずれか1つに記載の撮像方法であって、
前記ジェスチャ検出部は、取得した前記画像データに顔検出及び顔認識を行うことで前記操作者を決定する撮像方法。
(17)(12)から(16)のいずれか1つに記載の撮像方法であって、
前記ジェスチャ検出部は、取得した前記画像データから複数の被写体を検出し、前記複数の被写体と予め登録された登録画像データとを比較して前記操作者とすべき優先順位を決定し、該優先順位に基づいて前記操作者を設定する撮像方法。
(18)(12)から(17)のいずれか1つに記載の撮像方法であって、
前記本撮像部で取得された前記画像データに基づいて、自動露出制御、自動焦点調節、オートホワイトバランスのうち少なくとも1つを行う撮像方法。
(19)(12)から(18)のいずれか1つに記載の撮像方法であって、
前記ジェスチャ検出部において前記画像データから前記操作者が検出されない場合に、警告を行う撮像方法。
(20)(12)から(19)のいずれか1つに記載の撮像方法であって、
前記ジェスチャ検出部において前記画像データから前記操作者が検出されない場合に、前記本撮像部以外の撮像部の前記撮像範囲を変更する撮像方法。
(21)(12)から(20)のいずれか1つに記載の撮像方法であって、
取得した前記画像データから、撮像範囲と認識された前記操作者との位置関係に応じて、前記撮像範囲を変更する撮像方法。
(22)(12)から(21)のいずれか1項に記載の撮像方法であって、
前記撮像制御部は、撮像指示に応じて、前記本撮像部及び前記本撮像部以外の撮像部のみによる撮像と、前記本撮像部以外の前記撮像部の撮像範囲を前記ジェスチャに応じて変更して前記複数の撮像部で行う撮像と、を制御する撮像方法。
This specification discloses the following matters.
(1) An imaging device that performs imaging according to an operator's gesture,
A plurality of imaging units for acquiring image data of a predetermined imaging range;
An imaging range changing unit for changing the imaging range by individually changing at least one of the imaging direction and the imaging angle of view of each of the plurality of imaging units;
A gesture detection unit that detects the gesture of the operator from the image data acquired by any one of the plurality of imaging units;
An imaging control unit that performs imaging control including change control of an imaging range to be recorded and imaging instructions for the plurality of imaging units according to the detected gesture;
The imaging control unit controls the imaging range changing unit when changing the imaging range to be recorded, and sets the imaging range of the main imaging unit, which is a part of the plurality of imaging units, When the operator is not included from the imaging range of the main imaging unit, the imaging range of the imaging unit other than the main imaging unit is changed when the operator is changed according to the gesture detected by the gesture detection unit. Imaging device limited to a range including.
(2) The imaging apparatus according to (1),
A display unit for displaying an image corresponding to the imaging range to be recorded based on the image data acquired by any one of the plurality of imaging units;
An imaging apparatus that causes the display unit to display an image corresponding to the imaging range to be recorded based on the image data acquired by one imaging unit of the plurality of imaging units.
(3) The imaging apparatus according to (1) or (2),
The imaging apparatus that performs the imaging control by changing an imaging range of the imaging unit other than the main imaging unit according to the gesture.
(4) The imaging apparatus according to any one of (1) to (3),
The imaging device that changes the imaging range of the imaging unit other than the main imaging unit to a range including the operator after performing the imaging control.
(5) The imaging apparatus according to any one of (1) to (4),
The said gesture detection part is an imaging device which determines the said operator by performing face detection and face recognition to the acquired said image data.
(6) The imaging apparatus according to any one of (1) to (5),
The gesture detection unit detects a plurality of subjects from the acquired image data, compares the plurality of subjects with registered image data registered in advance, determines a priority order for the operator, and determines the priority. An imaging device that sets the operator based on the order.
(7) The imaging apparatus according to any one of (1) to (6),
An imaging apparatus that performs at least one of automatic exposure control, automatic focus adjustment, and auto white balance based on the image data acquired by the main imaging unit.
(8) The imaging apparatus according to any one of (1) to (7),
An imaging device that issues a warning when the operator is not detected from the image data in the gesture detection unit.
(9) The imaging apparatus according to any one of (1) to (8),
An imaging apparatus that changes the imaging range of an imaging unit other than the main imaging unit when the operator is not detected from the image data in the gesture detection unit.
(10) The imaging apparatus according to any one of (1) to (9),
An imaging apparatus that changes the imaging range from the acquired image data in accordance with a positional relationship with the operator recognized as the imaging range.
(11) The imaging apparatus according to any one of (1) to (10),
The imaging control unit changes an imaging range of only the imaging unit other than the main imaging unit and the main imaging unit and an imaging range of the imaging unit other than the main imaging unit according to the gesture according to an imaging instruction. An imaging device that controls imaging performed by the plurality of imaging units.
(12) An imaging method of an imaging apparatus that performs imaging according to an operator's gesture,
Acquiring image data of a predetermined imaging range from a plurality of imaging units;
Changing at least one of the imaging direction and the imaging angle of view of each of the plurality of imaging units individually and changing the imaging range by the imaging range changing unit;
Detecting a gesture of the operator by a gesture detection unit from the image data acquired by any one of the plurality of imaging units;
A step of performing an imaging control including an imaging range change control to be recorded and an imaging instruction for the plurality of imaging units by the imaging control unit according to the detected gesture,
When changing the imaging range to be recorded by the imaging control unit, the imaging range changing means is controlled, and the imaging range of the main imaging unit, which is at least one imaging unit among the plurality of imaging units, When the operator is not included from the imaging range of the main imaging unit, the imaging range of the imaging unit other than the main imaging unit is changed when the operator is changed according to the gesture detected by the gesture detection unit. To a range that includes
An imaging method for causing the display unit to display an image corresponding to the imaging range to be recorded, based on image data acquired by one of the main imaging units.
(13) The imaging method according to (12),
A step of displaying an image corresponding to an imaging range to be recorded on a display unit based on image data acquired by some imaging units of the plurality of imaging units, wherein the step includes: An imaging method for causing the display unit to display an image corresponding to the imaging range to be recorded based on image data acquired by one of the imaging units.
(14) The imaging method according to (12) or (13),
The imaging method in which the imaging control unit performs the imaging control by changing an imaging range of the imaging unit other than the main imaging unit according to the gesture.
(15) The imaging method according to any one of (12) to (14),
The imaging method, wherein the imaging control unit changes the imaging range of the imaging unit other than the main imaging unit to a range including the operator after performing the imaging control.
(16) The imaging method according to any one of (12) to (15),
The gesture detection unit is an imaging method in which the operator is determined by performing face detection and face recognition on the acquired image data.
(17) The imaging method according to any one of (12) to (16),
The gesture detection unit detects a plurality of subjects from the acquired image data, compares the plurality of subjects with registered image data registered in advance, determines a priority order for the operator, and determines the priority. An imaging method for setting the operator based on ranking.
(18) The imaging method according to any one of (12) to (17),
An imaging method for performing at least one of automatic exposure control, automatic focus adjustment, and auto white balance based on the image data acquired by the main imaging unit.
(19) The imaging method according to any one of (12) to (18),
An imaging method for giving a warning when the operator is not detected from the image data in the gesture detection unit.
(20) The imaging method according to any one of (12) to (19),
An imaging method for changing the imaging range of an imaging unit other than the main imaging unit when the operator is not detected from the image data in the gesture detection unit.
(21) The imaging method according to any one of (12) to (20),
An imaging method for changing the imaging range in accordance with a positional relationship with the operator recognized as an imaging range from the acquired image data.
(22) The imaging method according to any one of (12) to (21),
The imaging control unit changes an imaging range of only the imaging unit other than the main imaging unit and the main imaging unit and an imaging range of the imaging unit other than the main imaging unit according to the gesture according to an imaging instruction. An imaging method for controlling imaging performed by the plurality of imaging units.

11 システム制御部
31 画像認識部
32 動作検出部
33 撮像制御部
11 System Control Unit 31 Image Recognition Unit 32 Motion Detection Unit 33 Imaging Control Unit

Claims (22)

操作者のジェスチャに応じた撮像を行う撮像装置であって、
所定の撮像範囲の画像データを取得する複数の撮像部と、
前記複数の撮像部のそれぞれの撮像方向と撮像画角の少なくとも一方を個別に変更して前記撮像範囲を変更する撮像範囲変更部と、
前記複数の撮像部のうちのいずれか1つの撮像部が取得した前記画像データから、前記操作者のジェスチャを検出するジェスチャ検出部と、
検出されたジェスチャに応じて、記録すべき撮像範囲の変更制御、及び前記複数の撮像部に対する撮影指示を含む撮像制御を行う撮像制御部と、を備え、
前記撮像制御部は、前記記録すべき撮像範囲の変更制御に際して、前記撮影範囲変更手段を制御して、前記複数の撮像部のうちの一部の撮像部である本撮像部の撮影範囲を、前記ジェスチャ検出部で検出したジェスチャに応じて変更させるとともに、前記本撮像部の撮像範囲から前記操作者が含まれなくなる場合は、当該本撮像部以外の撮像部の撮像範囲の変更を前記操作者が含まれる範囲に制限する撮像装置。
An imaging device that performs imaging according to an operator's gesture,
A plurality of imaging units for acquiring image data of a predetermined imaging range;
An imaging range changing unit for changing the imaging range by individually changing at least one of the imaging direction and the imaging angle of view of each of the plurality of imaging units;
A gesture detection unit that detects the gesture of the operator from the image data acquired by any one of the plurality of imaging units;
An imaging control unit that performs imaging control including change control of an imaging range to be recorded and imaging instructions for the plurality of imaging units according to the detected gesture;
The imaging control unit controls the imaging range changing unit when changing the imaging range to be recorded, and sets the imaging range of the main imaging unit, which is a part of the plurality of imaging units, When the operator is not included from the imaging range of the main imaging unit, the imaging range of the imaging unit other than the main imaging unit is changed when the operator is changed according to the gesture detected by the gesture detection unit. Imaging device limited to a range including.
請求項1に記載の撮像装置であって、
前記複数の撮像部のうちのいずれか1つの撮像部で取得した前記画像データに基づいて、前記記録すべき撮像範囲に対応する画像を表示する表示部を備え、
前記複数の撮像部のうちの1つの撮像部で取得した前記画像データに基づいて、前記記録すべき撮像範囲に対応する画像を前記表示部に表示させる撮像装置。
The imaging apparatus according to claim 1,
A display unit for displaying an image corresponding to the imaging range to be recorded based on the image data acquired by any one of the plurality of imaging units;
An imaging apparatus that causes the display unit to display an image corresponding to the imaging range to be recorded based on the image data acquired by one imaging unit of the plurality of imaging units.
請求項1又は2に記載の撮像装置であって、
前記撮像制御部は、前記本撮像部以外の前記撮像部の撮像範囲を前記ジェスチャに応じて変更して前記撮像制御を行う撮像装置。
The imaging apparatus according to claim 1 or 2,
The imaging apparatus that performs the imaging control by changing an imaging range of the imaging unit other than the main imaging unit according to the gesture.
請求項1から3のいずれか1項に記載の撮像装置であって、
前記撮像制御部は、前記撮像制御を行った後で、前記本撮像部以外の前記撮像部の撮像範囲を前記操作者が含まれる範囲に変更する撮像装置。
The imaging apparatus according to any one of claims 1 to 3,
The imaging device that changes the imaging range of the imaging unit other than the main imaging unit to a range including the operator after performing the imaging control.
請求項1から4のいずれか1項に記載の撮像装置であって、
前記ジェスチャ検出部は、取得した前記画像データに顔検出及び顔認識を行うことで前記操作者を決定する撮像装置。
The imaging apparatus according to any one of claims 1 to 4, wherein:
The said gesture detection part is an imaging device which determines the said operator by performing face detection and face recognition to the acquired said image data.
請求項1から5のいずれか1項に記載の撮像装置であって、
前記ジェスチャ検出部は、取得した前記画像データから複数の被写体を検出し、前記複数の被写体と予め登録された登録画像データとを比較して前記操作者とすべき優先順位を決定し、該優先順位に基づいて前記操作者を設定する撮像装置。
The imaging apparatus according to any one of claims 1 to 5,
The gesture detection unit detects a plurality of subjects from the acquired image data, compares the plurality of subjects with registered image data registered in advance, determines a priority order for the operator, and determines the priority. An imaging device that sets the operator based on the order.
請求項1から6のいずれか1項に記載の撮像装置であって、
前記本撮像部で取得された前記画像データに基づいて、自動露出制御、自動焦点調節、オートホワイトバランスのうち少なくとも1つを行う撮像装置。
The imaging device according to any one of claims 1 to 6,
An imaging apparatus that performs at least one of automatic exposure control, automatic focus adjustment, and auto white balance based on the image data acquired by the main imaging unit.
請求項1から7のいずれか1項に記載の撮像装置であって、
前記ジェスチャ検出部において前記画像データから前記操作者が検出されない場合に、警告を行う撮像装置。
The imaging apparatus according to any one of claims 1 to 7,
An imaging device that issues a warning when the operator is not detected from the image data in the gesture detection unit.
請求項1から8のいずれか1項に記載の撮像装置であって、
前記ジェスチャ検出部において前記画像データから前記操作者が検出されない場合に、前記本撮像部以外の撮像部の前記撮像範囲を変更する撮像装置。
The imaging apparatus according to any one of claims 1 to 8,
An imaging apparatus that changes the imaging range of an imaging unit other than the main imaging unit when the operator is not detected from the image data in the gesture detection unit.
請求項1から9のいずれか1項に記載の撮像装置であって、
取得した前記画像データから、撮像範囲と認識された前記操作者との位置関係に応じて、前記撮像範囲を変更する撮像装置。
The imaging apparatus according to any one of claims 1 to 9,
An imaging apparatus that changes the imaging range from the acquired image data in accordance with a positional relationship with the operator recognized as the imaging range.
請求項1から10のいずれか1項に記載の撮像装置であって、
前記撮像制御部は、撮像指示に応じて、前記本撮像部及び前記本撮像部以外の撮像部のみによる撮像と、前記本撮像部以外の前記撮像部の撮像範囲を前記ジェスチャに応じて変更して前記複数の撮像部で行う撮像と、を制御する撮像装置。
It is an imaging device given in any 1 paragraph of Claims 1-10,
The imaging control unit changes an imaging range of only the imaging unit other than the main imaging unit and the main imaging unit and an imaging range of the imaging unit other than the main imaging unit according to the gesture according to an imaging instruction. An imaging device that controls imaging performed by the plurality of imaging units.
操作者のジェスチャに応じた撮像を行う撮像装置の撮像方法であって、
所定の撮像範囲の画像データを複数の撮像部から取得するステップと、
前記複数の撮像部のそれぞれの撮像方向と撮像画角の少なくとも一方を個別に変更して前記撮像範囲を撮像範囲変更部によって変更するステップと、
前記複数の撮像部のうちのいずれか1つの撮像部が取得した前記画像データから、前記操作者のジェスチャをジェスチャ検出部によって検出するステップと、
検出されたジェスチャに応じて、記録すべき撮像範囲の変更制御、及び前記複数の撮像部に対する撮影指示を含む撮像制御を撮像制御部によって行うステップと、を含み、
前記撮像制御部によって、前記記録すべき撮像範囲の変更制御に際して、前記撮影範囲変更手段を制御して、前記複数の撮像部のうちの少なくとも1つの撮像部である本撮像部の撮影範囲を、前記ジェスチャ検出部で検出したジェスチャに応じて変更させるとともに、前記本撮像部の撮像範囲から前記操作者が含まれなくなる場合は、当該本撮像部以外の撮像部の撮像範囲の変更を前記操作者が含まれる範囲に制限し、
前記本撮像部のうちの1つの撮像部で取得した画像データに基づいて、前記記録すべき撮像範囲に対応する画像を前記表示部に表示させる撮像方法。
An imaging method of an imaging device that performs imaging according to an operator's gesture,
Acquiring image data of a predetermined imaging range from a plurality of imaging units;
Changing at least one of the imaging direction and the imaging angle of view of each of the plurality of imaging units individually and changing the imaging range by the imaging range changing unit;
Detecting a gesture of the operator by a gesture detection unit from the image data acquired by any one of the plurality of imaging units;
A step of performing an imaging control including an imaging range change control to be recorded and an imaging instruction for the plurality of imaging units by the imaging control unit according to the detected gesture,
When changing the imaging range to be recorded by the imaging control unit, the imaging range changing means is controlled, and the imaging range of the main imaging unit, which is at least one imaging unit among the plurality of imaging units, When the operator is not included from the imaging range of the main imaging unit, the imaging range of the imaging unit other than the main imaging unit is changed when the operator is changed according to the gesture detected by the gesture detection unit. To a range that includes
An imaging method for causing the display unit to display an image corresponding to the imaging range to be recorded, based on image data acquired by one of the main imaging units.
請求項12に記載の撮像方法であって、
前記複数の撮像部のうちの一部の撮像部で取得した画像データに基づいて、記録すべき撮像範囲に対応する画像を表示部に表示するステップを含み、該ステップでは、前記本撮像部のうちの1つの撮像部で取得した画像データに基づいて、前記記録すべき撮像範囲に対応する画像を前記表示部に表示させる撮像方法。
The imaging method according to claim 12, comprising:
A step of displaying an image corresponding to an imaging range to be recorded on a display unit based on image data acquired by some imaging units of the plurality of imaging units, wherein the step includes: An imaging method for causing the display unit to display an image corresponding to the imaging range to be recorded based on image data acquired by one of the imaging units.
請求項12又は13に記載の撮像方法であって、
前記撮像制御部は、前記本撮像部以外の前記撮像部の撮像範囲を前記ジェスチャに応じて変更して前記撮像制御を行う撮像方法。
The imaging method according to claim 12 or 13,
The imaging method in which the imaging control unit performs the imaging control by changing an imaging range of the imaging unit other than the main imaging unit according to the gesture.
請求項12から14のいずれか1項に記載の撮像方法であって、
前記撮像制御部は、前記撮像制御を行った後で、前記本撮像部以外の前記撮像部の撮像範囲を前記操作者が含まれる範囲に変更する撮像方法。
The imaging method according to any one of claims 12 to 14,
The imaging method, wherein the imaging control unit changes the imaging range of the imaging unit other than the main imaging unit to a range including the operator after performing the imaging control.
請求項12から15のいずれか1項に記載の撮像方法であって、
前記ジェスチャ検出部は、取得した前記画像データに顔検出及び顔認識を行うことで前記操作者を決定する撮像方法。
The imaging method according to any one of claims 12 to 15,
The gesture detection unit is an imaging method in which the operator is determined by performing face detection and face recognition on the acquired image data.
請求項12から16のいずれか1項に記載の撮像方法であって、
前記ジェスチャ検出部は、取得した前記画像データから複数の被写体を検出し、前記複数の被写体と予め登録された登録画像データとを比較して前記操作者とすべき優先順位を決定し、該優先順位に基づいて前記操作者を設定する撮像方法。
The imaging method according to any one of claims 12 to 16, comprising:
The gesture detection unit detects a plurality of subjects from the acquired image data, compares the plurality of subjects with registered image data registered in advance, determines a priority order for the operator, and determines the priority. An imaging method for setting the operator based on ranking.
請求項12から17のいずれか1項に記載の撮像方法であって、
前記本撮像部で取得された前記画像データに基づいて、自動露出制御、自動焦点調節、オートホワイトバランスのうち少なくとも1つを行う撮像方法。
The imaging method according to any one of claims 12 to 17,
An imaging method for performing at least one of automatic exposure control, automatic focus adjustment, and auto white balance based on the image data acquired by the main imaging unit.
請求項12から18のいずれか1項に記載の撮像方法であって、
前記ジェスチャ検出部において前記画像データから前記操作者が検出されない場合に、警告を行う撮像方法。
The imaging method according to any one of claims 12 to 18, comprising:
An imaging method for giving a warning when the operator is not detected from the image data in the gesture detection unit.
請求項12から19のいずれか1項に記載の撮像方法であって、
前記ジェスチャ検出部において前記画像データから前記操作者が検出されない場合に、前記本撮像部以外の撮像部の前記撮像範囲を変更する撮像方法。
The imaging method according to any one of claims 12 to 19,
An imaging method for changing the imaging range of an imaging unit other than the main imaging unit when the operator is not detected from the image data in the gesture detection unit.
請求項12から20のいずれか1項に記載の撮像方法であって、
取得した前記画像データから、撮像範囲と認識された前記操作者との位置関係に応じて、前記撮像範囲を変更する撮像方法。
The imaging method according to any one of claims 12 to 20,
An imaging method for changing the imaging range in accordance with a positional relationship with the operator recognized as an imaging range from the acquired image data.
請求項12から21のいずれか1項に記載の撮像方法であって、
前記撮像制御部は、撮像指示に応じて、前記本撮像部及び前記本撮像部以外の撮像部のみによる撮像と、前記本撮像部以外の前記撮像部の撮像範囲を前記ジェスチャに応じて変更して前記複数の撮像部で行う撮像と、を制御する撮像方法。
The imaging method according to any one of claims 12 to 21,
The imaging control unit changes an imaging range of only the imaging unit other than the main imaging unit and the main imaging unit and an imaging range of the imaging unit other than the main imaging unit according to the gesture according to an imaging instruction. An imaging method for controlling imaging performed by the plurality of imaging units.
JP2010148389A 2010-06-29 2010-06-29 Imaging device and imaging method Pending JP2012015661A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010148389A JP2012015661A (en) 2010-06-29 2010-06-29 Imaging device and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010148389A JP2012015661A (en) 2010-06-29 2010-06-29 Imaging device and imaging method

Publications (1)

Publication Number Publication Date
JP2012015661A true JP2012015661A (en) 2012-01-19

Family

ID=45601605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010148389A Pending JP2012015661A (en) 2010-06-29 2010-06-29 Imaging device and imaging method

Country Status (1)

Country Link
JP (1) JP2012015661A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013223244A (en) * 2012-04-13 2013-10-28 Samsung Electronics Co Ltd Camera apparatus and control method thereof
JP2014021760A (en) * 2012-07-19 2014-02-03 Canon Inc Control device, control method, and control program
CN103645834A (en) * 2013-11-04 2014-03-19 白振辉 Light and shadow music device
JP2015526930A (en) * 2012-06-01 2015-09-10 ウルトラデント プロダクツ インク. Stereo video imaging
US10154775B2 (en) 2010-12-02 2018-12-18 Ultradent Products, Inc. Stereoscopic video imaging and tracking system
JP2021002799A (en) * 2019-06-24 2021-01-07 日本電産コパル株式会社 Imaging device
WO2021181519A1 (en) * 2020-03-10 2021-09-16 日本電気株式会社 Photographing control device, system, method, and non-transitory computer readable medium storing program thereon

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10716460B2 (en) 2010-12-02 2020-07-21 Ultradent Products, Inc. Stereoscopic video imaging and tracking system
US10154775B2 (en) 2010-12-02 2018-12-18 Ultradent Products, Inc. Stereoscopic video imaging and tracking system
US9654685B2 (en) 2012-04-13 2017-05-16 Samsung Electronics Co., Ltd Camera apparatus and control method thereof
JP2013223244A (en) * 2012-04-13 2013-10-28 Samsung Electronics Co Ltd Camera apparatus and control method thereof
JP2018174536A (en) * 2012-06-01 2018-11-08 ウルトラデント プロダクツ インク. Stereoscopic video imaging
US10021351B2 (en) 2012-06-01 2018-07-10 Ultradent Products, Inc. Stereoscopic video imaging
JP2015526930A (en) * 2012-06-01 2015-09-10 ウルトラデント プロダクツ インク. Stereo video imaging
US11856178B2 (en) 2012-06-01 2023-12-26 Ultradent Products, Inc. Stereoscopic video imaging
JP2014021760A (en) * 2012-07-19 2014-02-03 Canon Inc Control device, control method, and control program
CN103645834A (en) * 2013-11-04 2014-03-19 白振辉 Light and shadow music device
JP2021002799A (en) * 2019-06-24 2021-01-07 日本電産コパル株式会社 Imaging device
JP7366601B2 (en) 2019-06-24 2023-10-23 ニデックプレシジョン株式会社 Imaging device
WO2021181519A1 (en) * 2020-03-10 2021-09-16 日本電気株式会社 Photographing control device, system, method, and non-transitory computer readable medium storing program thereon

Similar Documents

Publication Publication Date Title
JP5963422B2 (en) Imaging apparatus, display apparatus, computer program, and stereoscopic image display system
JP5346266B2 (en) Image processing apparatus, camera, and image processing method
US9025044B2 (en) Imaging device, display method, and computer-readable recording medium
JP5371845B2 (en) Imaging apparatus, display control method thereof, and three-dimensional information acquisition apparatus
JP2012015661A (en) Imaging device and imaging method
JPWO2012001975A1 (en) Apparatus, method, and program for determining obstacle in imaging area at the time of imaging for stereoscopic display
JP2010081010A (en) Three-dimensional imaging device, method and program
US9332245B2 (en) Stereoscopic image display device, stereoscopic image display method, and non-transitory computer-readable recording medium
JP5899629B2 (en) Imaging device
JP5874192B2 (en) Image processing apparatus, image processing method, and program
US20120069157A1 (en) Display apparatus
JP2016219991A (en) Image processor and control method thereof and program
JP2013123215A (en) Imaging apparatus, controller, and computer program
JP2012015660A (en) Imaging device and imaging method
JP5328528B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
US9124866B2 (en) Image output device, method, and recording medium therefor
US9094671B2 (en) Image processing device, method, and recording medium therefor
JP2013085239A (en) Imaging apparatus
JP2011030123A (en) Imaging apparatus, control method of the same, and computer program
KR20120068696A (en) Image capturing device and image capturing method
JP2017055266A (en) Imaging device and control method, program therefor, and storage medium
JP2014134723A (en) Image processing system, image processing method and program
JP2015139018A (en) Electronic apparatus and control program
JP6489876B2 (en) Imaging apparatus and control method thereof
JP2013109079A (en) Compound-eye imaging device, focusing method of the same and electronic information device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111216

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20121005