JP2011114673A - Imaging apparatus and posture control program - Google Patents

Imaging apparatus and posture control program Download PDF

Info

Publication number
JP2011114673A
JP2011114673A JP2009270297A JP2009270297A JP2011114673A JP 2011114673 A JP2011114673 A JP 2011114673A JP 2009270297 A JP2009270297 A JP 2009270297A JP 2009270297 A JP2009270297 A JP 2009270297A JP 2011114673 A JP2011114673 A JP 2011114673A
Authority
JP
Japan
Prior art keywords
image
subject
unit
posture
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009270297A
Other languages
Japanese (ja)
Inventor
Akihiko Morishita
昭彦 森下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009270297A priority Critical patent/JP2011114673A/en
Publication of JP2011114673A publication Critical patent/JP2011114673A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology by which a subject image is picked up in desired composition without using a posture control apparatus. <P>SOLUTION: The imaging apparatus includes: an imaging part which picks up the subject image to generate an image; a recognition part which recognizes first and second feature parts of the subject image from the picked up image; an extraction part which extracts feature quantities of the first and second recognized feature parts; an operation part which calculates a correction amount for correcting a posture of the imaging apparatus to a predetermined posture based on the feature quantities of the first and second feature parts and an index showing the predetermined posture of the imaging apparatus; and a control part which instructs posture control of the imaging apparatus according to the correction amount. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、所望の姿勢に制御できる撮像装置および姿勢制御プログラムに関する。   The present invention relates to an imaging apparatus and a posture control program that can be controlled to a desired posture.

従来、所望の構図で被写体像を撮像するために、ユーザに対して、デジタルカメラやデジタルビデオカメラなどの姿勢を知らせて制御させる様々な技術が開発されている。   2. Description of the Related Art Conventionally, in order to capture a subject image with a desired composition, various techniques have been developed to let a user know and control the attitude of a digital camera, a digital video camera, or the like.

例えば、特許文献1には、デジタルカメラのモニタ画面に、ジャイロセンサや重力センサなどの姿勢検出装置によって検出される角度データに応じて、デジタルカメラの姿勢の具合を、撮影者に対して直感的に把握可能に表示する技術を開示している。   For example, Japanese Patent Laid-Open No. 2004-151867 provides an intuitive view of the attitude of a digital camera on a monitor screen of a digital camera according to angle data detected by an attitude detection device such as a gyro sensor or a gravity sensor. The technology to display in a way that can be grasped is disclosed.

特開2002−271654号公報JP 2002-271654 A

しかしながら、従来技術では、デジタルカメラの姿勢を姿勢制御装置からの角度データに応じた制御は重力方向を基準にするため、例えば、被写体と撮影者との目線の高さが異なる場合、目線を互いに一致させて撮影することは困難である。このような場合、撮影者は、被写体を下から上に向かって撮影(あおり撮影)、または、上から下に向かって撮影(俯瞰撮影)してしまう。   However, in the conventional technology, since the control of the posture of the digital camera according to the angle data from the posture control device is based on the direction of gravity, for example, when the heights of the eyes of the subject and the photographer are different from each other, It is difficult to shoot with matching. In such a case, the photographer shoots the subject from bottom to top (tilting) or from top to bottom (overhead shooting).

上記従来技術が有する問題に鑑み、本発明の目的は、姿勢制御装置を用いることなく、所望の構図で被写体像を撮像できる技術を提供することにある。   SUMMARY OF THE INVENTION In view of the above-described problems of the related art, an object of the present invention is to provide a technique that can capture a subject image with a desired composition without using an attitude control device.

上記課題を解決するために、本発明の撮像装置は、被写体像を撮像して画像を生成する撮像部と、撮像した画像から被写体像の第1の特徴部位および第2の特徴部位を認識する認識部と、認識された第1の特徴部位および第2の特徴部位の特徴量を抽出する抽出部と、第1の特徴部位および第2の特徴部位の特徴量と撮像装置の所定の姿勢を示す指標とに基づいて撮像装置の姿勢を所定の姿勢に補正するための補正量を算出する演算部と、補正量に応じて撮像装置の姿勢制御を指示する制御部と、を備える。   In order to solve the above-described problems, an imaging apparatus according to the present invention recognizes a first feature part and a second feature part of a subject image from the imaged unit that captures the subject image and generates the image. A recognition unit, an extraction unit for extracting feature amounts of the recognized first feature portion and second feature portion, a feature amount of the first feature portion and the second feature portion, and a predetermined posture of the imaging device. And a control unit that calculates a correction amount for correcting the posture of the imaging apparatus to a predetermined posture based on the indicated index, and a control unit that instructs posture control of the imaging device according to the correction amount.

また、制御部による撮像装置の姿勢制御の指示を表示する表示部を備えてもよい。   In addition, a display unit that displays an instruction for attitude control of the imaging apparatus by the control unit may be provided.

また、制御部による撮像装置の姿勢制御の指示を外部に音声で出力する音声出力部を備えてもよい。   In addition, an audio output unit that outputs an instruction to control the attitude of the imaging apparatus by the control unit to the outside may be provided.

また、演算部は、認識部の認識結果に応じて指標を変更する変更部をさらに備えてもよい。   In addition, the calculation unit may further include a changing unit that changes the index according to the recognition result of the recognition unit.

また、演算部は、補正量に応じて撮像装置が所定の姿勢に制御されて被写体像を撮像する場合の補正画像を算出し、制御部は、表示部に補正画像を撮像した画像に重畳して表示させて撮像装置の姿勢制御を指示してもよい。   In addition, the calculation unit calculates a correction image when the imaging apparatus is controlled in a predetermined posture according to the correction amount and captures a subject image, and the control unit superimposes the correction image on the image obtained by capturing the correction image. May be displayed to instruct posture control of the imaging apparatus.

また、認識部が複数の被写体像を認識する場合、少なくとも1つの被写体像を選択する選択部を備え、演算部は、選択部によって選択された被写体像の第1の特徴部位および第2の特徴部位の特徴量に基づいて補正量および補正画像を算出してもよい。   In addition, when the recognition unit recognizes a plurality of subject images, the recognition unit includes a selection unit that selects at least one subject image, and the calculation unit includes a first feature portion and a second feature of the subject image selected by the selection unit. The correction amount and the correction image may be calculated based on the feature amount of the part.

また、演算部は、選択された被写体像が複数の場合、複数の選択された被写体像の第1の特徴部位および第2の特徴部位の特徴量の平均値を求めて、平均値に基づいて補正量および補正画像を算出してもよい。   In addition, when there are a plurality of selected subject images, the calculation unit obtains an average value of the feature amounts of the first feature portion and the second feature portion of the plurality of selected subject images, and based on the average value A correction amount and a corrected image may be calculated.

本発明の姿勢制御プログラムは、コンピュータに、被写体像を撮像した画像から被写体像の第1の特徴部位および第2の特徴部位を認識する認識手順と、認識された第1の特徴部位および第2の特徴部位の特徴量を抽出する抽出手順と、第1の特徴部位および第2の特徴部位の特徴量と撮像装置の所定の姿勢を示す指標とに基づいて撮像装置の姿勢を所定の姿勢に補正するための補正量を算出する演算手順と、補正量に応じて撮像装置の姿勢制御を指示する制御手順と、を実行させる。   The posture control program of the present invention causes a computer to recognize a first feature part and a second feature part of a subject image from an image obtained by capturing the subject image, and the recognized first feature part and second feature part. The posture of the imaging device is set to a predetermined posture based on the extraction procedure for extracting the feature amount of the feature portion, the feature amounts of the first feature portion and the second feature portion, and an index indicating the predetermined posture of the imaging device A calculation procedure for calculating a correction amount for correction and a control procedure for instructing attitude control of the imaging apparatus according to the correction amount are executed.

本発明によれば、姿勢制御装置を用いることなく、所望の構図で被写体像を撮像できる。   According to the present invention, it is possible to capture a subject image with a desired composition without using an attitude control device.

一の実施形態のデジタルカメラ1の構成の一例を示すブロック図The block diagram which shows an example of a structure of the digital camera 1 of one Embodiment. 身長比A:Bについての図Figure about height ratio A: B 一の実施形態のデジタルカメラ1の動作例を示す流れ図5 is a flowchart showing an operation example of the digital camera 1 according to the embodiment. 一の実施形態のデジタルカメラ1と被写体との位置関係を示す図The figure which shows the positional relationship of the digital camera 1 of 1 embodiment and a to-be-photographed object. 台形補正についての図Illustration about keystone correction 一の実施形態のデジタルカメラ1における表示例を示す図The figure which shows the example of a display in the digital camera 1 of one Embodiment. 他の実施形態のデジタルカメラ1’の構成の一例を示すブロック図The block diagram which shows an example of a structure of the digital camera 1 'of other embodiment. 他の実施形態のデジタルカメラ1’の動作例を示す流れ図Flow chart showing an operation example of a digital camera 1 ′ according to another embodiment. 他の実施形態のデジタルカメラ1’によって撮像されたスルー画30を示す図The figure which shows the through image 30 imaged with the digital camera 1 'of other embodiment. 他の実施形態のデジタルカメラ1’における表示例を示す図The figure which shows the example of a display in the digital camera 1 'of other embodiment.

《一の実施形態の説明》
図1は、一の実施形態に係るデジタルカメラ1の構成の一例を示すブロック図である。
<< Description of One Embodiment >>
FIG. 1 is a block diagram illustrating an example of a configuration of a digital camera 1 according to an embodiment.

本実施形態のデジタルカメラ1は、撮像光学系11、撮像素子12、DFE13、CPU14、メモリ15、スピーカ16、モニタ17、メディアI/F18および操作部20を有する。ここで、DFE13、メモリ15、スピーカ16、モニタ17、メディアI/F18および操作部20は、それぞれCPU14に接続されている。   The digital camera 1 according to the present embodiment includes an imaging optical system 11, an imaging element 12, a DFE 13, a CPU 14, a memory 15, a speaker 16, a monitor 17, a media I / F 18, and an operation unit 20. Here, the DFE 13, the memory 15, the speaker 16, the monitor 17, the media I / F 18, and the operation unit 20 are connected to the CPU 14, respectively.

撮像素子12は、撮像光学系11を通過した光束による被写体の結像を撮像するデバイスである。この撮像素子12の出力はDFE13に接続されている。なお、本実施形態の撮像素子12は、順次走査方式の固体撮像素子(CCDなど)であってもよく、XYアドレス方式の固体撮像素子(CMOSなど)であってもよい。   The image pickup device 12 is a device that picks up an image of an object formed by a light beam that has passed through the image pickup optical system 11. The output of the image sensor 12 is connected to the DFE 13. Note that the image sensor 12 of the present embodiment may be a progressive scanning solid-state image sensor (CCD or the like) or an XY address type solid-state image sensor (CMOS or the like).

撮像素子12の受光面には、複数の受光素子がマトリックス状に配列されている。撮像素子12の各受光素子には、赤色(R)、緑色(G)、青色(B)のカラーフィルタが公知のベイヤ配列にしたがって配置されている。そのため、撮像素子12の各受光素子は、カラーフィルタでの色分解によってそれぞれの色に対応する画像信号を出力する。これにより、撮像素子12は、撮像時にカラーの画像を取得できる。撮像素子12は、全受光素子に画像信号を出力させて静止画像などを撮像するとともに、間引かれた一部の受光素子に画像信号を出力させて動画や構図確認用の低解像画像(スルー画)などを撮像する。   A plurality of light receiving elements are arranged in a matrix on the light receiving surface of the imaging element 12. In each light receiving element of the image sensor 12, red (R), green (G), and blue (B) color filters are arranged according to a known Bayer array. Therefore, each light receiving element of the imaging element 12 outputs an image signal corresponding to each color by color separation in the color filter. Thereby, the image sensor 12 can acquire a color image at the time of imaging. The image sensor 12 outputs image signals to all the light receiving elements to pick up still images and the like, and outputs image signals to some of the thinned light receiving elements to output moving images and low resolution images for composition confirmation ( Through image).

DFE13は、撮像素子12から入力される画像信号のA/D変換や、欠陥画素補正などの信号処理を行うデジタルフロントエンド回路である。このDFE13は、本実施形態において撮像素子12とともに撮像部を構成し、撮像素子12より入力される画像信号を画像のデータとしてCPU14に出力する。   The DFE 13 is a digital front-end circuit that performs signal processing such as A / D conversion of image signals input from the image sensor 12 and correction of defective pixels. In this embodiment, the DFE 13 constitutes an image pickup unit together with the image pickup device 12 and outputs an image signal input from the image pickup device 12 to the CPU 14 as image data.

CPU14は、デジタルカメラ1の各部を統括的に制御するプロセッサである。例えば、CPU14は、撮像素子12の出力に基づいて、公知のコントラスト検出によるオートフォーカス(AF)制御や公知の自動露出(AE)演算などをそれぞれ実行する。また、CPU14は、DEF13からの画像データに対して、デジタル処理を施す。一例として、デジタル処理には、補間処理、ホワイトバランス処理、階調変換処理、ノイズ除去処理、輪郭強調処理、色変換処理(色変換マトリクスでの演算など)などが含まれる。さらに、CPU14は、プログラムの実行により、被写体認識部21、被写体抽出部22、演算部23、変更部24として動作する。   The CPU 14 is a processor that comprehensively controls each unit of the digital camera 1. For example, the CPU 14 performs autofocus (AF) control by known contrast detection, known automatic exposure (AE) calculation, and the like based on the output of the image sensor 12. Further, the CPU 14 performs digital processing on the image data from the DEF 13. As an example, the digital processing includes interpolation processing, white balance processing, gradation conversion processing, noise removal processing, contour enhancement processing, color conversion processing (such as calculation using a color conversion matrix), and the like. Further, the CPU 14 operates as a subject recognition unit 21, a subject extraction unit 22, a calculation unit 23, and a change unit 24 by executing the program.

被写体認識部21は、公知の顔認識の方法を用い、撮像された画像から被写体の顔を認識する。また、被写体認識部21は、公知のエッジ検出に基づいて画像から被写体の全身を認識する。   The subject recognition unit 21 recognizes the face of the subject from the captured image using a known face recognition method. The subject recognition unit 21 recognizes the whole body of the subject from the image based on known edge detection.

特徴量抽出部22は、被写体認識部21によって認識された被写体の特徴部位である顔のサイズA’および身長B’を求める(図2)。図2(a)に示すように、本実施形態における顔のサイズA’とは、頭部から下顎までの長さであり、身長B’とは、頭部から足下までの長さB’である。なお、図2(a)は、図2(b)の人物を上から下に向かって見た図であり、図2(b)は、同じ目線の高さで人物を正面から見た図である。また、本実施形態では、顔のサイズA’および身長B’をピクセル単位で求めるが、画角に対する相対値で求めてもよい。   The feature amount extraction unit 22 obtains a face size A ′ and a height B ′, which are feature parts of the subject recognized by the subject recognition unit 21 (FIG. 2). As shown in FIG. 2A, the face size A ′ in the present embodiment is the length from the head to the lower jaw, and the height B ′ is the length B ′ from the head to the feet. is there. 2A is a view of the person in FIG. 2B from the top to the bottom, and FIG. 2B is a view of the person from the front at the same eye level. is there. In the present embodiment, the face size A ′ and the height B ′ are obtained in units of pixels, but may be obtained as relative values with respect to the angle of view.

演算部23は、顔のサイズA’と身長B’との比と、後述する身長比表に基づいて設定される身長比A:Bとを用いてキーストン補正などの公知の台形補正を行い、デジタルカメラ1のあおり量または俯瞰量を算出する。演算部23は、被写体である人物が身長比A:Bの値で撮像されるために、求めたあおり量または俯瞰量に応じて、デジタルカメラ1の姿勢を補正する補正量を算出する。   The calculation unit 23 performs known trapezoidal correction such as keystone correction using the ratio between the face size A ′ and the height B ′ and the height ratio A: B set based on the height ratio table described later. The tilt amount or overhead view amount of the digital camera 1 is calculated. The calculation unit 23 calculates a correction amount for correcting the posture of the digital camera 1 in accordance with the obtained tilt amount or overhead view amount so that the person who is the subject is imaged with the height ratio A: B.

ここで、身長比A:Bとは、図2(b)に示すように、人物を人物と同じ高さの目線で正面から見た時の顔の大きさAと身長Bとの比率である。つまり、被写体の身長比がA’:B’=A:Bとなる場合、デジタルカメラ1が被写体と同じ高さの目線の位置に配置されたことを示す。本実施形態では、身長比A:Bをデジタルカメラ1の所定の姿勢を示す指標として用いる。この身長比A:Bを、被写体である人物の年齢に応じて一覧にしたものが身長比表である。身長比表のデータの一例として、乳児の身長比A:B=1:3、幼児は3:10、小学生は2:9、中学生は1:5、成人は1:6などである。   Here, the height ratio A: B is a ratio between the face size A and the height B when a person is viewed from the front with the same height as the person as shown in FIG. . That is, when the height ratio of the subject is A ′: B ′ = A: B, it indicates that the digital camera 1 is disposed at the position of the line of sight that is the same height as the subject. In the present embodiment, the height ratio A: B is used as an index indicating a predetermined posture of the digital camera 1. The height ratio table is a list of the height ratios A: B according to the age of the person who is the subject. As an example of the data of the height ratio table, infant height ratio A: B = 1: 3, infants 3:10, elementary school students 2: 9, junior high school students 1: 5, and adults 1: 6.

なお、身長比表のデータは、操作部20の操作に応じて、撮影者であるユーザにより設定・変更できるのが好ましい。また、本実施形態では、被写体認識部21が人物の上半身のみ撮像されたと認識した場合、身長Bを頭部から画像の下端までの上半身の長さとする身長比表もメモリ15に記憶されているものとする。変更部24は、被写体認識部21から被写体の上半身を認識したとの結果を受信した場合、身長比A:Bとして顔のサイズ:上半身の長さとする身長比表を読み込み、例えば、成人の身長比A:Bとして、1:6から1:3に設定・変更する。   It is preferable that the data of the height ratio table can be set / changed by the user who is the photographer in accordance with the operation of the operation unit 20. In the present embodiment, when the subject recognition unit 21 recognizes that only the upper body of the person has been imaged, a height ratio table in which the height B is the length of the upper body from the head to the lower end of the image is also stored in the memory 15. Shall. When the change unit 24 receives the result of recognizing the upper body of the subject from the subject recognition unit 21, the change unit 24 reads the height ratio table with the face size: the upper body length as the height ratio A: B. The ratio A: B is set / changed from 1: 6 to 1: 3.

メモリ15は、CPU14によって実行される各種のプログラムや画像ファイルなどとともに、上記身長比表を記憶する不揮発性のフラッシュメモリである。   The memory 15 is a non-volatile flash memory that stores the height ratio table together with various programs and image files executed by the CPU 14.

スピーカ16は、演算部23が求めた補正量に応じて、CPU14によるデジタルカメラ1の姿勢制御の指示を音声で出力してユーザに知らせる。   The speaker 16 outputs a voice control instruction of the digital camera 1 by the CPU 14 according to the correction amount obtained by the calculation unit 23 and notifies the user.

モニタ17は、撮像された画像などとともに、演算部23が求めた補正量に応じて、CPU14によるデジタルカメラ1の姿勢制御の指示を表示する。   The monitor 17 displays an instruction for attitude control of the digital camera 1 by the CPU 14 according to the correction amount obtained by the calculation unit 23 together with the captured image and the like.

メディアI/F18には、不揮発性の記憶媒体19を着脱可能に接続できる。そして、メディアI/F18は、記憶媒体19に対してデータの書き込み/読み込みを実行する。上記の記憶媒体19は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記憶媒体19の一例としてメモリカードを図示する。   A non-volatile storage medium 19 can be detachably connected to the media I / F 18. The media I / F 18 executes data writing / reading with respect to the storage medium 19. The storage medium 19 includes a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 1, a memory card is illustrated as an example of the storage medium 19.

操作部20は、例えば、記録モードの切換入力や、記憶媒体19への記録を伴う静止画像の撮像指示などをユーザから受け付ける。操作部20には、モニタ17の前面に配置されるタッチパネルなどを適宜選択して用いることができる。   The operation unit 20 receives, for example, a recording mode switching input or a still image capturing instruction accompanying recording in the storage medium 19 from the user. For the operation unit 20, a touch panel or the like disposed on the front surface of the monitor 17 can be appropriately selected and used.

次に、図3の流れ図を参照しつつ、本実施形態におけるデジタルカメラ1の動作例を説明する。なお、デジタルカメラ1は、最初、図4(a)に示すような俯瞰の状態の姿勢であるとし、デジタルカメラ1を被写体と同じ目線の高さに姿勢制御する場合について説明する。また、被写体は成人として、ユーザによる操作部20の操作によって、あらかじめ成人の身長比A:B=1:6に設定されているものとする。   Next, an operation example of the digital camera 1 in the present embodiment will be described with reference to the flowchart of FIG. It is assumed that the digital camera 1 is initially in a bird's-eye posture as shown in FIG. 4A, and the case where the posture of the digital camera 1 is controlled to the same eye level as the subject will be described. Further, it is assumed that the subject is an adult, and the adult height ratio A: B = 1: 6 is set in advance by the operation of the operation unit 20 by the user.

ステップS101:CPU14は、ユーザにより操作部20の電源釦が押され、またはレリーズ釦が半押しされるなどによって、デジタルカメラ1の電力を投入する。CPU14は、メモリ15から制御プログラムを読み込み実行して、デジタルカメラ1を初期化する。CPU14は、撮像素子12に、所定のフレームレート(例えば、30fpsなど)でスルー画30を撮像させ取得する。CPU14は、スルー画30をモニタ17に表示する(図4(b))。   Step S101: The CPU 14 turns on the power of the digital camera 1 when the user presses the power button of the operation unit 20 or presses the release button halfway. The CPU 14 reads and executes a control program from the memory 15 to initialize the digital camera 1. The CPU 14 causes the imaging device 12 to capture and acquire the through image 30 at a predetermined frame rate (for example, 30 fps). The CPU 14 displays the through image 30 on the monitor 17 (FIG. 4B).

ステップS102:被写体認識部21は、公知の顔認識の方法によって、スルー画30から被写体の顔を認識する。CPU14は、被写体認識部21によって被写体の顔が認識されたか否かを判定する。顔認識された場合、CPU14は、ステップS103(YES側)へ移行する。顔認識されなかった場合、CPU14は、ステップS101(NO側)へ移行して、次のスルー画30を取得する。   Step S102: The subject recognition unit 21 recognizes the face of the subject from the through image 30 by a known face recognition method. The CPU 14 determines whether or not the subject recognition unit 21 has recognized the face of the subject. When the face is recognized, the CPU 14 proceeds to step S103 (YES side). If the face is not recognized, the CPU 14 proceeds to step S101 (NO side) and acquires the next through image 30.

ステップS103:特徴量抽出部22は、スルー画30のうち、ステップS102おいて、顔認識された画像領域で下顎と頭部とのエッジを検出し、顔のサイズA’を抽出する。   Step S103: The feature amount extraction unit 22 detects the edge between the lower jaw and the head in the image region of the through image 30 in which the face is recognized in Step S102, and extracts the face size A ′.

ステップS104:被写体認識部21は、公知のエッジ検出に基づいてスルー画30から被写体の全身を認識する。具体的に、被写体認識部21は、例えば、ステップS102において顔認識された画像領域の真下に足下があるとして、スルー画30の下端に向かって足下のエッジを探索する。被写体認識部21は、スルー画30の下端に到達するまでに、足下のエッジを検出した場合、被写体の全身を検出したと認識する。一方、被写体認識部21は、足下のエッジを検出する前にスルー画30の下端に到達した場合、被写体の上半身を検出したと認識する。   Step S104: The subject recognition unit 21 recognizes the whole body of the subject from the through image 30 based on known edge detection. Specifically, the subject recognizing unit 21 searches for the edge of the foot toward the lower end of the through image 30 on the assumption that the foot is immediately below the image area whose face is recognized in step S102. The subject recognition unit 21 recognizes that the entire body of the subject has been detected when the edge of the foot is detected before reaching the lower end of the through image 30. On the other hand, the subject recognizing unit 21 recognizes that the upper body of the subject has been detected when it reaches the lower end of the through image 30 before detecting the bottom edge.

ステップS105:CPU14は、被写体認識部21によって被写体の全身が認識された場合、ステップS106(YES側)へ移行する。全身が認識されなかった場合、CPU14は、ステップS107(NO側)へ移行する。   Step S105: When the subject recognition unit 21 recognizes the whole body of the subject, the CPU 14 proceeds to step S106 (YES side). When the whole body is not recognized, the CPU 14 proceeds to step S107 (NO side).

ステップS106:特徴量抽出部22は、ステップS103おいて検出された頭部のエッジとステップS104おいて検出された足下のエッジとの位置に基づいて、身長A’を抽出する。   Step S106: The feature amount extraction unit 22 extracts the height A 'based on the positions of the head edge detected in step S103 and the foot edge detected in step S104.

ステップS107:特徴量抽出部22は、ステップS103おいて検出された頭部のエッジの位置からスルー画30の下端までの長さを、身長A’(=上半身の長さ)として抽出する。変更部24は、被写体認識部21から被写体の上半身を認識したとの結果を受信する。変更部24は、身長Bを上半身の長さとする身長比表をメモリ15から読み込み、成人の身長比A:Bとして1:6から1:3に設定・変更する。   Step S107: The feature amount extraction unit 22 extracts the length from the position of the head edge detected in step S103 to the lower end of the through image 30 as the height A ′ (= the length of the upper body). The changing unit 24 receives a result indicating that the upper body of the subject has been recognized from the subject recognizing unit 21. The changing unit 24 reads the height ratio table having the height B as the upper body length from the memory 15, and sets / changes the adult height ratio A: B from 1: 6 to 1: 3.

ステップS108:演算部23は、スルー画30から求めた被写体の身長比A’:B’と身長比表からの身長比A:Bとを用いてキーストン補正などの公知の台形補正を行い、デジタルカメラ1の俯瞰量(または、あおり量)を算出する。つまり、演算部23は、身長比A’:B’から身長比表からの身長比A:Bになるように、図5に示す長さU’の上底、長さD’の下底および高さB’の台形から長さUの上底、長さDの下底および高さBの台形に変換する演算係数を求める。演算部23は、求めた演算係数に基づいて、俯瞰量(または、あおり量)を求める。   Step S108: The calculation unit 23 performs known trapezoidal correction such as keystone correction using the height ratio A ′: B ′ of the subject obtained from the through image 30 and the height ratio A: B from the height ratio table, and digitally The overhead view amount (or tilt amount) of the camera 1 is calculated. That is, the calculation unit 23 sets the upper base of the length U ′, the lower base of the length D ′, and the height ratio A: B from the height ratio table to the height ratio A: B from the height ratio table. Calculation coefficients for converting a trapezoid having a height B ′ to an upper base having a length U, a lower base having a length D, and a trapezoid having a height B are obtained. The computing unit 23 obtains an overhead amount (or tilt amount) based on the obtained computation coefficient.

ステップS109:演算部23は、求めた俯瞰量(または、あおり量)から、水平方向を基準にしたデジタルカメラ1の被写体に対する角度Θを算出する。演算部23は、その角度Θと、CPU14がAF制御に基づいて算出されるデジタルカメラ1と被写体との距離Lとから、デジタルカメラ1の姿勢の補正量である移動量Xを算出する。   Step S109: The computing unit 23 calculates an angle Θ with respect to the subject of the digital camera 1 based on the horizontal direction from the obtained overhead view amount (or tilt amount). The calculation unit 23 calculates a movement amount X that is a correction amount of the attitude of the digital camera 1 from the angle Θ and the distance L between the digital camera 1 and the subject calculated by the CPU 14 based on the AF control.

ステップS110:CPU14は、ユーザに対して、ステップS109で求めた移動量Xだけデジタルカメラ1を移動させる指示を、スルー画30に重畳させてモニタ17に表示する。図6は、指示の表示例を示す。図6(a)は、移動方向を矢印40のみで示して指示する表示例である。図6(b)は、上記矢印40とともに、俯瞰量(または、あおり量)に基づいて、演算部23が台形補正して求めた被写体の輪郭を示す補正画像50を、スルー画30に重畳して指示する表示例である。図6(c)は、上記矢印40とともに、移動量Xおよび図5と同じ台形型の格子パターン60をスルー画30に重畳して指示する表示例である。   Step S110: The CPU 14 superimposes an instruction to the user to move the digital camera 1 by the movement amount X obtained in Step S109 on the through image 30, and displays it on the monitor 17. FIG. 6 shows a display example of the instruction. FIG. 6A is a display example in which the moving direction is indicated by only an arrow 40 and is indicated. 6B superimposes on the through image 30 a correction image 50 indicating the contour of the subject obtained by the keystone correction by the calculation unit 23 based on the overhead view amount (or the tilt amount) together with the arrow 40. Is a display example instructed. FIG. 6C shows a display example in which the movement amount X and the same trapezoidal lattice pattern 60 as in FIG.

なお、ユーザの注意を促すために、矢印40や移動量Xは点滅させて表示することが好ましい。また、CPU14は、ユーザに対して、ステップS109で求めた移動量Xだけデジタルカメラ1を移動させる指示を、例えば、「もう少し、カメラを下にしてください」のように、スピーカ16から音声で出力させて指示してもよい。   It should be noted that the arrow 40 and the movement amount X are preferably displayed blinking in order to call the user's attention. In addition, the CPU 14 outputs an instruction to the user to move the digital camera 1 by the movement amount X obtained in step S109, for example, from the speaker 16 by voice as “Please lower the camera a little more”. You may give instructions.

ステップS111:CPU14は、身長比A’:B’と身長比A:Bとが一致したか否かを判定する。一致した場合(YES側)、CPU14は、一連の動作を終了する。一致しない場合、CPU14は、ステップS101(NO側)へ移行する。CPU14は、次のスルー画30を取得して、ステップS101〜ステップS110の動作を、身長比A’:B’と身長比A:Bとが一致するまで行う。   Step S111: The CPU 14 determines whether or not the height ratio A ′: B ′ matches the height ratio A: B. If they match (YES side), the CPU 14 ends the series of operations. If not, the CPU 14 proceeds to step S101 (NO side). The CPU 14 acquires the next through image 30 and performs the operations in steps S101 to S110 until the height ratio A ': B' and the height ratio A: B match.

このように、本実施形態では、撮像された被写体に基づいて、デジタルカメラ1の姿勢を所定の姿勢に補正・制御することから、ジャイロセンサなどを用いることなく、所望の構図で被写体を撮像できる。   As described above, in this embodiment, since the posture of the digital camera 1 is corrected and controlled to a predetermined posture based on the photographed subject, the subject can be picked up with a desired composition without using a gyro sensor or the like. .

また、ジャイロセンサなど用いないことから、デジタルカメラ1の回路規模の小型化ができ、コスト削減を図ることができる。
《他の実施形態の説明》
図7は、他の実施形態に係るデジタルカメラ1’の構成図を示す。
Further, since no gyro sensor or the like is used, the circuit scale of the digital camera 1 can be reduced, and the cost can be reduced.
<< Description of Other Embodiments >>
FIG. 7 shows a configuration diagram of a digital camera 1 ′ according to another embodiment.

本実施形態のデジタルカメラ1’の各構成要素については、一の実施形態に係るデジタルカメラ1のものと同じ場合、同一の符号を付して説明を省略する。   In the case of the same components as those of the digital camera 1 according to the embodiment, the same reference numerals are given to the respective components of the digital camera 1 ′ of the present embodiment, and the description thereof is omitted.

本実施形態に係るデジタルカメラ1’と一の実施形態のものと異なる点は、図9に示すように、複数の被写体を撮像する場合、デジタルカメラ1’の姿勢の補正量を算出する際の基準となる人物を選択する被写体選択部25を有することにある。   The difference between the digital camera 1 ′ according to the present embodiment and that of the first embodiment is that, as shown in FIG. 9, when a plurality of subjects are imaged, the correction amount of the posture of the digital camera 1 ′ is calculated. The object selection unit 25 has a subject selection unit 25 for selecting a reference person.

図8の流れ図を参照しつつ、本実施形態におけるデジタルカメラ1’の動作例を説明する。なお、一の実施形態の場合と同様に、デジタルカメラ1’は、最初、図4(a)に示すような俯瞰の状態の姿勢であるとし、デジタルカメラ1’を被写体と同じ目線の高さに姿勢制御する場合について説明する。また、被写体は成人として、ユーザによる操作部20の操作によって、あらかじめ成人の身長比A:B=1:6に設定されているものとする。   An operation example of the digital camera 1 ′ in this embodiment will be described with reference to the flowchart of FIG. 8. As in the case of the first embodiment, it is assumed that the digital camera 1 ′ is initially in an overhead view as shown in FIG. 4A, and the digital camera 1 ′ has the same eye level as the subject. Next, the case of attitude control will be described. Further, it is assumed that the subject is an adult, and the adult height ratio A: B = 1: 6 is set in advance by the operation of the operation unit 20 by the user.

ステップS201:CPU14は、ユーザにより操作部20の電源釦が押され、またはレリーズ釦が半押しされるなどによって、デジタルカメラ1’の電力を投入する。CPU14は、メモリ15から制御プログラムを読み込み実行して、デジタルカメラ1’を初期化する。CPU14は、撮像素子12に、所定のフレームレート(例えば、30fpsなど)でスルー画30を撮像させ取得する。CPU14は、スルー画30をモニタ17に表示する(図9)。   Step S201: The CPU 14 turns on the power of the digital camera 1 'when the power button of the operation unit 20 is pressed by the user or the release button is pressed halfway. The CPU 14 reads and executes the control program from the memory 15 to initialize the digital camera 1 ′. The CPU 14 causes the imaging device 12 to capture and acquire the through image 30 at a predetermined frame rate (for example, 30 fps). The CPU 14 displays the through image 30 on the monitor 17 (FIG. 9).

ステップS202:被写体認識部21は、公知の顔認識の方法によって、スルー画30から被写体の顔を認識する。本実施形態では、被写体認識部21が複数の顔を認識することから、被写体選択部25は、ユーザに対して、補正基準の被写体として、いずれかの人物を選択させる指示をモニタ17に表示する。被写体選択部25は、ユーザによる人物の選択を、モニタ17の前面に配置され操作部20を構成するタッチパネル(不図示)を介して受信して、補正基準の被写体として設定する。なお、CPU14は、ユーザによって選択された補正基準の被写体の顔を囲うように、枠70をスルー画30に重畳させてモニタ17に表示するのが好ましい(図9)。CPU14は、被写体認識部21によって被写体の顔が認識されたか否かを判定する。顔認識された場合、CPU14は、ステップS203(YES側)へ移行する。顔認識されなかった場合、CPU14は、ステップS201(NO側)へ移行して、次のスルー画30を取得する。   Step S202: The subject recognition unit 21 recognizes the face of the subject from the through image 30 by a known face recognition method. In the present embodiment, since the subject recognition unit 21 recognizes a plurality of faces, the subject selection unit 25 displays an instruction to the user to select any person as a correction reference subject. . The subject selection unit 25 receives the selection of the person by the user via a touch panel (not shown) that is arranged on the front surface of the monitor 17 and constitutes the operation unit 20, and sets it as a correction reference subject. The CPU 14 preferably displays the frame 70 superimposed on the through image 30 on the monitor 17 so as to surround the face of the correction reference subject selected by the user (FIG. 9). The CPU 14 determines whether or not the subject recognition unit 21 has recognized the face of the subject. When the face is recognized, the CPU 14 proceeds to step S203 (YES side). If the face is not recognized, the CPU 14 proceeds to step S201 (NO side) and acquires the next through image 30.

ステップS203:特徴量抽出部22は、スルー画30のうち、ステップS202おいて、補正基準の被写体の顔認識された画像領域で下顎と頭部とのエッジを検出し、顔のサイズA’を抽出する。   Step S203: The feature amount extraction unit 22 detects the edge between the lower jaw and the head in the image area of the through image 30 in which the face of the correction reference subject is recognized in Step S202, and determines the face size A ′. Extract.

ステップS204:被写体認識部21は、公知のエッジ検出に基づいてスルー画30から補正基準の被写体の全身を認識する。具体的に、被写体認識部21は、例えば、ステップS202において補正基準の被写体の顔認識された画像領域の真下に足下があるとして、スルー画30の下端に向かって足下のエッジを探索する。被写体認識部21は、スルー画30の下端に到達するまでに、足下のエッジを検出した場合、補正基準の被写体の全身を検出したと認識する。一方、被写体認識部21は、足下のエッジを検出する前にスルー画30の下端に到達した場合、補正基準の被写体の上半身を検出したと認識する。   Step S204: The subject recognition unit 21 recognizes the whole body of the correction reference subject from the through image 30 based on known edge detection. Specifically, the subject recognizing unit 21 searches for the edge of the foot toward the lower end of the through image 30 on the assumption that there is a foot just below the image area where the face of the correction reference subject is recognized in step S202. The subject recognition unit 21 recognizes that the whole body of the correction reference subject has been detected when the bottom edge is detected before reaching the lower end of the through image 30. On the other hand, when the subject recognition unit 21 reaches the lower end of the through image 30 before detecting the bottom edge, the subject recognition unit 21 recognizes that the upper body of the correction reference subject has been detected.

ステップS205:CPU14は、被写体認識部21によって、補正基準の被写体の全身が認識された場合、ステップS206(YES側)へ移行する。全身が認識されなかった場合、CPU14は、ステップS207(NO側)へ移行する。   Step S205: When the subject recognition unit 21 recognizes the whole body of the correction reference subject, the CPU 14 proceeds to step S206 (YES side). When the whole body is not recognized, the CPU 14 proceeds to step S207 (NO side).

ステップS206:特徴量抽出部22は、ステップS203おいて検出された頭部のエッジとステップS204おいて検出された足下のエッジとの位置に基づいて、補正基準の被写体の身長A’を抽出する。   Step S206: The feature amount extraction unit 22 extracts the height A ′ of the correction reference subject based on the positions of the head edge detected in step S203 and the foot edge detected in step S204. .

ステップS207:特徴量抽出部22は、ステップS203おいて検出された頭部のエッジの位置からスルー画30の下端までの長さを、身長A’(=上半身の長さ)として抽出する。変更部24は、被写体認識部21から被写体の上半身を認識したとの結果を受信する。変更部24は、身長Bを上半身の長さとする身長比表をメモリ15から読み込み、成人の身長比A:Bとして1:6から1:3に設定・変更する。   Step S207: The feature amount extraction unit 22 extracts the length from the position of the head edge detected in step S203 to the lower end of the through image 30 as the height A ′ (= the length of the upper body). The changing unit 24 receives a result indicating that the upper body of the subject has been recognized from the subject recognizing unit 21. The changing unit 24 reads the height ratio table having the height B as the upper body length from the memory 15, and sets / changes the adult height ratio A: B from 1: 6 to 1: 3.

ステップS208:演算部23は、スルー画30から求めた補正基準の被写体の身長比A’:B’と身長比表からの身長比A:Bとを用いてキーストン補正などの公知の台形補正を行い、デジタルカメラ1’の俯瞰量(または、あおり量)を算出する。   Step S208: The calculation unit 23 performs known trapezoidal correction such as keystone correction using the height ratio A ′: B ′ of the correction reference subject obtained from the through image 30 and the height ratio A: B from the height ratio table. And calculate the overhead view amount (or tilt amount) of the digital camera 1 ′.

ステップS209:演算部23は、求めた俯瞰量(または、あおり量)から、水平方向を基準にしたデジタルカメラ1’の補正基準の被写体に対する角度Θを算出する。演算部23は、その角度Θと、CPU14がAF制御に基づいて算出されるデジタルカメラ1’と補正基準の被写体との距離Lとから、デジタルカメラ1’の姿勢の補正量である移動量Xを算出する。   Step S209: The computing unit 23 calculates an angle Θ with respect to the correction reference subject of the digital camera 1 'with respect to the horizontal direction from the obtained overhead view amount (or tilt amount). The calculation unit 23 calculates the movement amount X, which is a correction amount of the attitude of the digital camera 1 ′, from the angle Θ and the distance L between the digital camera 1 ′ calculated by the CPU 14 based on the AF control and the correction reference subject. Is calculated.

ステップS210:CPU14は、ユーザに対して、ステップS209で求めた移動量Xだけデジタルカメラ1’を移動させる指示を、スルー画30に重畳させてモニタ17に表示する。図10は、指示の表示例を示す。図10(a)は、移動方向を矢印40で示すとともに、俯瞰量(または、あおり量)に基づいて、演算部23が台形補正して求めた補正基準の被写体のみの輪郭を示す補正画像50および移動量Xを、スルー画30に重畳して指示する表示例である。図10(b)は、補正基準の被写体だけでなく、上記俯瞰量(または、あおり量)に基づいて演算部23が台形補正して求めた他の被写体の輪郭の補正画像51および52をもスルー画30に重畳して指示する表示例である。これにより、補正基準の被写体として選択されなかった被写体も所望の構図で撮像されるか否かを判定することができる。   Step S210: The CPU 14 superimposes an instruction to the user to move the digital camera 1 'by the movement amount X obtained in step S209 on the through image 30 and displays it on the monitor 17. FIG. 10 shows a display example of instructions. In FIG. 10A, the moving direction is indicated by an arrow 40, and the correction image 50 showing the outline of only the correction reference subject obtained by the keystone correction by the calculation unit 23 based on the overhead view amount (or the tilt amount). In this example, the movement amount X is indicated by being superimposed on the through image 30. FIG. 10B shows not only the correction reference subject but also corrected images 51 and 52 of the contours of other subjects obtained by the keystone correction by the calculation unit 23 based on the overhead amount (or the tilt amount). It is an example of a display instructed by being superimposed on the through image 30. This makes it possible to determine whether or not a subject that has not been selected as a correction reference subject is also captured with a desired composition.

なお、ユーザの注意を促すために、矢印40や移動量Xは点滅させて表示することが好ましい。また、CPU14は、ユーザに対して、ステップS209で求めた移動量Xだけデジタルカメラ1’を移動させる指示を、例えば、「もう少し、カメラを下にしてください」のように、スピーカ16から音声で出力させて指示してもよい。   It should be noted that the arrow 40 and the movement amount X are preferably displayed blinking in order to call the user's attention. In addition, the CPU 14 gives an instruction to the user to move the digital camera 1 ′ by the movement amount X obtained in step S209, for example, from the speaker 16 by voice as “Please lower the camera a little more”. It may be output and instructed.

ステップS211:CPU14は、身長比A’:B’と身長比A:Bとが一致したか否かを判定する。一致した場合(YES側)、CPU14は、一連の動作を終了する。一致しない場合、CPU14は、ステップS201(NO側)へ移行する。CPU14は、次のスルー画30を取得して、ステップS201〜ステップS210の動作を、身長比A’:B’と身長比A:Bとが一致するまで行う。   Step S211: The CPU 14 determines whether or not the height ratio A ': B' and the height ratio A: B match. If they match (YES side), the CPU 14 ends the series of operations. If not, the CPU 14 proceeds to step S201 (NO side). The CPU 14 acquires the next through image 30 and performs the operations in steps S201 to S210 until the height ratio A ': B' and the height ratio A: B match.

このように、本実施形態では、撮像された被写体に基づいて、デジタルカメラ1’の姿勢を所定の姿勢に補正・制御することから、ジャイロセンサなどを用いることなく、所望の構図で被写体を撮像できる。   As described above, in this embodiment, since the posture of the digital camera 1 ′ is corrected and controlled to a predetermined posture based on the photographed subject, the subject is picked up with a desired composition without using a gyro sensor or the like. it can.

また、ジャイロセンサなど用いないことから、デジタルカメラ1’の回路規模の小型化ができ、コスト削減を図ることができる。
《実施形態の補足事項》
(1)上記実施形態では、デジタルカメラの被写体認識部21、特徴量抽出部22、演算部23、変更部24、被写体選択部25の各処理を、CPU14がソフトウエア的に実現する例を説明したが、ASICを用いてこれらの各処理をハードウエア的に実現しても勿論かまわない。
Further, since no gyro sensor or the like is used, the circuit scale of the digital camera 1 ′ can be reduced, and the cost can be reduced.
<< Additional items of embodiment >>
(1) In the above embodiment, an example in which the CPU 14 implements each process of the subject recognition unit 21, the feature amount extraction unit 22, the calculation unit 23, the change unit 24, and the subject selection unit 25 of the digital camera in software is described. However, it goes without saying that each of these processes may be realized by hardware using an ASIC.

(2)上記実施形態では、被写体を人物としたが、本発明はこれに限定されず、犬や猫などの動物に対しても適用することができる。   (2) In the above embodiment, the subject is a person, but the present invention is not limited to this and can be applied to animals such as dogs and cats.

(3)上記実施形態では、デジタルカメラによる撮像の前に、被写体に応じて、あらかじめ身長比表からユーザによって身長比A:Bの値が選択・設定されるとしたが、本発明はこれに限定されない。例えば、被写体認識部21の認識結果に応じて、CPU14が身長比表から身長比A:Bを選択・設定してもよいし、変更部24が身長比A:Bの値を変更してもよい。   (3) In the above embodiment, the value of the height ratio A: B is selected and set by the user in advance from the height ratio table according to the subject before imaging by the digital camera. It is not limited. For example, the CPU 14 may select and set the height ratio A: B from the height ratio table according to the recognition result of the subject recognition unit 21, or the change unit 24 may change the value of the height ratio A: B. Good.

(4)上記実施形態では、身長比表の身長比A:Bの値は、人物を人物と同じ高さの目線で正面から見た時の顔の大きさAと身長Bとの比率であり、被写体を正面から被写体を撮像するように、デジタルカメラの姿勢を制御したが、本発明はこれに限定されない。例えば、被写体が成人であっても、成人以外の中学生などの身長比A:Bが設定して、デジタルカメラの姿勢を制御してもよい。これにより、正面からだけでなく、所望のあおり量または俯瞰量を有したあおり撮影または俯瞰撮影することができる。   (4) In the above embodiment, the value of the height ratio A: B in the height ratio table is the ratio between the face size A and the height B when the person is viewed from the front at the same height as the person. The attitude of the digital camera is controlled so that the subject is imaged from the front, but the present invention is not limited to this. For example, even if the subject is an adult, the height ratio A: B of junior high school students other than adults may be set to control the posture of the digital camera. Thereby, not only from the front but also from the front or the overhead view with the desired tilt amount or the overhead view amount.

また、身長比表のデータとして、正面からだけでなく所定のあおり量または俯瞰量を有したデータが、あらかじめ作成されデジタルカメラのメモリ15に記憶されていてもよい。   Further, as the data of the height ratio table, data having a predetermined tilt amount or a bird's-eye view amount as well as from the front may be created in advance and stored in the memory 15 of the digital camera.

(5)上記実施形態では、あおり量または俯瞰量を算出してデジタルカメラの姿勢を制御したが、本発明はこれに限定されず、デジタルカメラをパンする場合の姿勢制御に対して適用してもよい。   (5) In the above embodiment, the tilt amount or the overhead view amount is calculated to control the attitude of the digital camera. However, the present invention is not limited to this, and is applied to the attitude control when panning the digital camera. Also good.

(6)上記他の実施形態では、被写体が複数の場合、ステップS202において、補正基準の被写体として1つの被写体がユーザによって選択されたが、本発明はこれに限定されず、複数の被写体が補正基準の被写体として選択されてもよい。この場合、ステップS208において、演算部23は、選択された被写体の各々について、あおり量または俯瞰量を算出し平均値を求めることが好ましい。そして、ステップS209において、演算部23は、その平均値を用いて移動量Xや補正画像を算出する。   (6) In the above-described other embodiments, when there are a plurality of subjects, one subject is selected by the user as the correction reference subject in step S202. However, the present invention is not limited to this, and a plurality of subjects are corrected. It may be selected as a reference subject. In this case, in step S208, it is preferable that the calculation unit 23 calculates the tilt amount or the overhead amount for each of the selected subjects to obtain an average value. In step S209, the calculation unit 23 calculates the movement amount X and the corrected image using the average value.

以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図する。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。   From the above detailed description, features and advantages of the embodiments will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Further, any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and modifications, and there is no intention to limit the scope of the embodiments having the invention to those described above. It is also possible to use appropriate improvements and equivalents within the scope disclosed in.

1、1’…電子カメラ、11…撮像光学系、12…撮像素子、13…DEF、14…CPU、15…メモリ、16…スピーカ、17…モニタ、18…メディアI/F、19…記憶媒体、21…被写体認識部、22…特徴量抽出部、23…演算部、24…変更部、25…被写体選択部 DESCRIPTION OF SYMBOLS 1, 1 '... Electronic camera, 11 ... Imaging optical system, 12 ... Imaging element, 13 ... DEF, 14 ... CPU, 15 ... Memory, 16 ... Speaker, 17 ... Monitor, 18 ... Media I / F, 19 ... Storage medium , 21 ... Subject recognition unit, 22 ... Feature extraction unit, 23 ... Calculation unit, 24 ... Change unit, 25 ... Subject selection unit

Claims (8)

被写体像を撮像して画像を生成する撮像部と、
撮像した前記画像から前記被写体像の第1の特徴部位および第2の特徴部位を認識する認識部と、
認識された前記第1の特徴部位および第2の特徴部位の特徴量を抽出する抽出部と、
前記第1の特徴部位および第2の特徴部位の特徴量と撮像装置の所定の姿勢を示す指標とに基づいて前記撮像装置の姿勢を前記所定の姿勢に補正するための補正量を算出する演算部と、
前記補正量に応じて前記撮像装置の姿勢制御を指示する制御部と、
を備えることを特徴とする撮像装置。
An imaging unit that captures a subject image and generates an image;
A recognition unit for recognizing a first feature portion and a second feature portion of the subject image from the captured image;
An extraction unit for extracting feature amounts of the recognized first feature portion and second feature portion;
An operation for calculating a correction amount for correcting the posture of the imaging device to the predetermined posture based on the feature amounts of the first and second characteristic portions and an index indicating the predetermined posture of the imaging device. And
A control unit that instructs posture control of the imaging apparatus according to the correction amount;
An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記制御部による前記撮像装置の姿勢制御の指示を表示する表示部を備えることを特徴とする撮像装置。
The imaging device according to claim 1,
An image pickup apparatus comprising: a display unit that displays an instruction for attitude control of the image pickup apparatus by the control unit.
請求項1または請求項2に記載の撮像装置において、
前記制御部による前記撮像装置の姿勢制御の指示を外部に音声で出力する音声出力部を備えることを特徴とする撮像装置。
In the imaging device according to claim 1 or 2,
An image pickup apparatus comprising: an audio output unit that outputs an instruction for posture control of the image pickup apparatus by the control unit to the outside.
請求項1ないし請求項3のいずれか1項に記載の撮像装置において、
前記演算部は、前記認識部の認識結果に応じて前記指標を変更する変更部をさらに備えることを特徴とする撮像装置。
The imaging apparatus according to any one of claims 1 to 3,
The said calculating part is further provided with the change part which changes the said parameter | index according to the recognition result of the said recognition part, The imaging device characterized by the above-mentioned.
請求項2ないし請求項4のいずれか1項に記載の撮像装置において、
前記演算部は、
前記補正量に応じて前記撮像装置が前記所定の姿勢に制御されて前記被写体像を撮像する場合の補正画像を算出し、
前記制御部は、
前記表示部に前記補正画像を前記撮像した画像に重畳して表示させて前記撮像装置の姿勢制御を指示する
ことを特徴とする撮像装置。
In the imaging device according to any one of claims 2 to 4,
The computing unit is
According to the correction amount, the imaging device is controlled to the predetermined posture to calculate a correction image when the subject image is captured,
The controller is
An imaging apparatus, wherein the display unit superimposes the corrected image on the captured image and displays the corrected image to instruct posture control of the imaging apparatus.
請求項5に記載の撮像装置において、
前記認識部が複数の前記被写体像を認識する場合、少なくとも1つの被写体像を選択する選択部を備え、
前記演算部は、
前記選択部によって選択された前記被写体像の前記第1の特徴部位および第2の特徴部位の特徴量に基づいて前記補正量および前記補正画像を算出する
ことを特徴とする撮像装置。
The imaging apparatus according to claim 5,
A selection unit that selects at least one subject image when the recognition unit recognizes a plurality of the subject images;
The computing unit is
An imaging apparatus, wherein the correction amount and the correction image are calculated based on the feature amounts of the first feature portion and the second feature portion of the subject image selected by the selection unit.
請求項6に記載の撮像装置において、
前記演算部は、
前記選択された被写体像が複数の場合、複数の前記選択された被写体像の前記第1の特徴部位および第2の特徴部位の特徴量の平均値を求めて、前記平均値に基づいて前記補正量および補正画像を算出する
ことを特徴とする撮像装置。
The imaging device according to claim 6,
The computing unit is
When there are a plurality of the selected subject images, an average value of the feature amounts of the first feature portion and the second feature portion of the plurality of the selected subject images is obtained, and the correction is performed based on the average value. An imaging apparatus characterized by calculating a quantity and a corrected image.
コンピュータに、
被写体像を撮像した画像から前記被写体像の第1の特徴部位および第2の特徴部位を認識する認識手順と、
認識された前記第1の特徴部位および第2の特徴部位の特徴量を抽出する抽出手順と、
前記第1の特徴部位および第2の特徴部位の特徴量と撮像装置の所定の姿勢を示す指標とに基づいて前記撮像装置の姿勢を前記所定の姿勢に補正するための補正量を算出する演算手順と、
前記補正量に応じて前記撮像装置の姿勢制御を指示する制御手順と、
を実行させることを特徴とする姿勢制御プログラム。
On the computer,
A recognition procedure for recognizing a first feature portion and a second feature portion of the subject image from an image obtained by capturing the subject image;
An extraction procedure for extracting feature quantities of the recognized first and second feature parts;
An operation for calculating a correction amount for correcting the posture of the imaging device to the predetermined posture based on the feature amounts of the first and second characteristic portions and an index indicating the predetermined posture of the imaging device. Procedure and
A control procedure for instructing attitude control of the imaging device according to the correction amount;
A posture control program characterized by causing
JP2009270297A 2009-11-27 2009-11-27 Imaging apparatus and posture control program Withdrawn JP2011114673A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009270297A JP2011114673A (en) 2009-11-27 2009-11-27 Imaging apparatus and posture control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009270297A JP2011114673A (en) 2009-11-27 2009-11-27 Imaging apparatus and posture control program

Publications (1)

Publication Number Publication Date
JP2011114673A true JP2011114673A (en) 2011-06-09

Family

ID=44236671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009270297A Withdrawn JP2011114673A (en) 2009-11-27 2009-11-27 Imaging apparatus and posture control program

Country Status (1)

Country Link
JP (1) JP2011114673A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022074946A1 (en) * 2020-10-07 2022-04-14 株式会社Jvcケンウッド Image recognition device, image recognition method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022074946A1 (en) * 2020-10-07 2022-04-14 株式会社Jvcケンウッド Image recognition device, image recognition method, and program

Similar Documents

Publication Publication Date Title
US9025044B2 (en) Imaging device, display method, and computer-readable recording medium
JP5293206B2 (en) Image search apparatus, image search method and program
JP2011130382A (en) Image-capturing apparatus and control method therefor
US8593545B2 (en) Imaging apparatus, imaging method, and computer-readable recording medium with switched image capturing mode
JP5523213B2 (en) Imaging apparatus and imaging method
JP2008288868A (en) Imaging device and program
KR101728042B1 (en) Digital photographing apparatus and control method thereof
JP2014235224A (en) Imaging device and control program
JP4894708B2 (en) Imaging device
KR101665175B1 (en) Image acquisition apparatus,image acquisition method and recording medium
US8571404B2 (en) Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method
JP6516426B2 (en) Image pickup apparatus, image processing method and program
JP2006287814A (en) Imaging apparatus and method of determining motion vector
JP5328528B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP4807623B2 (en) Imaging apparatus, imaging method, and imaging program
JP2017050593A (en) Imaging apparatus, imaging control method and program
JP4989243B2 (en) Imaging device and subject detection method thereof
JP5278483B2 (en) Imaging apparatus, imaging method, and imaging program
JP2011114673A (en) Imaging apparatus and posture control program
JP2022036153A (en) Imaging apparatus
JP6399120B2 (en) Imaging device
JP4985716B2 (en) Imaging apparatus, method for setting focus evaluation area, and program
JP5477345B2 (en) Imaging apparatus, focusing method, and program
JP5315019B2 (en) Autofocus device, autofocus method, and imaging device
JP7271316B2 (en) Imaging device and its control method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130205