JP2015056713A - Imaging apparatus and control method - Google Patents

Imaging apparatus and control method Download PDF

Info

Publication number
JP2015056713A
JP2015056713A JP2013187936A JP2013187936A JP2015056713A JP 2015056713 A JP2015056713 A JP 2015056713A JP 2013187936 A JP2013187936 A JP 2013187936A JP 2013187936 A JP2013187936 A JP 2013187936A JP 2015056713 A JP2015056713 A JP 2015056713A
Authority
JP
Japan
Prior art keywords
unit
imaging
face
monitor
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013187936A
Other languages
Japanese (ja)
Inventor
雅也 仁平
Masaya Nihei
雅也 仁平
啓太 林
Keita Hayashi
啓太 林
賢佑 田口
Kensuke Taguchi
賢佑 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2013187936A priority Critical patent/JP2015056713A/en
Publication of JP2015056713A publication Critical patent/JP2015056713A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus and a control method capable of securing tracking control of a monitor unit.SOLUTION: The imaging apparatus includes: a first imaging unit 14 for imaging; a monitor unit 12 for displaying the image imaged by a first imaging unit 14; a main body unit 11 having the first imaging unit 14, for rotatably supporting the monitor unit 12; a drive unit 13 for changing the angle of the monitor unit 12 to the main body unit 11; a second imaging unit 15 provided for imaging the display side of the monitor unit 12, with an imaging direction changed according to the rotation angle of the monitor unit 12; a face position detection unit 402 for detecting a face image included in the imaged image captured by the second imaging unit 15; and a drive control unit 405 for controlling the drive unit 13 on the basis of the face position detected by the face position detection unit 402.

Description

本発明は、撮像装置、及びその制御方法に関する。   The present invention relates to an imaging apparatus and a control method thereof.

特許文献1には、モニタ付のビデオカメラが開示されている。例えば、特許文献1のビデオカメラでは、液晶モニタをモータによって回転させることで、ディスプレイ面が撮影者の方向に向けている。より具体的には、ビデオカメラは、加速度センサ及び角度センサを有している。そして、加速度センサ及び角度センサの出力に基づいて、モータの回転角度を制御している。   Patent Document 1 discloses a video camera with a monitor. For example, in the video camera of Patent Document 1, the display surface is directed toward the photographer by rotating the liquid crystal monitor with a motor. More specifically, the video camera has an acceleration sensor and an angle sensor. And the rotation angle of a motor is controlled based on the output of an acceleration sensor and an angle sensor.

特開2001−275019号公報JP 2001-275019 A

しかしながら、特許文献1では、加速度センサの積分値に基づいて、モータを制御しているため、正確さに欠けてしまう。すなわち、センサの測定誤差が積分されていってしまうため、撮影者の方向からずれてしまう恐れがある。さらに、処理を短時間で行うことが困難である。したがって、追従性を向上することが困難である。   However, in Patent Document 1, since the motor is controlled based on the integral value of the acceleration sensor, the accuracy is lacking. That is, since the measurement error of the sensor is integrated, there is a possibility that the sensor is deviated from the direction of the photographer. Furthermore, it is difficult to perform the processing in a short time. Therefore, it is difficult to improve followability.

本発明は上記の点に鑑みなされたもので、確実にモニタ部を追従制御することができる撮像装置、及びその制御方法を提供することを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to provide an imaging apparatus capable of reliably following-controlling a monitor unit, and a control method therefor.

本発明の一態様にかかる撮像装置は、画像を撮像する第1撮像部と、前記第1撮像部で撮像された画像を表示するモニタ部と、前記第1撮像部が設けられるとともに、前記モニタ部を回転可能に支持する本体部と、前記本体部に対する前記モニタ部の角度を変える駆動部と、前記モニタ部の表示側を撮像するために設けられ、前記モニタ部の回転角度に応じて撮像方向が変化する第2撮像部と、前記第2撮像部で撮像された撮像画像に含まれる顔画像の顔位置を検出する顔位置検出部と、前記顔位置検出部で検出された顔位置に基づいて、前記駆動部を制御する駆動制御部と、を備えるものである。   An imaging apparatus according to an aspect of the present invention includes a first imaging unit that captures an image, a monitor unit that displays an image captured by the first imaging unit, and the first imaging unit. A main body part that rotatably supports the part, a drive part that changes the angle of the monitor part with respect to the main body part, and an image that is provided to take an image of the display side of the monitor part, and that takes an image according to the rotation angle of the monitor part A second imaging unit that changes direction, a face position detection unit that detects a face position of a face image included in the captured image captured by the second imaging unit, and a face position detected by the face position detection unit. And a drive control unit for controlling the drive unit.

本発明の一態様にかかる撮像装置の制御方法は、動画像を撮像する第1撮像部と、前記第1撮像部で撮像された画像を表示するモニタ部と、前記第1撮像部が設けられるとともに、前記モニタ部を回転可能に支持する本体部と、前記モニタ部の表示側を撮像するために設けられ、前記モニタ部の回転角度に応じて撮像方向が変化する第2撮像部と、を備えた撮像装置の制御方法であって、前記第2撮像部で撮像された撮像画像に含まれる顔画像の顔位置を検出するステップと、前記顔位置検出部で検出された顔位置に基づいて、前記モニタ部の回転角度を制御するステップと、を備えるものである。   An imaging apparatus control method according to an aspect of the present invention includes a first imaging unit that captures a moving image, a monitor unit that displays an image captured by the first imaging unit, and the first imaging unit. And a second imaging unit that is provided for imaging the display side of the monitor unit and that changes the imaging direction according to the rotation angle of the monitor unit, and a main body unit that rotatably supports the monitor unit. A method for controlling an imaging apparatus, comprising: detecting a face position of a face image included in a captured image captured by the second imaging unit; and based on the face position detected by the face position detection unit And a step of controlling a rotation angle of the monitor unit.

本発明によれば、確実にモニタ部を追従制御することができる撮像装置、及びその制御方法を提供することを目的とする。   According to the present invention, it is an object to provide an imaging apparatus capable of surely following-controlling a monitor unit, and a control method therefor.

本実施形態に係る撮像装置の全体構成を示す斜視図である。1 is a perspective view illustrating an overall configuration of an imaging apparatus according to an embodiment. 撮像装置のモニタ部の構成を模式的に示す図である。It is a figure which shows typically the structure of the monitor part of an imaging device. 撮像装置の制御系を示すブロック図である。It is a block diagram which shows the control system of an imaging device. 撮像装置の制御動作を説明するための図である。It is a figure for demonstrating control operation of an imaging device. 撮像装置の制御動作を説明するための図である。It is a figure for demonstrating control operation of an imaging device. 撮像装置の制御動作を説明するための図である。It is a figure for demonstrating control operation of an imaging device. 撮像装置の制御方法を示すフローチャートである。3 is a flowchart illustrating a method for controlling the imaging apparatus.

(全体構成)
以下、図面を参照して、本発明の実施の形態に係る撮像装置、及びその制御方法について説明する。図1は、本実施の形態にかかる撮像装置の全体構成を示す斜視図である。撮像装置1は、本体部11と、モニタ部12と、駆動機構13と、第1撮像部14と、を備えている。なお、図1では、XYZ直交座標系を示している。第1撮像部14のレンズの光軸と平行な方向をZ方向とする。そして、Z方向と垂直な平面をXY平面とする。Y方向が鉛直方向(上下方向)となり、X方向が水平方向(左右方向)となっている。もちろん、上記の方向は、相対的なものであり、撮像装置1の向きに応じて変化する。
(overall structure)
Hereinafter, an imaging device and a control method thereof according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a perspective view showing the overall configuration of the imaging apparatus according to the present embodiment. The imaging device 1 includes a main body unit 11, a monitor unit 12, a drive mechanism 13, and a first imaging unit 14. In FIG. 1, an XYZ orthogonal coordinate system is shown. A direction parallel to the optical axis of the lens of the first imaging unit 14 is defined as a Z direction. A plane perpendicular to the Z direction is defined as an XY plane. The Y direction is the vertical direction (up and down direction), and the X direction is the horizontal direction (left and right direction). Of course, the above-described directions are relative and change according to the orientation of the imaging device 1.

本体部11は、CMOS撮像素子及びレンズなどを備えた第1撮像部14を内蔵する筐体を備えている。メインカメラである第1撮像部14は、被写体から光を受光して、動画、及び静止画を撮像する。さらに、本体部11は、図示しない、バッテリ、内蔵メモリ、メモリカードスロット、CPU(Central Processing Unit)等を内蔵している。第1撮像部14が取得した画像データは、所定の処理が施されて、メモリに格納される。第1撮像部14は、撮像装置1の前方を向いて配置されている。   The main body 11 includes a housing that houses a first imaging unit 14 that includes a CMOS imaging device and a lens. The first imaging unit 14 that is a main camera receives light from a subject and captures a moving image and a still image. Further, the main body 11 includes a battery, a built-in memory, a memory card slot, a CPU (Central Processing Unit), and the like, not shown. The image data acquired by the first imaging unit 14 is subjected to predetermined processing and stored in the memory. The first imaging unit 14 is arranged facing the front of the imaging device 1.

本体部11の側面には、Y軸周りに開閉可能に設けられたモニタ部12が取り付けられている。例えば、モニタ部12を閉状態とすると、モニタ部12が、本体部11の側面と平行になる。モニタ部12は、液晶モニタ等のディスプレイを内蔵しており、第1撮像部14が取得した動画又は静止画を表示する。図2では、モニタ部12は、XY平面に沿って配置されている。モニタ部12の表示画面は、第1撮像部14の撮像側と反対側に向けられている。本体部11の上面には、操作ボタン17が設けられている。撮影者が、操作ボタン17を押すことで、撮影を開始、又は停止することができる。   A monitor unit 12 is attached to the side surface of the main body unit 11 so as to be openable and closable around the Y axis. For example, when the monitor unit 12 is in a closed state, the monitor unit 12 is parallel to the side surface of the main body unit 11. The monitor unit 12 has a built-in display such as a liquid crystal monitor, and displays a moving image or a still image acquired by the first imaging unit 14. In FIG. 2, the monitor unit 12 is arranged along the XY plane. The display screen of the monitor unit 12 is directed to the side opposite to the imaging side of the first imaging unit 14. An operation button 17 is provided on the upper surface of the main body 11. The photographer can start or stop shooting by pressing the operation button 17.

本体部11のモニタ部12と反対側の側面にベルト16が取り付けられている。そして、ベルト16と本体部11との間に、撮影者が手を入れて、撮像装置1を把持する。すなわち、撮影者(ユーザ)は、本体部11のモニタ部12と反対側の側面側を持って、撮影を行う。本体部11の側面にモニタ部12があるため、撮像装置1を把持している撮影者が、第1撮像部14で撮像した画像を視認することができる。   A belt 16 is attached to the side of the main body 11 opposite to the monitor 12. Then, the photographer puts his hand between the belt 16 and the main body 11 to hold the imaging device 1. That is, the photographer (user) takes a picture while holding the side of the main body 11 opposite to the monitor 12. Since the monitor unit 12 is provided on the side surface of the main body unit 11, a photographer holding the imaging device 1 can visually recognize an image captured by the first imaging unit 14.

さらに、モニタ部12は、駆動機構13を介して、本体部11に取り付けられている。本体部11は、駆動機構13を介して、モニタ部12を回転可能に支持している。駆動機構13はモータ等のアクチュエータを備えている。そして、駆動機構13は、X軸周りに、モニタ部12を回転駆動する。駆動機構13は、本体部11に対するモニタ部12の角度を変える。これにより、モニタ部12が上下に傾いた状態になる。また、撮影者がモニタ部12を直接操作して、モニタ部12を回転させてもよい。   Further, the monitor unit 12 is attached to the main body unit 11 via the drive mechanism 13. The main body 11 supports the monitor unit 12 via a drive mechanism 13 so as to be rotatable. The drive mechanism 13 includes an actuator such as a motor. Then, the drive mechanism 13 rotates the monitor unit 12 around the X axis. The drive mechanism 13 changes the angle of the monitor unit 12 with respect to the main body unit 11. Thereby, the monitor part 12 will be in the state inclined up and down. Further, the photographer may directly operate the monitor unit 12 to rotate the monitor unit 12.

モニタ部12の構成について、図2を用いて説明する。図2は、モニタ部12の構成を模式的に示す図である。図2は、モニタ部12を表示側から見た図を示している。モニタ部12の表示側には、矩形状の表示画面12aが設けられている。表示画面12aは、第1撮像部14で撮像した画像を表示する。モニタ部12の側方には、駆動機構13が設けられている。駆動機構13がモニタ部12を回転駆動することで、表示画面12aの表示方向が変わる。例えば、駆動機構13は、表示画面12aの表示方向を上下に傾ける。   The configuration of the monitor unit 12 will be described with reference to FIG. FIG. 2 is a diagram schematically illustrating the configuration of the monitor unit 12. FIG. 2 shows a view of the monitor unit 12 as viewed from the display side. On the display side of the monitor unit 12, a rectangular display screen 12a is provided. The display screen 12 a displays an image captured by the first imaging unit 14. A drive mechanism 13 is provided on the side of the monitor unit 12. When the drive mechanism 13 rotates the monitor unit 12, the display direction of the display screen 12a changes. For example, the drive mechanism 13 tilts the display direction of the display screen 12a up and down.

さらに、モニタ部12には、サブカメラとなる第2撮像部15が設けられている。第2撮像部15は、表示画面12aの外側に配置されている。ここでは、第2撮像部15は、表示画面12aの上に固定されている。第2撮像部15は、モニタ部12の表示側を撮像する。第2撮像部15は、撮像装置1を把持した撮影者を撮像するために設けられている。撮影者がモニタ部12の表示画面12aを見ながら撮影すると、第2撮像部15は撮影者を撮像する。なお、第2撮像部15のレンズの光軸は、表示画面12aと垂直になっている。第2撮像部15は、モニタ部12の回転角度に応じて撮像方向が変化する。   Further, the monitor unit 12 is provided with a second imaging unit 15 serving as a sub camera. The second imaging unit 15 is disposed outside the display screen 12a. Here, the second imaging unit 15 is fixed on the display screen 12a. The second imaging unit 15 images the display side of the monitor unit 12. The second imaging unit 15 is provided to capture an image of a photographer who holds the imaging device 1. When the photographer takes a picture while looking at the display screen 12a of the monitor unit 12, the second imaging unit 15 takes an image of the photographer. Note that the optical axis of the lens of the second imaging unit 15 is perpendicular to the display screen 12a. The imaging direction of the second imaging unit 15 changes according to the rotation angle of the monitor unit 12.

第2撮像部15の撮像結果に基づいて、駆動機構13がモニタ部12を回転させる。例えば、第2撮像部15が撮像した撮像画像に対して、画像処理を行い、撮影者の顔位置を検出する。そして、顔位置の検出結果に基づいて、駆動機構13がモニタ部12を回転駆動する。このようにすることで、モニタ部12が撮影者の方向に追従するように回転する。すなわち、モニタ部12の表示画面12aが、常に撮影者の方向に向けられるよう、駆動機構13がモニタ部12の角度を調整している。こうすることで、撮影者がモニタ部12の表示画面12aと正対するようになり、表示画面12aを容易に視認することができる。   Based on the imaging result of the second imaging unit 15, the drive mechanism 13 rotates the monitor unit 12. For example, image processing is performed on the captured image captured by the second imaging unit 15 to detect the face position of the photographer. Then, based on the detection result of the face position, the drive mechanism 13 drives the monitor unit 12 to rotate. By doing so, the monitor unit 12 rotates so as to follow the direction of the photographer. That is, the drive mechanism 13 adjusts the angle of the monitor unit 12 so that the display screen 12a of the monitor unit 12 is always directed toward the photographer. By doing so, the photographer comes to face the display screen 12a of the monitor unit 12 and can easily view the display screen 12a.

(制御系)
次に、図3を参照して、撮像装置1の制御系について説明する。図3は、撮像装置1の制御系を示すブロック図である。
(Control system)
Next, a control system of the imaging apparatus 1 will be described with reference to FIG. FIG. 3 is a block diagram illustrating a control system of the imaging apparatus 1.

中央制御部400はCPU(Central Processing Unit)、各種プログラムが格納されたROM(Read Only Memory)、及びワークエリアとしてのRAM(Random Access Memory)等を含む半導体集積回路により構成されている。中央制御部400をマイクロコンピュータで構成することができる。中央制御部400は、撮像、各種画像の表示、又は後述する画像処理や画像表示等に関する撮像装置1全体の処理を統括的に制御する。   The central control unit 400 is configured by a semiconductor integrated circuit including a CPU (Central Processing Unit), a ROM (Read Only Memory) in which various programs are stored, a RAM (Random Access Memory) as a work area, and the like. The central control unit 400 can be constituted by a microcomputer. The central control unit 400 comprehensively controls processing of the entire imaging apparatus 1 related to imaging, display of various images, or image processing and image display described below.

メインカメラとなる第1撮像部14は、ズームレンズ101、フォーカスレンズ102、絞り103、及び撮像素子104を備えている。ズームレンズ101は図示しないズームアクチュエータによって光軸LAに沿って移動する。同様に、フォーカスレンズ102は、図示しないフォーカスアクチュエータによって光軸LAに沿って移動する。絞り103は、図示しない絞りアクチュエータに駆動されて動作する。撮像素子104は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等で構成される。   The first imaging unit 14 serving as a main camera includes a zoom lens 101, a focus lens 102, a diaphragm 103, and an image sensor 104. The zoom lens 101 is moved along the optical axis LA by a zoom actuator (not shown). Similarly, the focus lens 102 moves along the optical axis LA by a focus actuator (not shown). The diaphragm 103 operates by being driven by a diaphragm actuator (not shown). The imaging element 104 is configured by a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like.

撮像素子104はズームレンズ101、フォーカスレンズ102、及び絞り103を通過した光を光電変換して、被写体のアナログ画像信号を生成する。アナログ画像信号処理部105が、このアナログ画像信号を増幅した後、画像A/D変換部106が、その増幅された信号をデジタル画像データに変換する。そして、画像A/D変換部106は、デジタル画像データを、映像信号として、画像入力コントローラ107に出力する。画像入力コントローラ107は、画像A/D変換部106から出力されたデジタル画像データを撮像画像データとして取り込んで、バス200を介してメインメモリ206に格納する。   The image sensor 104 photoelectrically converts light that has passed through the zoom lens 101, the focus lens 102, and the aperture 103 to generate an analog image signal of the subject. After the analog image signal processing unit 105 amplifies the analog image signal, the image A / D conversion unit 106 converts the amplified signal into digital image data. Then, the image A / D conversion unit 106 outputs the digital image data to the image input controller 107 as a video signal. The image input controller 107 takes in digital image data output from the image A / D conversion unit 106 as captured image data and stores it in the main memory 206 via the bus 200.

サブカメラとなる第2撮像部15は、ズームレンズ501、フォーカスレンズ502、絞り503、及び撮像素子504を備えている。ズームレンズ501は図示しないズームアクチュエータによって光軸LBに沿って移動する。同様に、フォーカスレンズ502は、図示しないフォーカスアクチュエータによって光軸LBに沿って移動する。絞り503は、図示しない絞りアクチュエータに駆動されて動作する。撮像素子504は、CCDやCMOS等で構成される。   The second imaging unit 15 serving as a sub camera includes a zoom lens 501, a focus lens 502, a diaphragm 503, and an image sensor 504. The zoom lens 501 is moved along the optical axis LB by a zoom actuator (not shown). Similarly, the focus lens 502 is moved along the optical axis LB by a focus actuator (not shown). The diaphragm 503 operates by being driven by a diaphragm actuator (not shown). The image sensor 504 is configured by a CCD, a CMOS, or the like.

撮像素子504はズームレンズ501、フォーカスレンズ502、及び絞り503を通過した光を光電変換して、被写体のアナログ画像信号を生成する。アナログ画像信号処理部505が、このアナログ画像信号を増幅した後、画像A/D変換部506が、その増幅された信号をデジタル画像データに変換する。そして、画像A/D変換部506は、デジタル画像データを、映像信号として、画像入力コントローラ507に出力する。画像入力コントローラ507は、画像A/D変換部506から出力されたデジタル画像データを撮像画像データとして取り込んで、バス200を介してメインメモリ206に格納する。   The image sensor 504 photoelectrically converts light that has passed through the zoom lens 501, the focus lens 502, and the stop 503 to generate an analog image signal of the subject. After the analog image signal processing unit 505 amplifies the analog image signal, the image A / D conversion unit 506 converts the amplified signal into digital image data. Then, the image A / D conversion unit 506 outputs the digital image data to the image input controller 507 as a video signal. The image input controller 507 takes in digital image data output from the image A / D conversion unit 506 as captured image data and stores it in the main memory 206 via the bus 200.

なお、第1撮像部14は、メインカメラであり、第2撮像部15は、サブカメラである。したがって、第2撮像部15は、第1撮像部14よりも撮像性能が低いものとすることができる。例えば、撮像素子504は、撮像素子104よりも画素数が低くなっていてもよい。あるいは、ズームレンズ501、フォーカスレンズ502は、ズームレンズ101、フォーカスレンズ102よりもレンズ性能の低いレンズであってもよい。   The first imaging unit 14 is a main camera, and the second imaging unit 15 is a sub camera. Therefore, the second imaging unit 15 can have imaging performance lower than that of the first imaging unit 14. For example, the image sensor 504 may have a lower number of pixels than the image sensor 104. Alternatively, the zoom lens 501 and the focus lens 502 may be lenses having lower lens performance than the zoom lens 101 and the focus lens 102.

デジタル信号処理部108は、バス200を介して中央制御部400からの指令に基づき、メインメモリ206に格納された撮像画像データを取り込み、所定の信号処理を施して輝度信号と色差信号とからなるデータを生成する。デジタル信号処理部108はまた、オフセット処理、ホワイトバランス調整処理、ガンマ補正処理、RGB補完処理、ノイズ低減処理、輪郭補正処理、色調補正処理、光源種別判定処理等の各種デジタル補正を行う。   Based on a command from the central control unit 400 via the bus 200, the digital signal processing unit 108 takes captured image data stored in the main memory 206, performs predetermined signal processing, and includes a luminance signal and a color difference signal. Generate data. The digital signal processing unit 108 also performs various digital corrections such as offset processing, white balance adjustment processing, gamma correction processing, RGB interpolation processing, noise reduction processing, contour correction processing, color tone correction processing, and light source type determination processing.

音声処理部202は、バス200を介して中央制御部400の指示に従い、マイク(不図示)等で取得された音声データに所定の処理を施す。例えば、音声データをデジタルデータに変換したり、雑音除去処理等をしたりする。   The audio processing unit 202 performs predetermined processing on audio data acquired by a microphone (not shown) or the like according to an instruction from the central control unit 400 via the bus 200. For example, voice data is converted into digital data, or noise removal processing is performed.

圧縮・伸長処理部201は、バス200を介して中央制御部400からの指示に従って、第1撮像部14によって取得された撮像画像データ及びデジタル音声データに所定の圧縮処理を施して圧縮データを生成する。また、圧縮・伸長処理部201は、中央制御部400からの指示に従って、記録部の一例であるカード型記録媒体302に格納された圧縮データに所定形式の伸張処理を施して非圧縮データを生成する。所定の圧縮処理としては、静止画像に対してはJPEG規格に準拠した圧縮方式を採用することができ、動画像に対してはMPEG2規格やAVC/H.264規格に準拠した圧縮方式を採用することができる。圧縮・伸長処理部201は、第1撮像部14によって取得された撮像画像データに対して、処理を行う。   The compression / decompression processing unit 201 performs predetermined compression processing on the captured image data and digital audio data acquired by the first imaging unit 14 according to an instruction from the central control unit 400 via the bus 200 to generate compressed data. To do. The compression / decompression processing unit 201 generates uncompressed data by performing a predetermined format decompression process on the compressed data stored in the card-type recording medium 302, which is an example of a recording unit, in accordance with an instruction from the central control unit 400. To do. As the predetermined compression processing, a compression method based on the JPEG standard can be adopted for still images, and MPEG2 standard or AVC / H. A compression method compliant with the H.264 standard can be employed. The compression / decompression processing unit 201 performs processing on the captured image data acquired by the first imaging unit 14.

ROM203はバス200を介して中央制御部400に接続されており、中央制御部400が実行する制御プログラム及び制御に必要な各種データ等を格納している。フラッシュROM204は、ユーザの設定情報等、撮像装置1の動作に関する各種設定情報を格納している。撮像装置1は、様々な撮像のシチュエーションに応じて、いくつかの撮像モードと、各モードにあわせた撮像条件の設定を予めフラッシュROM204に記憶している。そして、ユーザは撮像を開始する前に、各モードの中から最適なモードを選択することにより、最適な撮像条件で撮像を実施することができる。例えば、特定の人物の撮像に適した「ポートレートモード」、運動会等の撮像に適した「スポーツモード」、又は夜景等の暗い場所の撮像に適した「夜景モード」等である。VRAM205は、表示用の撮像データの一時記憶領域として使用される。   The ROM 203 is connected to the central control unit 400 via the bus 200 and stores a control program executed by the central control unit 400 and various data necessary for control. The flash ROM 204 stores various setting information related to the operation of the imaging apparatus 1, such as user setting information. The imaging apparatus 1 stores in advance in the flash ROM 204 several imaging modes and imaging condition settings according to each mode in accordance with various imaging situations. And before starting imaging, the user can perform imaging under optimal imaging conditions by selecting an optimal mode from each mode. For example, a “portrait mode” suitable for capturing a specific person, a “sport mode” suitable for capturing an athletic meet, or a “night view mode” suitable for capturing a dark place such as a night view. The VRAM 205 is used as a temporary storage area for image data for display.

メディア制御部207は、中央制御部400からの指示に従って、カードI/F301を介してカード型記録媒体302に対してデータを書き込み、カード型記録媒体302に記録されたデータを読み出すよう制御する。カード型記録媒体302はSDカードやコンパクトフラッシュ(登録商標)等の外部メモリであり、撮像装置1に対して脱着可能に設けられている。カード型記録媒体302には、第1撮像部14で撮像した動画の撮像画像データが圧縮して格納される。   The media control unit 207 controls to write data to the card type recording medium 302 via the card I / F 301 and to read data recorded on the card type recording medium 302 in accordance with an instruction from the central control unit 400. The card-type recording medium 302 is an external memory such as an SD card or a compact flash (registered trademark), and is provided so as to be removable from the imaging apparatus 1. The card-type recording medium 302 stores the captured image data of the moving image captured by the first imaging unit 14 in a compressed manner.

液晶モニタ304、スピーカ305、操作部306及び入出力端子307は入出力I/F303に接続されている。液晶モニタ304は、モニタ部12に内蔵されている。液晶モニタ304は、例えばVRAM205やメインメモリ206に一時記録された撮像画像データや各種メニュー画像データ等、各種画像データから生成された画像を表示する。液晶モニタ304は、第1撮像部14によって取得された動画像を表示する。   The liquid crystal monitor 304, the speaker 305, the operation unit 306, and the input / output terminal 307 are connected to the input / output I / F 303. The liquid crystal monitor 304 is built in the monitor unit 12. The liquid crystal monitor 304 displays images generated from various image data such as captured image data and various menu image data temporarily recorded in the VRAM 205 or the main memory 206, for example. The liquid crystal monitor 304 displays the moving image acquired by the first imaging unit 14.

スピーカ305は、例えばメインメモリ206に一時記録された音声を出力する。操作部306は、図示しないレリーズ・スイッチや電源スイッチを含む操作キー、十字キー、ジョイスティック、又は液晶モニタ304上に重畳されたタッチパネル等から構成されており、ユーザの撮像装置1への操作入力を受け付ける。入出力端子307は、図示しないテレビモニタやPC(Personal Computer)等に接続される。   The speaker 305 outputs sound temporarily recorded in the main memory 206, for example. The operation unit 306 includes an operation key including a release switch and a power switch (not shown), a cross key, a joystick, a touch panel superimposed on the liquid crystal monitor 304, and the like. Accept. The input / output terminal 307 is connected to a television monitor (not shown), a PC (Personal Computer), or the like.

さらに、駆動機構13は、入出力I/F303に接続されている。駆動機構13はモータ、モータドライバ、及びエンコーダなどを備えている。そして、駆動機構13は、液晶モニタ304が設けられているモニタ部12を回転駆動する。例えば、駆動機構13は、中央制御部400からの指令値に基づいて、モニタ部12を回転させる。   Further, the drive mechanism 13 is connected to the input / output I / F 303. The drive mechanism 13 includes a motor, a motor driver, an encoder, and the like. The drive mechanism 13 rotationally drives the monitor unit 12 in which the liquid crystal monitor 304 is provided. For example, the drive mechanism 13 rotates the monitor unit 12 based on a command value from the central control unit 400.

ジャイロセンサ208は、撮像装置1の3軸の加速度及び角速度の変化を検出する。ジャイロセンサ208が検出した角速度を積分することで、本体部11の角度を求めることができる。そして、ジャイロセンサ208の検出結果に応じて、液晶モニタ304の表示画像の向きを変える。すなわち、表示画面12aに表示される表示画像の向きを90度又は180度回転させる。例えば、例えば、撮像装置1を左又は右に90度傾けると、表示画面12aに表示される画像の向きが90度回転する。このようにして、表示画面12aの上下と、表示される画像の上下が一致する。また、ジャイロセンサ208の検出結果に基づいて、手振れ補正を行ってもよい。   The gyro sensor 208 detects changes in triaxial acceleration and angular velocity of the imaging device 1. By integrating the angular velocity detected by the gyro sensor 208, the angle of the main body 11 can be obtained. Then, the orientation of the display image on the liquid crystal monitor 304 is changed according to the detection result of the gyro sensor 208. That is, the orientation of the display image displayed on the display screen 12a is rotated 90 degrees or 180 degrees. For example, when the imaging apparatus 1 is tilted 90 degrees to the left or right, the orientation of the image displayed on the display screen 12a is rotated 90 degrees. In this way, the upper and lower sides of the display screen 12a coincide with the upper and lower sides of the displayed image. Further, camera shake correction may be performed based on the detection result of the gyro sensor 208.

中央制御部400は、顔認識部401と、顔位置検出部402と、顔画像登録部403と、回転角度算出部404と、駆動制御部405と、を備えている。顔認識部401は、第2撮像部15が取得した画像に対して、顔認識処理を行う。より具体的には、顔認識部401は、動画像のフレーム画像に対して顔検出を行う。   The central control unit 400 includes a face recognition unit 401, a face position detection unit 402, a face image registration unit 403, a rotation angle calculation unit 404, and a drive control unit 405. The face recognition unit 401 performs face recognition processing on the image acquired by the second imaging unit 15. More specifically, the face recognition unit 401 performs face detection on a frame image of a moving image.

顔画像登録部403には、顔認識を行う人の顔画像が参照画像として登録されている。そして、顔認識部401は、顔画像登録部403に登録されている参照画像を参照して、顔認識を行う。例えば、顔認識部401は、参照画像の特徴量と、第2撮像部15で取得した顔画像の特徴量とを比較することで、顔認識を行う。より具体的には、顔認識部401は、撮像画像に含まれる顔画像を検出する。そして、顔認識部400は、参照画像の特徴量と、取得した顔画像の特徴量とがマッチングするか否かを判定する。特徴量がマッチングする場合、顔認識部401は、撮像された顔が予め登録された人の顔であると認識する。このようにして、顔認識部401は特定の人の顔が撮像画像に含まれていることを検出する。顔認識部401は、撮像画像に含まれる顔情報が、予め登録された人の顔情報であるか否かを判定している。   The face image registration unit 403 registers a face image of a person who performs face recognition as a reference image. Then, the face recognition unit 401 refers to the reference image registered in the face image registration unit 403 and performs face recognition. For example, the face recognition unit 401 performs face recognition by comparing the feature amount of the reference image with the feature amount of the face image acquired by the second imaging unit 15. More specifically, the face recognition unit 401 detects a face image included in the captured image. Then, the face recognition unit 400 determines whether or not the feature amount of the reference image matches the feature amount of the acquired face image. When the feature amounts match, the face recognition unit 401 recognizes that the captured face is a person's face registered in advance. In this way, the face recognition unit 401 detects that a specific person's face is included in the captured image. The face recognition unit 401 determines whether face information included in the captured image is face information of a person registered in advance.

また、顔画像登録部403に、複数人の参照画像を登録しておいてもよい。この場合、撮影者が、既に登録している複数の参照画像の中から適切な参照画像を選択する。これにより、撮影者の顔画像が選択される。そして、撮影者の顔に対応する参照画像と、第2撮像部15で撮像された撮像画像とを比較して、顔認識部401は顔認識を行う。もちろん、顔追従動作を行う場合、第1撮像部14又は第2撮像部15によって、撮影者の顔の画像をその都度撮像するようにしてもよい。   Further, a plurality of reference images may be registered in the face image registration unit 403. In this case, the photographer selects an appropriate reference image from a plurality of reference images already registered. Thereby, a photographer's face image is selected. Then, the face recognition unit 401 performs face recognition by comparing the reference image corresponding to the photographer's face and the captured image captured by the second imaging unit 15. Of course, when the face following operation is performed, the first imaging unit 14 or the second imaging unit 15 may capture an image of the photographer's face each time.

そして、顔位置検出部402は、第2撮像部15で撮像した撮像画像に含まれる顔画像の顔位置を検出する。例えば、撮像画像における顔画像の中心座標を顔位置として検出する。顔位置検出部402は、顔認識部401で認識された顔画像の顔位置を検出している。顔位置検出部402は、少なくとも、撮像画像の上下方向における顔の座標を検出するものであればよい。すなわち、顔位置検出部402は、モニタ部12の回転方向に対応する方向における顔位置を検出すればよい。したがって、顔位置検出部402は、撮像画像の左右方向における顔の座標を検出しなくてもよい。   Then, the face position detection unit 402 detects the face position of the face image included in the captured image captured by the second imaging unit 15. For example, the center coordinates of the face image in the captured image are detected as the face position. The face position detection unit 402 detects the face position of the face image recognized by the face recognition unit 401. The face position detection unit 402 only needs to detect at least the coordinates of the face in the vertical direction of the captured image. That is, the face position detection unit 402 may detect a face position in a direction corresponding to the rotation direction of the monitor unit 12. Therefore, the face position detection unit 402 may not detect the face coordinates in the left-right direction of the captured image.

また、顔位置検出部402は、顔認識部401で認識された顔の顔位置を検出している。例えば、撮像画像に二人以上の顔がある場合、顔位置検出部402は、顔認識部401で認識された顔の顔位置を検出している。このようにすることで、第2撮像部15が2人以上を撮像した場合でもあっても、適切に顔追従することができる。また、顔認識部401が特定の人の顔画像を認識できなかった場合、顔位置検出部402は、顔位置を検出できなくなる。   Further, the face position detection unit 402 detects the face position of the face recognized by the face recognition unit 401. For example, when there are two or more faces in the captured image, the face position detection unit 402 detects the face position of the face recognized by the face recognition unit 401. By doing in this way, even if it is a case where the 2nd image pick-up part 15 picturizes two or more people, it can follow a face appropriately. If the face recognition unit 401 cannot recognize a face image of a specific person, the face position detection unit 402 cannot detect the face position.

回転角度算出部404は、顔位置検出部402で検出された顔位置に基づいて、モニタ部12の回転角度を算出する。駆動制御部405は、回転角度算出部404で算出された回転角度に基づいて、駆動機構13のモータを駆動するための指令値を算出する。そして、駆動制御部405で算出された指令値に基づいて、駆動機構13を制御する。したがって、駆動制御部405は、顔位置検出部402で検出された顔位置に基づいて、駆動機構13を制御している。これにより、モニタ部12を所定の角度に制御することができる。   The rotation angle calculation unit 404 calculates the rotation angle of the monitor unit 12 based on the face position detected by the face position detection unit 402. The drive control unit 405 calculates a command value for driving the motor of the drive mechanism 13 based on the rotation angle calculated by the rotation angle calculation unit 404. Then, the drive mechanism 13 is controlled based on the command value calculated by the drive control unit 405. Therefore, the drive control unit 405 controls the drive mechanism 13 based on the face position detected by the face position detection unit 402. Thereby, the monitor unit 12 can be controlled to a predetermined angle.

(動作説明)
次に、図4〜図6を用いて、第2撮像部15の撮像画像と、モニタ部12の動作について説明する。まず、撮影者の顔21が、撮像画像の上下方向における中心にある場合について、図4を用いて説明する。図4(a)、図4(b)、及び図4(c)は、撮像画像を示しており、図4(d)は、撮影者の顔21とモニタ部12と本体部11の位置関係を模式的に示す側面図である。
(Description of operation)
Next, the captured image of the second imaging unit 15 and the operation of the monitor unit 12 will be described with reference to FIGS. First, the case where the photographer's face 21 is at the center in the vertical direction of the captured image will be described with reference to FIG. 4A, 4B, and 4C show captured images, and FIG. 4D shows the positional relationship between the photographer's face 21, the monitor unit 12, and the main body 11. It is a side view which shows typically.

なお、図4(d)では、第1撮像部14が左方向を撮影しており、第2撮像部15が右方向を撮影している。すなわち、図4(d)では、左側が撮像装置1の前方となっており、右側が後方となっている。また第1撮像部14の光軸24は水平になっており、第2撮像部15の光軸25と平行になっている。   In FIG. 4D, the first imaging unit 14 captures the left direction, and the second imaging unit 15 captures the right direction. That is, in FIG.4 (d), the left side is the front of the imaging device 1, and the right side is the back. Further, the optical axis 24 of the first imaging unit 14 is horizontal, and is parallel to the optical axis 25 of the second imaging unit 15.

図4(a)に示すように、撮影者の顔21が撮像画像15aの中心になっているとする。すなわち、撮像画像15aの左右方向の中心線22上に、顔21があるとする。この場合、図4(d)に示すように、モニタ部12と撮影者の顔21が正対している。第2撮像部15の光軸25上に顔21がある。顔21が撮像画像15aの上下方向における中心にある場合、撮影者がモニタ部12を容易に視認することができる。よって、駆動機構13は、モニタ部12を駆動しない。   As shown in FIG. 4A, it is assumed that the photographer's face 21 is at the center of the captured image 15a. That is, it is assumed that the face 21 is on the center line 22 in the left-right direction of the captured image 15a. In this case, as shown in FIG. 4D, the monitor unit 12 and the photographer's face 21 face each other. The face 21 is on the optical axis 25 of the second imaging unit 15. When the face 21 is at the center in the vertical direction of the captured image 15a, the photographer can easily view the monitor unit 12. Therefore, the drive mechanism 13 does not drive the monitor unit 12.

また、図4(b)、図4(c)は、図4(a)の状態から、顔21の位置が左右方向にずれた場合を示している。この場合、第2撮像部15の光軸25と、顔21が同じ高さにある。したがって、撮像画像15aにおける上下方向の中心線22上に顔21がある。よって、駆動機構13はモニタ部12を駆動しない。   4B and 4C show a case where the position of the face 21 is shifted in the left-right direction from the state of FIG. 4A. In this case, the optical axis 25 of the second imaging unit 15 and the face 21 are at the same height. Therefore, the face 21 is on the center line 22 in the vertical direction in the captured image 15a. Therefore, the drive mechanism 13 does not drive the monitor unit 12.

図4に示す状態から、撮影者が撮像装置1の向きを変えたり、撮影者に対する撮像装置1の相対位置を変えたりした場合について、図5及び図6を用いて説明する。図5は、第2撮像部15の撮像画像15aの下部分に、顔21が撮像されているときの動作を説明するための図である。図4に示す状態から、撮影者が撮像装置1を上に移動した状態が、図5になっている。   A case where the photographer changes the orientation of the imaging device 1 or changes the relative position of the imaging device 1 with respect to the photographer from the state shown in FIG. 4 will be described with reference to FIGS. 5 and 6. FIG. 5 is a diagram for explaining the operation when the face 21 is imaged in the lower part of the captured image 15 a of the second imaging unit 15. FIG. 5 shows a state where the photographer has moved the imaging device 1 upward from the state shown in FIG.

例えば、撮影者が撮像装置1を持ち上げると、図5(c)に示すように、撮像装置1に対する撮影者の相対位置が下になる。すると、図5(a)、図5(b)に示すように、第2撮像部15の撮像画像15a内において、顔21が下側に移動する。撮像画像15aにおいて、顔21が中心線22よりも下側に配置される。この場合、撮影者は、斜め下側から、表示画面12aを見なくてはならなくなり、表示画面12aが見づらくなる。   For example, when the photographer lifts the imaging device 1, the relative position of the photographer with respect to the imaging device 1 is lowered as shown in FIG. Then, as shown in FIGS. 5A and 5B, the face 21 moves downward in the captured image 15 a of the second imaging unit 15. In the captured image 15 a, the face 21 is disposed below the center line 22. In this case, the photographer must look at the display screen 12a from obliquely below, making it difficult to see the display screen 12a.

そこで、駆動機構13は、モニタ部12を図5(d)に示す矢印Bの方向に回転させる。すなわち、モニタ部12の表示画面12aが斜め下を向くように傾斜させる。これにより、モニタ部12の表示画面12aと、撮影者の顔21が正対するようになる。すなわち、撮影者が表示画面12aと垂直な方向から、表示画面12aを視認することができる。   Therefore, the drive mechanism 13 rotates the monitor unit 12 in the direction of arrow B shown in FIG. That is, the display screen 12a of the monitor unit 12 is tilted so as to face obliquely downward. Thereby, the display screen 12a of the monitor unit 12 and the photographer's face 21 face each other. That is, the photographer can visually recognize the display screen 12a from a direction perpendicular to the display screen 12a.

ここでは、中央制御部400が、顔位置に基づいて、モニタ部12の角度を調整している。したがって、図4(a)、図4(b)、及び図4(c)に示した状態に戻り、撮像画像15aの中心線22上に、顔21が配置される。撮影者が、モニタ部12の表示画面12aを容易に視認することができる。   Here, the central control unit 400 adjusts the angle of the monitor unit 12 based on the face position. Therefore, returning to the state shown in FIGS. 4A, 4B, and 4C, the face 21 is arranged on the center line 22 of the captured image 15a. The photographer can easily view the display screen 12a of the monitor unit 12.

次に、第2撮像部15の撮像画像15aの上部分に、顔21が撮像されているときの動作について、図6を用いて説明する。図4に示す状態から、撮影者が撮像装置1を下に移動した状態が、図6になっている。   Next, the operation when the face 21 is imaged on the upper part of the captured image 15a of the second imaging unit 15 will be described with reference to FIG. FIG. 6 shows a state where the photographer has moved the imaging apparatus 1 downward from the state shown in FIG.

例えば、撮影者が撮像装置1を下降すると、図6(c)に示すように、撮像装置1に対する撮影者の相対位置が上昇になる。すると、図6(a)、図6(b)に示すように、第2撮像部15の撮像画像15a内において、顔21が上側に移動する。撮像画像15aにおいて、顔21が中心線22よりも上側に配置される。この場合、撮影者は、斜め上側から、表示画面12aを見なくてはならなくなり、表示画面12aが見づらくなる。   For example, when the photographer moves down the imaging apparatus 1, the relative position of the photographer with respect to the imaging apparatus 1 increases as shown in FIG. Then, as shown in FIGS. 6A and 6B, the face 21 moves upward in the captured image 15 a of the second imaging unit 15. In the captured image 15 a, the face 21 is disposed above the center line 22. In this case, the photographer has to look at the display screen 12a from an oblique upper side, and the display screen 12a becomes difficult to see.

そこで、駆動機構13は、モニタ部12を図6(d)に示す矢印Aの方向に回転させる。すなわち、モニタ部12の表示画面12aが斜め上を向くように傾斜させる。これにより、図4(a)〜図4(c)に示した状態に戻る。したがって、撮影者が、モニタ部12の表示画面12aを容易に視認することができる。   Therefore, the drive mechanism 13 rotates the monitor unit 12 in the direction of arrow A shown in FIG. That is, the display screen 12a of the monitor unit 12 is tilted so as to face obliquely upward. Thereby, it returns to the state shown to Fig.4 (a)-FIG.4 (c). Therefore, the photographer can easily visually recognize the display screen 12a of the monitor unit 12.

第2撮像部15が撮影者の方向に追尾するように、駆動機構13がモニタ部12を駆動する。すなわち、第2撮像部15の撮像画像15aにおいて、顔21が上下方向の中心に配置されるように、駆動機構13がモニタ部12を駆動する。例えば、撮像装置1と撮影者の相対位置が変わった場合、位置変化を打ち消す方向に、駆動機構13がモニタ部12を回転駆動する。これにより、第2撮像部15が常に撮像画像15aの中心で撮影者を撮影するように、モニタ角度が自動調整される。よって、撮影者が常に、モニタ部12の表示画面12aに正対した状態で視認することができる。また、第2撮像部15の光軸25は、モニタ部12の表示画面12aと垂直になっている。これにより、簡便にモニタ部12の角度を制御することができる。   The drive mechanism 13 drives the monitor unit 12 so that the second imaging unit 15 tracks in the direction of the photographer. That is, in the captured image 15a of the second imaging unit 15, the drive mechanism 13 drives the monitor unit 12 so that the face 21 is arranged at the center in the vertical direction. For example, when the relative position between the imaging device 1 and the photographer changes, the drive mechanism 13 rotates the monitor unit 12 in a direction that cancels the change in position. Thus, the monitor angle is automatically adjusted so that the second imaging unit 15 always captures the photographer at the center of the captured image 15a. Therefore, the photographer can always view the image in a state of facing the display screen 12a of the monitor unit 12. In addition, the optical axis 25 of the second imaging unit 15 is perpendicular to the display screen 12 a of the monitor unit 12. Thereby, the angle of the monitor unit 12 can be easily controlled.

ここでは、顔位置検出の結果に基づいて、駆動機構13がモニタ部12を駆動している。よって、ジャイロセンサ208を用いた場合よりも正確にモニタ部12を回転駆動することができる。さらに、第2撮像部15が撮像した動画像に対して顔検出処理を行っているため、高速に処理することができ、追従性を向上することができる。すなわち、ジャイロセンサ208の測定値の積分値を用いる必要がないため、高い精度で顔追従することができる。これにより、利便性を向上することができる。   Here, the drive mechanism 13 drives the monitor unit 12 based on the result of face position detection. Therefore, the monitor unit 12 can be rotationally driven more accurately than when the gyro sensor 208 is used. Furthermore, since the face detection process is performed on the moving image captured by the second imaging unit 15, it can be processed at a high speed and the followability can be improved. That is, since it is not necessary to use the integral value of the measured value of the gyro sensor 208, the face can be tracked with high accuracy. Thereby, the convenience can be improved.

(制御方法)
図7を用いて、撮像装置1の制御方法について、説明する。図7は、撮像装置1の制御方法を示すフローチャートである。
(Control method)
A control method of the imaging apparatus 1 will be described with reference to FIG. FIG. 7 is a flowchart illustrating a method for controlling the imaging apparatus 1.

撮影者が顔追従動作を開始させると、まず、第2撮像部15の撮像画像15aに顔が存在するか否かを判定する(ステップS101)。例えば、顔認識部401が、参照画像と撮像画像15aを比較して、顔認識を行う。これにより、撮影者の顔21の顔画像が撮像画像15a内にある否かが判定される。   When the photographer starts the face following operation, first, it is determined whether or not a face exists in the captured image 15a of the second imaging unit 15 (step S101). For example, the face recognition unit 401 compares the reference image with the captured image 15a and performs face recognition. Thus, it is determined whether or not the face image of the photographer's face 21 is in the captured image 15a.

撮像画像15a内に顔21がある場合(ステップS101のYES)、顔位置が基準位置より上にあるか否かを判定する(ステップS102)。例えば、顔位置検出部402が撮像画像15aにおける顔21の顔位置を検出する。そして、図4〜図6のように基準位置を撮像画像15aの中心線21とした場合、中心線21よりも顔位置が上にあるか、下にあるかを判定する。   When the face 21 is present in the captured image 15a (YES in step S101), it is determined whether or not the face position is above the reference position (step S102). For example, the face position detection unit 402 detects the face position of the face 21 in the captured image 15a. When the reference position is the center line 21 of the captured image 15a as shown in FIGS. 4 to 6, it is determined whether the face position is above or below the center line 21.

顔位置が基準位置よりも上にある場合(ステップS102のYES)、駆動機構13がモニタ部12をA方向に回転する(ステップS103)。これにより、モニタ部12の表示画面12aが斜め上に向けられる(図6(d)参照)。したがって、第2撮像部15の撮像方向は、斜め上方を向く。一方、顔位置が基準位置よりも上にない場合(ステップS102のNO)、すなわち、基準位置よりも下にある場合、駆動機構13がモニタ部12をB方向に回転する(ステップS104)。これにより、モニタ部12の表示画面12aが斜め下に向けられる(図5(d)参照)。したがって、第2撮像部15の撮像方向は、斜め下方を向く。   When the face position is above the reference position (YES in step S102), the drive mechanism 13 rotates the monitor unit 12 in the A direction (step S103). Thereby, the display screen 12a of the monitor unit 12 is directed obliquely upward (see FIG. 6D). Therefore, the imaging direction of the second imaging unit 15 faces obliquely upward. On the other hand, if the face position is not above the reference position (NO in step S102), that is, if it is below the reference position, the drive mechanism 13 rotates the monitor unit 12 in the B direction (step S104). Thereby, the display screen 12a of the monitor unit 12 is directed obliquely downward (see FIG. 5D). Accordingly, the imaging direction of the second imaging unit 15 is directed obliquely downward.

モニタ部12をA方向又はB方向に回転することで、顔21が撮像画像15aの上下方向の中央に向けて変位する。そして、モニタ部12をA方向又はB方向に回転した後、ステップS111に移行する。   By rotating the monitor unit 12 in the A direction or the B direction, the face 21 is displaced toward the center in the vertical direction of the captured image 15a. And after rotating the monitor part 12 to A direction or B direction, it transfers to step S111.

次に、撮像画像15aに顔が存在しない場合(ステップS101のNO)について説明する。例えば、顔認識部401が、参照画像と撮像画像15aを比較して、撮像画像15a内に撮影者の顔21が存在しないと判定する。この場合、ジャイロセンサ208が検出した傾きを用いて、モニタ部12を制御する。   Next, a case where no face exists in the captured image 15a (NO in step S101) will be described. For example, the face recognition unit 401 compares the reference image with the captured image 15a and determines that the photographer's face 21 does not exist in the captured image 15a. In this case, the monitor unit 12 is controlled using the inclination detected by the gyro sensor 208.

そのため、まず、ジャイロセンサ208から傾きの検出結果を取得する(ステップS105)。例えば、ジャイロセンサ208は検出した角速度を積分することで、傾き(角度)を測定する。そして、傾きの検出結果があるか否かを判定する(ステップS106)。すなわち、ジャイロセンサ208の検出結果に基づいて、本体部11の角度が変化したか否かを判定する。   Therefore, first, a tilt detection result is acquired from the gyro sensor 208 (step S105). For example, the gyro sensor 208 measures the inclination (angle) by integrating the detected angular velocity. Then, it is determined whether there is an inclination detection result (step S106). That is, based on the detection result of the gyro sensor 208, it is determined whether or not the angle of the main body 11 has changed.

傾き検出がない場合(ステップS106のNO)、すなわち、本体部11の角度が変化していない場合、駆動機構13は、モニタ部12の位置を固定する。すなわち、駆動機構13は、モニタ部12の角度を変化させない。そして、ステップS114に移行する。   When there is no inclination detection (NO in step S106), that is, when the angle of the main body 11 has not changed, the drive mechanism 13 fixes the position of the monitor unit 12. That is, the drive mechanism 13 does not change the angle of the monitor unit 12. Then, the process proceeds to step S114.

傾き検出がある場合(ステップS106のYES)、すなわち、本体部11の角度が変化した場合、回転方向が下方向か否かを判定する(ステップS107)。本体部11が下方向に回転した場合(ステップS107のYES)、モニタ部12をA方向に回転する。そして、ステップS111に移行する。一方、本体部11が下方向に回転していない場合(ステップS107のYES)、すなわち、本体部11が上方向に回転した場合、モニタ部12をB方向に回転する。そして、ステップS111に移行する。   If there is tilt detection (YES in step S106), that is, if the angle of the main body 11 has changed, it is determined whether or not the rotation direction is downward (step S107). When the main body 11 is rotated downward (YES in step S107), the monitor 12 is rotated in the A direction. Then, the process proceeds to step S111. On the other hand, when the main body 11 is not rotated downward (YES in step S107), that is, when the main body 11 is rotated upward, the monitor 12 is rotated in the B direction. Then, the process proceeds to step S111.

ステップS103、ステップS104、ステップS108、又はステップS109で、モニタ部12をA方向又はB方向に回転した場合、ステップS111に移行する。ステップS111では、顔位置が中央付近にあるか否かを判定する。すなわち、撮像画像15aの上下方向において、顔位置がある所定の範囲内にあるか否かを判定する。   When the monitor unit 12 is rotated in the A direction or the B direction in step S103, step S104, step S108, or step S109, the process proceeds to step S111. In step S111, it is determined whether or not the face position is near the center. That is, it is determined whether or not the face position is within a predetermined range in the vertical direction of the captured image 15a.

顔位置が中央付近にある場合(ステップS111のYES)、駆動機構13がモニタ部12の回転を停止する(ステップS112)。モニタ部12の回転を停止したら、ジャイロセンサ208の傾き検出結果をクリアする(ステップS113)。これにより、ジャイロセンサ208で検出した傾き、すなわち、角速度の積分値がリセットされる。   When the face position is near the center (YES in step S111), the drive mechanism 13 stops the rotation of the monitor unit 12 (step S112). When the rotation of the monitor unit 12 is stopped, the inclination detection result of the gyro sensor 208 is cleared (step S113). Thereby, the inclination detected by the gyro sensor 208, that is, the integrated value of the angular velocity is reset.

次に、顔追従動作がOFFとなっているか否かを判定する(ステップS114)。顔追従動作がOFFとなっていない場合(ステップS114のNO)、ステップS111に戻る。顔追従動作がOFFとなった場合(ステップS114のYES)、顔追従制御を終了する。   Next, it is determined whether or not the face following operation is OFF (step S114). If the face following operation is not OFF (NO in step S114), the process returns to step S111. When the face following operation is turned off (YES in step S114), the face following control is finished.

顔位置が中央付近にない場合(ステップS111のNO)、ステップS101に戻る。これにより、顔位置が撮像画像15aの中央付近に移動するまで、ステップS101〜ステップS110が繰り返し行われる。すなわち、モニタ部12の回転を引き続き行うことで、撮像画像15aの中央付近の一定範囲内に、顔位置を移動させる。   If the face position is not near the center (NO in step S111), the process returns to step S101. Thereby, steps S101 to S110 are repeatedly performed until the face position moves to the vicinity of the center of the captured image 15a. That is, by continuously rotating the monitor unit 12, the face position is moved within a certain range near the center of the captured image 15a.

顔追従動作中は、顔位置が撮像画像15の中央における所定の範囲を超えるまで、ステップS111〜ステップS113の処理を繰り返す。換言すると、顔位置が中央付近のある一定範囲にある間はモニタの回転が停止している。そして、顔位置が中央付近のある一定範囲を超えた場合、モニタ部12が回転する。   During the face following operation, the processes in steps S111 to S113 are repeated until the face position exceeds a predetermined range in the center of the captured image 15. In other words, the rotation of the monitor is stopped while the face position is in a certain range near the center. When the face position exceeds a certain range near the center, the monitor unit 12 rotates.

このように、顔位置が所定範囲にあるか否かを判定することで、モニタ部12のチャタリングを防ぐことができる。すなわち、モニタ部12が、A方向の微小な回転とB方向の微小な回転が繰り返すのを防ぐことができる。このように、顔位置がある一定範囲内にあるモニタ部12の回転が停止するため、モニタ角度が一定の角度に収束するために回転が継続するのを防ぐことができる。   Thus, chattering of the monitor unit 12 can be prevented by determining whether or not the face position is within a predetermined range. That is, it is possible to prevent the monitor unit 12 from repeating the minute rotation in the A direction and the minute rotation in the B direction. As described above, since the rotation of the monitor unit 12 within a certain range of the face position stops, it is possible to prevent the rotation from continuing because the monitor angle converges to a certain angle.

上記のように、顔位置に基づいて、モニタ部12の回転方向を決定している。こうすることで、容易に追従することができる。なお、ステップS103、又はステップS104で、顔位置に基づいてモニタ部12を回転する場合、基準位置と顔位置との偏差に応じて、回転角度を変えてもよい。例えば、基準位置と顔位置との偏差が大きい場合、回転角度を大きくし、偏差が小さい場合、回転角度を小さくしてもよい。   As described above, the rotation direction of the monitor unit 12 is determined based on the face position. By doing so, it is possible to follow easily. When the monitor unit 12 is rotated based on the face position in step S103 or step S104, the rotation angle may be changed according to the deviation between the reference position and the face position. For example, when the deviation between the reference position and the face position is large, the rotation angle may be increased, and when the deviation is small, the rotation angle may be decreased.

顔位置検出部402で顔位置が検出されない場合、ジャイロセンサ208での検出結果に応じて、駆動制御部405が駆動部13を制御している。例えば、撮像画像15aに顔が存在しない場合、あるいは、登録された人以外の顔が存在する場合、顔位置検出を用いずに、モニタ部12を回転する。このようにすることで、撮像装置1の角度が急激に変化した場合であっても、適切に顔追従させることができる。なお、ジャイロセンサ208は、本体部11の角度及び加速度の両方を検出するものに限らず、本体部11の角度及び加速度の少なくとも一方を検出するセンサであればよい。そして、角度及び加速度の一方を用いて、モニタ部12を回転させればよい。   When the face position is not detected by the face position detection unit 402, the drive control unit 405 controls the drive unit 13 according to the detection result of the gyro sensor 208. For example, when there is no face in the captured image 15a or when a face other than a registered person exists, the monitor unit 12 is rotated without using face position detection. By doing in this way, even if it is a case where the angle of the imaging device 1 changes rapidly, it can be made to follow a face appropriately. The gyro sensor 208 is not limited to a sensor that detects both the angle and acceleration of the main body 11, and may be any sensor that detects at least one of the angle and acceleration of the main body 11. And what is necessary is just to rotate the monitor part 12 using one of an angle and an acceleration.

また、ステップS108、又はステップS109で、傾き検出結果に基づいて、モニタ部12を回転する場合、傾きの大きさに応じて、回転角度を大きくしてもよい。例えば、傾きの絶対値が大きい場合、回転角度を大きくし、傾きの絶対値が小さい場合、回転角度を小さくしてもよい。   Further, when the monitor unit 12 is rotated based on the inclination detection result in step S108 or step S109, the rotation angle may be increased according to the magnitude of the inclination. For example, the rotation angle may be increased when the absolute value of the inclination is large, and the rotation angle may be decreased when the absolute value of the inclination is small.

また、ジャイロセンサ208の検出結果にモニタ部12を回転させても、顔認識ができない場合、モニタ部12を可動範囲の一端から他端まで回転させてもよい。このようにすることで、確実に顔位置を検出することができる。   Further, when face recognition is not possible even if the monitor unit 12 is rotated based on the detection result of the gyro sensor 208, the monitor unit 12 may be rotated from one end to the other end of the movable range. In this way, the face position can be reliably detected.

さらに、本実施形態では、顔画像登録部403が、撮影者の顔の参照画像を登録している。そして、モニタ部13が顔追従を行う場合、顔画像登録部403に登録されている参照画像を指定するようにしている。この場合、第2撮像部15が2人以上の顔を撮影した場合であっても、特定の撮影者が認識される。すなわち、顔認識部401が、実際に撮像装置1を把持して、操作している撮影者の顔を認識する。よって、撮影者の顔に向けて、モニタ部12が回転する。よって、適切に顔追従させることができ、撮影者がモニタ部12を視認しやすくなる。これにより、利便性を向上することができる。   Furthermore, in this embodiment, the face image registration unit 403 registers a reference image of the photographer's face. When the monitor unit 13 performs face tracking, a reference image registered in the face image registration unit 403 is designated. In this case, a specific photographer is recognized even when the second imaging unit 15 captures two or more faces. That is, the face recognizing unit 401 recognizes the face of the photographer who is actually holding the imaging apparatus 1 and operating it. Therefore, the monitor unit 12 rotates toward the photographer's face. Therefore, it is possible to appropriately follow the face, and it becomes easy for the photographer to visually recognize the monitor unit 12. Thereby, the convenience can be improved.

なお、上記の説明では、モニタ部12をA方向、又はB方向に回転させる例を説明したが、回転方向は特に限られるものではない。すなわち、駆動機構13がモニタ部12を回転させることができる方向に応じて、顔位置検出、及びモニタ角度調整を行えばよい。さらには、駆動機構13が2軸周りにそれぞれモニタ部12を回転させることができる場合は、それぞれの方向に対して顔位置検出を行うことができる。すなわち、撮像画像15aにおける上下方向の位置と、左右方向の位置とに応じて、2軸の回転角度を調整するようにしてもよい。   In the above description, the example in which the monitor unit 12 is rotated in the A direction or the B direction has been described, but the rotation direction is not particularly limited. That is, face position detection and monitor angle adjustment may be performed according to the direction in which the drive mechanism 13 can rotate the monitor unit 12. Furthermore, when the drive mechanism 13 can rotate the monitor unit 12 around two axes, the face position can be detected in each direction. That is, the biaxial rotation angle may be adjusted according to the vertical position and the horizontal position of the captured image 15a.

上記処理のうちの一部又は全部は、コンピュータプログラムによって実行されても良い。上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。   Part or all of the above processing may be executed by a computer program. The above-described program can be stored and supplied to a computer using various types of non-transitory computer readable media. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)) are included. The program may also be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は上記実施の形態に限られたものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。   As mentioned above, the invention made by the present inventor has been specifically described based on the embodiment. However, the present invention is not limited to the above embodiment, and various modifications can be made without departing from the scope of the invention. Needless to say.

1 撮像装置、11 本体部、12 モニタ部、13 駆動機構、14 第1撮像部
15 第2撮像部
DESCRIPTION OF SYMBOLS 1 Imaging device, 11 Main-body part, 12 Monitor part, 13 Drive mechanism, 14 1st imaging part 15 2nd imaging part

Claims (8)

画像を撮像する第1撮像部と、
前記第1撮像部で撮像された画像を表示するモニタ部と、
前記第1撮像部が設けられるとともに、前記モニタ部を回転可能に支持する本体部と、
前記本体部に対する前記モニタ部の角度を変える駆動部と、
前記モニタ部の表示側を撮像するために設けられ、前記モニタ部の回転角度に応じて撮像方向が変化する第2撮像部と、
前記第2撮像部で撮像された撮像画像に含まれる顔画像の顔位置を検出する顔位置検出部と、
前記顔位置検出部で検出された顔位置に基づいて、前記駆動部を制御する駆動制御部と、を備える撮像装置。
A first imaging unit that captures an image;
A monitor for displaying an image captured by the first imaging unit;
A main body that is provided with the first imaging unit and rotatably supports the monitor;
A drive unit that changes an angle of the monitor unit with respect to the main body unit;
A second imaging unit provided for imaging the display side of the monitor unit, the imaging direction changing according to the rotation angle of the monitor unit;
A face position detection unit that detects a face position of a face image included in the captured image captured by the second imaging unit;
An imaging apparatus comprising: a drive control unit that controls the drive unit based on a face position detected by the face position detection unit.
前記撮像画像に含まれる顔画像が、予め登録された人の顔画像であるか否かを認識する顔認識部をさらに備え、
前記顔認識部で認識された顔画像の顔位置に基づいて、前記駆動制御部が前記駆動部を制御する請求項1に記載の撮像装置。
A face recognition unit for recognizing whether the face image included in the captured image is a face image of a person registered in advance;
The imaging apparatus according to claim 1, wherein the drive control unit controls the drive unit based on a face position of a face image recognized by the face recognition unit.
前記本体部の角度及び加速度の少なくとも一方を検出するために設けられたセンサと、
前記顔位置検出部で顔位置が検出されない場合に、前記駆動制御部が前記センサでの検出結果に基づいて前記駆動部を制御する請求項1、又は2に記載の撮像装置。
A sensor provided to detect at least one of the angle and acceleration of the main body;
The imaging device according to claim 1, wherein when the face position is not detected by the face position detection unit, the drive control unit controls the drive unit based on a detection result of the sensor.
前記顔位置検出部で検出された顔位置が、前記撮像画像の中央における所定の範囲内にあるか否かを判定し、
前記顔位置が所定の範囲にある場合に、前記駆動制御部が前記駆動部の駆動を停止する請求項1〜3のいずれか1項に記載の撮像装置。
Determining whether the face position detected by the face position detection unit is within a predetermined range in the center of the captured image;
The imaging apparatus according to claim 1, wherein the drive control unit stops driving the drive unit when the face position is in a predetermined range.
動画像を撮像する第1撮像部と、
前記第1撮像部で撮像された画像を表示するモニタ部と、
前記第1撮像部が設けられるとともに、前記モニタ部を回転可能に支持する本体部と、
前記モニタ部の表示側を撮像するために設けられ、前記モニタ部の回転角度に応じて撮像方向が変化する第2撮像部と、を備えた撮像装置の制御方法であって、
前記第2撮像部で撮像された撮像画像に含まれる顔画像の顔位置を検出するステップと、
検出された前記顔位置に基づいて、前記モニタ部の回転角度を制御するステップと、を備える撮像装置の制御方法。
A first imaging unit that captures a moving image;
A monitor for displaying an image captured by the first imaging unit;
A main body that is provided with the first imaging unit and rotatably supports the monitor;
A second imaging unit that is provided for imaging the display side of the monitor unit and changes an imaging direction in accordance with a rotation angle of the monitor unit,
Detecting a face position of a face image included in a captured image captured by the second imaging unit;
And a step of controlling a rotation angle of the monitor unit based on the detected face position.
前記撮像画像に含まれる顔画像が、予め登録された人の顔画像であるか否かを認識し、
認識された顔画像の顔位置に基づいて、前記モニタ部の回転角度を制御する請求項5に記載の撮像装置の制御方法。
Recognizing whether the face image included in the captured image is a face image of a person registered in advance,
The control method of the imaging apparatus according to claim 5, wherein the rotation angle of the monitor unit is controlled based on the face position of the recognized face image.
前記撮像装置には、前記本体部の角度及び加速度の少なくとも一方を検出するセンサが設けられ、
前記顔位置が検出されない場合に、前記センサでの検出結果に基づいて前記モニタ部の回転角度を制御する請求項5、又は6に記載の撮像装置の制御方法。
The imaging device is provided with a sensor that detects at least one of the angle and acceleration of the main body,
The method for controlling an imaging apparatus according to claim 5 or 6, wherein when the face position is not detected, a rotation angle of the monitor unit is controlled based on a detection result of the sensor.
検出された前記顔位置が、前記撮像画像の中央における所定の範囲内にあるか否かを判定し、
前記所定の範囲にある場合に、前記モニタ部の回転を停止する請求項5〜7のいずれか1項に記載の撮像装置の制御方法。
Determining whether the detected face position is within a predetermined range in the center of the captured image;
The method of controlling an imaging apparatus according to any one of claims 5 to 7, wherein the rotation of the monitor unit is stopped when it is in the predetermined range.
JP2013187936A 2013-09-11 2013-09-11 Imaging apparatus and control method Pending JP2015056713A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013187936A JP2015056713A (en) 2013-09-11 2013-09-11 Imaging apparatus and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013187936A JP2015056713A (en) 2013-09-11 2013-09-11 Imaging apparatus and control method

Publications (1)

Publication Number Publication Date
JP2015056713A true JP2015056713A (en) 2015-03-23

Family

ID=52820807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013187936A Pending JP2015056713A (en) 2013-09-11 2013-09-11 Imaging apparatus and control method

Country Status (1)

Country Link
JP (1) JP2015056713A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018100676A1 (en) * 2016-11-30 2018-06-07 株式会社オプティム Camera control system, camera control method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007180901A (en) * 2005-12-28 2007-07-12 Pentax Corp Imaging apparatus
JP2011035882A (en) * 2009-08-06 2011-02-17 Nikon Corp Imaging apparatus
JP2014236267A (en) * 2013-05-31 2014-12-15 株式会社ニコン Imaging device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007180901A (en) * 2005-12-28 2007-07-12 Pentax Corp Imaging apparatus
JP2011035882A (en) * 2009-08-06 2011-02-17 Nikon Corp Imaging apparatus
JP2014236267A (en) * 2013-05-31 2014-12-15 株式会社ニコン Imaging device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018100676A1 (en) * 2016-11-30 2018-06-07 株式会社オプティム Camera control system, camera control method, and program
JP6404527B1 (en) * 2016-11-30 2018-10-10 株式会社オプティム Camera control system, camera control method, and program
US20190340197A1 (en) * 2016-11-30 2019-11-07 Optim Corporation System and method for controlling camera and program
US10846326B2 (en) 2016-11-30 2020-11-24 Optim Corporation System and method for controlling camera and program

Similar Documents

Publication Publication Date Title
JP6954414B2 (en) Imaging device
JP4510713B2 (en) Digital camera
US9338362B2 (en) Image capturing apparatus, image capturing control method and storage medium for capturing a subject to be recorded with intended timing
US8823814B2 (en) Imaging apparatus
US10158798B2 (en) Imaging apparatus and method of controlling the same
JP2017199042A5 (en)
US20170111574A1 (en) Imaging apparatus and imaging method
US9210323B2 (en) Image capture device and image processor
US9049374B2 (en) Imaging apparatus with camera shake correction function
WO2014034023A1 (en) Image processing apparatus, image processing method, and computer program
JP2009105559A (en) Method of detecting and processing object to be recognized from taken image, and portable electronic device with camera
JP2013243552A (en) Imaging apparatus, control method of the same, program, and storage medium
JP2015056713A (en) Imaging apparatus and control method
JP2017050593A (en) Imaging apparatus, imaging control method and program
KR101995258B1 (en) Apparatus and method for recording a moving picture of wireless terminal having a camera
JP6631166B2 (en) Imaging device, program, and imaging method
JP2020115679A (en) Object detection device, detection control method, and program
JP2011097502A (en) Photographing control device, and photographing control method
JP5807565B2 (en) Imaging apparatus and control method thereof
JP5939124B2 (en) Imaging apparatus and image processing method
JP2011259341A (en) Imaging apparatus
JP2012054899A (en) Imaging apparatus and posture detection method
JP6119534B2 (en) Imaging display apparatus and control method
JP4784866B2 (en) Imaging apparatus and program thereof
JP2015032853A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160712

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170131