JP2019121855A - Imaging device and control method thereof - Google Patents

Imaging device and control method thereof Download PDF

Info

Publication number
JP2019121855A
JP2019121855A JP2017254232A JP2017254232A JP2019121855A JP 2019121855 A JP2019121855 A JP 2019121855A JP 2017254232 A JP2017254232 A JP 2017254232A JP 2017254232 A JP2017254232 A JP 2017254232A JP 2019121855 A JP2019121855 A JP 2019121855A
Authority
JP
Japan
Prior art keywords
learning
image
shooting
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017254232A
Other languages
Japanese (ja)
Other versions
JP7199808B2 (en
Inventor
浩平 古谷
Kohei Furuya
浩平 古谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017254232A priority Critical patent/JP7199808B2/en
Publication of JP2019121855A publication Critical patent/JP2019121855A/en
Application granted granted Critical
Publication of JP7199808B2 publication Critical patent/JP7199808B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

To provide an imaging device capable of acquiring a user's favorite video without performing a special operation by the user.SOLUTION: The control method includes: a determination step of determining a photographing process on the basis of a detection result of the state of the imaging device and a detection result of the state of a subject; and a learning step of analyzing a plurality of data acquired in at least one of the detection result of the state of the imaging device, the detection result of the state of the subject, and the determined photographing process, extracting regularity, and learning a user's preference according to the extraction result. The determination of the photographing process in the determination step is changed in accordance with learning by the learning step.SELECTED DRAWING: Figure 5

Description

本発明は、撮像装置およびその制御方法に関する。   The present invention relates to an imaging device and a control method thereof.

カメラ等の撮像装置による静止画・動画撮影においては、ユーザがファインダー等を通して撮影対象を決定し、撮影状況を自ら確認して撮影画像のフレーミングを調整することによって、画像を撮影するのが通常である。このような撮像装置では、ユーザの操作ミスを検知してユーザに通知したり、外部環境の検知を行い、撮影に適していない場合にユーザに通知したりする機能が備えられている。また、撮影に適した状態になるようにカメラを制御する仕組みが従来から存在している。   In still image / moving image shooting with an imaging device such as a camera, it is common for a user to decide an object to be shot through a finder or the like, check the shooting situation by himself and adjust the framing of the shot image to shoot an image. is there. Such an imaging apparatus is provided with a function of detecting a user's operation error and notifying the user, or detecting an external environment and notifying the user when it is not suitable for photographing. In addition, there has conventionally been a mechanism for controlling the camera to be in a state suitable for photographing.

このようなユーザの操作により撮影を実行する撮像装置に対し、ユーザが撮影指示を与えることなく定期的および継続的に撮影を行うライフログカメラが存在する(特許文献1)。ライフログカメラは、ストラップ等でユーザの身体に装着された状態で用いられ、ユーザが日常生活で目にする光景を一定時間間隔で映像として記録するものである。ライフログカメラによる撮影は、ユーザがシャッターを切るなどの意図したタイミングで撮影するのではなく、一定の時間間隔で撮影を行うため、普段撮影しないような不意な瞬間を映像として残すことができる。   There is a life log camera that shoots regularly and continuously without the user giving a shooting instruction to an imaging apparatus that performs shooting by such a user operation (Japanese Patent Application Laid-Open No. 2008-112118). The life log camera is used in a state of being attached to the user's body by a strap or the like, and records a scene that the user sees in daily life as an image at regular time intervals. The life log camera does not shoot at a timing intended by the user, for example, but shoots at fixed time intervals, so that unexpected moments that are not normally shot can be left as images.

特表2016−536868号公報Japanese Patent Publication No. 2016-536868 Publication

しかしながら、ライフログカメラをユーザが身に着けた状態において、定期的に自動撮影を行った場合、ユーザの好みでない映像が取得され、本当に得たい瞬間の映像を取得できない場合があった。   However, when the user wears the life log camera, if automatic shooting is performed periodically, there is a case where a video which is not preferred by the user is acquired, and it is not possible to acquire a video at the moment when it is desired to obtain.

本発明は上述した課題に鑑みてなされたものであり、その目的は、ユーザが特別な操作を行うことなく、ユーザの好みの映像を取得することが可能な撮像装置を提供することである。   The present invention has been made in view of the above-described problems, and an object thereof is to provide an imaging device capable of acquiring a video favorite of the user without the user performing a special operation.

上記目的を達成するために、本発明の技術的特徴として、撮像装置の制御方法であって、撮像装置の状態の検出結果と被写体の状態の検出結果に基づいて、撮影処理を決定する決定工程と、前記装置の状態の検出結果、前記被写体の状態の検出結果、および前記決定された撮影処理の少なくとも何れかにおいて得られた複数のデータを解析して、規則性を抽出し、抽出結果に応じてユーザの好みを学習する学習工程を有し、前記学習工程による学習により、前記決定工程の前記撮影処理の決定が変更されることを特徴とする。   In order to achieve the above object, as a technical feature of the present invention, there is provided a control method of an imaging device, which is a determination step of determining a photographing process based on a detection result of a state of an imaging device and a detection result of a subject state. And analyzing a plurality of data obtained in at least one of the detection result of the device state, the detection result of the object state, and the determined photographing process, and extracting regularity, According to the present invention, there is provided a learning step of learning the preference of the user, and the determination of the photographing process of the determination step is changed by the learning by the learning step.

本発明によれば、ユーザが特別な操作を行うことなく、ユーザの好みの映像を取得することが可能な撮像装置を提供することが可能となる。   According to the present invention, it is possible to provide an imaging device capable of acquiring an image desired by the user without the user performing a special operation.

撮像装置を模式的に示す図である。It is a figure which shows an imaging device typically. 撮像装置の構成を示す図である。It is a figure showing composition of an imaging device. 撮像装置と外部機器との構成を示す図である。It is a figure which shows the structure of an imaging device and an external apparatus. 外部機器の構成を示す図である。It is a figure which shows the structure of an external apparatus. 撮像装置と外部機器との構成を示す図である。It is a figure which shows the structure of an imaging device and an external apparatus. 外部機器の構成を示す図である。It is a figure which shows the structure of an external apparatus. 第1制御部を説明するフローチャートである。It is a flowchart explaining a 1st control part. 第2制御部を説明するフローチャートである。It is a flowchart explaining a 2nd control part. 撮影モード処理を説明するフローチャートである。5 is a flowchart illustrating shooting mode processing. 自動編集モード判定を説明するフローチャートである。It is a flowchart explaining automatic edit mode determination. 自動編集処理を説明するフローチャートである。It is a flow chart explaining automatic edit processing. ニューラルネットワークを説明する図である。It is a figure explaining a neural network. 撮影画像内のエリア分割を説明するための図である。It is a figure for demonstrating area division in a photography picture. 学習モード判定を説明するフローチャートである。It is a flowchart explaining a learning mode determination. 学習処理を説明するフローチャートである。It is a flowchart explaining a learning process. 本実施形態に係る表示処理を説明する図である。It is a figure explaining the display process which concerns on this embodiment. 鏡筒回転駆動部の構成を示す図である。It is a figure which shows the structure of a barrel rotation drive part. 画像上の被写体の目標位置と実位置を説明する図である。It is a figure explaining the target position and real position of the to-be-photographed object on an image. 撮影方向変更操作検出を説明するフローチャートである。5 is a flowchart illustrating shooting direction change operation detection. 撮影方向変更操作検出を模式的に示す図である。FIG. 8 is a view schematically showing shooting direction change operation detection. 撮影方向変更操作検出を模式的に示す図である。FIG. 8 is a view schematically showing shooting direction change operation detection. 撮影方向変更操作検出処理を説明する図である。FIG. 8 is a diagram for explaining a shooting direction change operation detection process. 撮影方向変更操作検出処理を説明する図である。FIG. 8 is a diagram for explaining a shooting direction change operation detection process. 本実施形態に係る撮影方法の例を説明する図である。It is a figure explaining the example of the photography method concerning this embodiment. 本実施形態に係る撮影方法判定の例を説明する図である。It is a figure explaining an example of photography method judgment concerning this embodiment. 本実施形態に係る撮像装置の加速度変化の例を説明する図である。It is a figure explaining the example of the acceleration change of the imaging device concerning this embodiment.

本発明を実施するための最良の形態は、以下の実施例に示す通りである。   The best mode for carrying out the present invention is as shown in the following examples.

撮影方法においては、例えば、図24(a)のような通常撮影の他にも、図24(b)のような、横方向のパノラマ撮影や、図24(c)のような縦方向のパノラマ撮影といった手法も存在する。このような種々の撮影方法のうち、どの方法を採用するかという判定において、ユーザが毎回撮影方法を指定すると、ユーザに余計な手間をかけさせてしまううえ、撮影の機会を逃してしまう場合もある。また、そもそもそのような選択肢を知らないユーザの表現の幅を狭めてしまう可能性もある。それに対し、例えば常に全ての撮影方法で撮影するようにした場合、余分な画像が増えてしまうため、ユーザの選択の手間を増やしてしまう。   In the photographing method, for example, besides the normal photographing as shown in FIG. 24A, the panoramic photographing in the horizontal direction as shown in FIG. 24B and the panorama in the vertical direction as shown in FIG. There is also a method such as shooting. Among the various photographing methods described above, when the user designates the photographing method every time in determining which method to adopt, the user may cause extra time for the user and may miss the photographing opportunity. is there. In addition, there is a possibility that the width of the expression of the user who does not know such an option in the first place may be narrowed. On the other hand, if, for example, imaging is always performed by all imaging methods, extra images are increased, which increases the time and effort of the user's selection.

そこで、下記では、利用者が特別な操作を行うことなく、撮像装置を起動するだけで、映像ブレ・画角ズレなく、個人毎の好みを反映し、必要なときにのみ撮影動作を行うことで長時間使用でき、利用者の好みの映像を取得することができる撮像装置の例を示す。   Therefore, in the following, without changing the user's special operation, it is possible to reflect the preference of each individual without causing any image blurring or angle-of-field shift, and to perform the photographing operation only when necessary, by merely activating the imaging device. Shows an example of an imaging device that can be used for a long time and can acquire a user's favorite video.

〔第1の実施形態〕
<撮像装置の構成>
図1は、第1の実施形態の撮像装置を模式的に示す図である。
First Embodiment
<Configuration of Imaging Device>
FIG. 1 is a view schematically showing an imaging device of the first embodiment.

図1(a)に示す撮像装置101は、電源スイッチの操作を行うことができる操作部材(以後、電源ボタンというが、タッチパネルへのタップやフリック、スワイプなどの操作でもよい)などが設けられている。撮像を行う撮影レンズ群や撮像素子を含む筐体である鏡筒102は、撮像装置101に取り付けられ、鏡筒102を固定部103に対して回転駆動できる回転機構を設けている。チルト回転ユニット104は、鏡筒102を図1(b)に示すピッチ方向に回転できるモーター駆動機構であり、パン回転ユニット105は、鏡筒102をヨー方向に回転できるモーター駆動機構である。よって、鏡筒102は、1軸以上の方向に回転可能である。なお、図1(b)は、固定部103位置での軸定義である。角速度計106と加速度計107はともに、撮像装置101の固定部103に実装されている。そして、角速度計106や加速度計107に基づいて、撮像装置101の振動を検出し、チルト回転ユニットとパン回転ユニットを検出した揺れ角度に基づいて回転駆動する。これにより、可動部である鏡筒102の振れを補正したり、傾きを補正したりする構成となっている。   The imaging device 101 illustrated in FIG. 1A is provided with an operation member (hereinafter referred to as a power button, which may be a tap, flick, or swipe operation to a touch panel) that can operate the power switch. There is. A lens barrel 102, which is a housing including an imaging lens group for capturing an image and an imaging element, is attached to the imaging apparatus 101, and is provided with a rotation mechanism capable of rotationally driving the lens barrel 102 with respect to the fixed portion 103. The tilt rotation unit 104 is a motor drive mechanism capable of rotating the lens barrel 102 in the pitch direction shown in FIG. 1B, and the pan rotation unit 105 is a motor drive mechanism capable of rotating the lens barrel 102 in the yaw direction. Thus, the lens barrel 102 can rotate in one or more axes. FIG. 1B is an axis definition at the fixed portion 103 position. Both the angular velocity meter 106 and the accelerometer 107 are mounted on the fixing unit 103 of the imaging device 101. The vibration of the imaging apparatus 101 is detected based on the angular velocity meter 106 and the accelerometer 107, and the tilt rotation unit and the pan rotation unit are rotationally driven based on the detected swing angle. Thereby, the shake of the lens barrel 102 which is the movable portion is corrected, and the tilt is corrected.

図2は、本実施形態の撮像装置の構成を示すブロック図である。   FIG. 2 is a block diagram showing the configuration of the imaging device of the present embodiment.

図2において、第1制御部223は、プロセッサ(例えば、CPU、GPU、マイクロプロセッサ、MPUなど)、メモリ(例えば、DRAM、SRAMなど)からなる。これらは、各種処理を実行して撮像装置101の各ブロックを制御したり、各ブロック間でのデータ転送を制御したりする。不揮発性メモリ(EEPROM)216は、電気的に消去・記録可能なメモリであり、第1制御部223の動作用の定数、プログラム等が記憶される。   In FIG. 2, the first control unit 223 includes a processor (for example, a CPU, a GPU, a microprocessor, an MPU, and the like) and a memory (for example, a DRAM, an SRAM, and the like). These units execute various processes to control each block of the imaging apparatus 101 or to control data transfer between the blocks. A non-volatile memory (EEPROM) 216 is an electrically erasable and recordable memory, and stores constants, programs and the like for the operation of the first control unit 223.

図2において、ズームユニット201は、変倍を行うズームレンズを含む。ズーム駆動制御部202は、ズームユニット201を駆動制御する。フォーカスユニット203は、ピント調整を行うレンズを含む。フォーカス駆動制御部204は、フォーカスユニット203を駆動制御する。   In FIG. 2, the zoom unit 201 includes a zoom lens that performs magnification change. The zoom drive control unit 202 drives and controls the zoom unit 201. The focus unit 203 includes a lens that performs focus adjustment. The focus drive control unit 204 drives and controls the focus unit 203.

撮像部206では、撮像素子が各レンズ群を通して入射する光を受け、その光量に応じた電荷の情報をアナログ画像データとして画像処理部207に出力する。画像処理部207はA/D変換により出力されたデジタル画像データに対して、歪曲補正やホワイトバランス調整や色補間処理等の画像処理を適用し、適用後のデジタル画像データを出力する。画像処理部207から出力されたデジタル画像データは、画像記録部208でJPEG形式等の記録用フォーマットに変換し、メモリ215や後述する映像出力部217に送信される。   In the imaging unit 206, the imaging device receives light incident through each lens group, and outputs information on charge according to the light amount to the image processing unit 207 as analog image data. The image processing unit 207 applies image processing such as distortion correction, white balance adjustment, color interpolation processing, and the like to digital image data output by A / D conversion, and outputs the applied digital image data. The digital image data output from the image processing unit 207 is converted into a recording format such as JPEG format by the image recording unit 208, and is transmitted to the memory 215 or a video output unit 217 described later.

鏡筒回転駆動部205は、チルト回転ユニット104、パン回転ユニット105を駆動して鏡筒102をチルト方向とパン方向に駆動させる。   The lens barrel rotation drive unit 205 drives the tilt rotation unit 104 and the pan rotation unit 105 to drive the lens barrel 102 in the tilt direction and the pan direction.

装置揺れ検出部209は、例えば撮像装置101の3軸方向の角速度を検出する角速度計(ジャイロセンサ)106や、装置の3軸方向の加速度を検出する加速度計(加速度センサ)107が搭載される。装置揺れ検出部209は、検出された信号に基づいて、装置の回転角度や装置のシフト量などが演算される。   The device shake detection unit 209 is mounted with, for example, an angular velocity meter (gyro sensor) 106 that detects angular velocities in the three axis directions of the imaging device 101, and an accelerometer (acceleration sensor) 107 that detects an acceleration in the three axis directions of the device. . The device shake detection unit 209 calculates the rotation angle of the device, the shift amount of the device, and the like based on the detected signal.

音声入力部213は、撮像装置101に設けられたマイクから撮像装置101周辺の音声信号を取得し、アナログデジタル変換をして音声処理部214に送信する。音声処理部214は、入力されたデジタル音声信号の適正化処理等の音声に関する処理を行う。そして、音声処理部214で処理された音声信号は、第1制御部223によりメモリ215に送信される。メモリ215は、画像処理部207、音声処理部214により得られた画像信号及び音声信号を一時的に記憶する。   The audio input unit 213 acquires an audio signal around the imaging device 101 from a microphone provided in the imaging device 101, performs analog-to-digital conversion, and transmits the signal to the audio processing unit 214. The audio processing unit 214 performs processing related to audio such as optimization processing of the input digital audio signal. Then, the first control unit 223 transmits the audio signal processed by the audio processing unit 214 to the memory 215. The memory 215 temporarily stores the image signal and the audio signal obtained by the image processing unit 207 and the audio processing unit 214.

画像処理部207及び音声処理部214は、メモリ215に一時的に記憶された画像信号や音声信号を読み出して画像信号の符号化、音声信号の符号化などを行い、圧縮画像信号、圧縮音声信号を生成する。第1制御部223は、これらの圧縮画像信号、圧縮音声信号を、記録再生部220に送信する。   An image processing unit 207 and an audio processing unit 214 read out an image signal and an audio signal temporarily stored in the memory 215 and perform encoding of the image signal, encoding of the audio signal, and the like, and a compressed image signal and a compressed audio signal. Generate The first control unit 223 transmits the compressed image signal and the compressed audio signal to the recording and reproducing unit 220.

記録再生部220は、記録媒体221に対して画像処理部207及び音声処理部214で生成された圧縮画像信号、圧縮音声信号、その他撮影に関する制御データ等を記録する。また、音声信号を圧縮符号化しない場合には、第1制御部223は、音声処理部214により生成された音声信号と画像処理部207により生成された圧縮画像信号とを、記録再生部220に送信し記録媒体221に記録させる。   The recording and reproducing unit 220 records, on the recording medium 221, the compressed image signal and the compressed sound signal generated by the image processing unit 207 and the sound processing unit 214, and other control data related to photographing. When the audio signal is not compressed and encoded, the first control unit 223 causes the recording / reproducing unit 220 to transmit the audio signal generated by the audio processing unit 214 and the compressed image signal generated by the image processing unit 207. It transmits and makes the recording medium 221 record.

記録媒体221は、撮像装置101に内蔵された記録媒体でも、取外し可能な記録媒体でもよい。記録媒体221は、撮像装置101で生成した圧縮画像信号、圧縮音声信号、音声信号などの各種データを記録することができ、不揮発性メモリ216よりも大容量な媒体が一般的に使用される。例えば、記録媒体221は、ハードディスク、光ディスク、光磁気ディスク、CD−R、DVD−R、磁気テープ、不揮発性の半導体メモリ、フラッシュメモリ、などのあらゆる方式の記録媒体を含む。   The recording medium 221 may be a recording medium built in the imaging device 101 or a removable recording medium. The recording medium 221 can record various data such as a compressed image signal, a compressed audio signal, and an audio signal generated by the imaging device 101, and a medium having a larger capacity than the non-volatile memory 216 is generally used. For example, the recording medium 221 includes a recording medium of any type such as a hard disk, an optical disk, a magneto-optical disk, a CD-R, a DVD-R, a magnetic tape, a non-volatile semiconductor memory, and a flash memory.

記録再生部220は、記録媒体221に記録された圧縮画像信号、圧縮音声信号、音声信号、各種データ、プログラムを読み出す(再生する)。そして読み出した圧縮画像信号、圧縮音声信号を、第1制御部223は画像処理部207及び音声処理部214に送信する。画像処理部207及び音声処理部214は、圧縮画像信号、圧縮音声信号を一時的にメモリ215に記憶させ、所定の手順で復号し、復号した信号を映像出力部217、音声出力部218に送信する。   The recording and reproducing unit 220 reads (reproduces) the compressed image signal, the compressed audio signal, the audio signal, various data, and the program recorded on the recording medium 221. Then, the first control unit 223 transmits the read compressed image signal and compressed audio signal to the image processing unit 207 and the audio processing unit 214. The image processing unit 207 and the audio processing unit 214 temporarily store the compressed image signal and the compressed audio signal in the memory 215, decode the signal according to a predetermined procedure, and transmit the decoded signal to the video output unit 217 and the audio output unit 218. Do.

音声入力部213は複数のマイクが撮像装置101に搭載されており、音声処理部214は複数のマイクが設置された平面上の音の方向を検出することができ、後述する探索や自動撮影に用いられる。さらに、音声処理部214では、特定の音声コマンドを検出する。音声コマンドは事前に登録されたいくつかのコマンドの他、ユーザが特定音声を撮像装置に登録できる構成にしてもよい。また、音シーン認識も行う。音シーン認識では、予め大量の音声データを基に、複数のデータを解析して、規則性を抽出し、抽出結果に応じて、機械学習により学習させたネットワークにより音シーン判定を行う。例えば、「歓声が上がっている」、「拍手している」、「声を発している」などの特定シーンを検出するためのネットワークが音声処理部214に設定されている。そして、特定音シーンや特定音声コマンドを検出すると、第1制御部223や第2制御部211に、検出トリガー信号を出力する構成になっている。   The voice input unit 213 has a plurality of microphones mounted on the imaging apparatus 101, and the voice processing unit 214 can detect the direction of the sound on the plane on which the plurality of microphones are installed. Used. Further, the voice processing unit 214 detects a specific voice command. The voice command may be configured so that the user can register a specific voice in the imaging device in addition to some commands registered in advance. It also performs sound scene recognition. In sound scene recognition, a plurality of data are analyzed in advance based on a large amount of voice data, regularity is extracted, and sound scene determination is performed by a network learned by machine learning according to the extraction result. For example, a network for detecting a specific scene such as “Chaiing,” “Applause,” “Speaking,” etc. is set in the audio processing unit 214. When a specific sound scene or a specific voice command is detected, a detection trigger signal is output to the first control unit 223 or the second control unit 211.

撮像装置101のメインシステム全体を制御する第1制御部223はとは別に設けられた、第2制御部211が第1制御部223の供給電源を制御する。   The first control unit 223 that controls the entire main system of the imaging apparatus 101 is provided separately, and the second control unit 211 controls the power supply of the first control unit 223.

第1電源部210と第2電源部212は、第1制御部223と第2制御部211を動作させるための、電源をそれぞれ供給する。撮像装置101に設けられた電源ボタンの押下により、まず第1制御部223と第2制御部211の両方に電源が供給されるが、後述するように、第1制御部223は、第1電源部210へ自らの電源供給をOFFするように制御される。第1制御部223が動作していない間も、第2制御部211は動作しており、装置揺れ検出部209や音声処理部214からの情報が入力される。第2制御部は各種入力情報を基にして、第1制御部223を起動するか否かの判定処理を行い、起動判定されると第1電源部に電源供給指示をする構成になっている。   The first power supply unit 210 and the second power supply unit 212 respectively supply power for operating the first control unit 223 and the second control unit 211. Power is supplied to both the first control unit 223 and the second control unit 211 by pressing the power button provided on the imaging apparatus 101. However, as described later, the first control unit 223 performs the first power supply. It is controlled to turn off its own power supply to the unit 210. Even while the first control unit 223 is not in operation, the second control unit 211 is in operation, and information from the device shake detection unit 209 and the audio processing unit 214 is input. The second control unit is configured to determine whether or not to start the first control unit 223 based on various input information, and when the start determination is made, instructs the first power supply unit to supply power. .

音声出力部218は、例えば撮影時などに撮像装置101に内蔵されたスピーカーから予め設定された音声パターンを出力する。   The audio output unit 218 outputs an audio pattern set in advance from a speaker incorporated in the imaging apparatus 101, for example, at the time of shooting.

LED制御部224は、例えば撮影時などに撮像装置101に設けられたLEDを予め設定された点灯点滅パターンを制御する。   The LED control unit 224 controls, for example, a lighting blink pattern in which an LED provided in the imaging device 101 is preset when photographing or the like.

映像出力部217は、例えば映像出力端子からなり、接続された外部ディスプレイ等に映像を表示させるために画像信号を送信する。また、音声出力部218、映像出力部217は、結合された1つの端子、例えばHDMI(登録商標)(High−Definition Multimedia Interface)端子のような端子であってもよい。   The video output unit 217 includes, for example, a video output terminal, and transmits an image signal to display a video on a connected external display or the like. Further, the audio output unit 218 and the video output unit 217 may be one combined terminal, for example, a terminal such as an HDMI (registered trademark) (High-Definition Multimedia Interface) terminal.

通信部222は、撮像装置101と外部装置との間で通信を行うもので、例えば、音声信号、画像信号、圧縮音声信号、圧縮画像信号などのデータを送信したり受信したりする。また、撮影開始や終了コマンド、パン・チルトやズーム駆動等の、撮影にかかわる制御信号を受信して、撮像装置101と相互通信可能な外部機器の指示から撮像装置101を駆動する。また、撮像装置101と外部装置との間で、後述する学習処理部219で処理される学習にかかわる各種パラメータなどの情報を送信したり受信したりする。通信部222は、例えば、赤外線通信モジュール、Bluetooth(登録商標)通信モジュール、無線LAN通信モジュール、WirelessUSB、GPS受信機等の無線通信モジュールである。   The communication unit 222 performs communication between the imaging apparatus 101 and an external device, and transmits and receives data such as an audio signal, an image signal, a compressed audio signal, and a compressed image signal, for example. Also, the imaging device 101 is driven based on an instruction from an external device that can mutually communicate with the imaging device 101 by receiving imaging start and end commands and control signals related to imaging such as pan / tilt and zoom driving. In addition, information such as various parameters related to learning processed by a learning processing unit 219 described later is transmitted and received between the imaging apparatus 101 and an external apparatus. The communication unit 222 is, for example, a wireless communication module such as an infrared communication module, a Bluetooth (registered trademark) communication module, a wireless LAN communication module, a wireless USB, or a GPS receiver.

<外部通信機器との構成>
図3は、撮像装置101と外部装置301との無線通信システムの構成例を示す図である。撮像装置101は撮影機能を有するデジタルカメラであり、外部装置301はBluetooth通信モジュール、無線LAN通信モジュールを含むスマートデバイスである。
<Configuration with external communication device>
FIG. 3 is a diagram showing a configuration example of a wireless communication system of the imaging apparatus 101 and the external apparatus 301. The imaging apparatus 101 is a digital camera having a photographing function, and the external apparatus 301 is a smart device including a Bluetooth communication module and a wireless LAN communication module.

撮像装置101とスマートデバイス301は、例えばIEEE802.11規格シリーズに準拠した無線LANによる通信302と、例えばBluetooth Low Energy(以下、「BLE」と呼ぶ。)BLEなどの、制御局と従属局などの主従関係を有する通信303とによって通信可能である。なお、無線LAN及びBLEは通信手法の一例であり、各通信装置は、2つ以上の通信機能を有し、例えば制御局と従属局との関係の中で通信を行う一方の通信機能によって、他方の通信機能の制御を行うことが可能であれば、他の通信手法が用いられてもよい。ただし、一般性を失うことなく、無線LANなどの第1の通信は、BLEなどの第2の通信より高速な通信が可能であり、また、第2の通信は、第1の通信よりも消費電力が少ないか通信可能距離が短いかの少なくともいずれかであるものとする。   The imaging apparatus 101 and the smart device 301 communicate, for example, with a wireless LAN based on the IEEE 802.11 standard series, and control stations and dependent stations such as Bluetooth Low Energy (hereinafter, referred to as "BLE") BLE. It can communicate by the communication 303 which has master-slave relationship. The wireless LAN and BLE are an example of a communication method, and each communication apparatus has two or more communication functions, for example, one communication function that performs communication in the relationship between the control station and the dependent station. Other communication methods may be used as long as control of the other communication function can be performed. However, without loss of generality, the first communication such as a wireless LAN can perform faster communication than the second communication such as BLE, and the second communication consumes more than the first communication. It is assumed that the power is low and / or the communicable distance is short.

スマートデバイス301の構成を、図4を用いて説明する。   The configuration of the smart device 301 will be described with reference to FIG.

スマートデバイス301は、例えば、無線LAN用の無線LAN制御部401、及び、BLE用のBLE制御部402に加え、公衆無線通信用の公衆回線制御部406を有する。また、スマートデバイス301は、パケット送受信部403をさらに有する。無線LAN制御部401は、無線LANのRF制御、通信処理、IEEE802.11規格シリーズに準拠した無線LANによる通信の各種制御を行うドライバや無線LANによる通信に関するプロトコル処理を行う。BLE制御部402は、BLEのRF制御、通信処理、BLEによる通信の各種制御を行うドライバやBLEによる通信に関するプロトコル処理を行う。公衆回線制御部406は、公衆無線通信のRF制御、通信処理、公衆無線通信の各種制御を行うドライバや公衆無線通信関連のプロトコル処理を行う。公衆無線通信は例えばIMT(International Multimedia Telecommunications)規格やLTE(Long Term Evolution)規格などに準拠したものである。パケット送受信部403は、無線LAN並びにBLEによる通信及び公衆無線通信に関するパケットの送信と受信との少なくともいずれかを実行するための処理を行う。なお、本例では、スマートデバイス301は、通信においてパケットの送信と受信との少なくともいずれかを行うものとして説明するが、パケット交換以外に、例えば回線交換など、他の通信形式が用いられてもよい。   The smart device 301 includes, for example, a public line control unit 406 for public wireless communication in addition to the wireless LAN control unit 401 for wireless LAN and the BLE control unit 402 for BLE. The smart device 301 further includes a packet transmitting / receiving unit 403. A wireless LAN control unit 401 performs RF control of a wireless LAN, communication processing, a driver that performs various controls of communication by a wireless LAN conforming to the IEEE 802.11 standard series, and protocol processing regarding communication by a wireless LAN. The BLE control unit 402 performs RF control of BLE, communication processing, and protocol processing regarding communication by a driver that performs various controls of communication by BLE and BLE. A public line control unit 406 performs RF control of public wireless communication, communication processing, a driver that performs various controls of public wireless communication, and protocol processing related to public wireless communication. The public wireless communication conforms to, for example, the International Multimedia Telecommunications (IMT) standard or the Long Term Evolution (LTE) standard. The packet transmission / reception unit 403 performs processing for performing transmission and / or reception of packets related to communication by wireless LAN and BLE and public wireless communication. In this example, the smart device 301 is described as performing at least one of transmission and reception of a packet in communication, but other communication formats such as circuit switching may be used other than packet switching. Good.

スマートデバイス301は、例えば、制御部411、記憶部404、GPS受信部405、表示部407、操作部408、音声入力音声処理部409、電源部410をさらに有する。制御部411は、例えば、記憶部404に記憶される制御プログラムを実行することにより、スマートデバイス301全体を制御する。記憶部404は、例えば制御部411が実行する制御プログラムと、通信に必要なパラメータ等の各種情報とを記憶する。後述する各種動作は、記憶部404に記憶された制御プログラムを制御部411が実行することにより、実現される。   The smart device 301 further includes, for example, a control unit 411, a storage unit 404, a GPS reception unit 405, a display unit 407, an operation unit 408, an audio input audio processing unit 409, and a power supply unit 410. The control unit 411 controls the entire smart device 301, for example, by executing a control program stored in the storage unit 404. The storage unit 404 stores, for example, a control program executed by the control unit 411 and various information such as parameters required for communication. Various operations described later are realized by the control unit 411 executing a control program stored in the storage unit 404.

電源部410はスマートデバイス301に電源を供給する。表示部407は、例えば、LCDやLEDのように視覚で認知可能な情報の出力、又はスピーカー等の音出力が可能な機能を有し、各種情報の表示を行う。操作部408は、例えばユーザによるスマートデバイス301の操作を受け付けるボタン等である。なお、表示部407及び操作部408は、例えばタッチパネルなどの共通する部材によって構成されてもよい。   The power supply unit 410 supplies power to the smart device 301. The display unit 407 has a function capable of outputting visually recognizable information, such as an LCD or an LED, or a sound output such as a speaker, and displays various information. The operation unit 408 is, for example, a button for receiving an operation of the smart device 301 by the user. The display unit 407 and the operation unit 408 may be configured by a common member such as a touch panel, for example.

音声入力音声処理部409は、例えばスマートデバイス301に内蔵された汎用的なマイクから、ユーザが発した音声を取得し、音声認識処理により、ユーザの操作命令を取得する構成にしてもよい。   The voice input voice processing unit 409 may be configured to obtain a voice uttered by the user from, for example, a general-purpose microphone built in the smart device 301, and to obtain a user's operation command by voice recognition processing.

また、スマートデバイス内の専用のアプリケーションを介して、ユーザの発音により音声コマンドを取得する。そして、無線LANによる通信302を介して、撮像装置101の音声処理部214に特定音声コマンド認識させるための特定音声コマンドとして登録することもできる。   Also, a voice command is acquired by the user's pronunciation via a dedicated application in the smart device. Then, it can be registered as a specific voice command for causing the voice processing unit 214 of the imaging apparatus 101 to recognize a specific voice command via the communication 302 by wireless LAN.

GPS(Global positioning system)405は、衛星から通知されるGPS信号を受信し、GPS信号を解析し、スマートデバイス301の現在位置(経度・緯度情報)を推定する。もしくは、位置推定は、WPS(Wi−Fi Positioning System)等を利用して、周囲に存在する無線ネットワークの情報に基づいて、スマートデバイス301の現在位置を推定するようにしてもよい。取得した現在のGPS位置情報が予め事前に設定されている位置範囲(所定半径の範囲以内)に位置している場合に、BLE制御部402を介して撮像装置101へ移動情報を通知し、後述する自動撮影や自動編集のためのパラメータとして使用する。また、GPS位置情報に所定以上の位置変化があった場合に、BLE制御部402を介して撮像装置101へ移動情報を通知し、後述する自動撮影や自動編集のためのパラメータとして使用する。   A GPS (Global Positioning System) 405 receives a GPS signal notified from a satellite, analyzes the GPS signal, and estimates the current position (longitude / latitude information) of the smart device 301. Alternatively, position estimation may estimate the current position of the smart device 301 based on information of a wireless network present in the vicinity using a Wi-Fi Positioning System (WPS) or the like. When the acquired current GPS position information is located in a position range (within a predetermined radius range) set in advance, movement information is notified to the imaging apparatus 101 via the BLE control unit 402, and will be described later. Use as a parameter for automatic shooting and editing. In addition, when there is a position change of predetermined position or more in the GPS position information, the movement information is notified to the imaging apparatus 101 via the BLE control unit 402, and used as a parameter for automatic photographing and automatic editing described later.

上記のように撮像装置101とスマートデバイス301は、無線LAN制御部401、及び、BLE制御部402を用いた通信により、撮像装置101とデータのやりとりを行う。例えば、音声信号、画像信号、圧縮音声信号、圧縮画像信号などのデータを送信したり受信したりする。また、スマートデバイスから撮像装置101の撮影などの操作指示であったり、音声コマンド登録データ送信や、GPS位置情報に基づいた所定位置検出通知や場所移動通知を行う。また、スマートデバイス内の専用のアプリケーションを介しての学習用データの送受信も行う。   As described above, the imaging apparatus 101 and the smart device 301 exchange data with the imaging apparatus 101 by communication using the wireless LAN control unit 401 and the BLE control unit 402. For example, it transmits and receives data such as an audio signal, an image signal, a compressed audio signal, and a compressed image signal. Further, the smart device issues an operation instruction such as photographing of the imaging apparatus 101, transmission of voice command registration data, notification of predetermined position detection based on GPS position information, and notification of location movement. It also sends and receives learning data via a dedicated application in the smart device.

<アクセサリ類の構成>
図5は、撮像装置101と通信可能である外部装置501との構成例を示す図である。撮像装置101は撮影機能を有するデジタルカメラであり、外部装置501は、例えばBluetooth通信モジュールなどにより撮像装置101と通信可能である各種センシング部を含むウエアラブルデバイスである。
<Configuration of accessories>
FIG. 5 is a diagram showing a configuration example of an external apparatus 501 that can communicate with the imaging apparatus 101. The imaging apparatus 101 is a digital camera having a photographing function, and the external apparatus 501 is a wearable device including various sensing units capable of communicating with the imaging apparatus 101 by, for example, a Bluetooth communication module.

ウエアラブルデバイス501において、例えばユーザの腕などに装着できるような構成なっており、所定の周期でユーザの脈拍、心拍、血流等の生体情報を検出するセンサやユーザの運動状態を検出できる加速度センサ等が搭載されている。   The wearable device 501 is configured to be attached to, for example, a user's arm, and is a sensor that detects biological information such as the user's pulse, heart rate, blood flow, etc. at a predetermined cycle, and an acceleration sensor that can detect the user's exercise state. Etc. are mounted.

生体情報検出部502は、例えば、脈拍を検出する脈拍センサ、心拍を検出する心拍センサ、血流を検出する血流センサ、導電性高分子による皮膚の接触によって電位の変化を検出したことを検知するセンサを含む。本実施形態では、生体情報検出部502として心拍センサを用いて説明する。心拍センサは、例えばLED等を用いて皮膚に赤外光を照射し、体組織を透過した赤外光を受光センサで検出して信号処理することによりユーザの心拍を検出する。生体情報検出部502は、検出した生体情報を信号として、後述する制御部607へ出力する。   The biological information detection unit 502 detects, for example, a change in electric potential detected by contact of the skin with a conductive polymer, a pulse sensor that detects a pulse, a heartbeat sensor that detects a heartbeat, a blood flow sensor that detects blood flow, Include sensors that The present embodiment will be described using a heart rate sensor as the biological information detection unit 502. The heart rate sensor irradiates the skin with infrared light using, for example, an LED or the like, and detects the heart rate of the user by detecting the infrared light transmitted through the body tissue with a light receiving sensor and processing the signal. The biological information detection unit 502 outputs the detected biological information as a signal to a control unit 607 described later.

ユーザの運動状態を検出する揺れ検出部503は、例えば、加速度センサやジャイロセンサが搭載しており、加速度の情報に基づきユーザが移動しているかどうかや、腕を振り回してアクションをしているかどうかなどのモーションを検出することができる。   For example, an acceleration sensor or a gyro sensor is mounted on the shake detection unit 503 that detects the motion state of the user, and it is determined whether the user is moving based on the acceleration information or whether the user is swinging an arm And other motions can be detected.

また、ユーザによるウエアラブルデバイス501の操作を受け付ける操作部505や、LCDやLEDのように視覚で認知可能な情報を出力する表示部504が搭載される。   In addition, an operation unit 505 that receives an operation of the wearable device 501 by the user, and a display unit 504 that outputs visually recognizable information such as an LCD or an LED are mounted.

ウエアラブルデバイス501の構成を、図6を用いて説明する。   The configuration of the wearable device 501 will be described with reference to FIG.

ウエアラブルデバイス501は、例えば、制御部607、通信部601、生体情報検出部502、揺れ検出部503、表示部504、操作部505、電源部606、記憶部608を有する。   The wearable device 501 includes, for example, a control unit 607, a communication unit 601, a biological information detection unit 502, a shake detection unit 503, a display unit 504, an operation unit 505, a power supply unit 606, and a storage unit 608.

制御部607は、例えば、記憶部608に記憶される制御プログラムを実行することにより、ウエアラブルデバイス501全体を制御する。記憶部608は、例えば制御部607が実行する制御プログラムと、通信に必要なパラメータ等の各種情報とを記憶する。後述する各種動作は、例えば記憶部608に記憶された制御プログラムを制御部607が実行することにより、実現される。   The control unit 607 controls the entire wearable device 501, for example, by executing a control program stored in the storage unit 608. The storage unit 608 stores, for example, a control program executed by the control unit 607 and various information such as parameters required for communication. Various operations described later are realized, for example, by the control unit 607 executing a control program stored in the storage unit 608.

電源部606はウエアラブルデバイス501に電源を供給する。表示部504は、例えば、LCDやLEDのように視覚で認知可能な情報の出力、又はスピーカー等の音出力が可能な機能を有し、各種情報の表示を行う。操作部505は、例えばユーザによるウエアラブルデバイス501の操作を受け付けるボタン等である。なお、表示部504及び操作部505は、例えばタッチパネルなどの共通する部材によって構成されてもよい。   The power supply unit 606 supplies power to the wearable device 501. The display unit 504 has a function capable of outputting visually recognizable information such as an LCD or an LED, or a sound output such as a speaker, and displays various information. The operation unit 505 is, for example, a button for receiving an operation of the wearable device 501 by the user. The display unit 504 and the operation unit 505 may be configured by a common member such as a touch panel, for example.

また、操作部は、例えばウエアラブルデバイス501に内蔵された汎用的なマイクから、ユーザが発した音声を取得し、音声処理によりユーザが発した音声を取得し、音声認識処理により、ユーザの操作命令を取得する構成にしてもよい。   In addition, the operation unit acquires voice uttered by the user from, for example, a general-purpose microphone built in the wearable device 501, acquires voice uttered by the user by voice processing, and receives user's operation instruction by voice recognition processing. May be acquired.

生体情報検出部502や揺れ検出部503から制御部607で処理された各種検出情報は、通信部601により、撮像装置101へ検出情報を送信する。   The various detection information processed by the control unit 607 from the biological information detection unit 502 or the shake detection unit 503 transmits the detection information to the imaging apparatus 101 by the communication unit 601.

例えば、ユーザの心拍の変化を検出したタイミングで検出情報を撮像装置101に送信したり、歩行移動/走行移動/立ち止まりなどの移動状態の変化のタイミングで検出情報を送信したりする。また、例えば、予め設定された腕ふりのモーションを検出したタイミングで検出情報を送信したり、予め設定された距離の移動を検出したタイミングで検出情報を送信したりする。   For example, the detection information is transmitted to the imaging apparatus 101 at the timing at which a change in the user's heartbeat is detected, or the detection information is transmitted at the change timing of the movement state such as walking movement / running movement / stop. Also, for example, detection information is transmitted at a timing at which a pre-set arm-like motion is detected, or detection information is transmitted at a timing at which movement of a preset distance is detected.

<撮像動作のシーケンス>
図7は、本実施形態における撮像装置101の第1制御部223が受け持つ動作の例を説明するフローチャートである。
<Sequence of imaging operation>
FIG. 7 is a flowchart for explaining an example of the operation of the first control unit 223 of the imaging apparatus 101 according to the present embodiment.

ユーザが撮像装置101に設けられた電源ボタンを操作すると、第1電源部210により電源供給部から、第1制御部223及び撮像装置101の各ブロックに電源を供給させる。   When the user operates a power button provided on the imaging apparatus 101, the first power supply unit 210 causes the power supply unit to supply power to each block of the first control unit 223 and the imaging apparatus 101.

また、同様に第2制御部211においても第2電源部212により電源供給部から、第2制御部に電源を供給されるが、第2制御部の動作の詳細については後述する図8のフローチャートを用いて説明する。   Similarly, in the second control unit 211, power is supplied to the second control unit from the power supply unit by the second power supply unit 212. The details of the operation of the second control unit will be described later with reference to the flowchart of FIG. This will be described using

電源が供給されると、図7の処理がスタートする。ステップ701では、起動条件の読み込みが行われる。本実施形態においては、起動条件は以下である。
(1)電源ボタンが手動で押下されて電源起動
(2)外部機器(例えば301)から外部通信(例えばBLE通信)からの指示で電源起動
(3)Subプロセッサ(第2制御部211)から、電源起動
When the power is supplied, the process of FIG. 7 starts. In step 701, the start condition is read. In the present embodiment, the activation condition is as follows.
(1) The power button is manually pressed to start power (2) Power from external device (for example, 301) according to an instruction from external communication (for example, BLE communication) (3) From sub processor (second control unit 211) Power on

ここで、(3)のSubプロセッサから電源起動の場合は、Subプロセッサ内で演算された起動条件が読み込まれることになるが、詳細は後述する図8で説明する。   Here, in the case of power activation from the Sub processor (3), the activation condition calculated in the Sub processor is read, but the details will be described later with reference to FIG.

また、ここで読み込まれた起動条件は、被写体探索や自動撮影時の1つのパラメータ要素として用いられるが、後述して説明する。起動条件読み込みが終了するとステップ702に進む。   Also, the start condition read in here is used as one parameter element at the time of subject search and automatic photographing, which will be described later. When the start condition reading is completed, the process proceeds to step 702.

ステップ702では、各種センサの読み込みが行われる。ここで読み込まれるセンサは、装置揺れ検出部209からのジャイロセンサや加速度センサなどの振動検出するセンサであったりする。また、チルト回転ユニット104やパン回転ユニット105の回転位置であったりする。また、音声処理部214にて検出される音声レベルや特定音声認識の検出トリガーや音方向検出だったりする。   In step 702, various sensors are read. The sensor read in here is a sensor that detects vibration such as a gyro sensor from the apparatus shake detection unit 209 or an acceleration sensor. In addition, the rotational position of the tilt rotation unit 104 or the pan rotation unit 105 may be set. In addition, it may be a voice level detected by the voice processing unit 214, a detection trigger of specific voice recognition, or a sound direction detection.

また、図1乃至図6には図示していないが、環境情報を検出するセンサでも情報を取得する。   Further, although not shown in FIGS. 1 to 6, a sensor that detects environmental information also acquires information.

例えば、所定の周期で撮像装置101の周辺の温度を検出する温度センサや、撮像装置101の周辺の気圧の変化を検出する気圧センサがある。また、撮像装置101の周辺の明るさを検出する照度センサや、撮像装置101の周辺の湿度を検出する湿度センサや、撮像装置101の周辺の紫外線量を検出するUVセンサ等を備えてもよい。検出した温度情報や気圧情報や明るさ情報や湿度情報やUV情報に加え、検出した各種情報から所定時間間隔での変化率を算出した温度変化量や気圧変化量や明るさ変化量や湿度変化量や紫外線変化量などを後述する自動撮影などの判定に使用する。   For example, there are a temperature sensor that detects the temperature around the imaging device 101 at a predetermined cycle, and an air pressure sensor that detects a change in air pressure around the imaging device 101. In addition, an illuminance sensor that detects the brightness around the imaging device 101, a humidity sensor that detects the humidity around the imaging device 101, a UV sensor that detects the amount of ultraviolet light around the imaging device 101, or the like may be provided. . In addition to the detected temperature information, barometric pressure information, brightness information, humidity information, and UV information, the temperature change amount, pressure change amount, brightness change amount, humidity change, etc. are calculated by calculating the change rate at predetermined time intervals from the detected various information. It is used for determination of automatic photographing etc. which mention an amount, an ultraviolet ray variation amount, etc. later.

ステップ702で各種センサ読み込みが行われるとステップ703に進む。   If various sensors are read in step 702, the process proceeds to step 703.

ステップ703では、外部機器からの通信が指示されているかを検出し、通信指示があった場合、外部機器との通信を行う。   In step 703, it is detected whether communication from the external device is instructed, and when communication is instructed, communication with the external device is performed.

例えば、スマートデバイス301から、無線LANやBLEを介した、リモート操作であったり、音声信号、画像信号、圧縮音声信号、圧縮画像信号などのデータを送信したり受信したりする。また、スマートデバイス301からの撮像装置101の撮影などの操作指示や、音声コマンド登録データ送信や、GPS位置情報に基づいた所定位置検出通知や場所移動通知や学習用データの送受信の指示があるかどうかの読み込みを行う。   For example, data such as an audio signal, an image signal, a compressed audio signal, or a compressed image signal is transmitted or received from the smart device 301 via wireless LAN or BLE. In addition, whether there is an operation instruction such as shooting of the imaging device 101 from the smart device 301, transmission of voice command registration data, an instruction of transmission / reception of predetermined position detection notification based on GPS position information, location movement notification and learning data Do you read?

また、例えば、ウエアラブルデバイス501から、ユーザの運動情報、腕のアクション情報、心拍などの生体情報の更新がある場合、BLEを介した情報の読み込みを行う。また、上述した環境情報を検出する各種センサは、撮像装置101に搭載してもよいが、スマートデバイス301或いはウエアラブルデバイス501に搭載していてもよく、その場合、BLEを介した環境情報の読み込みも行う。ステップ703で外部機器からの通信読み込みが行われると、ステップS704に進む。   Also, for example, when there is an update of biological information such as user's exercise information, arm action information, and heartbeat from the wearable device 501, information is read via BLE. The various sensors for detecting the environmental information described above may be mounted on the imaging apparatus 101, or may be mounted on the smart device 301 or the wearable device 501. In that case, the environmental information is read via BLE Do also. When communication reading from the external device is performed in step 703, the process proceeds to step S704.

ステップ704では、モード設定判定が行われる。ステップ704で設定されるモードは、以下の内から判定され選ばれる。   At step 704, mode setting determination is performed. The mode set in step 704 is determined and selected from the following.

(1)自動撮影モード
[モード判定条件]
後述する学習により設定された各検出情報(画像、音、時間、振動、場所、身体の変化、環境変化)や、自動撮影モードに移行してからの経過時間や、過去の撮影情報などから、自動撮影を行うべきと判定されると、自動撮影モードに設定される。
(1) Automatic shooting mode [mode judgment condition]
From each detection information (image, sound, time, vibration, location, change in the body, environmental change) set by learning described later, elapsed time after transition to the automatic shooting mode, and past shooting information, etc. When it is determined that the automatic shooting should be performed, the automatic shooting mode is set.

[モード内処理]
自動撮影モード処理(ステップ710)では、各検出情報(画像、音、時間、振動、場所、体の変化、環境変化)に基づいて、パン・チルトやズームを駆動して被写体を自動探索する。そして、ユーザの好みの撮影が行えるタイミングであると判定されると、静止画一枚撮影、静止画連続撮影、動画撮影、パノラマ撮影、タイムラプス撮影など様々な撮影方法の中から、撮影方法の判定処理が行われ、自動で撮影が行われる。
[In-mode processing]
In the automatic photographing mode processing (step 710), pan / tilt and zoom are driven to automatically search for a subject based on each detection information (image, sound, time, vibration, place, body change, environment change). Then, when it is determined that it is the timing at which the user's favorite shooting can be performed, determination of the shooting method among various shooting methods such as single still image shooting, still image continuous shooting, moving image shooting, panoramic shooting, time-lapse shooting Processing is performed and photographing is performed automatically.

(2)自動編集モード
[モード判定条件]
前回自動編集を行ってからの経過時間と、過去の撮影画像情報から、自動編集を行うべきと判定されると、自動編集モードに設定される。
(2) Automatic editing mode [mode judgment condition]
If it is determined that automatic editing should be performed from the elapsed time since the previous automatic editing and past captured image information, the automatic editing mode is set.

[モード内処理]
自動編集モード処理(ステップ712)では、学習に基づいた静止画像や動画像の選抜処理を行い、学習に基づいて画像効果や編集後動画の時間などにより、一つの動画にまとめたハイライト動画を作成する自動編集処理が行われる。
[In-mode processing]
In the automatic editing mode processing (step 712), still image and moving image selection processing based on learning is performed, and a highlight moving image summarized into one moving image by image effect and time of edited moving image based on learning, etc. The automatic editing process to be created is performed.

(3)画像転送モード
[モード判定条件]
スマートデバイス内の専用のアプリケーションを介した指示により画像自動転送モードに設定されている場合、前回画像転送を行ってからの経過時間と過去の撮影画像情報から画像自動を行うべきと判定されると、画像自動転送モードに設定される。
(3) Image transfer mode [mode judgment condition]
If it is determined that automatic image transfer should be performed based on the elapsed time since the previous image transfer and the past captured image information if the automatic image transfer mode is set by an instruction via a dedicated application in the smart device , Automatic image transfer mode is set.

[モード内処理]
画像自動転送モード処理(ステップ714)では、撮像装置101は、ユーザの好みであろう画像を自動で抽出し、スマートデバイス301にユーザの好みの画像を自動で抽出し、画像転送が行われる。ユーザの好みの画像抽出は、後述する各画像に付加されたユーザの好みを判定したスコアにより行う。
[In-mode processing]
In the image automatic transfer mode processing (step 714), the imaging apparatus 101 automatically extracts an image that may be the user's preference, automatically extracts the user's favorite image to the smart device 301, and image transfer is performed. The user's preference image extraction is performed using a score that determines the user preference added to each image described later.

(4)学習モード
[モード判定条件]
前回学習処理を行ってからの経過時間と、学習に使用することのできる画像に対応付けられた情報や学習データの数などから、自動学習を行うべきと判定されると、自動学習モードに設定される。または、スマートデバイス301からの通信を介して学習データが設定されるように指示があった場合も本モードに設定される。
(4) Learning mode [mode judgment condition]
If it is determined that automatic learning should be performed from the elapsed time since the previous learning process and information associated with images that can be used for learning, the number of learning data, etc., the automatic learning mode is set. Be done. Alternatively, this mode is also set when there is an instruction to set learning data via communication from the smart device 301.

[モード内処理]
自動学習モード処理(ステップ716)では、ユーザの好みに合わせた学習を行う。スマートデバイス301での各操作、スマートデバイス301からの学習情報通知などの情報を基に複数のデータをニューラルネットワークを用いて解析して、規則性を抽出し、抽出結果に応じて、ユーザの好みに合わせた学習が行われる。スマートデバイス301での各操作の情報としては、例えば、撮像装置からの画像取得情報、専用アプリケーションを介して手動による編集指示がされた情報、撮像装置内の画像に対してユーザが入力した判定値情報がある。
[In-mode processing]
In the automatic learning mode process (step 716), learning is performed according to the user's preference. A plurality of data are analyzed using a neural network based on information such as each operation in the smart device 301, and learning information notification from the smart device 301, regularity is extracted, and user's preference according to the extraction result Learning is conducted in accordance with As information on each operation in the smart device 301, for example, image acquisition information from the imaging apparatus, information on which a manual editing instruction is given via a dedicated application, and a determination value input by the user with respect to the image in the imaging apparatus There is information.

また、個人認証の登録や音声登録、音シーン登録、一般物体認識登録などの、検出に関する学習や、上述した低消費電力モードの条件などの学習も同時に行われる。   Further, learning about detection such as registration of personal authentication, voice registration, sound scene registration, general object recognition registration, etc., and learning of the conditions of the above-mentioned low power consumption mode, etc. are simultaneously performed.

(5)ファイル自動削除モード
[モード判定条件]
前回ファイル自動削除を行ってからの経過時間と、画像を記録している不揮発性メモリ216の残容量とから、ファイル自動削除を行うべきと判定されると、ファイル自動削除モードに設定される。
(5) Automatic file deletion mode [Mode judgment condition]
If it is determined that automatic file deletion should be performed from the elapsed time since the previous automatic file deletion and the remaining capacity of the non-volatile memory 216 storing the image, the automatic file deletion mode is set.

[モード内処理]
ファイル自動削除モード処理(ステップ718)では、不揮発性メモリ216内の画像の中から、各画像のタグ情報と撮影された日時などから自動削除されるファイルを指定し(三択処理)削除する。
[In-mode processing]
In the file automatic deletion mode processing (step 718), a file to be automatically deleted is specified (three-option processing) from the tag information of each image and the date and time of photographing from the images in the non-volatile memory 216.

なお、自動撮影モード処理、自動編集モード処理、学習モード処理についての詳細は、後述する。   The details of the automatic shooting mode processing, the automatic editing mode processing, and the learning mode processing will be described later.

ステップ705ではステップ704でモード設定判定が低消費電力モードに設定されているかどうかを判定する。低消費電力モード判定は、後述する「自動撮影モード」、「自動編集モード」、「画像自動転送モード」、「学習モード」、「ファイル自動削除モード」、の何れのモードの判定位条件でもない場合は、低消費電力モードになるように判定される。判定処理が行われるとステップ705に進む。   In step 705, it is determined in step 704 whether the mode setting determination is set to the low power consumption mode. The low power consumption mode determination is not a judgment condition of any mode of "automatic shooting mode", "automatic editing mode", "automatic image transfer mode", "learning mode" and "automatic file deletion mode" described later. If so, it is determined to be in the low power consumption mode. When the determination process is performed, the process proceeds to step 705.

ステップ705では、低消費電力モード条件であると判定されれば、ステップ706に進む。   In step 705, if it is determined that the low power consumption mode condition is satisfied, the process proceeds to step 706.

ステップ706では、Subプロセッサ(第2制御部211)へ、Subプロセッサ内で判定する起動要因に係る各種パラメータを(揺れ検出判定用パラメータ、音検出用パラメータ、時間経過検出パラメータ)を通知する。各種パラメータは後述する学習処理にて、学習されることによって値が変化する。ステップ706の処理を終了すると、ステップ707に進み、Mainプロセッサ(第1制御部223)の電源をOFFして、処理を終了する。   In step 706, various parameters relating to the activation factor to be determined in the Sub processor (the shake detection determination parameter, the sound detection parameter, the time lapse detection parameter) are notified to the Sub processor (second control unit 211). Various parameters change in value by being learned in a learning process described later. When the process of step 706 is completed, the process proceeds to step 707, the power of the main processor (first control unit 223) is turned off, and the process is ended.

一方、ステップ705で低消費電力モードでないと判定されると、ステップ709に進み、モード設定が自動撮影モードであるか否かを判定し、自動撮影モードであればステップ710に進み、自動撮影モード処理が行われる。処理が終了すると、ステップ702に戻り、処理を繰り返す。ステップ709で、自動撮影モードでないと判定されると、ステップ711に進む。   If it is determined in step 705 that the mode is not the low power consumption mode, the process proceeds to step 709 to determine whether the mode setting is the automatic shooting mode. If the mode setting is the automatic shooting mode, the process proceeds to step 710; Processing is performed. When the process ends, the process returns to step 702 and the process is repeated. If it is determined in step 709 that the automatic photographing mode is not set, the process proceeds to step 711.

ステップ711では、モード設定が自動編集モードであるか否かを判定し、自動編集モードであればステップ712に進み、自動編集モード処理が行われる。処理が終了すると、ステップ702に戻り、処理を繰り返す。ステップ711で、自動編集モードでないと判定されると、ステップ713に進む。   In step 711, it is determined whether the mode setting is the automatic editing mode. If the mode is the automatic editing mode, the process proceeds to step 712 where the automatic editing mode processing is performed. When the process ends, the process returns to step 702 and the process is repeated. If it is determined in step 711 that the automatic editing mode is not set, the process proceeds to step 713.

ステップ713では、モード設定が画像自動転送モードであるか否かを判定し、画像自動転送モードであればステップ714に進み、画像自動転送モード処理が行われる。処理が終了すると、ステップ702に戻り、処理を繰り返す。ステップ713で、画像自動転送モードでないと判定されると、ステップ715に進む。   In step 713, it is determined whether the mode setting is the automatic image transfer mode. If the automatic image transfer mode is selected, the process proceeds to step 714, where the automatic image transfer mode processing is performed. When the process ends, the process returns to step 702 and the process is repeated. If it is determined in step 713 that the automatic image transfer mode is not set, the process proceeds to step 715.

ステップ715では、モード設定が学習モードであるか否かを判定し、学習モードであればステップ716に進み、学習モード処理が行われる。処理が終了すると、ステップ702に戻り、処理を繰り返す。ステップ715で、学習モードでないと判定されると、ステップ717に進む。   In step 715, it is determined whether the mode setting is the learning mode. If the mode setting is the learning mode, the process proceeds to step 716, and learning mode processing is performed. When the process ends, the process returns to step 702 and the process is repeated. If it is determined in step 715 that the learning mode is not set, the process proceeds to step 717.

ステップ717では、モード設定がファイル自動削除モードであるか否かを判定し、ファイル自動削除モードであればステップ718に進み、ファイル自動削除モード処理が行われる。処理が終了すると、ステップ702に戻り、処理を繰り返す。ステップ717で、学習モードでないと判定されると、ステップ702に戻り、処理を繰り返す。   In step 717, it is determined whether the mode setting is the file automatic deletion mode. If the mode is the file automatic deletion mode, the process proceeds to step 718, where the file automatic deletion mode processing is performed. When the process ends, the process returns to step 702 and the process is repeated. If it is determined in step 717 that the learning mode is not set, the process returns to step 702 to repeat the processing.

図8は、本実施形態における撮像装置101の第2制御部211が受け持つ動作の例を説明するフローチャートである。   FIG. 8 is a flowchart for explaining an example of the operation of the second control unit 211 of the imaging apparatus 101 according to the present embodiment.

ユーザが撮像装置101に設けられた電源ボタンを操作すると、第1電源部210により電源供給部から第1制御部223へ電源が供給されるのと同様に第2制御部211においても第2電源部212により電源供給部から第2制御部211に電源が供給される。電源が供給されると、Subプロセッサ(第2制御部211)が起動され、図8の処理がスタートする。   When the user operates the power button provided on the imaging apparatus 101, the second power supply is also supplied to the second control unit 211 in the same manner as the first power supply unit 210 supplies power from the power supply unit to the first control unit 223. The power supply unit supplies power to the second control unit 211 by the unit 212. When power is supplied, the Sub processor (second control unit 211) is activated, and the process of FIG. 8 starts.

ステップ801では、サンプリングの周期となる所定期間が経過したか否かを判定する。例えば10msecに設定された場合、10msec周期で、ステップ802に進む。所定期間が経過していないと判定されると、Subプロセッサは何も処理をせずにステップ801に戻って所定期間が経過するのをまつ。   In step 801, it is determined whether or not a predetermined period which is a sampling cycle has elapsed. For example, if it is set to 10 msec, the process proceeds to step 802 in a 10 msec cycle. If it is determined that the predetermined period has not elapsed, the Sub processor returns to step 801 without performing any processing, and waits for the predetermined period to elapse.

ステップ802では、学習情報の読み込みが行われる。学習情報は、図7のステップ706でのSubプロセッサへ情報通信する際に、転送された情報であり、例えば以下の情報が読み込まれる。
(1)特定揺れ検出の判定条件
(2)特定音検出の判定条件
(3)時間経過判定の判定条件
In step 802, learning information is read. The learning information is information transferred when performing information communication with the Sub processor in step 706 of FIG. 7, and, for example, the following information is read.
(1) Judgment condition of specific vibration detection (2) Judgment condition of specific sound detection (3) Judgment condition of time lapse judgment

ステップ802で学習情報が読み込まれると、ステップ803に進み、揺れ検出値が取得される。揺れ検出値は、装置揺れ検出部209からのジャイロセンサや加速度センサなどの振動検出するセンサからの出力値である。   When the learning information is read in step 802, the process proceeds to step 803, where a shake detection value is obtained. The shake detection value is an output value from a sensor that detects vibration such as a gyro sensor or an acceleration sensor from the device shake detection unit 209.

ステップ803で揺れ検出値が取得されると、ステップ804に進み、予め設定された揺れ状態検出の処理を行う。ここでは、ステップ802で読み込まれた学習情報によって、判定処理を変更する。いくつかの例を説明する。   When the shake detection value is acquired in step 803, the process proceeds to step 804, and processing of shake state detection set in advance is performed. Here, the determination process is changed according to the learning information read in step S802. Some examples are described.

(1)タップ検出
ユーザが撮像装置101を例えば指先などで叩いた状態(タップ状態)を、撮像装置101に取り付けられた加速度センサの出力値より検出することが可能である。3軸の加速度センサの出力を所定サンプリングで特定の周波数領域に設定したバンドパスフィルタ(BPF)に通すことで、タップによる加速度変化の信号領域を抽出することができる。BPF後の加速度信号を所定時間TimeA間に、所定閾値ThreshAを超えた回数が、所定回数CountAであるか否かにより、タップ検出を行う。ダブルタップの場合は、CountAは2に設定され、トリプルタップの場合は、CountAは3に設定される。また、TimeAやThreshAについても、学習情報によって変化させることができる。
(1) Tap Detection A state (tap state) in which the user taps the imaging device 101 with, for example, a fingertip can be detected from an output value of an acceleration sensor attached to the imaging device 101. By passing the output of the three-axis acceleration sensor through a band pass filter (BPF) set to a specific frequency region by predetermined sampling, a signal region of acceleration change due to a tap can be extracted. Tap detection is performed based on whether the number of times the acceleration signal after BPF exceeds the predetermined threshold value ThreshA is the predetermined number of times CountA during the predetermined time TimeA. For double taps, CountA is set to 2, and for triple taps, CountA is set to 3. Further, Time A and Thresh A can also be changed by learning information.

(2)揺れ状態の検出
撮像装置101の揺れ状態を、撮像装置101に取り付けられたジャイロセンサや加速度センサの出力値より検出することが可能である。ジャイロセンサや加速度センサの出力をHPFで高周波成分をカットし、LPFで低周波成分をカットした後、絶対値変換を行う。算出した絶対値が所定時間TimeB間に、所定閾値ThreshBを超えた回数が、所定回数CountB以上であるか否かにより、振動検出を行う。例えば撮像装置101を机などに置いたような揺れが小さい状態か、ウエアラブルで撮像装置101を装着し歩いているような揺れが大きい状態かを判定することが可能である。また、判定閾値や判定のカウント数の条件を複数もつことで、揺れレベルに応じた細かい揺れ状態を検出することも可能である。
(2) Detection of Swing State The swing state of the imaging device 101 can be detected from the output value of a gyro sensor or an acceleration sensor attached to the imaging device 101. The output of the gyro sensor or the acceleration sensor is cut by HPF and the low frequency component is cut by LPF, and then the absolute value conversion is performed. The vibration detection is performed based on whether or not the number of times the calculated absolute value exceeds the predetermined threshold value ThreshB is equal to or more than the predetermined number of times CountB during the predetermined time TimeB. For example, it is possible to determine whether the shake is small when the imaging apparatus 101 is placed on a desk or the like, or is large when the imaging apparatus 101 is worn and walked with a wearable. Moreover, it is also possible to detect a fine shaking state according to the shaking level by having a plurality of conditions of the judgment threshold value and the judgment count number.

TimeBやThreshBやCountBについても、学習情報によって変化させることができる。   Time B, Thresh B, and Count B can also be changed by learning information.

上記は揺れ検出センサの条件判定による特定揺れ状態検出の方法を説明した。しかしながら、所定時間内でサンプリングされた揺れ検出センサのデータから、ニューラスネットワークを用いた揺れ状態判定器に入力することで、学習させたニューラルネットワークにより、事前に登録しておいた特定揺れ状態を検出することも可能である。その場合、ステップ802での学習情報読み込みはニューラルネットワークの重みパラメータとなる。   The above has described the method of specific swing state detection by condition determination of the swing detection sensor. However, from the data of the shake detection sensor sampled within a predetermined time, a specific shake state registered in advance by the learned neural network by inputting to the shake state determination unit using the neurus network It is also possible to detect. In that case, the learning information reading in step 802 is the weight parameter of the neural network.

ステップ804で特定揺れ状態検出処理が行われると、ステップ805に進み、予め設定された特定音検出処理を行う。ここでは、ステップ802で読み込まれた学習情報によって、検出判定処理を変更する。いくつかの例を説明する。   When the specific swing state detection process is performed in step 804, the process proceeds to step 805, and a predetermined specific sound detection process is performed. Here, the detection determination process is changed according to the learning information read in step S802. Some examples are described.

(1)特定音声コマンド検出
特定の音声コマンドを検出する。音声コマンドは事前に登録されたいくつかのコマンドの他、ユーザが特定音声を撮像装置に登録できる。
(1) Specific voice command detection A specific voice command is detected. The voice command allows the user to register a specific voice in the imaging device, in addition to several commands registered in advance.

(2)特定音シーン認識
予め大量の音声データを基に解析して、規則性を抽出し、抽出結果に応じて機械学習により学習させたネットワークにより音シーン判定を行う。例えば、「歓声が上がっている」、「拍手している」、「声を発している」などの特定シーンを検出する。検出するシーンは学習によって変化する。
(2) Specific Sound Scene Recognition A large amount of voice data is analyzed in advance to extract regularity, and sound scene determination is performed by a network learned by machine learning according to the extraction result. For example, it detects a specific scene such as "Cheers up", "Applause", "Speaking" or the like. The scene to detect changes with learning.

(3)音レベル判定
所定時間の間で、音レベルの大きさがレベル所定値を超えている時間を加算するなどの方法によって、音レベル判定による検出を行う。所定時間やレベル所定値の大きさなどが学習によって変化する。
(3) Sound Level Determination Detection based on sound level determination is performed by adding time during which the magnitude of the sound level exceeds the level predetermined value during a predetermined time. The magnitude of the predetermined time, the level predetermined value, and the like change by learning.

(4)音方向判定
複数のマイクが設置された平面上の音の方向を検出することができ、所定大きさの音レベルに対して、音の方向を検出する。
(4) Sound Direction Determination It is possible to detect the direction of sound on a plane where a plurality of microphones are installed, and to detect the direction of sound with respect to a sound level of a predetermined magnitude.

音声処理部214内で上記の判定処理が行われており、事前に学習された各設定により、特定音検出がされたかをステップ805で判定する。   The above-described determination processing is performed in the voice processing unit 214, and it is determined in step 805 whether a specific sound is detected by each setting learned in advance.

ステップ805で特定音検出処理が行われると、ステップ806に進む。ステップ806では、Mainプロセッサ(第1制御部223)はOFF状態であるか否かを判定し、MainプロセッサがOFF状態であれば、ステップ807に進み、予め設定された時間経過検出処理を行う。ここでは、ステップ802で読み込まれた学習情報によって、検出判定処理を変更する。学習情報は、図7で説明したステップ706でのSubプロセッサ(第2制御部211)へ情報通信する際に、転送された情報である。MainプロセッサがONからOFFへ遷移したときからの経過時間が計測されており、経過時間がパラメータTimeC以上であれば、時間経過と判定され、TimeCより小さければ、時間経過とは判定されない。TimeCは、学習情報によって変化するパラメータである。   When the specific sound detection process is performed in step 805, the process proceeds to step 806. In step 806, it is determined whether the Main processor (first control unit 223) is in the OFF state. If the Main processor is in the OFF state, the process proceeds to step 807, and processing for detecting a lapse of time set in advance is performed. Here, the detection determination process is changed according to the learning information read in step S802. The learning information is information transferred when performing information communication with the Sub processor (second control unit 211) in step 706 described with reference to FIG. The elapsed time from when the main processor transits from ON to OFF is measured, and if the elapsed time is greater than or equal to the parameter TimeC, it is determined that the time has elapsed, and if smaller than TimeC, it is not determined that the time has elapsed. TimeC is a parameter that changes according to learning information.

ステップ807で時間経過検出処理が行われると、ステップ808に進み、低消費電力モード解除判定がされたかを判定する。低消費電力モード解除条件は以下によって判定される。
(1)特定揺れ検出の判定条件
(2)特定音検出の判定条件
(3)時間経過判定の判定条件
When the time lapse detection process is performed in step 807, the process proceeds to step 808, in which it is determined whether the low power consumption mode cancellation determination has been made. The low power consumption mode release condition is determined by the following.
(1) Judgment condition of specific vibration detection (2) Judgment condition of specific sound detection (3) Judgment condition of time lapse judgment

それぞれ、ステップ804での特定揺れ状態検出処理により、特定揺れ検出の判定条件に入ったか否かを判定できる。また、ステップ805での特定音検出処理により、特定音検出の判定条件に入ったか否かを判定できる。また、ステップ807での時間経過検出処理により、時間経過検出の判定条件に入ったか否かを判定できる。したがって、何れか一つ以上の条件に入っていれば、低消費電力モード解除を行うような判定が行われる。   In each specific swing state detection process at step 804, it can be determined whether or not the determination condition of the specific swing detection has been entered. Further, by the specific sound detection process in step 805, it can be determined whether or not the determination condition of the specific sound detection is entered. Further, by the time lapse detection processing in step 807, it can be determined whether or not the determination condition of time lapse detection is entered. Therefore, if any one or more conditions are entered, it is determined that the low power consumption mode is canceled.

ステップ808で解除条件判定されると、ステップ809に進みMainプロセッサの電源をONし、ステップ810で、低消費電力モード解除と判定された条件(揺れ、音、時間)をMainプロセッサに通知し、ステップ801に戻り処理をループする。   When the release condition is determined in step 808, the process proceeds to step 809 to turn on the power of the main processor, and in step 810, the main processor is notified of the condition (shake, sound, time) determined to be the low power consumption mode release. The flow returns to step 801 to loop the process.

ステップ808で何れの解除条件にも当てはまらなく、低消費電力モード解除判定でないと判定されると、ステップ801に戻り処理をループする。   If it is determined in step 808 that none of the release conditions are met and it is determined that the low power consumption mode release determination is not made, the process returns to step 801 to loop processing.

ステップ806で、MainプロセッサがON状態であると判定されている場合、ステップ803乃至805までで取得した情報をMainプロセッサに通知し、ステップ801に戻り処理をループする。   If it is determined in step 806 that the main processor is in the ON state, the information acquired in steps 803 to 805 is notified to the main processor, and the process returns to step 801 to loop processing.

本実施形態においては、MainプロセッサがON状態においても揺れ検出や特定音検出をSubプロセッサで行い、検出結果をMainプロセッサに通知する構成にしている。しかしながら、MainプロセッサがONの場合は、ステップ803乃至805の処理を行わず、Mainプロセッサ内の処理(図7のステップ702)で揺れ検出や特定音検出を検出する構成にしてもよい。   In the present embodiment, even when the Main processor is in the ON state, vibration detection and specific sound detection are performed by the Sub processor, and the detection result is notified to the Main processor. However, when the Main processor is ON, the processing in steps 803 to 805 may not be performed, and the fluctuation detection or the specific sound detection may be detected in the processing in the main processor (step 702 in FIG. 7).

上記のように図7のステップ704乃至ステップ707や、図8の処理を行うことで、低消費電力モードに移行する条件や低消費電力モードを解除する条件が、ユーザの操作に基づいて学習される。これにより、撮像装置101を所有するユーザの使い勝手に合わせた撮像動作を行うことができる。学習の方法については後述する。   By performing steps 704 to 707 of FIG. 7 and the process of FIG. 8 as described above, the conditions for transitioning to the low power consumption mode and the conditions for canceling the low power consumption mode are learned based on the user's operation. Ru. Thus, the imaging operation can be performed according to the convenience of the user who owns the imaging device 101. The method of learning will be described later.

上記、揺れ検出や音検出や時間経過による低消費電力モード解除方法について詳しく説明したが、環境情報により低消費電力モード解除を行ってもよい。環境情報は温度や気圧や明るさや湿度や紫外線量の絶対量や変化量が所定閾値を超えたか否かで判定することができ、後述する学習により閾値を変化させることもできる。   Although the low power consumption mode cancellation method based on vibration detection, sound detection, and passage of time has been described in detail, the low power consumption mode cancellation may be performed by environmental information. Environmental information can be determined based on whether the absolute amount or change amount of temperature, atmospheric pressure, brightness, humidity, or ultraviolet light amount exceeds a predetermined threshold, and the threshold can be changed by learning described later.

また、揺れ検出や音検出や時間経過の検出情報や、各環境情報の絶対値や変化量をニューラルネットワークに基づく判断によって、低消費電力モード解除を判定してもできるし、この判定処理は、後述する学習によって、判定条件を変更することができる。   In addition, it is possible to judge the low power consumption mode cancellation by judgment based on neural network based on judgment of vibration detection, sound detection, detection information of elapsed time, absolute value or change amount of each environment information, and this judgment processing is The determination conditions can be changed by learning described later.

<自動撮影モード処理>
図9を用いて、自動撮影モード処理の詳細を説明する。前述したように、以下の処理は、本実施形態における撮像装置101の第1制御部223が制御を受け持つ。
<Automatic shooting mode processing>
The details of the automatic shooting mode process will be described with reference to FIG. As described above, the following processing is controlled by the first control unit 223 of the imaging apparatus 101 in the present embodiment.

S901では、画像処理部207に撮像部206で取り込まれた信号を画像処理させ、被写体認識用の画像を生成させる。   In step S901, the image processing unit 207 performs image processing on the signal acquired by the imaging unit 206 to generate an image for object recognition.

生成された画像からは、人物や物体認識などの被写体認識が行われる。   From the generated image, subject recognition such as human and object recognition is performed.

人物を認識する場合、被写体の顔や人体を検出する。顔検出処理では、人物の顔を判断するためのパターンが予め定められており、撮像された画像内に含まれる該パターンに一致する箇所を人物の顔画像として検出することができる。   When recognizing a person, the face or human body of the subject is detected. In the face detection process, a pattern for determining the face of a person is determined in advance, and a portion matching the pattern included in the captured image can be detected as a face image of the person.

また、被写体の顔としての確からしさを示す信頼度も同時に算出し、信頼度は、例えば画像内における顔領域の大きさや、顔パターンとの一致度等から算出される。   Further, the reliability indicating the certainty as the face of the subject is also calculated at the same time, and the reliability is calculated from, for example, the size of the face area in the image, the degree of coincidence with the face pattern, and the like.

物体認識についても同様に、予め登録されたパターンに一致する物体を認識することができる。   Similarly for object recognition, it is possible to recognize an object that matches the pattern registered in advance.

また、撮像された画像内の色相や彩度等のヒストグラムを使用する方法で特徴被写体を抽出する方法などもある。この場合、撮影画角内に捉えられている被写体の画像に関し、その色相や彩度等のヒストグラムから導出される分布を複数の区間に分け、区間ごとに撮像された画像を分類する処理が実行される。   Further, there is also a method of extracting a characteristic subject by a method of using a histogram such as hue or saturation in a captured image. In this case, with respect to the image of the subject captured within the shooting angle of view, the process of dividing the distribution derived from the histogram of the hue, saturation, etc. into a plurality of sections and classifying the captured images into sections is performed. Be done.

例えば、撮像された画像について複数の色成分のヒストグラムが作成され、その山型の分布範囲で区分けし、同一の区間の組み合わせに属する領域にて撮像された画像が分類され、被写体の画像領域が認識される。   For example, a histogram of a plurality of color components is created for the captured image, divided by the mountain-shaped distribution range, the captured image is classified in the region belonging to the combination of the same sections, and the image region of the subject is Be recognized.

認識された被写体の画像領域ごとに評価値を算出することで、当該評価値が最も高い被写体の画像領域を主被写体領域として判定することができる。   By calculating the evaluation value for each image area of the recognized subject, it is possible to determine the image area of the subject having the highest evaluation value as the main subject area.

以上の方法で、撮像情報から各被写体情報を得ることができる。   Each subject information can be obtained from the imaging information by the above method.

S902では、像揺れ補正量の算出を行う。具体的には、まず、装置揺れ検出部209において取得した角速度および加速度情報に基づいて撮像装置の絶対角度の算出を行う。そして、絶対角度を打ち消す角度方向にチルト回転ユニット104およびパン回転ユニット105を動かす防振角度を求め、像揺れ補正量とする。なお、ここでの像揺れ補正量算出処理は、後述する学習処理によって、演算方法を変更することができる。   In S902, the image shake correction amount is calculated. Specifically, first, the absolute angle of the imaging device is calculated based on the angular velocity and the acceleration information acquired by the device shake detection unit 209. Then, an image stabilization angle for moving the tilt rotation unit 104 and the pan rotation unit 105 in the angular direction that cancels out the absolute angle is determined, and is used as the image shake correction amount. In the image shake correction amount calculation processing here, the calculation method can be changed by learning processing described later.

S903では、撮像装置の状態判定を行う。角速度情報や加速度情報やGPS位置情報などで検出した角度や移動量などにより、現在、撮像装置がどのような振動/動き状態なのかを判定する。   In step S903, the state determination of the imaging apparatus is performed. Based on angular velocity information, acceleration information, angle detected by GPS position information, etc., it is determined what kind of vibration / motion state of the imaging device is at present.

例えば、車に撮像装置101を装着して撮影する場合、移動された距離によって大きく周りの風景などの被写体情報が変化する。   For example, in the case where the imaging apparatus 101 is attached to a car and shooting is performed, subject information such as a surrounding scenery changes largely depending on the moved distance.

そのため、車などに装着して速い速度で移動している「乗り物移動状態」か否かを判定し、後に説明する自動被写体探索に使用することができる。   Therefore, it is possible to determine whether it is a "vehicle moving state" which is attached to a car or the like and moving at a high speed, and can be used for automatic subject search described later.

また、角度の変化が大きいか否かを判定し、撮像装置101が揺れ角度がほとんどない「置き撮り状態」であるのかを判定する。   Further, it is determined whether or not the change in angle is large, and it is determined whether or not the imaging device 101 is in the “posting state” with almost no swing angle.

「置き撮り状態」である場合は、撮像装置101自体の角度変化はないと考えてよいので、置き撮り用の被写体探索を行うことができる。   In the case of the “post-taking state”, it may be considered that there is no change in the angle of the imaging device 101 itself, so that it is possible to perform a subject search for the post-taking.

また、比較的、角度変化が大きい場合は、「手持ち状態」と判定され、手持ち用の被写体探索を行うことができる。   Also, if the change in angle is relatively large, it is determined that the "hand-held state", and it is possible to perform a hand-held subject search.

S904では、被写体探索処理を行う。被写体探索は、以下の処理によって構成される。   In S904, a subject search process is performed. The subject search is configured by the following processing.

(1)エリア分割
図13を用いて、エリア分割を説明する。図13(a)のように撮像装置(原点Oが撮像装置位置とする。)位置を中心として、全周囲でエリア分割を行う。図13(a)の例においては、チルト方向、パン方向それぞれ22.5度で分割している。図13(a)のように分割すると、チルト方向の角度が0度から離れるにつれて、水平方向の円周が小さくなり、エリア領域が小さくなる。よって、図13(b)のように、チルト角度が45度以上の場合、水平方向のエリア範囲は22.5度よりも大きく設定している。図13(c)、(d)に撮影画角内でのエリア分割された例を示す。軸1301は初期化時の撮像装置101の方向であり、この方向角度を基準位置としてエリア分割が行われる。1302は、撮像されている画像の画角エリアを示しており、そのときの画像例を図13(d)に示す。画角に写し出されている画像内ではエリア分割に基づいて、図13(d)の1303〜1318のように画像分割される。
(1) Area Division The area division will be described with reference to FIG. As shown in FIG. 13A, area division is performed on the entire periphery around the position of the imaging device (the origin O is the imaging device position). In the example of FIG. 13A, division is performed at 22.5 degrees in each of the tilt direction and the pan direction. When division is performed as shown in FIG. 13A, as the angle in the tilt direction deviates from 0 degree, the circumference in the horizontal direction becomes smaller and the area area becomes smaller. Therefore, as shown in FIG. 13B, when the tilt angle is 45 degrees or more, the area range in the horizontal direction is set larger than 22.5 degrees. FIGS. 13 (c) and 13 (d) show examples of area division within the shooting angle of view. An axis 1301 is the direction of the imaging apparatus 101 at the time of initialization, and area division is performed with this direction angle as a reference position. Reference numeral 1302 denotes a field angle area of the image being captured, and an example of the image at that time is shown in FIG. In the image projected at the angle of view, the image is divided as shown by 1303 to 1318 in FIG. 13D based on the area division.

(2)エリア毎の重要度レベルの算出
前記のように分割した各エリアについて、エリア内に存在する被写体やエリアのシーン状況に応じて、探索を行う優先順位を示す重要度レベルを算出する。被写体の状況に基づいた重要度レベルは、例えば、エリア内に存在する人物の数、人物の顔の大きさ、顔向き、顔検出の確からしさ、人物の表情、人物の個人認証結果に基づいて算出する。また、シーンの状況に応じた重要度レベルは、例えば、一般物体認識結果、シーン判別結果(青空、逆光、夕景など)、エリアの方向からする音のレベルや音声認識結果、エリア内の動き検知情報等である。また、撮像装置の状態判定(S903)で、撮像装置の振動状態が検出されており、振動状態に応じても重要度レベルが変化するようにもすることができる。例えば、「置き撮り状態」と判定された場合、顔認証で登録されている中で優先度の高い被写体(例えば撮像装置のユーザである)を中心に被写体探索が行われるように、特定人物の顔認証を検出すると重要度レベルが高くなるように判定される。また、後述する自動撮影も上記顔を優先して行われることになり、撮像装置のユーザが撮像装置を身に着けて持ち歩き撮影を行っている時間が多くても、撮像装置を取り外して机の上などに置くことで、ユーザが写った画像も多く残すことができる。このときパン・チルトにより探索可能であることから、撮像装置の置き角度などを考えなくても、適当に設置するだけでユーザが写った画像やたくさんの顔が写った集合写真などを残すことができる。なお、上記条件だけでは、各エリアに変化がない限りは、最も重要度レベルが高いエリアが同じとなり、その結果探索されるエリアがずっと変わらないことになってしまう。そこで、過去の撮影情報に応じて重要度レベルを変化させる。具体的には、所定時間継続して探索エリアに指定され続けたエリアは重要度レベルを下げたり、後述するS910にて撮影を行ったエリアでは、所定時間の間重要度レベルを下げたりしてもよい。
(2) Calculation of Importance Level for Each Area For each area divided as described above, the importance level indicating the priority to be searched is calculated according to the scene status of the subject present in the area and the area. The importance level based on the condition of the subject is, for example, the number of persons present in the area, the size of the face of the person, the face direction, the certainty of face detection, the facial expression of the person, and the personal authentication result of the person. calculate. In addition, the importance level according to the situation of the scene is, for example, general object recognition result, scene discrimination result (blue sky, back light, sunset scene etc.), sound level from the direction of area and voice recognition result, motion detection in area It is information etc. In addition, the vibration state of the imaging device is detected in the state determination (S903) of the imaging device, and the importance level can be changed according to the vibration state. For example, when it is determined that the “deep-shooting state” is selected, a subject search is performed so that a subject search is performed centering on a high-priority subject (for example, the user of the imaging apparatus) registered in face authentication. When face recognition is detected, it is determined that the importance level is high. In addition, the automatic photographing described later is also performed with priority given to the face, and even if the user of the imaging apparatus wears the imaging apparatus and takes a lot of time taking pictures, the imaging apparatus is removed and the desk is By placing it on top, it is possible to leave many images captured by the user. At this time, it is possible to search by pan / tilt, so even if the installation angle of the imaging device is not considered, it is possible to leave an image photographed by the user or a group photograph with many faces photographed only by installing appropriately. it can. In addition, under the above conditions alone, as long as there is no change in each area, the area with the highest importance level is the same, and as a result, the area to be searched remains unchanged. Therefore, the importance level is changed according to the past shooting information. Specifically, the area continuously designated as the search area for a predetermined time is lowered in importance level, or in the area photographed in S910 to be described later, the importance level is lowered for a predetermined time. It is also good.

(3)探索対象エリアの決定
前記のように各エリアの重要度レベルが算出されたら、重要度レベルが高いエリアを探索対象エリアとして決定する。そして、探索対象エリアを画角に捉えるために必要なパン・チルト探索目標角度を算出する。
(3) Determination of Search Target Area When the importance level of each area is calculated as described above, an area having a high importance level is determined as a search target area. Then, the pan / tilt search target angle required to capture the search target area at the angle of view is calculated.

S905では、パン・チルト駆動を行う。具体的には、像振れ補正量とパン・チルト探索目標角度に基づいた制御サンプリングでの駆動角度を加算することで、パン・チルト駆動量を算出し、鏡筒回転駆動部205によって、チルト回転ユニット104、パン回転ユニット105をそれぞれ駆動制御する。   In S905, pan and tilt driving is performed. Specifically, the pan / tilt drive amount is calculated by adding the drive shake amount at control sampling based on the image shake correction amount and the pan / tilt search target angle, and the lens barrel rotation drive unit 205 performs tilt rotation. It drives and controls the unit 104 and the pan rotation unit 105 respectively.

S906ではズームユニット201を制御しズーム駆動を行う。具体的には、S904で決定した探索対象被写体の状態に応じてズームを駆動させる。例えば、探索対象被写体が人物の顔であるとき、画像上の顔が小さすぎると検出可能な最小サイズを下回ることで検出ができず、見失ってしまう恐れがある。そのような場合は、望遠側にズームすることで画像上の顔のサイズが大きくなるように制御する。一方で、画像上の顔が大きすぎる場合、被写体や撮像装置自体の動きによって被写体が画角から外れやすくなってしまう。そのような場合は、広角側にズームすることで、画面上の顔のサイズが小さくなるように制御する。このようにズーム制御を行うことで、被写体を追跡するのに適した状態を保つことができる。   In step S906, the zoom unit 201 is controlled to perform zoom driving. Specifically, the zoom is driven according to the state of the search target subject determined in S904. For example, when the search target subject is the face of a person, if the face on the image is too small, detection is not possible because the size is smaller than the minimum detectable size, and there is a risk of losing sight. In such a case, control is performed to increase the size of the face on the image by zooming to the telephoto side. On the other hand, when the face on the image is too large, the subject or the imaging apparatus itself easily moves the subject out of the angle of view. In such a case, control is performed to reduce the size of the face on the screen by zooming to the wide angle side. By performing zoom control in this manner, it is possible to maintain a state suitable for tracking an object.

S904乃至S906では、パン・チルトやズーム駆動により被写体探索を行う方法を説明したが、広角なレンズを複数使用して全方位を一度に撮影する撮像システムで被写体探索を行ってもよい。全方位カメラの場合、撮像によって得られる信号すべてを入力画像として、被写体検出などの画像処理を行うと膨大な処理が必要となる。そこで、画像の一部を切り出して、切り出した画像範囲の中で被写体の探索処理を行う構成にする。上述した方法と同様にエリア毎の重要レベルを算出し、重要レベルに基づいて切り出し位置を変更し、後述する自動撮影の判定を行う。これにより画像処理による消費電力の低減や高速な被写体探索が可能となる。   In S904 to S906, although the method for performing subject search by pan / tilt or zoom driving has been described, the subject search may be performed with an imaging system that captures an image in all directions at once using a plurality of wide-angle lenses. In the case of an omnidirectional camera, if all signals obtained by imaging are used as an input image and image processing such as object detection is performed, a vast amount of processing is required. Therefore, a part of the image is cut out, and the search processing of the subject is performed in the cut out image range. Similar to the method described above, the important level for each area is calculated, the cutout position is changed based on the important level, and the automatic photographing determination described later is performed. This makes it possible to reduce power consumption and perform high-speed object search by image processing.

S907では、ユーザ(手動)による撮影指示があったがどうかを判定し、撮影指示があった場合、S908aに進み、撮影指示が無かった場合はS908bに進む。この時、ユーザ(手動)による撮影指示は、シャッターボタン押下によるものや、撮像装置の筺体を指等で軽く叩く(タップ)、音声コマンド入力、外部機器からの指示などによってもよい。タップ操作による撮影指示は、ユーザが撮像装置の筺体をタップした際、装置揺れ検出部209によって短期間に連続した高周波の加速度を検知し、撮影のトリガーとする撮影指示方法である。音声コマンド入力は、ユーザが所定の撮影を指示する合言葉(例えば「写真とって」等)を発声した場合、音声処理部214で音声を認識し、撮影のトリガーとする撮影指示方法である。外部機器からの指示は、例えば撮像装置とBlueTooth接続したスマートフォン等から、専用のアプリケーションを介して送信されたシャッター指示信号をトリガーとする撮影指示方法である。   In S907, it is determined whether or not there is a shooting instruction from the user (manual). If there is a shooting instruction, the process proceeds to S908a. If there is no shooting instruction, the process proceeds to S908b. At this time, the photographing instruction by the user (manually) may be performed by pressing the shutter button, tapping the housing of the imaging device with a finger or the like (tap), voice command input, an instruction from an external device, or the like. The shooting instruction by the tap operation is a shooting instruction method in which when the user taps the housing of the imaging device, the device shake detection unit 209 detects the acceleration of high frequency which has continued in a short period, and uses it as a trigger for shooting. The voice command input is a shooting instruction method of recognizing a voice by the voice processing unit 214 and using it as a trigger for shooting when the user utters a combination (for example, "take a photo" or the like) instructing a predetermined shooting. The instruction from the external device is, for example, a photographing instruction method using as a trigger a shutter instruction signal transmitted through a dedicated application from a smartphone or the like connected to the imaging device and BlueTooth.

S908bでは、自動撮影判定を行う。自動撮影判定では、自動撮影を行うかどうかの判定と、撮影方法の判定(静止画一枚撮影、静止画連続撮影(連写)、動画撮影、パノラマ撮影、タイムラプス撮影などの内どれを実行するかの判定)を行う。なお、S908aにおいては、撮影を行うかどうかの判定自体はS907で決定されているため、後述の撮影方法の判定のみを行う。   In S908b, automatic shooting determination is performed. In the automatic shooting determination, it is determined whether automatic shooting is to be performed and the shooting method (any one of still image shooting, still image continuous shooting (continuous shooting), moving image shooting, panorama shooting, time-lapse shooting, etc. Make a decision. In S 908 a, since the determination itself of whether or not to perform imaging is determined in S 907, only the determination of the imaging method described later is performed.

(1)自動撮影を行うかどうかの判定
自動撮影を行うかどうかの判定は以下の2つの判定に基づいて行う。1つは、S904にて得られたエリア別の重要度レベルに基づき、重要度レベルが所定値を超えている場合、自動撮影を実施する判定を下す。2つめは、ニューラルネットワークに基づく判定である。ニューラルネットワークの一例として、多層パーセプトロンによるネットワークの例を図12に示す。ニューラルネットワークは、入力値から出力値を予測することに使用されるものであり、予め入力値と、その入力に対して模範となる出力値とを学習しておくことで、新たな入力値に対して、学習した模範に倣った出力値を推定することができる。なお、学習の方法は後述する。図12の1201およびその縦に並ぶ丸は入力層のニューロンであり、1203およびその縦に並ぶ丸は中間層のニューロンであり、1204は出力層のニューロンである。1202のような矢印は各ニューロンを繋ぐ結合を示している。ニューラルネットワークに基づく判定では、入力層のニューロンに対して、現在の画角中に写る被写体や、シーンや撮像装置の状態に基づいた特徴量を入力として与え、多層パーセプトロンの順伝播則に基づく演算を経て出力層から出力された値を得る。そして、出力の値が閾値以上であれば、自動撮影を実施する判定を下す。なお、被写体の特徴は、現在のズーム倍率、現在の画角における一般物体認識結果、顔検出結果、現在画角に写る顔の数、顔の笑顔度・目瞑り度、顔角度、顔認証ID番号、被写体人物の視線角度、シーン判別結果、特定の構図の検出結果等を使用する。また、前回撮影時からの経過時間、現在時刻、GPS位置情報および前回撮影位置からの変化量、現在の音声レベル、声を発している人物、拍手、歓声が上がっているか否か等を使用してもよい。また、振動情報(加速度情報、撮像装置の状態)、環境情報(温度、気圧、照度、湿度、紫外線量)等を使用してもよい。更に、ウエアラブルデバイス501からの情報通知がある場合、通知情報(ユーザの運動情報、腕のアクション情報、心拍などの生体情報など)も特徴として使用してもよい。この特徴を所定の範囲の数値に変換し、特徴量として入力層の各ニューロンに与える。そのため、入力層の各ニューロンは上記使用する特徴量の数だけ必要となる。
(1) Determination of Whether to Perform Automatic Shooting Determination of whether to perform automatic shooting is performed based on the following two determinations. First, based on the importance level for each area obtained in S904, when the importance level exceeds a predetermined value, it is determined to perform automatic shooting. The second is determination based on a neural network. An example of a multi-layer perceptron network is shown in FIG. 12 as an example of a neural network. A neural network is used to predict an output value from an input value, and learns in advance an input value and an output value that is an exemplar for the input to obtain a new input value. On the other hand, it is possible to estimate an output value that follows the learned model. The method of learning will be described later. In FIG. 12, 1201 and its vertically arranged circles are neurons in the input layer, 1203 and its vertically arranged circles are neurons in the intermediate layer, and 1204 are neurons in the output layer. Arrows such as 1202 indicate connections connecting each neuron. In the judgment based on the neural network, to the neurons of the input layer, an object based on the current view angle, a feature value based on the scene or the state of the imaging device is given as an input, and an operation based on the forward propagation law of the multilayer perceptron To obtain the value output from the output layer. Then, if the value of the output is equal to or greater than the threshold value, it is determined to perform automatic photographing. The characteristics of the subject include the current zoom magnification, the result of general object recognition at the current angle of view, the result of face detection, the number of faces in the current angle of view, the degree of smile and closing of the face, face angle, and face authentication ID The number, the gaze angle of the subject person, the scene discrimination result, the detection result of the specific composition, and the like are used. Also, use the elapsed time since the last shooting, the current time, GPS position information, the amount of change from the last shooting position, the current voice level, the person making a voice, whether applause or cheering has risen, etc. May be Also, vibration information (acceleration information, state of imaging device), environment information (temperature, atmospheric pressure, illuminance, humidity, amount of ultraviolet light) or the like may be used. Furthermore, when there is information notification from the wearable device 501, notification information (user's exercise information, arm's action information, biological information such as heart beat, etc.) may also be used as a feature. This feature is converted into a numerical value of a predetermined range, and given to each neuron of the input layer as a feature amount. Therefore, each neuron of the input layer is required as many as the number of feature quantities to be used.

なお、このニューラルネットワークに基づく判断は、後述する学習処理によって、各ニューロン間の結合重みを変化させることによって、出力値が変化し、判断の結果を学習結果に適応させることができる。   The judgment based on this neural network can change the output value by changing the connection weight between the neurons by learning processing described later, and the result of the judgment can be adapted to the learning result.

また、図7のステップ702で読み込んだMainプロセッサの起動条件によって、自動撮影される判定も変化する。例えば、タップ検出による起動や特定音声コマンドによる起動の場合は、ユーザが現在撮影してほしいための操作である可能性が非常に高い。そこで、撮影頻度が多くなるように設定されるようになる。   Further, depending on the start condition of the Main processor read in step 702 of FIG. For example, in the case of activation by tap detection or activation by a specific voice command, there is a very high possibility that the operation is for the user to want to take a picture at present. Therefore, the frequency of photographing is set to be increased.

(2)撮影方法の判定
撮影方法の判定では、S901乃至S904において検出した、撮像装置の状態や周辺領域の被写体の状態に基づいて、静止画撮影、動画撮影、連写、パノラマ撮影などの内どれを実行するかの判定を行う。例えば、被写体(人物)が静止している場合は静止画撮影を実行し、被写体が動いている場合は動画撮影または連写を実行する。また、被写体が撮像装置を取り囲むように複数存在している場合や、前述したGPS情報に基づいて景勝地であることが判断できた場合には、パン・チルトを操作させながら順次撮影した画像を合成してパノラマ画像を生成するパノラマ撮影処理を実行してもよい。なお、<自動撮影を行うかどうかの判定>での判定方法と同様に、撮影前に検出した各種情報をニューラルネットワークに基づく判断によって、撮影方法を判定することもできるし、この判定処理は、後述する学習処理によって、判定条件を変更することができる。
(2) Determination of shooting method In the determination of the shooting method, still image shooting, moving image shooting, continuous shooting, panorama shooting, etc. based on the state of the imaging apparatus and the state of the subject in the peripheral area detected in S901 to S904. Determine which one to execute. For example, when the subject (person) is stationary, still image shooting is performed, and when the subject is moving, moving image shooting or continuous shooting is performed. In the case where a plurality of subjects exist so as to surround the imaging apparatus, or when it is determined that the scenery is scenic based on the above-described GPS information, images taken sequentially while operating the pan and tilt are A panoramic imaging process may be performed to generate a panoramic image by combining. As in the determination method of <determination of whether or not to perform automatic imaging>, the imaging method can also be determined by determining various information detected before imaging based on a neural network. The determination conditions can be changed by learning processing described later.

また、撮影方法の判定処理において、S908aで行う場合は、ユーザによる手動撮影指示に基づいて行うため、さらにユーザの意図に応じた撮影方法の判定を行うことも可能である。以下、図25を用いて、ユーザ意図を反映した撮影方法の判定処理に関して説明する。   In addition, in the case of the determination in the photographing method, in the case of S908a, since it is performed based on the manual photographing instruction from the user, it is also possible to determine the photographing method according to the user's intention. Hereinafter, determination processing of the imaging method reflecting the user intention will be described with reference to FIG.

<ユーザによる手動撮影指示に基づく撮影方法の判定>
図25はユーザによる手動撮影指示を行う際の、カメラの構え方、及び被写体の状態の例を表したものである。
<Determination of the imaging method based on the manual imaging instruction by the user>
FIG. 25 shows an example of how to hold the camera and the state of the subject when the user issues a manual shooting instruction.

まず、図25(a)では、目の前にある物の撮影のため、ユーザがカメラを身に着けたまま、少し前方に突き出しながら撮影している状態を示している。これは、例えば訪れた店の外観をメモ程度に撮影するようなシーンが考えられる。このようなシーンにおいては、例えばさっと通常静止画を撮影してくれることが望まれる。それに対し、図25(b)では、景勝地を撮影するため、ユーザが首から下げていたカメラを手持ちに切り替え、前方上方に掲げながら撮影している状態を示している。これは、例えば山の展望台のような開けた景色を撮影するようなシーンが考えられる。このようなシーンでは、例えばパノラマ撮影が期待されていたり、そうでない場合であっても、パノラマ撮影をした画像をユーザに提示することで、ユーザはそのような撮影方法を知り、今後の撮影に生かすことが可能となる。そこで、これらの判別を行うため、例えば保持状態から撮影に至るまでのカメラの移動距離を検出することにより、図25(a)のようなシーンなのか、図25(b)のようなシーンなのかを判別することが可能となる。   First, FIG. 25 (a) shows a state in which the user wears the camera and shoots a little while projecting forward for shooting a thing in front of the eyes. This may be, for example, a scene in which the appearance of the visited store is photographed as a note. In such a scene, for example, it is desirable that the user usually shoot a still image. On the other hand, FIG. 25 (b) shows a state in which the user turns the camera lowered from the neck into a hand-held camera and shoots while raising the camera forward and upward in order to shoot a scenic site. This can be considered, for example, a scene that shoots an open scene such as a mountain observation deck. In such a scene, for example, even if panorama shooting is expected or not, the user knows such a shooting method by presenting the image obtained by the panorama shooting to the user, and for future shooting. It becomes possible to take advantage of it. Therefore, in order to perform these determinations, for example, by detecting the moving distance of the camera from the holding state to shooting, it is a scene as shown in FIG. 25 (a) or a scene as shown in FIG. 25 (b). It is possible to determine the

このように、カメラの構え方によって、好まれる撮影方法が異なる場合があるため、撮影に至る際のカメラの状態に応じて撮影方法を切り替えることが可能となる。   As described above, the preferred photographing method may differ depending on the manner of holding the camera, so that it is possible to switch the photographing method according to the state of the camera at the time of photographing.

次に、図25(c)に関して説明する。図25(c)では、カメラの構え方としては図25(b)と類似している。しかし、図25(c)では被写体がやや上方にあり、それを撮影するために上に掲げて撮影するシーンを想定している。このような場合のユーザの目的としては、例えば、図25(a)で示したように、さっと通常静止画を撮影してくれることが望まれる。そこで、これらの判別を行うため、例えば被写体距離を検出することにより、図25(b)のようなシーンなのか、図25(c)のようなシーンなのかを判別することが可能となる。   Next, FIG. 25C will be described. In FIG. 25 (c), the way of holding the camera is similar to that of FIG. 25 (b). However, in FIG. 25C, it is assumed that the subject is slightly above, and a scene to be taken up and photographed to shoot it. As the purpose of the user in such a case, for example, as shown in FIG. 25 (a), it is desirable that the user usually shoots a still image. Therefore, in order to perform these determinations, it is possible to determine, for example, a scene as shown in FIG. 25B or a scene as shown in FIG. 25C by detecting the subject distance.

このように、被写体の状態によって、好まれる撮影方法が異なる場合があるため、撮影に至る際のカメラの状態、及び見えている被写体の状態に応じて撮影方法を切り替えることが可能となる。   As described above, since the preferred imaging method may differ depending on the state of the subject, the imaging method can be switched according to the state of the camera at the time of imaging and the state of the viewed object.

このような判定方法は、さらに図25(d)、(e)のような場合においても適用することが可能である。   Such a determination method can be further applied to the cases as shown in FIGS. 25 (d) and 25 (e).

図25(d)では、目の前にある縦長の被写体の撮影のため、ユーザが首から下げていたカメラを手持ちに切り替え、上向きに構えながら撮影している状態を示している。これは、例えば観光地で高層建築物を撮影するようなシーンが考えらえる。このようなシーンでは、例えば縦向きのパノラマ撮影が期待されていたり、そうでない場合であっても、縦向きのパノラマ撮影をした画像をユーザに提示することで、ユーザはそのような撮影方法を知り、今後の撮影に生かすことが可能となる。そこで、このような場合においては、例えばカメラの保持角度を検出することにより、図25(a)〜(c)のようなシーンなのか、図25(d)のようなシーンなのかを判別することが可能となる。なお、この時の被写体の状態として、例えば被写体までの距離、及び被写体の上下、左右の領域にある被写体までの距離をさらに判定することにより、縦向きのパノラマと横向きのパノラマのどちらが好ましいかという判別の精度を上げることも可能である。すなわち、被写体・及びその上下領域の距離が同程度の距離にあるのであれば、縦方向のパノラマ撮影を行うといった判断をすることが可能となる。   FIG. 25 (d) shows a state in which the user switches the camera lowered from the neck to the hand and shoots while holding the camera upward, in order to shoot a vertically long object in front of the eyes. This can be considered, for example, a scene where a high-rise building is photographed at a sightseeing spot. In such a scene, for example, even if vertical panoramic shooting is expected or not, the user can display such a photographing method by presenting the user with an image obtained by vertical panoramic shooting. Knowing, it will be possible to use for future shooting. Therefore, in such a case, for example, by detecting the holding angle of the camera, it is determined whether it is a scene as shown in FIGS. 25 (a) to 25 (c) or a scene as shown in FIG. 25 (d). It becomes possible. It should be noted that, by further determining, for example, the distance to the subject and the distance to the subject in the upper and lower, left and right regions of the subject as the state of the subject at this time, it is said which of panoramic portrait and landscape panoramic is preferred. It is also possible to improve the accuracy of discrimination. That is, if the distance between the subject and its upper and lower regions is at the same distance, it is possible to make a determination such as performing panoramic photography in the vertical direction.

図25(e)では、360度撮影のため、ユーザが首から下げていたカメラを手持ちに切り替え、真上に構えながら撮影している状態を示している。これは、例えば山頂で周囲を見回す画像を撮影するようなシーンが考えられる。この時、例えばユーザは外部機器を用いて360度撮影モードに設定し、撮影指示を行うことが考えられる。そこで、例えばこのような場合には外部機器を操作しようとした時に、360度撮影への移行を伺うようなUIを提示すれば、ユーザの操作の手間を削減することが可能となる。さらには、そのようなことを何度か繰り返すうちに、ユーザは外部機器を操作するまでもなく、真上に掲げてシャッターボタンを押下するだけで360度撮影が行えることを期待するようになる。そこで、このような場合においては、例えば保持状態から撮影に至るまでのカメラの移動方向が真上方向だった場合は360度撮影を行うといったようにすることで、ユーザの撮影の手間を軽減することが可能なる。   FIG. 25E shows a state in which the user turns the camera lowered from the neck into a hand-held camera and shoots while holding the camera directly above for shooting 360 degrees. This may be, for example, a scene in which an image is taken to look around at the top of a mountain. At this time, for example, it is conceivable that the user sets the 360-degree imaging mode using an external device and issues an imaging instruction. Therefore, for example, when it is attempted to operate the external device in such a case, it is possible to reduce the time and effort of the user's operation by presenting a UI that covers the transition to 360-degree imaging. Furthermore, while repeating such a thing several times, the user is expected to be able to take a 360-degree picture just by holding it up and pressing the shutter button without having to operate the external device. . Therefore, in such a case, for example, if the moving direction of the camera from the holding state to the shooting is the upward direction, 360-degree shooting is performed to reduce the time and effort of the user for shooting. It becomes possible.

このように、カメラの状態、及び被写体の状態に基づいて撮影方法を切り替えることにより、撮影時・及び撮影画像確認時におけるユーザの手間を軽減することが可能となる。   As described above, by switching the photographing method based on the state of the camera and the state of the subject, it is possible to reduce the time and effort of the user at the time of photographing and at the time of photographing image confirmation.

なお、このようなカメラの状態と被写体の状態に応じた、期待される撮影方法の判定においても、<自動撮影を行うかどうかの判定>での判定方法と同様に、ニューラルネットワークに基づく判断によって撮影方法を判定することもできる。また、この判定処理は、後述する学習処理によってユーザごとに判定条件を変更することも可能である。このような場合、学習の初期段階においては複数の撮影方法により複数の画像を記録しておき、後述する学習処理において、ユーザがどの撮影方法の画像を好んだかに応じて、判定条件を変えていくことが可能である。   Also in the determination of the expected photographing method according to the state of the camera and the state of the subject, the judgment based on the neural network is performed similarly to the determination method of <determination of whether or not to perform automatic photographing>. It is also possible to determine the shooting method. Further, in this determination processing, it is also possible to change the determination condition for each user by learning processing described later. In such a case, in the initial stage of learning, a plurality of images are recorded by a plurality of photographing methods, and in the learning process described later, the determination condition is changed according to which photographing method the user preferred. It is possible to

このように、ユーザによる手動撮影指示があった場合において、ユーザの意図に応じた撮影方法の判定に関して説明したが、このような処理はS908bのような、手動撮影指示が無い場合の自動撮影判定処理においても、適用することが可能である。すなわち、カメラを構えたと判定された際に、そのカメラの構え方を検出することにより、同様にユーザ意図を反映した撮影方法の判定を行うことも可能である。このような、カメラの構え方の検出処理を図26を用いて説明する。   As described above, although there has been described the determination of the imaging method according to the user's intention when there is a manual imaging instruction from the user, such processing is an automatic imaging determination when there is no manual imaging instruction such as S908b. It is possible to apply also in processing. That is, when it is determined that the user holds the camera, it is also possible to similarly determine the photographing method reflecting the user's intention by detecting how to hold the camera. Such a process of detecting how to hold the camera will be described with reference to FIG.

図26はライフログカメラにおける、加速度センサの出力の例を示したものである。この図では静止(a)→歩行(b)→静止(c)→カメラを構える(d)→カメラ保持・撮影(e)→カメラ持ち替え(f)→カメラを構える(g)→カメラ保持・撮影(h)の様子と、その時の加速度変化の様子の例を示している。例えば、(a)、(c)の期間はライフログカメラを身につけた状態であるため、体の振動程度の変化となっている。(b)の期間は歩行開始・終了時に大きな加速、及び減速が発生し、その間は歩行時の体の揺れに応じた変化となっている。また、(d)や(g)の期間は撮影のためにカメラを構える期間を表しており、図のようにある程度安定した加速度となり、構え終わった(e)、(h)の期間では再度手振れ程度の振動となっている。また、(f)の期間はライフログカメラを首にかけた状態から手持ちに切り替えている期間であり、この期間は一時的にランダムな動作となるため、乱雑な大きな変化となっている。   FIG. 26 shows an example of the output of the acceleration sensor in the life log camera. In this figure, stationary (a) → walking (b) → stationary (c) → hold the camera (d) → camera holding and photographing (e) → camera holding (f) → holding the camera (g) → camera holding and photographing An example of the state of (h) and the state of acceleration change at that time is shown. For example, the period of (a) and (c) is a state in which the life log camera is worn, so it is a change in the degree of vibration of the body. During the period (b), large acceleration and deceleration occur at the start and end of walking, and during that time, the change is in response to the shaking of the body during walking. Also, the periods (d) and (g) represent the period in which the camera is held for shooting, and the acceleration becomes stable to some extent as shown in the figure, and in the periods (e) and (h) the camera shakes again It has become a degree of vibration. Further, the period (f) is a period in which the life log camera is switched from being put on the neck to being in the hand, and since this period temporarily becomes a random operation, it is a disorderly large change.

なお、「カメラを構える」は、前述の、「カメラを身に着けたまま、少し前方に突き出しながら撮影」を表し、「カメラを構える」は、前述の「首から下げていたカメラを手持ちに切り替え、前方上方に掲げながら撮影」を表している。このような場合において、(e)及び(h)の撮影はユーザ指示に基づかず、前述の自動撮影を行うかどうかの判定により、撮影を行うことも可能となる。この時、前述したカメラの構え方を抽出できるのであれば、前述の、撮影方法の判定を実施することが可能となる。このためには、図26の加速度変化のうち、カメラを構えている期間(d)、(g)を抽出することが必要となる。これには、例えば加速度を監視しておき、閾値以上の加速、及び減速が発生した際に、その期間をカメラを構えている期間として検出することが可能である。なお、この閾値は例えば手振れ、歩行ブレよりも大きい変化を検出するように図中の±Thのような値を設定することが可能である。さらには、精度を向上させるため、以下のような条件を設けることも可能である。   Note that "hold the camera" indicates the above-mentioned "shoot while slightly sticking forward while wearing the camera", and "hold the camera" indicates that the camera "held from the neck" is held by the hand. It shows "shooting while switching up and down and upward". In such a case, the photographing in (e) and (h) is not based on the user's instruction, and the photographing can be performed by the determination as to whether or not the automatic photographing described above is performed. At this time, if the holding manner of the camera described above can be extracted, it is possible to carry out the determination of the photographing method described above. For this purpose, it is necessary to extract the periods (d) and (g) in which the camera is held among the changes in acceleration shown in FIG. For this purpose, it is possible to monitor, for example, the acceleration and to detect the period as holding the camera when acceleration above the threshold and deceleration occur. Note that this threshold value can be set to a value such as ± Th in the figure so as to detect, for example, a change larger than hand shake and walking shake. Furthermore, in order to improve the accuracy, it is also possible to set the following conditions.

手振れ程度を閾値とし、閾値以上の加速、及び減速が発生した後、一定期間(図中(e)、(h)程度)の間、閾値以内のブレに収まっているかどうかを判別することで、歩行による加速度変化期間を除外する。   The camera shake degree is used as a threshold, and after acceleration or deceleration above the threshold occurs, it is determined whether or not the movement is within the threshold for a predetermined period (about (e) and (h) in the figure). Exclude the acceleration change period due to walking.

一定期間(図中(d)(g)以上、(b)未満)内に加速、及び減速が発生しているかどうかを判別することで、歩行による加速度変化期間を除外する。   The acceleration change period due to walking is excluded by determining whether or not acceleration and deceleration occur within a fixed period ((d) (g) or more and (b) or more in the figure).

短時間に加速、及び減速が頻発する期間を除外することで、(f)のような持ち替え期間を除外する。   By excluding the period in which acceleration and deceleration frequently occur in a short time, a changeover period such as (f) is excluded.

このように、カメラの加速度を監視することで、自動撮影時においても、カメラの構え方を検出し、ユーザ意図を反映した撮影方法の判定が可能となる。   As described above, by monitoring the acceleration of the camera, it is possible to detect how to hold the camera and to determine the photographing method reflecting the user's intention even during automatic photographing.

S909では、S908bの自動撮影判定により撮影する判定が下された場合、S910に進み、下されなかった場合、撮影モード処理終了へと進む。   In S909, if it is determined that the photographing is determined by the automatic photographing determination in S908b, the process proceeds to S910. If not determined, the process proceeds to the end of the photographing mode processing.

S910では、自動撮影を開始する。この時、S908a、またはS908bにて判定された撮影方法による撮影を開始する。その際、フォーカス駆動制御部204によるオートフォーカス制御を行う。また、不図示の絞り制御部およびセンサゲイン制御部、シャッター制御部を用いて、被写体が適切な明るさになるような露出制御を行う。さらに、撮影後には画像処理部207において、オートホワイトバランス処理、ノイズリダクション処理、ガンマ補正処理等、種々の画像処理を行い、画像を生成する。   In S910, automatic shooting is started. At this time, imaging according to the imaging method determined in S 908 a or S 908 b is started. At this time, auto focus control is performed by the focus drive control unit 204. Also, exposure control is performed such that the subject has appropriate brightness by using an aperture control unit, a sensor gain control unit, and a shutter control unit (not shown). Furthermore, after image capturing, the image processing unit 207 performs various image processing such as auto white balance processing, noise reduction processing, gamma correction processing, and the like to generate an image.

なお、この撮影の際に、所定の条件を満たした時、撮像装置が撮影対象となる人物に対し撮影を行う旨を報知処理した上で撮影する手段を取ってもよい。報知の方法は、例えば、音声出力部218からの音声やLED制御部224によるLED点灯光を使用してもよいし、パン・チルトを駆動することにより視覚的に被写体の視線を誘導するモーション動作をしてもよい。所定の条件は、例えば、画角内における顔の数、顔の笑顔度・目瞑り度、被写体人物の視線角度や顔角度、顔認証ID番号、個人認証登録されている人物の数党である。また、撮影時の一般物体認識結果、シーン判別結果、前回撮影時からの経過時間、撮影時刻、GPS情報に基づく現在位置が景勝地であるか否か、撮影時の音声レベル、声を発している人物の有無、拍手、歓声が上がっているか否か等である。また、振動情報(加速度情報、撮像装置の状態)、環境情報(温度、気圧、照度、湿度、紫外線量)等である。これらの条件に基づき報知撮影を行うことによって、重要性が高いシーンにおいてカメラ目線の好ましい画像を残すことができる。   It should be noted that, at the time of photographing, when the predetermined condition is satisfied, the imaging device may perform a notification process to the effect that the person to be photographed is to be photographed before photographing. The method of notification may use, for example, voice from the audio output unit 218 or LED lighting light by the LED control unit 224, or a motion operation of visually guiding the line of sight of the subject by driving the pan / tilt. You may The predetermined conditions are, for example, the number of faces within the angle of view, the degree of smile / eye closure of the face, the gaze angle or face angle of the subject person, the face authentication ID number, the number of persons registered for personal authentication, . In addition, whether the current position based on general object recognition result at the time of shooting, scene discrimination result, shooting time at the previous shooting time, shooting time, GPS information is scenic position, voice level at shooting, voice out Whether the person is present, applause, cheers are rising, etc. Also, the information includes vibration information (acceleration information, state of imaging device), environment information (temperature, atmospheric pressure, illuminance, humidity, amount of ultraviolet light), and the like. By performing informing shooting based on these conditions, it is possible to leave a preferable image of the camera gaze in a scene of high importance.

また、所定の条件を複数もち、各条件に応じて音声を変更したり、LEDの点灯方法(色や点滅時間など)を変更したり、パン・チルトのモーション方法(動き方や駆動速度)を変更してもよい。   In addition, there are multiple predetermined conditions, change the sound according to each condition, change the lighting method of LED (color, blink time, etc.), or pan / tilt motion method (motion or driving speed) You may change it.

このような撮影前の報知についても、撮影画像の情報、或いは撮影前に検出した各種情報をニューラルネットワークに基づく判断によって、報知の方法やタイミングを判定することもできる。また、この判定処理は、後述する学習処理によって、判定条件を変更することができる。   With regard to such notification before shooting, the method and timing of the notification can also be determined by judgment based on neural network based on information of the shot image or various information detected before shooting. Further, in this determination process, the determination condition can be changed by a learning process described later.

S911では、S910にて生成した画像を加工したり、動画に追加したりといった編集処理を行う。画像加工については、具体的には、人物の顔や合焦位置に基づいたトリミング処理、画像の回転処理、HDR(ハイダイナミックレンジ)効果、ボケ効果、色変換フィルタ効果などである。画像加工は、S910にて生成した画像を元に、上記の処理の組み合わせによって複数生成し、前記S910にて生成した画像とは別に保存するとしてもよい。また、動画処理については、撮影した動画または静止画を、生成済みの編集動画にスライド、ズーム、フェードの特殊効果処理をつけながら追加するといった処理をしてもよい。S911での編集についても、撮影画像の情報、或いは撮影前に検出した各種情報をニューラルネットワークに基づく判断によって、画像加工の方法を判定することもできるし、この判定処理は、後述する学習処理によって、判定条件を変更することができる。   In step S911, editing processing such as processing the image generated in step S910 or adding it to a moving image is performed. More specifically, image processing is trimming processing based on the face of a person or the in-focus position, image rotation processing, HDR (high dynamic range) effect, blur effect, color conversion filter effect, and the like. A plurality of image processes may be generated based on the image generated in S910 by a combination of the above-described processes, and may be stored separately from the image generated in S910. In addition, in the moving image processing, processing may be performed such that the captured moving image or still image is added to the generated edited moving image while performing special effect processing of slide, zoom, and fade. With regard to the editing in S911, the method of image processing can also be determined by judgment based on information of the photographed image or various information detected before photographing based on the neural network, and this judgment processing is the learning processing described later. The judgment conditions can be changed.

S912では撮影画像の学習情報生成処理を行う。ここでは、後述する学習処理に使用する情報を生成し、記録する。具体的には、今回の撮影画像における、撮影時のズーム倍率、撮影時の一般物体認識結果、顔検出結果、撮影画像に写る顔の数、顔の笑顔度・目瞑り度、顔角度、顔認証ID番号、被写体人物の視線角度等である。また、シーン判別結果、前回撮影時からの経過時間、撮影時刻、GPS位置情報および前回撮影位置からの変化量、撮影時の音声レベル、声を発している人物、拍手、歓声が上がっているか否か等である。また、振動情報(加速度情報、撮像装置の状態)、環境情報(温度、気圧、照度、湿度、紫外線量)、動画撮影時間、手動撮影指示によるものか否か、等である。更にユーザの画像の好みを数値化したニューラルネットワークの出力であるスコアも演算する。   In S912, learning information generation processing of the photographed image is performed. Here, the information used for the learning process described later is generated and recorded. Specifically, the zoom magnification at the time of shooting, the result of general object recognition at the time of shooting, the result of face detection, the number of faces included in the shot image, the degree of smile / eye closing of face, face angle, face The authentication ID number, the gaze angle of the subject person, and the like. In addition, as a result of scene discrimination, elapsed time since the last shooting, shooting time, GPS position information and change amount from the last shooting position, voice level at the time of shooting, voiced person, applause, cheering or not It is In addition, vibration information (acceleration information, state of imaging device), environment information (temperature, atmospheric pressure, illuminance, humidity, ultraviolet light amount), moving image shooting time, whether by manual shooting instruction, etc. Furthermore, a score, which is the output of a neural network that quantifies the preferences of the user's image, is also calculated.

これらの情報を生成し、撮影画像ファイルへタグ情報として記録する。あるいは、不揮発性メモリ216へ書き込むか、記録媒体221内に、所謂カタログデータとして各々の撮影画像の情報をリスト化した形式で保存する、としてもよい。   These pieces of information are generated and recorded as tag information in the photographed image file. Alternatively, the information may be written to the non-volatile memory 216 or may be stored in the recording medium 221 as so-called catalog data in the form of a list of information of each photographed image.

S913では過去撮影情報の更新を行う。具体的には、S908bの説明で述べたエリア毎の撮影枚数や、個人認証登録された人物毎の撮影枚数、一般物体認識で認識された被写体毎の撮影枚数、シーン判別のシーン毎の撮影枚数について、今回撮影された画像が該当する枚数のカウントを1つ増やす。   In step S913, the past shooting information is updated. Specifically, the number of shots for each area described in the description of S 908 b, the number of shots for each person registered for personal identification, the number of shots for each subject recognized by general object recognition, the number of shots for each scene determination scene The count of the number of images corresponding to the image taken this time is incremented by one.

<自動編集モード処理(ハイライト動画)>
次に、本実施形態における自動編集モード処理(ハイライト動画)について説明する。
<Auto Edit Mode Processing (Highlight Video)>
Next, automatic editing mode processing (highlight video) in the present embodiment will be described.

図7のステップ704のモード設定判定にて、自動編集処理(ハイライト動画)を行うか否かを判定し、自動編集処理を行う場合、ステップ712の自動編集モード処理を行う。   In the mode setting determination in step 704 of FIG. 7, it is determined whether or not the automatic editing process (highlighted moving image) is to be performed. When the automatic editing process is to be performed, the automatic editing mode process in step 712 is performed.

自動編集モードの判定条件を説明する。自動編集モードに移行するか否かは、前回編集処理を行ってからの経過時間や、前回編集処理を行った時点以降で撮影された各画像のタグ情報(学習情報やユーザの画像の好みを数値化したスコアなど)に基づいて判定される。ステップ704のモード設定判定処理内で判定される、自動編集モードに移行すべきか否かの判定処理フローを図10に示す。   The determination conditions of the automatic editing mode will be described. Whether or not to shift to the automatic editing mode depends on the elapsed time since the previous editing process and the tag information (learning information and user's preference for each image taken after the last editing process). It is judged based on the numerical score etc.). FIG. 10 shows the process flow of determining whether or not to shift to the automatic editing mode, which is determined in the mode setting determination process of step 704.

ステップ704のモード設定判定処理内で自動編集モード判定が開始指示されると、図10の処理がスタートする。ステップ1001では、前回自動編集処理が行われてからの経過時間TimeDを取得し、ステップ1002に進む。ステップ1002では、前回編集処理を行った時点以降で撮影された各画像に対応した学習情報やスコアなどを取得し、ステップ1003に進む。ステップ1003では、ステップ1002で取得した各データから自動編集を行うべきかどうかを判定するための評価値DBを演算する。評価値の演算方法は、例えば、各画像情報から画像の特徴を抽出し、特徴の種類が多い場合は点数が高くなるようにする。また、上記自動撮影で説明したとおり各画像には、ユーザの好みを判定されたスコアが演算されており、スコアが高い画像が多い場合も点数が高くなるようにする。また、撮影された数が多くても点数は高くなるように計算する。これにより評価値はスコアの点数の高さに依存し、画像の数に依存し、特徴の種類にも異存することになる。ステップ1004に進む。ステップ1004では、TimeDから閾値DAを演算する。例えば、TimeDが所定値よりも小さい場合の閾値DAaが、所定値よりも大きい場合の閾値DAbよりも大きく設定されており、時間経過によって、閾値が小さくなるように設定してある。これにより、撮影データが少ない場合においても、時間経過が大きいと自動編集処理を行うようにすることで、使用時間に応じて撮像装置が自動的にハイライト動画を作成してくれるようにしてある。   When start of automatic editing mode determination is instructed in the mode setting determination process of step 704, the process of FIG. 10 is started. In step 1001, an elapsed time TimeD after the previous automatic editing processing is performed is acquired, and the process proceeds to step 1002. In step 1002, learning information, scores, and the like corresponding to each image captured after the time of the previous editing process are acquired, and the process proceeds to step 1003. In step 1003, an evaluation value DB is calculated to determine whether or not automatic editing should be performed from the data acquired in step 1002. The calculation method of the evaluation value is, for example, to extract the feature of the image from each piece of image information, and to increase the score when there are many types of features. Further, as described in the above-described automatic photographing, the score for which the preference of the user is determined is calculated for each image, and the score is increased even when there are many images having high scores. In addition, the score is calculated to be high even if the number of captured images is large. As a result, the evaluation value depends on the height of the score, the number of images, and the feature type. Proceed to step 1004. At step 1004, a threshold value DA is calculated from TimeD. For example, the threshold value DAa when TimeD is smaller than a predetermined value is set to be larger than the threshold value DAb when larger than the predetermined value, and the threshold value is set to decrease with time. As a result, even when there is a small amount of shooting data, the automatic editing process is performed when the elapsed time is large, so that the imaging device automatically creates the highlight moving image according to the usage time. .

ステップ1004の処理を終了すると、ステップ1005に進み、評価値DBが、閾値DAより大きい場合、ステップ1006に進む。前回自動編集を行った時点から、自動編集すべきデータを得ることができた、或いは時間経過が大きく、自動編集を行うべきだと判定された場合であるので、自動編集モードをTRUEにして、自動編集モード判定を終了する。ステップ1005で、評価値DBが閾値DA以下である場合は、自動編集すべきデータが揃っていないと判定され、自動編集処理は行わないように自動編集モード判定をFALSEにし、自動編集モード判定処理を終了する。   When the process of step 1004 ends, the process proceeds to step 1005, and if the evaluation value DB is larger than the threshold value DA, the process proceeds to step 1006. Set the automatic editing mode to TRUE, because it is possible to obtain data to be automatically edited since the last time automatic editing was performed, or because it is determined that automatic editing should be performed with a large lapse of time. End the automatic editing mode determination. If it is determined in step 1005 that the evaluation value DB is equal to or less than the threshold value DA, it is determined that the data to be automatically edited is not complete, and the automatic editing mode determination is set to FALSE so that the automatic editing process is not performed. Finish.

次に自動編集モード処理(ステップ712)内の処理について説明する。自動編集モード処理の詳細なフローを図11に示す。   Next, processing in the automatic editing mode processing (step 712) will be described. The detailed flow of the automatic editing mode process is shown in FIG.

S1101にて、記録媒体221に保存された静止画像、動画像の選抜処理を第1制御部223で実施し編集に使用する画像を選抜し、S1102へ進む。   In step S1101, the first control unit 223 executes selection processing of still images and moving images stored in the recording medium 221 to select an image to be used for editing, and the processing proceeds to step S1102.

ここでいう画像選抜処理とは、撮影された静止画像、動画像の中の顔の数、顔のサイズ、色群などのメタデータを画像毎に抽出を行い、評価値に換算し定めた閾値以上のものを列挙する事とする。後述する学習により、静止画像及び動画像の選抜比率を決定し、ユーザの設定、撮影頻度、各設定を顧みて優先的に選抜を行うようにする。   The image selection processing mentioned here is a threshold determined by extracting metadata such as the captured still image, the number of faces in the moving image, the size of the face, and the color group for each image, and converting it into an evaluation value. I will list the above. The selection ratio of the still image and the moving image is determined by learning described later, and selection is preferentially performed in consideration of the setting of the user, the photographing frequency, and each setting.

S1102にて、S1101で選抜された画像に対して第1制御部223、画像処理部207で画像効果付与を行いS1103に進む。   In step S1102, the first control unit 223 and the image processing unit 207 apply image effects to the image selected in step S1101 and the process advances to step S1103.

ここでいう画像効果付与とは、静止画像において、人物の顔や合焦位置の中心でのトリミング処理、画像の回転処理、HDR(ハイダイナミックレンジ)効果、ボケ効果、スライド、ズーム、フェードの特殊効果処理、色フィルタ効果などとする。   The image effect application here refers to trimming processing at the center of the person's face or in-focus position, image rotation processing, HDR (high dynamic range) effect, blur effect, slide, zoom, and fade special effects in still images. Effect processing, color filter effect, etc.

動画像においても同様に色フィルタ付与を行う。   Similarly, color filters are applied to moving images.

S1103にて、第1制御部223にて画像再生時間の設定を行いS1104に進む。S1101にて選抜された画像を用いて、S1105で説明するハイライト動画を作成のため、後述する学習に基づいて適切な画像の再生時間を設定する。   In S1103, the first control unit 223 sets the image reproduction time, and the process advances to S1104. In order to create the highlight moving image described in S1105 using the image selected in S1101, an appropriate image reproduction time is set based on learning described later.

S1104にて、第1制御部223にてS1105で説明するハイライト動画に付与する音楽(BGM)の設定を行いS1105に進む。音楽(BGM)の設定についても後述する学習した結果よりユーザへ提供する最も適切なものを設定する事とする。   In step S1104, the first control unit 223 sets music (BGM) to be added to the highlight moving image described in step S1105, and the process advances to step S1105. With regard to music (BGM) settings, the most appropriate one to be provided to the user is set from the learning results described later.

S1105にて、第1制御部223にてS1101からS1104で行った結果を用いて一連のハイライト動画作成を行う。作成したハイライト動画は、記録媒体221に保存する。   In S1105, a first control unit 223 performs a series of highlight moving image creations using the results performed in S1101 to S1104. The created highlight moving image is stored in the recording medium 221.

なお、上記説明した画像の選抜や、画像効果付与や、再生時間やBGM選択は、各画像に付加されているタグ情報(撮影画像の情報、或いは撮影前に検出した各種情報)から、ニューラルネットワークに基づく判断によって、判定することができる。また、この判定処理は、後述する学習処理によって、判定条件を変更することもできる。   The selection of images, the addition of image effects, playback time and BGM selection described above can be performed from the tag information added to each image (information of the photographed image or various information detected before photographing), neural network It can be judged by the judgment based on Further, in this determination processing, the determination conditions can also be changed by learning processing described later.

<学習モード処理>
次に、本実施形態におけるユーザの好みに合わせた学習について説明する。
<Learning mode processing>
Next, learning in accordance with the preference of the user in the present embodiment will be described.

本実施形態では、図12に示すようなニューラルネットワークを用い、機械学習アルゴリズムを使用して、学習処理部219にてユーザの好みに合わせた学習を行う。ニューラルネットワークは、入力値から出力値を予測することに使用されるものであり、予め入力値の実績値と出力値の実績値を学習しておくことで、新たな入力値に対して、出力値を推定することができる。ニューラルネットワークを用いることにより、前述の自動撮影や自動編集、被写体探索に対して、ユーザの好みに合わせた学習を行う。   In the present embodiment, using a neural network as shown in FIG. 12 and a machine learning algorithm, the learning processing unit 219 performs learning in accordance with the user's preference. The neural network is used to predict the output value from the input value, and learns in advance the actual value of the input value and the actual value of the output value to output an output for the new input value. The value can be estimated. By using the neural network, learning is performed according to the user's preference for the above-mentioned automatic photographing, automatic editing, and subject search.

また、ニューラルネットワークに入力する特徴データともなる被写体登録(顔認証や一般物体認識など)を登録したり、撮影報知制御や低消費電力モード制御やファイル自動削除を学習によって変更することも行う。   It also registers subject registration (face recognition, general object recognition, etc.) which is also feature data to be input to a neural network, and changes shooting notification control, low power consumption mode control, and automatic file deletion through learning.

本実施形態において、学習処理により、学習される要素は以下である。   In the present embodiment, the elements to be learned by the learning process are as follows.

(1)自動撮影
自動撮影に対する学習について説明する。自動撮影では、ユーザの好みに合った画像の撮影を自動で行うための学習を行う。図9のフローを用いた説明で上述したように、撮影後(ステップS912)に学習情報生成処理が行われている。後述する方法により学習させる画像を選択させ、画像に含まれる学習情報を基に、ニューラルネットワークの重みを変化させることで学習する。学習は、自動撮影タイミングの判定を行うニューラルネットワークの変更と、撮影方法(静止画撮影、動画撮影、連写、パノラマ撮影など)の判定をニューラルネットワークの変更で行われる。
(1) Automatic shooting The learning for automatic shooting will be described. In automatic shooting, learning is performed to automatically take an image that suits the user's preference. As described above in the explanation using the flow of FIG. 9, the learning information generation process is performed after the photographing (step S912). An image to be learned is selected by a method to be described later, and learning is performed by changing weights of the neural network based on learning information included in the image. The learning is performed by changing a neural network that performs automatic shooting timing determination and determining a shooting method (still image shooting, moving image shooting, continuous shooting, panoramic shooting, etc.).

(2)自動編集
自動編集に対する学習について説明する。自動編集は、図9のステップ911での撮影直後の編集と、図11で説明したハイライト動画の編集のそれぞれに対して学習が行われる。撮影直後の編集について説明する。後述する方法により学習させる画像を選択させ、画像に含まれる学習情報を基に、ニューラルネットワークの重みを変化させることで学習する。撮影或いは撮影直前の情報により得られた各種検出情報をニューラルネットワークに入力し、編集方法(トリミング処理、画像の回転処理、HDR(ハイダイナミックレンジ)効果、ボケ効果、色変換フィルタ効果など)の判定を行う。ハイライト動画の編集について説明する。ハイライト動画は、ユーザの好みに合ったアルバム動画作成を自動で行うための学習を行う。後述する方法により学習させる画像を選択させ、画像に含まれる学習情報を基に、ニューラルネットワークの重みを変化させることで学習する。撮影或いは撮影直前の情報により得られた各種検出情報をニューラルネットワークに入力し、画像効果付与(トリミング処理、回転処理、HDR効果、ボケ効果、スライド、ズーム、フェード、色変換フィルタ効果、BGM、時間、静止画動画比率)の判定を行う。
(2) Automatic Editing Describe the learning for automatic editing. In the automatic editing, learning is performed for each of editing immediately after shooting in step 911 in FIG. 9 and editing of the highlight moving image described in FIG. The editing immediately after shooting will be described. An image to be learned is selected by a method to be described later, and learning is performed by changing weights of the neural network based on learning information included in the image. Various detection information obtained by shooting or information immediately before shooting is input to a neural network, and determination of editing method (trimming process, image rotation process, HDR (high dynamic range) effect, blur effect, color conversion filter effect, etc.) I do. Describe the editing of highlight videos. The highlight movie performs learning to automatically create an album movie that meets the user's preference. An image to be learned is selected by a method to be described later, and learning is performed by changing weights of the neural network based on learning information included in the image. Various detection information obtained by shooting or information immediately before shooting is input to a neural network, and image effects are applied (trimming processing, rotation processing, HDR effect, blur effect, slide, zoom, fade, color conversion filter effect, BGM, time And still image / moving image ratio).

(3)被写体探索
被写体探索に対する学習について説明する。被写体探索では、ユーザの好みに合った被写体の探索を自動で行うための学習を行う。図9のフローを用いた説明で上述したように、被写体探索処理(ステップS904)において、各エリアの重要度レベルを算出し、パン・チルト、ズームを駆動し、被写体探索を行っている。学習は撮影画像や探索中の検出情報によって学習され、ニューラルネットワークの重みを変化させることで学習する。探索動作中の各種検出情報をニューラルネットワークに入力し、重要度レベルの算出を行い、重要度レベルに基づきパン・チルトの角度を設定することで学習を反映した被写体探索を行う。また、重要度レベルに基づくパン・チルト角度の設定以外にも、例えば、パン・チルト駆動(速度、加速度、動かす頻度)の学習も行う。
(3) Subject Search Learning for subject search will be described. In the subject search, learning is performed to automatically search for a subject matching the user's preference. As described above in the description using the flow of FIG. 9, in the subject search process (step S904), the importance level of each area is calculated, pan / tilt and zoom are driven, and the subject search is performed. The learning is performed based on the photographed image and the detection information during the search, and learning is performed by changing the weight of the neural network. Various detection information during the search operation is input to the neural network, the importance level is calculated, and the pan / tilt angle is set based on the importance level to perform the object search reflecting the learning. In addition to the setting of the pan and tilt angles based on the importance level, for example, learning of pan and tilt driving (speed, acceleration, frequency of movement) is also performed.

(4)被写体登録
被写体登録に対する学習について説明する。被写体登録では、ユーザの好みに合った被写体の登録やランク付けを自動で行うための学習を行う。学習として、例えば、顔認証登録や一般物体認識の登録、ジェスチャーや音声認識、音によるシーン認識の登録を行う。認証登録は人と物体に対する認証登録を行い、画像取得される回数や頻度、手動撮影される回数や頻度、探索中の被写体の現れる頻度からランク設定を行う。登録された情報は、各ニューラルネットワークを用いた判定の入力として登録されることになる。
(4) Subject Registration The learning for subject registration will be described. In subject registration, learning is performed to automatically register and rank subjects according to the user's preference. As learning, for example, registration of face recognition registration and registration of general object recognition, registration of gesture and voice recognition, and scene recognition by sound are performed. In authentication registration, authentication registration is performed for a person and an object, and rank setting is performed based on the number and frequency of image acquisition, the number and frequency of manual photographing, and the appearance frequency of a subject under search. The registered information is registered as an input of determination using each neural network.

(5)撮影報知制御
撮影報知に対する学習について説明する。図9のS910で説明したように、撮影直前に、所定の条件を満たしたとき、撮像装置が撮影対象となる人物に対して撮影を行う旨を報知した上で撮影することも行う。例えば、パン・チルトを駆動することにより視覚的に被写体の視線を誘導するモーションや、音声出力部218から発するスピーカー音や、LED制御部224によるLED点灯光を使用する。上記報知の直後に被写体の検出情報(例えば、笑顔度、目線検出、ジェスチャー)が得られたか否かで、検出情報を学習に使用するかを判定し、ニューラルネットワークの重みを変化させることで学習する。または、後述する方法により学習させる画像を選択させ、画像に含まれる学習情報を基に、ニューラルネットワークの重みを変化させることで学習する。画像には、撮影直前にどのように報知動作が行われたかの情報が埋め込まれており、選択された画像に付加された検出情報や上記撮影直前の報知動作情報を教師データとして解析して、規則性を抽出し、抽出結果に応じて学習する。撮影直前の各検出情報をニューラルネットワークに入力し、報知を行うか否かの判定や、各報知動作(音(音レベル/音の種類/タイミング)、LED光(色、点灯時間、点滅間隔)、パン・チルトモーション(動き方、駆動速度))の判定を行う。各報知動作の学習については、予め用意された報知方法(音、LED光、パン・チルトモーションの複合動作)の中からどの報知を行うかを選択する学習を行う方法でもよい。また、音、LED光、パン・チルトモーションの各報知動作それぞれに対して別々のニューラルネットワークを設けてそれぞれの動作を学習する方法でもよい。
(5) Shooting notification control The learning for the shooting notification will be described. As described in S910 of FIG. 9, when the predetermined condition is satisfied immediately before shooting, shooting is also performed after the imaging device notifies that a person to be shot is to be shot. For example, a motion for guiding the line of sight of the subject visually by driving pan and tilt, a speaker sound emitted from the audio output unit 218, and LED lighting light by the LED control unit 224 are used. Whether the detection information is used for learning is determined immediately after the notification whether the detection information of the subject (for example, smile level, eye line detection, gesture) is obtained, and learning is performed by changing the weight of the neural network. Do. Alternatively, an image to be learned is selected by a method described later, and learning is performed by changing weights of the neural network based on learning information included in the image. The image has embedded therein information on how the notification operation was performed immediately before shooting, and the detection information added to the selected image and the notification operation information immediately before the shooting are analyzed as teacher data, Extract sex and learn according to the extraction result. Each detection information immediately before shooting is input to the neural network, and it is judged whether or not to perform notification, each notification operation (sound (sound level / type of sound / timing), LED light (color, lighting time, blink interval) , And pan / tilt motion (motion, driving speed)). The learning of each informing operation may be performed by selecting which informing method to perform from among informing methods (sound, LED light, and pan / tilt motion combined operation) prepared in advance. Alternatively, separate neural networks may be provided for each notification operation of sound, LED light, and pan / tilt motion to learn each operation.

(6)低消費電力モード制御
図7、図8を用いて、説明したようにMainプロセッサ(第1制御部223)の供給電源をON/OFFする制御を行うが、低消費電力モードからの復帰条件や、低消費電力状態への遷移条件の学習が行われる。
(6) Low Power Consumption Mode Control Although control to turn on / off the power supply of the Main processor (first control unit 223) is performed as described with reference to FIGS. 7 and 8, recovery from the low power consumption mode is performed. Learning of conditions and transition conditions to the low power consumption state is performed.

まず、低消費電力モードを解除する条件の学習について説明する。   First, learning of conditions for canceling the low power consumption mode will be described.

[タップ検出]
上述したとおり、所定時間TimeAや所定閾値ThreshAを学習により変化させる。上記のタップ検出の閾値を下げた状態での仮タップ検出も行っており、タップ検出前に仮タップ検出が判定されていたか否かで、TimeAやThreshAのパラメータを検出し易いように設定する。また、タップ検出後の検出情報から、起動要因ではなかった(上述した被写体探索や自動撮影判定の結果、撮影対象がいない)と判定されると、TimeAやThreshAのパラメータを検出し難いように設定する。起動時の撮影対象がいるか否かの判定は後述する学習方法により学習された画像に埋め込まれた被写体検出情報により変化することになる。
Tap detection
As described above, the predetermined time TimeA and the predetermined threshold ThreshA are changed by learning. Temporary tap detection is also performed in the state where the above-described tap detection threshold is lowered, and parameters of Time A and Thresh A are set so as to be easily detected depending on whether temporary tap detection has been determined before tap detection. Also, if it is determined from the detection information after tap detection that it is not an activation factor (no shooting target as a result of subject search or automatic shooting determination described above), it is difficult to detect TimeA and Thresh A parameters Do. The determination as to whether or not there is a shooting target at the time of activation varies with subject detection information embedded in an image learned by a learning method described later.

[揺れ状態検出]
上述したとおり、所定時間TimeBや所定閾値ThreshBや所定回数CountBなど学習により変化させる。揺れ状態により起動条件に入った場合、起動を行うが、起動後所定時間間の検出情報から、起動要因ではなかった(上述した被写体探索や自動撮影判定の結果、撮影対象がいない)と判定されると、揺れ状態判定のパラメータを変更し、起動し難いように学習する。また、揺れが大きい状態での撮影頻度が高いと判定されると、揺れ状態判定により起動し易いように設定する。起動時の撮影対象がいるか否かの判定や、揺れが大きい状態での撮影頻度が多いかの判定は、後述する学習方法により学習された画像に埋め込まれた被写体検出情報や撮影時の揺れ情報などにより変化することになる。
[Swaying state detection]
As described above, the predetermined time Time B, the predetermined threshold Thresh B, the predetermined number of times Count B, and the like are changed by learning. When the activation condition is entered due to the shaking state, activation is performed, but it is determined from the detection information for a predetermined time after activation that it is not an activation factor (as a result of subject search and automatic shooting determination described above, no shooting target). Then, the parameter of the swing state determination is changed, and learning is performed so that it is difficult to start. In addition, when it is determined that the photographing frequency in the state where the shaking is large is high, it is set to be easily activated by the shaking state determination. The determination of whether or not there is a shooting target at the time of activation, and the determination of whether the shooting frequency is high in a large shaking state are the subject detection information embedded in the image learned by the learning method described later and the shaking information at the time of shooting It will change due to

[音検出]
ユーザが検出したい特定音声や、特定音シーンや、特定音レベルを、例えば外部機器301の専用アプリケーションと通信を介して、手動で設定することでの学習ができる。また、複数の検出を音声処理部に予め設定しておき、後述する方法により学習させる画像を選択させ、画像に含まれる撮影前後の音情報などの学習情報を基に、学習する。これにより、起動要因とする音判定(特定音コマンドや、「歓声」「拍手」などの音シーン)を設定でき、音検出による起動を学習することができる。
[Sound detection]
Learning can be performed by manually setting a specific voice, a specific sound scene, or a specific sound level that the user wants to detect, for example, through communication with a dedicated application of the external device 301. Further, a plurality of detections are set in advance in the voice processing unit, and an image to be learned is selected by a method to be described later, and learning is performed based on learning information such as sound information before and after shooting included in the image. As a result, it is possible to set a sound determination as an activation factor (a specific sound command or a sound scene such as "cheering" or "applause"), and it is possible to learn activation by sound detection.

[環境情報検出]
ユーザが起動したい環境情報変化の条件を、例えば外部機器301の専用アプリケーションと通信を介して、手動で設定することでの学習ができる。例えば、温度や気圧や明るさや湿度や紫外線量の絶対量や変化量の特定条件によって起動させることができる。また、各環境情報に基づく、判定閾値を学習することもできる。環境情報による起動後後の検出情報から、起動要因ではなかった(上述した被写体探索や自動撮影判定の結果、撮影対象がいない)と判定されると、各判定閾値のパラメータを検出し難いように設定したりする。或いは、後述する学習方法により学習された画像に埋め込まれた各環境の情報から学習することで、環境情報による起動を学習することができる。例えば、温度上昇時において撮影された画像を多く学習させた場合、温度上昇時に駆動し易いように学習がされることになる。また、上記各パラメータは、電池の残容量によっても変化する。例えば、電池残量が少ないときは各種判定に入り難くなり、電池残量が多いときは各種判定に入り易くなる。具体的には、ユーザが必ず撮像装置を起動してほしい要因でない条件である揺れ状態検出結果や、音検出の音シーン検出は、電池残量によって各検出判定のし易さが変化することになる。
[Environmental information detection]
For example, it is possible to learn by manually setting the condition of the environmental information change that the user wants to activate, for example, through communication with the dedicated application of the external device 301. For example, activation can be performed according to specific conditions of temperature, atmospheric pressure, brightness, absolute amount of humidity, and the amount of change of ultraviolet light. In addition, it is also possible to learn the determination threshold based on each piece of environmental information. If it is determined from the detection information after activation by the environment information that it is not an activation factor (no shooting target as a result of subject search or automatic shooting determination described above), it is difficult to detect parameters of each determination threshold Set up. Alternatively, by learning from the information of each environment embedded in the image learned by the learning method described later, it is possible to learn the activation based on the environment information. For example, when learning many images taken at the time of temperature rise, learning is performed so as to be easy to drive at the time of temperature rise. The above parameters also change depending on the remaining capacity of the battery. For example, when the battery remaining amount is low, it becomes difficult to enter various determinations, and when the battery remaining amount is large, it becomes easy to enter various determinations. Specifically, the sway state detection result and the sound scene detection of sound detection, which are conditions that do not require the user to always start the imaging device, change the ease of each detection determination depending on the battery remaining amount. Become.

次に、低消費電力状態への遷移条件の学習について説明する。   Next, learning of the transition condition to the low power consumption state will be described.

図7に示したとおり、モード設定判定704で、「自動撮影モード」「自動編集モード」「画像自動転送モード」「学習モード」「ファイル自動削除モード」の何れでもないと判定されると、低消費電力モードに入る。各モードの判定条件については、上述したとおりであるが、各モードを判定される条件についても学習によって変化する。自動撮影モードについては、上述したとおり、エリア毎の重要度レベルを判定し、パン・チルトで被写体探索をしながら自動撮影を行うが、撮影される被写体がいないと判定されると、自動撮影モードを解除する。例えば、すべのエリアの重要度レベルや、各エリアの重要度レベルを加算した値が、所定閾値以下になったとき、自動撮影モードを解除する。このとき、自動撮影モードに遷移してからの経過時間によって所定閾値を下げていくことも行われる。自動撮影モードに遷移してから経過時間が大きくなるにつれて低消費電力モードへ移行し易くしている。また、電池の残容量によって所定閾値を変化させることで、電池もちを考慮した低消費電力モード制御を行うことができる。例えば、電池残量が少ないときは閾値が大きくなり、電池残量が多いときは閾値が小さくなる。ここで、前回自動撮影モードに遷移してからの経過時間と撮影枚数によって、Subプロセッサに対して、次回低消費電力モード解除条件のパラメータ(経過時間閾値TimeC)を設定する。   As shown in FIG. 7, if it is determined that the mode setting determination 704 is neither “automatic shooting mode” “automatic editing mode” “automatic image transfer mode” “learning mode” “automatic file deletion mode”, it is low. Enter power consumption mode. The determination conditions of each mode are as described above, but the conditions under which each mode is determined also change by learning. In the automatic shooting mode, as described above, the importance level for each area is determined, and automatic shooting is performed while searching for a subject with pan and tilt, but if it is determined that there is no subject to be shot, the automatic shooting mode Release For example, when the importance level of all the areas or the value obtained by adding the importance levels of the respective areas becomes equal to or less than a predetermined threshold, the automatic photographing mode is canceled. At this time, the predetermined threshold may be lowered according to the elapsed time after the transition to the automatic photographing mode. The transition to the low power consumption mode is facilitated as the elapsed time after the transition to the automatic shooting mode increases. Further, by changing the predetermined threshold according to the remaining capacity of the battery, it is possible to perform the low power consumption mode control in consideration of the battery durability. For example, when the battery remaining amount is low, the threshold is large, and when the battery remaining amount is large, the threshold is small. Here, the parameter (elapsed time threshold TimeC) of the next low power consumption mode cancellation condition is set for the Sub processor based on the elapsed time since the transition to the automatic shooting mode last time and the number of shots.

上記の各閾値は学習によって変化する。学習は、例えば外部機器301の専用アプリケーションと通信を介して、手動で撮影頻度や起動頻度などを設定することで、学習ができる。また、撮像装置101電源ボタンをONしてから、電源ボタンをOFFするまでの経過時間の平均値や時間帯ごとの分布データを蓄積し、各パラメータを学習する構成にしてもよい。その場合、電源ONからOFFまでの時間が短いユーザに対しては低消費電力モードからの復帰や、低消費電力状態への遷移の時間間隔が短くなり、電源ONからOFFまでの時間が長いユーザに対しては間隔が長くなるように学習される。また、探索中の検出情報によっても学習される。学習によって設定された重要となる被写体が多いと判断されている間は、低消費電力モードからの復帰や、低消費電力状態への遷移の時間間隔が短くなり、重要となる被写体が少ない間は、間隔が長くなるように学習される。   Each threshold mentioned above changes by learning. The learning can be performed by, for example, manually setting the imaging frequency, the activation frequency, and the like through communication with a dedicated application of the external device 301. Further, an average value of elapsed time from turning on the power button of the imaging apparatus 101 to turning off the power button or distribution data for each time zone may be accumulated to learn each parameter. In this case, for users with short time from power ON to OFF, the time interval for returning from the low power consumption mode and transition to the low power consumption state becomes short, and the time from power ON to OFF is long Is learned so that the interval is long. In addition, learning is also performed by the detection information under search. While it is determined that the number of important subjects set by learning is large, the time interval for returning from the low power consumption mode and the transition to the low power consumption state is short, and the number of important subjects is small. , Will be learned to increase the interval.

(7)ファイル自動削除
ファイル自動削除に対する学習について説明する。ファイル自動削除では、ファイルの空き容量や優先して削除する画像の選択などについて学習を行う。後述する方法により学習させる画像を選択させ、画像に含まれる学習情報を基に、ニューラルネットワークの重みを変化させることで学習することができる。上述したように、上記自動撮影で説明したとおり各画像には、ユーザの好みを判定されたスコアが演算されており、スコアが低い画像が優先して記録媒体221から削除される。また、スコアの点数だけでなく、記録媒体221内の各画像に埋め込まれた撮影日時や、後述する方法で、選択されたハイライト動画(自動編集された動画)の編集内容によって学習する。例えば、取得されたハイライト動画が、短い時間間隔で撮影された画像が多い場合、撮影された日時が古いファイルが優先的に削除されるが、長い時間間隔で撮影された画像を含む場合、日時が古くてもスコアの高いファイルは削除しないように学習される。或いは、逐次所定時間間隔で、記録媒体221内の各画像のスコアを再計算するようにする。スコア算出時のニューラルネットワークには撮影日時情報も入力されており、短い時間間隔で撮影された画像が多い場合、撮影日時が古いファイルはスコアが低くなるように学習される。これにより、優先的に削除されるようになり、長い時間間隔で撮影された画像を含む場合、日時が古くてもスコアは低くならないように学習されることで、日時が古くてもスコアの高いファイルは削除しないように学習される。他の例では、後述する方法で学習させる画像が選択されるが、選択される画像の日時が比較的新しいものを集中して選択されることが多い場合、撮影された日時が古いファイルを優先的に削除される。しかし、選択される画像の日時が古いものも選択されることが多い場合は、日時が古くてもスコアの高いファイルは削除しないように学習する。他の例では、撮影頻度が多くなるように学習されている場合は、ファイルの空き領域を多くとるようにファイルが自動削除され、撮影頻度が少なくなるように学習されている場合は、ファイルの空き領域は少なくていいようにファイルの自動削除が行われる。他の例では、動画の撮影頻度が多くなるように学習されている場合、ファイルの空き領域を多くとるようにファイルが自動削除され、静止画の撮影頻度が多くなるように学習されている場合、ファイルの空き領域は少なくなるようにファイルの自動削除が行われる。
(7) Automatic File Deletion The learning for automatic file deletion will be described. In automatic file deletion, learning is performed on the free space of files and the selection of images to be deleted first. An image to be learned is selected by a method described later, and learning can be performed by changing weights of the neural network based on learning information included in the image. As described above, as described in the above-described automatic photographing, a score in which the preference of the user is determined is calculated for each image, and an image having a low score is preferentially deleted from the recording medium 221. Also, learning is performed not only by the score of the score, but also by the shooting date and time embedded in each image in the recording medium 221, and the editing content of the selected highlight moving image (moving image edited automatically) by the method described later. For example, when the acquired highlight moving image has many images captured at short time intervals, files with older capture dates and times are preferentially deleted, but include images captured at long time intervals. Files with high scores are learned not to be deleted even if the date and time are old. Alternatively, the score of each image in the recording medium 221 is recalculated at predetermined time intervals sequentially. The shooting date and time information is also input to the neural network at the time of score calculation, and when there are many images shot at short time intervals, the file with the old shooting date and time is learned so that the score becomes low. As a result, priority is given to deletion, and when an image shot at a long time interval is included, learning is performed so that the score is not lowered even if the date and time are old, so that the score is high even if the date and time is old Files are learned not to delete. In another example, an image to be learned is selected by the method described later, but in the case where the date and time of the selected image is often selected by concentrating on relatively new ones, files with older shot dates and times are given priority Are deleted. However, if the date and time of the image to be selected is often also selected, learning is performed so that a file with a high score is not deleted even if the date and time are old. In another example, if learning is performed so that the shooting frequency is high, the file is automatically deleted so as to take up a lot of free space of the file, and if it is learned so that the shooting frequency becomes low, the file Automatic deletion of files is performed to save space. In another example, when learning is performed so as to increase the shooting frequency of a moving image, the file is automatically deleted so as to take up a lot of free space of the file, and learning is performed so that the shooting frequency of still images is increased. Automatic deletion of files is performed so that free space of files is reduced.

(8)像揺れ補正
像揺れ補正に対する学習について説明する。像揺れ補正は、図9のS902で補正量を算出し、補正量に基づいてS905でパン・チルトを駆動することにより、像揺れ補正を行う。像揺れ補正では、ユーザの揺れの特徴に合わせた補正を行うための学習を行う。撮影画像に対して、例えば、PSF(Point Spread Function)を推定することにより、ブレの方向及び大きさを推定することが可能である。図9のS912の学習用情報生成では、推定したブレの方向と大きさが、情報として画像に付加されている。図7のステップ716での学習モード処理内では、推定したブレの方向と大きさを出力として、撮影時の各検出情報を入力として、揺れ補正用のニューラルネットワークの重みを学習させる。撮影時の各検出情報とは、撮影前所定時間における画像の動きベクトル情報や、検出した被写体(人や物体)の動き情報、振動情報(ジャイロ出力、加速度出力、撮像装置の状態)等である。他にも、環境情報(温度、気圧、照度、湿度)、音情報(音シーン判定、特定音声検出、音レベル変化)、時間情報(起動からの経過時間、前回撮影時からの経過時間)、場所情報(GPS位置情報、位置移動変化量)なども入力に加えて判定してもよい。S902での補正量算出時において、上記各検出情報をニューラルネットワークに入力することで、その瞬間撮影したときのブレの大きさを推定することができ、推定したブレの大きさが大きいときは、シャッター速度を短くするなどの制御が可能となる。また、推定したブレの大きさが大きいときはブレ画像になってしまうので撮影を禁止するなどの方法もとれる。また、パン・チルト駆動角度には制限があるため、駆動端に到達してしまうとそれ以上補正を行うことができないが、上記のように撮影時のブレの大きさと方向を推定することで、露光中揺れ補正するためのパン・チルト駆動に必要な範囲を推定できる。露光中可動範囲の余裕がない場合は、揺れ補正量を算出するフィルタのカットオフ周波数を大きくして、可動範囲を超えないように設定することで、大きなブレを抑制することもできる。また、可動範囲を超えそうな場合は、露光直前にパン・チルトの角度を可動範囲を超えそうな方向とは逆の方向に回転してから、露光開始することで、可動範囲を確保してブレない撮影を行うこともできる。これにより、ユーザの撮影時の特徴や使い方に合わせて揺れ補正を学習することができるので、ブレのない画像を撮影することができる。また、上述した「撮影方法の判定」において、流し撮り撮影を行うか否かを判定し、撮影前までの検出情報から、被写体がブレなく撮影するためのパン・チルト駆動速度を推定して、被写体ブレ補正を行ってもよい。ここで、流し撮り撮影は、動いている被写体はブレがなく、動いていない背景が流れる撮影である。その場合、上記各検出情報をニューラルネットワークに入力することで、静止画像撮影中の駆動速度を推定する。学習は、画像を各ブロックで分割して、各ブロックのPSFを推定することで、主被写体が位置するブロックでのブレの方向及び大きさを推定し、その情報を基に学習することができる。また、後述する学習方法により、選択された画像の背景の流れ量に基づいて、背景の流し量を学習することもできる。その場合、選択された画像の中で、主被写体が位置しないブロックでのブレの大きさを推定し、その情報を基にユーザの好みを学習することができる。学習した好みの背景流し量に基づいて、撮影時のシャッター速度を設定することで、ユーザの好みにあった流し撮り効果が得られる撮影を自動で行うことができる。
(8) Image shake correction Learning for image shake correction will be described. The image shake correction is performed by calculating the correction amount in S902 of FIG. 9 and driving the pan and tilt in S905 based on the correction amount to perform the image shake correction. In image shake correction, learning is performed to perform correction in accordance with the characteristics of the user's shake. It is possible to estimate the direction and size of blur by, for example, estimating PSF (Point Spread Function) with respect to a captured image. In the generation of information for learning in S912 of FIG. 9, the direction and the size of the estimated blur are added to the image as information. In the learning mode processing in step 716 of FIG. 7, the estimated direction and size of blur are output, and each detection information at the time of shooting is input to learn weights of the neural network for vibration correction. Each detection information at the time of shooting includes motion vector information of an image at a predetermined time before shooting, motion information of a detected subject (person or object), vibration information (gyro output, acceleration output, state of imaging device), etc. . In addition, environmental information (temperature, barometric pressure, illuminance, humidity), sound information (sound scene determination, specific voice detection, sound level change), time information (elapsed time from startup, elapsed time from previous shooting), Location information (GPS position information, position movement change amount) or the like may be determined in addition to the input. At the time of correction amount calculation in S902, by inputting each detection information to the neural network, it is possible to estimate the size of blur at the moment of shooting, and when the estimated size of blur is large, Control such as shortening the shutter speed becomes possible. In addition, when the size of the estimated blur is large, a blurred image is generated, and therefore a method of prohibiting photographing or the like can be employed. In addition, since there is a limit to the pan / tilt drive angle, further correction can not be performed if the drive end is reached, but by estimating the magnitude and direction of blur at the time of shooting as described above, It is possible to estimate the range required for pan / tilt driving for correcting the shake during exposure. When there is no margin of the movable range during exposure, it is possible to suppress a large blurring by setting the cutoff frequency of the filter for calculating the shake correction amount so as not to exceed the movable range. If the movable range is likely to be exceeded, rotate the pan / tilt angle in the direction opposite to the direction likely to exceed the movable range immediately before exposure, and then start exposure to ensure the movable range. It is also possible to shoot without blurring. As a result, since the shake correction can be learned according to the characteristics and usage of the user at the time of shooting, it is possible to shoot an image without blurring. Further, in the above-described “determination of the photographing method”, it is determined whether or not the follow shot photographing is performed, and the pan / tilt driving speed for photographing the subject without blurring is estimated from detection information before photographing. Subject blur correction may be performed. Here, the panning shooting is a shooting in which a moving subject has no blur and a non-moving background flows. In that case, the drive speed during still image shooting is estimated by inputting the above detection information into a neural network. In learning, by dividing the image into blocks and estimating the PSF of each block, it is possible to estimate the direction and size of blurring in the block in which the main subject is located, and learn based on the information . In addition, it is possible to learn the background flow amount based on the flow amount of the background of the selected image by a learning method described later. In that case, it is possible to estimate the size of blur in a block where the main subject is not located in the selected image, and to learn the user's preference based on the information. By setting the shutter speed at the time of shooting based on the learned background flow amount of preference, it is possible to automatically perform shooting that can obtain a shooting effect that meets the user's preference.

さらに、上述した<ユーザによる手動撮影指示に基づく撮影方法の判定>において、カメラの状態と被写体の状態の情報から、期待される撮影方法を学習することも可能である。この場合は、まずカメラの状態に関する情報として、例えば加速度計107より得られた情報に基づいて算出されたカメラの角度、角速度計106や加速度計107より得られたカメラの振動量をニューラルネットワークの入力とすることが可能である。さらに、撮影の一定時間前におけるカメラの位置に対して、実際に撮影を行ったときのカメラの位置における、移動量や相対位置をニューラルネットワークの入力とすることが可能となる。ライフログカメラにおいてこのような情報を抽出する手法に関して、図26を用いて説明する。   Furthermore, it is possible to learn an expected photographing method from the information of the state of the camera and the state of the subject in <Determination of the photographing method based on the manual photographing instruction by the user> described above. In this case, first, as information on the state of the camera, for example, the camera angle calculated based on the information obtained from the accelerometer 107, the vibration amount of the camera obtained from the angular velocity meter 106 or the accelerometer 107 It is possible to input. Furthermore, with respect to the position of the camera at a predetermined time before photographing, it is possible to use the movement amount and the relative position at the position of the camera at the time of actual photographing as the input of the neural network. A method of extracting such information in the life log camera will be described with reference to FIG.

図26はライフログカメラにおいて、加速度センサの出力の例を示したものである。ここでは、前述のように、(e)、及び(h)の期間中に撮影が行われている様子を示している。ここで、カメラの移動量に関しては、カメラを構え始めてから実際に撮影に移るまでの間の移動量、つまり、図26(d)、(g)の領域で移動した量を算出することが可能である。このため、例えば加速度を監視しておき、撮影が行われる際には過去の加速度の変化をさかのぼっていき、安定した加速、及び減速が発生している領域(d)、(g)を検出し、その領域の加速度を元に移動量を算出することが可能である。   FIG. 26 shows an example of the output of the acceleration sensor in the life log camera. Here, as described above, the situation in which imaging is performed during the periods (e) and (h) is shown. Here, with regard to the amount of movement of the camera, it is possible to calculate the amount of movement between the start of holding the camera and the actual transfer to shooting, that is, the amount of movement in the area of FIGS. It is. For this reason, for example, the acceleration is monitored, and when photographing is performed, changes in the past acceleration are traced, and regions (d) and (g) in which stable acceleration and deceleration occur are detected. The movement amount can be calculated based on the acceleration of the area.

また、前述したように被写体の情報に関してもニューラルネットワークの入力とすることが可能となる。ここでは、例えば被写体までの距離、及び被写体の上下、左右の領域にある被写体までの距離といった情報が利用可能である。また、GPS受信機405の情報等を用いても良い。   Further, as described above, it is possible to use the neural network as an input for the information on the subject. Here, information such as, for example, the distance to the subject, and the distance to the subject in the upper and lower, right and left areas of the subject can be used. Also, information of the GPS receiver 405 may be used.

これにより、カメラの状態、被写体の状態に応じた撮影方法の学習を行うことが可能となる。   This makes it possible to learn the photographing method according to the state of the camera and the state of the subject.

(9)画像自動転送
画像自動転送に対する学習について説明する。画像自動転送では、記録媒体221に記録された画像の中から、優先して転送する画像の選択や転送頻度などについて学習を行う。後述する方法により学習させる画像を選択させ、画像に含まれる学習情報を基に、ニューラルネットワークの重みを変化させることで学習することができる。上述したように、上記自動撮影で説明したとおり各画像には、ユーザの好みを判定されたスコアが演算されており、スコアが高い画像が優先して画像転送する。また、過去に画像転送した画像に対応した学習情報も画像転送判定に使用する。後述する方法で学習させる画像が選択されると、画像に含まれる学習情報(特徴量)の何を重要視するかが設定され、過去に画像転送した画像が同じような特徴量を含むものが多い場合、別の特徴量を含み且つスコアの高い画像を転送するように設定する。また、撮像装置の各状態に応じて、画像転送頻度も変化する。電池の残容量によって変化する。例えば、電池残量が少ないときは、画像転送され難く、電池残量が多いときは、画像転送しやすくなるように設定される。具体的に例えば、前回自動転送された時からの経過時間と、その経過時間の間で撮影された画像の中で最も高いスコアとを乗算し、乗算した値が閾値を超えた時に画像転送するようにしておき、閾値を電池残量によって変化するような構成をとっても実現できる。他の例では、撮像装置101が設定された撮影頻度に応じて、画像自動転送の頻度を変更する。撮影頻度が多くなるように学習されている場合は、画像自動転送の頻度も多くなるように設定され、撮影頻度が少なくなるように学習されている場合は、画像自動転送の頻度も少なくなるように設定される。このとき撮影頻度によって上記閾値を変化させることで撮影頻度設定に応じた画像転送頻度を変更できる。他の例では、ファイル(記録媒体221)の空き容量に応じて、画像自動転送の頻度を変更することも行われる。ファイルの空き容量が多い場合は、画像自動転送の頻度は少なく、ファイルの空き容量が少ない場合は、画像自動転頻度が多くなるように設定される。このときファイル空き容量によって上記閾値を変化させることでファイル空き容量に応じた画像転送頻度を変更できる。
(9) Automatic Image Transfer The learning for automatic image transfer will be described. In automatic image transfer, learning is performed on the selection of an image to be transferred with priority and the transfer frequency among the images recorded on the recording medium 221. An image to be learned is selected by a method described later, and learning can be performed by changing weights of the neural network based on learning information included in the image. As described above, in each of the images, as described in the above-mentioned automatic photographing, the score for which the preference of the user is determined is calculated, and the image with the highest score is preferentially transferred. In addition, learning information corresponding to an image transferred in the past is also used for image transfer determination. When an image to be learned by a method to be described later is selected, what is regarded as important in the learning information (feature amount) included in the image is set, and an image transferred in the past includes similar feature amounts In many cases, it is set to transfer an image including another feature amount and having a high score. In addition, the image transfer frequency also changes according to each state of the imaging device. It changes with the remaining capacity of the battery. For example, when the battery remaining amount is low, image transfer is difficult, and when the battery remaining amount is large, image transfer is set to be easy. Specifically, for example, the elapsed time from the previous automatic transfer is multiplied by the highest score among the images taken during the elapsed time, and the image is transferred when the multiplied value exceeds the threshold. It is possible to realize a configuration in which the threshold value is changed depending on the remaining battery level. In another example, the frequency of automatic image transfer is changed according to the set imaging frequency of the imaging apparatus 101. When learning is done to increase the frequency of shooting, the frequency of automatic image transfer is set to increase, and when learning is performed to decrease the frequency of shooting, the frequency of automatic image transfer is also decreased Set to At this time, it is possible to change the image transfer frequency according to the setting of the imaging frequency by changing the threshold value according to the imaging frequency. In another example, the frequency of automatic image transfer is also changed according to the free space of the file (recording medium 221). When the free space of the file is large, the frequency of automatic image transfer is low, and when the free space of the file is small, the frequency of automatic image rotation is set to be high. At this time, the image transfer frequency can be changed according to the file free space by changing the above-mentioned threshold value according to the file free space.

次に、学習方法について説明する。   Next, the learning method will be described.

学習方法としては、「撮像装置内の学習」と「通信機器との連携による学習」がある。   As a learning method, there are “learning in the imaging device” and “learning in cooperation with the communication device”.

撮像装置内学習の方法について、以下説明する。   The method of in-imaging device learning will be described below.

本実施形態における撮像装置内学習は、以下方法がある。   There are following methods for in-imaging device learning in the present embodiment.

(1)ユーザによる撮影指示時の検出情報による学習
図9のステップS907乃至S913で説明したとおり、本実施形態においては、撮像装置101は、手動撮影と自動撮影の2つの撮影を行うことができる。ステップS907で手動操作による撮影指示(上記説明したとおり、3つの判定に基づいて行う。)があった場合は、ステップS912において、撮影画像は手動で撮影された画像であるとの情報が付加される。また、ステップS909にて自動撮影ONと判定されて撮影された場合においては、ステップS912において、撮影画像は自動で撮影された画像であると情報が付加される。
(1) Learning based on detection information at the time of shooting instruction by the user As described in steps S 907 to S 913 in FIG. 9, in the present embodiment, the imaging apparatus 101 can perform two shootings: manual shooting and automatic shooting. . In step S 907, when there is a photographing instruction by manual operation (as described above, it is performed based on three determinations), in step S 912, information is added that the photographed image is an image photographed manually. Ru. If it is determined in step S909 that automatic imaging is ON and imaging is performed, information is added in step S912 that the captured image is an image captured automatically.

ここで手動撮影される場合、ユーザの好みの被写体、好みのシーン、好みの場所や時間間隔を基に撮影された可能性が非常に高い。よって、手動撮影時に得られた各特徴データや撮影画像の学習情報を基とした学習が行われるようにする。   In the case of manual shooting here, the possibility of shooting based on the user's favorite subject, favorite scene, favorite place and time interval is very high. Therefore, learning based on learning of each feature data and captured image obtained at the time of manual imaging is performed.

また、手動撮影時の検出情報から、撮影画像における特徴量の抽出や個人認証の登録、個人ごとの表情の登録、人の組み合わせの登録に関して学習を行う。また、被写体探索時の検出情報からは、例えば、個人登録された被写体の表情から、近くの人や物体の重要度を変更するような学習を行う。また、図17乃至図22を用いて後述する「ユーザーが手でパンチルトを回転させること」によっても、画角の変化が指示された場合には、回転後に画角内に存在する被写体を学習する。これも、手動操作の検出情報による学習の一部である。   Further, from detection information at the time of manual imaging, learning is performed regarding extraction of feature amounts in the captured image, registration of personal authentication, registration of individual facial expressions, and registration of human combinations. In addition, from the detection information at the time of subject search, for example, learning is performed to change the importance of a nearby person or object from the expression of the subject registered individually. Also, when a change in the angle of view is instructed by “the user rotates the pan and tilt by hand” described later with reference to FIGS. 17 to 22, the subject present in the angle of view is learned after the rotation. . This is also part of learning by manual operation detection information.

さらに、前述したように撮影方法の判定を行う場合は同様に、S912において、判定に必要な情報を付与する。ここでは、例えば前述したように、カメラの保持形式・保持角度・撮影に至るまでのカメラの移動距離・移動方向といったようなカメラの状態情報を付与することが可能となる。また、被写体距離・被写体の上下、左右の領域にある被写体までの距離といった被写体情報を付与することが可能となる。なお、これら情報に関しては必ずしも画像に付与する必要があるわけではなく、例えば撮像装置内部のメモリ216等に保持するようにしても良いし、画像ファイルとは別のファイル内に、画像と紐づけて保存するといったことも可能である。   Furthermore, as described above, when the determination of the photographing method is performed, information necessary for the determination is similarly added in S912. Here, for example, as described above, it becomes possible to assign camera state information such as the camera holding type, holding angle, moving distance and movement direction of the camera up to shooting. Further, it becomes possible to assign subject information such as subject distance, and the distance to the subject in the upper and lower, right and left areas of the subject. The information does not necessarily have to be attached to the image. For example, the information may be stored in the memory 216 or the like in the imaging apparatus, or may be associated with the image in a file different from the image file. Storage is also possible.

(2)被写体探索時の検出情報による学習
被写体探索動作中において、個人認証登録されている被写体が、どんな人物、物体、シーンと同時に写っているかを判定し、同時に画角内に写っている時間比率を演算しておく。
(2) Learning based on detection information at the time of subject search During a subject search operation, it is determined what person, an object, a scene, and a subject are registered at the same time as the subject registered for personal identification. Calculate the ratio.

例えば、個人認証登録被写体の人物Aが個人認証登録被写体の人物Bと同時に写っている時間比率が所定閾値よりも高い場合重要度が高いと判定できる。このため、人物Aと人物Bが画角内に入る場合は、自動撮影判定の点数が高くなるように各種検出情報を学習データとして保存して学習モード処理716で学習する。   For example, it can be determined that the importance is high when the time ratio in which the person A of the personal identification registration subject is shown simultaneously with the person B of the personal identification registration subject is higher than a predetermined threshold. For this reason, when the person A and the person B fall within the angle of view, various types of detection information are stored as learning data so as to increase the score of the automatic photographing determination, and learning is performed in the learning mode processing 716.

他の例では、個人認証登録被写体の人物Aが一般物体認識により判定された被写体「猫」と同時に写っている時間比率が所定閾値よりも高い場合、重要度が高いと判定できる。このため、人物Aと「猫」が画角内に入る場合は、自動撮影判定の点数が高くなるように各種検出情報を学習データとして保存する。そして、学習モード処理716で学習する。   In another example, it can be determined that the importance is high when the time ratio at which the person A of the personal identification registration subject simultaneously appears with the subject "cat" determined by general object recognition is higher than a predetermined threshold. Therefore, when the person A and the "cat" fall within the angle of view, various detection information is stored as learning data so that the score of the automatic photographing determination becomes high. Then, learning is performed in a learning mode process 716.

このように、探索中の被写体の現れる頻度が高い場合に、自動撮影判定の点数が高くなるようにすると、個人認証登録されている被写体の近くの人や物体の重要度も、高くなるように変更することができる。   As described above, when the number of occurrences of the subject under search is high, if the score of the automatic photographing determination is increased, the importance of the person or object near the subject registered for personal identification is also increased. It can be changed.

また、個人認証登録被写体の人物Aの笑顔度を検出したり、表情を検出により「喜び」「驚き」などが検出されたとき、同時に写っている被写体は重要であるように学習される処理が行われる。また、表情が「怒り」「真顔」などが検出されたときの、同時に写っている被写体は重要である可能性が低いので学習することはしないなどの処理が行われる。   In addition, when the degree of smile of the person A of the personal identification registration subject is detected or “joy” or “surprise” is detected by detecting the facial expression, the subject that is shown at the same time is learned to be important To be done. Also, processing such as not learning is performed because the subject appearing at the same time when an expression such as "anger" or "true face" is detected is unlikely to be important.

次に、本実施形態における外部通信機器との連携による学習を説明する。   Next, learning in cooperation with an external communication device in the present embodiment will be described.

本実施形態における外部通信機器との連携による学習には、以下の方法がある。   There are the following methods for learning in cooperation with an external communication device in the present embodiment.

(3)外部通信機器で画像を取得したことによる学習
図3で説明したとおり、撮像装置101と外部機器301は、通信302、303の通信手段を有している。主に通信302によって画像の送受信が行われ、外部機器301内の専用のアプリケーションを介して、撮像装置101内の画像を外部機器301に通信取得することができる。また、撮像装置101内の保存されている画像データのサムネイル画像を外部機器301内の専用のアプリケーションを介して、閲覧可能な構成である。これにより、ユーザはサムネイル画像の中から、自分が気に入った画像を選択して、画像確認し、画像取得指示を操作することで外部機器301に画像取得できる。
(3) Learning Based on Acquisition of Image by External Communication Device As described in FIG. 3, the imaging apparatus 101 and the external device 301 have communication means of the communication 302 and 303. The image transmission / reception is mainly performed by the communication 302, and the image in the imaging apparatus 101 can be acquired by communication with the external device 301 via a dedicated application in the external device 301. Also, the thumbnail image of the image data stored in the imaging apparatus 101 can be browsed through a dedicated application in the external device 301. In this way, the user can select an image that he / she likes from the thumbnail images, check the image, and operate the image acquisition instruction to acquire the image on the external device 301.

このとき、ユーザが画像を選んで送信指示し取得しているので、取得された画像はユーザの好みの画像である可能性が非常に高い。よって取得された画像は、学習すべき画像であると判定し、取得された画像の学習情報を基に学習することでユーザの好みの各種学習を行うことができる。   At this time, since the user has selected an image and instructed to transmit and acquire it, the acquired image is very likely to be an image preferred by the user. Therefore, it is possible to perform various types of learning of the user's preference by determining that the acquired image is an image to be learned and learning based on the learning information of the acquired image.

操作例を説明する。スマートデバイスである外部機器301の専用のアプリケーションを介して、撮像装置101内の画像を閲覧している例を図16に示す。表示部407に撮像装置内に保存されている画像データのサムネイル画像(1604乃至1609)を表示してあり、ユーザは自分が気に入った画像を選択し画像取得を行える。このとき、表示方法を変更する表示方法変更部(1601、1602、1603)が設けられている。1601を押下すると表示順序が日時優先表示モードに変更され、撮像装置101内画像の撮影日時の順番で表示部407に画像が表示される。(例えば、1604は日時が新しく、1609が日時は古いように表示される。)1602を押下するとおすすめ画像優先表示モードに変更される。図9ステップS912で演算した各画像に対してユーザの好みを判定したスコアに基づいて、撮像装置101内画像のスコアの高い順番で表示部407に画像が表示される。(例えば、1604はスコアが高く、1609がスコアは低いように表示される。)1603を押下すると人物や物体被写体を指定でき、続いて特定の人物や物体被写体を指定すると特定の被写体のみを表示することもできる。   An operation example will be described. An example in which an image in the imaging apparatus 101 is browsed through an application dedicated to the external device 301 which is a smart device is shown in FIG. The display unit 407 displays thumbnail images (1604 to 1609) of the image data stored in the imaging apparatus, and the user can select an image that he / she likes and can acquire an image. At this time, a display method change unit (1601, 1602, 1603) is provided to change the display method. When the user presses the button 1601, the display order is changed to the date and time priority display mode, and the images are displayed on the display unit 407 in the order of the shooting date and time of the image in the imaging device 101. (For example, the date is displayed as 1604 is new, and 1609 is displayed as old.) When 1602 is pressed, the recommended image priority display mode is changed. The images are displayed on the display unit 407 in descending order of the score of the image in the imaging apparatus 101 based on the scores obtained by determining the preference of the user for each image calculated in step S912 in FIG. (For example, 1604 indicates that the score is high and 1609 indicates that the score is low.) Pressing 1603 can designate a person or an object subject, and subsequently designating a specific person or an object subject displays only a specific subject You can also

1601乃至1603は同時に設定をONすることもでき、例えばすべての設定がONされている場合、指定された被写体のみを表示し、且つ、撮影日時が新しい画像が優先され、且つ、スコアの高い画像が優先され、表示されることになる。   For example, when all settings are turned on, only the designated subject is displayed, and an image with a new shooting date and time is prioritized, and an image with a high score can be displayed. Will take precedence and will be displayed.

このように、撮影画像に対してもユーザの好みを学習しているため、撮影された大量の画像の中から簡単な確認作業でユーザの好みの画像のみを簡単に抽出することが可能である。   As described above, since the user's preference is learned also for the photographed image, it is possible to easily extract only the user's favorite image from a large number of photographed images by a simple confirmation operation. .

(4)外部通信機器を介して、画像に判定値を入力することによる学習
上記で説明したとおり、撮像装置101と外部機器301は、通信手段を有しており、撮像装置101内の保存されている画像を外部機器301内の専用のアプリケーションを介して、閲覧可能な構成である。ここで、ユーザは、各画像に対して点数付を行う構成にしてもよい。ユーザが好みと思った画像に対して高い点数(例えば5点)を付けたり、好みでないと思った画像に対して低い点数(例えば1点)を付けることができ、ユーザの操作によって、撮像装置が学習していくような構成にする。各画像の点数は、撮像装置内で学習情報と共に再学習に使用する。指定した画像情報からの特徴データを入力にした、ニューラルネットワークの出力がユーザが指定した点数に近づくように学習される。
(4) Learning by inputting a determination value to an image through an external communication device As described above, the imaging device 101 and the external device 301 have communication means, and are stored in the imaging device 101. These images can be browsed through a dedicated application in the external device 301. Here, the user may be configured to score each image. A high score (for example, 5 points) can be added to an image that the user thinks is preferred, or a low score (for example, 1 point) can be added to an image thought to be unpreferable. Will be structured as you learn. The score of each image is used for relearning along with learning information in the imaging device. Learning is performed so that the output of the neural network, which has feature data from specified image information as an input, approaches a point specified by the user.

本実施形態では、通信機器301を介して、撮影済み画像にユーザが判定値を入力する構成にしたが、撮像装置101を操作して、直接、画像に判定値を入力する構成にしてもよい。その場合、例えば、撮像装置101にタッチパネルディスプレイを設け、タッチパネルディスプレイ画面表示部に表示されたGUIボタンをユーザが押下して、撮影済み画像を表示するモードに設定する。そして、ユーザは撮影済み画像を確認しながら、各画像に判定値を入力するなどの方法により、同様の学習を行うことができる。   In the present embodiment, the user inputs the determination value to the photographed image via the communication device 301. However, the imaging device 101 may be operated to directly input the determination value to the image. . In that case, for example, the imaging device 101 is provided with a touch panel display, and the user presses a GUI button displayed on the touch panel display screen display unit to set a mode for displaying a photographed image. Then, the user can perform similar learning by a method of inputting a determination value to each image while confirming the photographed image.

(5)外部通信機器内の保存されている画像を解析することによる学習
外部機器301は、記憶部404を有し、記憶部404には撮像装置101で撮影された画像以外の画像も記録される構成とする。このとき、外部機器301内に保存されている画像は、ユーザが閲覧し易く、公衆回線制御部406を介して、共有サーバに画像をアップロードすることも容易なため、ユーザの好みの画像が多く含まれる可能性が非常に高い。
(5) Learning by analyzing the image stored in the external communication device The external device 301 has a storage unit 404, and an image other than the image captured by the imaging device 101 is also stored in the storage unit 404. Configuration. At this time, it is easy for the user to browse the images stored in the external device 301, and it is also easy to upload the images to the shared server via the public line control unit 406. Very likely to be included.

外部機器301は専用のアプリケーションを介して、記憶部404に保存されている画像を、撮像装置101内での学習処理部219と同等の学習処理を制御部411により処理可能な構成にしてもよい。この場合、処理された学習用データを撮像装置101に通信することで、学習する構成にできる。また、撮像装置101に学習させたい画像やデータを送信して、撮像装置101内で学習するような構成にしてもよい。   The external device 301 may be configured to be able to process the image stored in the storage unit 404 through the dedicated application by the control unit 411 with the same learning processing as the learning processing unit 219 in the imaging apparatus 101. . In this case, by communicating the processed data for learning to the imaging apparatus 101, the learning can be performed. In addition, an image or data to be learned by the imaging device 101 may be transmitted to be learned in the imaging device 101.

また、専用のアプリケーションを介して、記憶部404に保存されている画像の中から、学習させたい画像をユーザが選択して、学習する構成にすることもできる。   Alternatively, the user may select an image to be learned from among the images stored in the storage unit 404 via a dedicated application, and may learn.

(6)外部通信機器で、SNSのサーバにアップロードされた情報からの学習
人と人の繋がりに主眼をおいた社会的なネットワークを構築できるサービスやウェブサイトであるソーシャル・ネットワーキング・サービス(SNS)における情報を学習に使用する方法について説明する。画像をSNSにアップロードする際に、スマートデバイスから画像に関するタグを入力した上で、画像と共に送信する技術がある。また、他のユーザがアップロードした画像に対して好き嫌いを入力する技術もあり、他のユーザがアップロードした画像が、外部機器301を所有するユーザの好みの写真であるかも判定できる。
(6) Learning from information uploaded to the SNS server with external communication devices Social networking services (SNS), which are services and websites that can build social networks that focus on the connection between people I will explain how to use the information in I for learning. When uploading an image to an SNS, there is a technology of inputting a tag related to the image from a smart device and transmitting it along with the image. In addition, there is also a technology for inputting liking or dislike to images uploaded by another user, and it is possible to determine whether the images uploaded by the other user are favorite photos of the user who owns the external device 301.

外部機器301内にダウンロードされた専用のSNSアプリケーションで、上記のようにユーザが自らアップロードした画像と画像についての情報を取得することができる。また、ユーザが他のユーザがアップロードした画像に対して好きかどうかを入力することにより、ユーザの好みの画像やタグ情報を取得することもできる。それらの画像やタグ情報を解析し、撮像装置101内で学習セットできるようにする構成にする。   The dedicated SNS application downloaded into the external device 301 can acquire the image and the information about the image uploaded by the user as described above. Also, it is possible to obtain user's favorite image and tag information by inputting whether the user likes the image uploaded by another user. These images and tag information are analyzed, and a configuration is made such that a learning set can be made in the imaging device 101.

上記のようにユーザがアップロードした画像や、ユーザが好きと判定した画像を取得し、撮像装置101内での学習処理部219と同等の学習処理を制御部411により処理可能な構成にしてもよい。これにより、処理された学習用データを撮像装置101に通信することで、学習する構成にすることもできる。もしくは、撮像装置101に学習させたい画像を送信して、撮像装置101内で学習するような構成にしてもよい。   An image uploaded by the user as described above or an image determined to be liked by the user may be acquired, and the control unit 411 may be capable of processing the same learning processing as the learning processing unit 219 in the imaging apparatus 101. . In this way, the processed learning data may be communicated to the imaging apparatus 101 to learn. Alternatively, an image to be learned by the imaging device 101 may be transmitted, and learning may be performed in the imaging device 101.

また、タグ情報から、SNS内に設けられた画像フィルタから、図7の自動編集モード処理712や図9の編集S911の、色変換フィルタ効果が変化するように学習する。
或いは、タグ情報に設定された被写体情報から、ユーザが好みであろう被写体情報を推定し、ニューラルネットワークに入力する検出すべき被写体として登録することによる学習を行う。この被写体情報は、例えば、犬、猫など被写体物体情報や、ビーチなどのシーン情報や、スマイルなどの表情情報などが考えられる。
Further, from the tag information, from the image filter provided in the SNS, the color conversion filter effect of the automatic editing mode process 712 of FIG. 7 and the editing S 911 of FIG. 9 is learned to change.
Alternatively, learning is performed by estimating subject information which the user prefers from the subject information set in the tag information, and registering it as a subject to be detected which is input to the neural network. The subject information may be, for example, subject object information such as a dog or a cat, scene information such as a beach, or expression information such as a smile.

また、上記SNSでのタグ情報(画像フィルタ情報や被写体情報)の統計値から、世の中で今現在流行っている画像情報を推定し、撮像装置101内で学習セットできるようにする構成にすることもできる。   In addition, image information currently in circulation in the world may be estimated from statistical values of tag information (image filter information and subject information) in the SNS so that learning setting can be performed in the imaging apparatus 101. it can.

(7)外部通信機器で、パラメータを変更することによる学習
上記で説明したとおり、撮像装置101と外部機器301は、通信手段を有しており、撮像装置101内に現在設定されている学習パラメータを外部機器301に通信し、外部機器301の記憶部404に保存することができる。学習パラメータとしては、例えば、ニューラルネットワークの重みや、ニューラルネットワークに入力する被写体の選択などが考えられる。また、外部機器301内の専用のアプリケーションを介して、専用のサーバにセットされた学習パラメータを公衆回線制御部406を介して取得して、撮像装置101内の学習パラメータに設定することもできる構成とする。これにより、ある時点でのパラメータを外部機器301に保存しておいて、撮像装置101に設定することで学習パラメータを戻すこともできるし、他のユーザが持つ学習パラメータを専用のサーバを介して取得し自身の撮像装置101に設定することもできる。
(7) Learning by changing parameters in an external communication device As described above, the imaging device 101 and the external device 301 have communication means, and learning parameters currently set in the imaging device 101 Can be communicated to the external device 301 and stored in the storage unit 404 of the external device 301. As learning parameters, for example, weights of a neural network, selection of an object to be input to the neural network, and the like can be considered. In addition, the learning parameter set in the dedicated server can be acquired via the public line control unit 406 via the dedicated application in the external device 301, and can be set as the learning parameter in the imaging apparatus 101. I assume. In this way, the parameters at a certain point in time can be stored in the external device 301, and learning parameters can be returned by setting them in the imaging apparatus 101, or learning parameters possessed by other users can be obtained via a dedicated server. It is also possible to acquire and set the image capturing apparatus 101 of its own.

また、外部機器301の専用のアプリケーションを介して、ユーザが登録した音声コマンドや認証登録、ジェスチャーを登録できるようにしてもよいし、重要な場所を登録してもよい。これらの情報は、自動撮影モード処理(図9)で説明した撮影トリガーが自動撮影判定の入力データとして扱われる。   In addition, voice commands, authentication registrations, gestures registered by the user may be registered via an application dedicated to the external device 301, or important places may be registered. The imaging trigger described in the automatic imaging mode process (FIG. 9) is treated as input data for automatic imaging determination.

また、撮影頻度や起動間隔、静止画動画割合や好みの画像など設定することができる構成にし、<低消費電力モード制御>で説明した起動間隔や、<自動編集>で説明した静止画動画割合などの設定を行ってもよい。   In addition, the shooting frequency, start interval, still image and moving image ratio, and a favorite image can be set, and the start interval described in <Low Power Consumption Mode Control>, and still image moving image ratio described in <Auto Edit> You may set it.

(8)外部通信機器で、画像を手動編集された情報からの学習
外部機器301の専用のアプリケーションにユーザの操作により手動で編集できる機能を持たせ、編集作業の内容を学習にフィードバックすることもできる。例えば、画像効果付与の編集が可能であり、画像の学習情報に対して、手動で編集した画像効果付与が判定されるように、自動編集のニューラルネットワークを学習させる。画像効果は、例えば、トリミング処理、回転処理、スライド、ズーム、フェード、色変換フィルタ効果、時間、静止画動画比率、BGMが考えられる。
(8) Learning from manually edited image of an external communication device A dedicated application of the external device 301 is provided with a function that can be manually edited by the user's operation, and the contents of editing work can be fed back to learning. it can. For example, it is possible to learn an automatic editing neural network so that editing of the image effect can be performed and the manually edited image effect can be determined with respect to the learning information of the image. As the image effect, for example, trimming processing, rotation processing, slide, zoom, fade, color conversion filter effect, time, still image / moving image ratio, BGM can be considered.

ここで、ユーザ自身が撮影(1)や画像選択((3)乃至(8))した学習の場合、ユーザが意図的に操作したことから、ユーザの好みを反映させることに対して信頼性のある学習で可能性が高い。しかし、(2)被写体探索時の検出情報による学習は、ユーザが意図時に操作したことによる学習ではないため、ユーザが望まない学習が行われる可能性が含まれている。例えば、探索中に画像情報から、個人認証登録されている被写体と同時に写っている別の人物や物体やシーンを学習するが、頻繁に同時に写っている被写体が必ずしもユーザの好みであるとは限らない。そこで、ユーザが意図的に操作したことによる学習でない(2)場合よりも、ユーザが意図的に撮影、或いは画像選択した場合の学習((1)、(3)乃至(8))の方を優先的に学習させる。   Here, in the case of learning in which the user has taken (1) or image selection ((3) to (8)), since the user intentionally operated, it is reliable for reflecting the preference of the user. There is a high possibility of learning. However, (2) learning based on detection information at the time of subject search is not learning due to the user's operation at the time of intention, so there is a possibility that learning not desired by the user may be performed. For example, while searching for another person, an object, or a scene captured at the same time as a subject registered for personal identification from image information during a search, the subject captured frequently at the same time is necessarily limited to the user's preference. Absent. Therefore, learning ((1), (3) to (8)) in the case where the user intentionally takes a picture or selects an image is better than the case where it is not learning due to the user's intentional operation (2) Give priority to learning.

学習用のデータは、撮影時或いは探索中にタグ情報として記録された各種データ(画像情報や振動情報や環境情報や音情報や場所情報など)であり、学習に反映する場合は、この各種データをリスト化した形式で保存している。学習のためのデータ群の数は固定値で決められた数を持つことにする。学習のためのデータ群は、ユーザが意図的に行った学習データである領域と、ユーザが意図的ではない学習データである領域の2つの領域に分割しており、領域のデータ数の比率は、ユーザが意図的に行った学習データ領域の方が大きくなるような比率にしておく。新しい学習反映指示がされた場合、各領域に対応した学習データから削除し、新たな学習データを追加する。例えば、ユーザが意図的に行った学習データを2つ追加する場合は、ユーザが意図的に行った学習データ領域から2つのデータを削除して、新たな2つのデータを追加して再学習する。   The data for learning is various data (image information, vibration information, environment information, sound information, place information, etc.) recorded as tag information at the time of shooting or searching, and when reflecting in learning, these various data Is stored in the form of a list. The number of data groups for learning is assumed to have a fixed number determined. The data group for learning is divided into two areas of an area which is learning data intentionally performed by the user and an area which is learning data not intentionally used by the user, and the ratio of the number of data in the area is The ratio is set so that the learning data area intentionally performed by the user is larger. When a new learning reflection instruction is given, it is deleted from the learning data corresponding to each area, and new learning data is added. For example, when adding two learning data intentionally performed by the user, two data are deleted from the learning data area intentionally performed by the user, and two new data are added and re-learned. .

このような構成にすることで、ユーザが意図的に操作したことによる学習でない(2)ときよりも、ユーザが意図的に撮影、或いは画像選択した場合の学習((1)、(3)乃至(8))の方を優先的に学習させることができる。   With such a configuration, learning when the user intentionally shoots or selects an image than when learning is not performed by the user's intentional operation (2) ((1), (3) (8) can be learned preferentially.

或いは、学習用の各種データの中には、学習データが生成された日付時刻が管理されており、学習データが生成された日付時刻からの経過時間に応じた重み付係数Laを計算する。重み付係数Laは経過時間が大きくなるほど小さくなるように更新されていく。また、ユーザが意図的に行った学習データか、ユーザが意図的ではない学習データかによる重み付係数Lbも、各学習データに対応して管理される。重み付係数Lbは、ユーザが意図的に行った学習データの場合、ユーザが意図的ではない学習データよりも大きくなるように設定される。また、ユーザが意図的に行った学習データの中でも、(1)、(3)乃至(8)のどの学習であるかによって重み付係数Lbを変更してもよい。   Alternatively, in various data for learning, the date and time when the learning data is generated is managed, and a weighting coefficient La according to the elapsed time from the date and time when the learning data is generated is calculated. The weighting factor La is updated to be smaller as the elapsed time becomes larger. In addition, a weighting factor Lb depending on whether the learning data intentionally performed by the user or the learning data not intended by the user is also managed corresponding to each learning data. The weighting coefficient Lb is set to be larger in the case of the learning data intentionally performed by the user than the learning data in which the user is not intentional. In addition, the weighting coefficient Lb may be changed depending on which learning of (1), (3) to (8) the learning data intentionally performed by the user.

新たな学習データが追加になる場合、現在の学習データ群の中で、重み付係数LaとLbを乗算した値が最も小さい学習データから優先してデータを削除してから、追加データを挿入し、更新された学習データ群を元に機械学習を行う。   When new learning data is added, the data is preferentially deleted from the learning data with the smallest value obtained by multiplying the weighting coefficients La and Lb in the current learning data group, and then the additional data is inserted. Perform machine learning based on the updated learning data group.

このような構成にすることで、ユーザが意図的に操作したことによる学習でない(2)ときよりも、ユーザが意図的に撮影、或いは画像選択した場合の学習((1)、(3)乃至(8))の方を優先的に学習させることができる。   With such a configuration, learning when the user intentionally shoots or selects an image than when learning is not performed by the user's intentional operation (2) ((1), (3) (8) can be learned preferentially.

もしも、図1乃至図6の構成では、撮像装置側に画面がなく優先度の設定が難しく、また、外部装置側のメニューで設定する場合にはユーザの手間を要する。しかし、優先度のフラグ付けのための操作ではなく、撮影処理のための操作や編集処理のための操作に基づいて、自動的に優先度のフラグ付けをすれば、ユーザの手間を削減することができる。また、撮影画像を用いて自動で優先度を評価する場合、例えば、所定時間間隔で撮影している画像を評価する場合、同じものばかり撮影してしまうが必ずしも主要な被写体ではない可能性があり、ユーザの意図が反映されない場合がある。これに対して、本実施形態では、ユーザが意図的に行った処理に基づく優先度のフラグ付けのため、ユーザの意図を十分反映したものとなる可能性が高い。   If the configuration of FIGS. 1 to 6 has no screen on the imaging device side, setting of the priority is difficult, and it takes time and effort for the user to set in the menu on the external device side. However, if the priority is automatically flagged based on the operation for photographing processing and the operation for editing processing, not the operation for flagging priority, the time and effort of the user can be reduced. Can. Further, when automatically evaluating the priority using the photographed image, for example, when evaluating an image photographed at a predetermined time interval, only the same one is photographed, but it may not necessarily be a main subject. , The user's intention may not be reflected. On the other hand, in the present embodiment, there is a high possibility that the intention of the user is sufficiently reflected because the priority is flagged based on the process intentionally performed by the user.

次に、学習処理シーケンスについて説明する。   Next, the learning processing sequence will be described.

図7のステップ704のモード設定判定にて、学習処理を行うべきか否かを判定し、学習処理を行う場合、学習モードであると判定され、ステップ716の学習モード処理を行う。   In the mode setting determination in step 704 of FIG. 7, it is determined whether or not learning processing should be performed. If learning processing is performed, it is determined that the learning mode is set, and learning mode processing in step 716 is performed.

学習モードの判定条件を説明する。学習モードに移行するか否かは、前回学習処理を行ってからの経過時間と、学習に使用できる情報の数、通信機器を介して学習処理指示があったかなどから判定される。ステップ704のモード設定判定処理内で判定される、学習モードに移行すべきか否かの判定処理フローを図14に示す。   The determination conditions of the learning mode will be described. Whether or not to shift to the learning mode is determined based on the elapsed time since the previous learning process, the number of information that can be used for learning, and whether there is a learning process instruction via the communication device. FIG. 14 shows a flow of processing for determining whether or not to shift to the learning mode, which is determined in the mode setting determination processing of step 704.

ステップ704のモード設定判定処理内で学習モード判定が開始指示されると、図14の処理がスタートする。ステップ1401では、外部機器301からの登録指示があるかどうかを判定する。ここでの登録は、上記説明した学習するための登録指示があったかどうかの判定である。例えば、<通信機器で画像取得された画像情報による学習>や、<通信機器を介して、画像に判定値を入力することによる学習>がある。また、<通信機器内の保存されている画像を解析することによる学習>や、<通信機器内の保存されている画像を解析することによる学習>などがある。ステップ1401で、外部機器からの登録指示があった場合、ステップS1408に進み、学習モード判定をTRUEにして、ステップ716の処理を行うように設定する。ステップS1401で外部機器からの登録指示がない場合、ステップ1402に進む。ステップ1402では外部機器からの学習指示があるかどうかを判定する。ここでの学習指示は<通信機器で、撮像装置パラメータを変更することによる学習>のように、学習パラメータをセットする指示があったかどうかの判定である。ステップ1402で、外部機器からの学習指示があった場合、ステップS1408に進み、学習モード判定をTRUEにして、ステップ716の処理を行うように設定し、学習モード判定処理を終了する。ステップ1402で外部機器からの学習指示がない場合、ステップ1403に進む。   When start of learning mode determination is instructed in the mode setting determination process of step 704, the process of FIG. 14 is started. In step 1401, it is determined whether there is a registration instruction from the external device 301. The registration here is a determination as to whether or not there is a registration instruction for learning as described above. For example, there are <learning based on image information acquired by the communication device> and <learning based on inputting a determination value to an image through the communication device>. Also, there are <learning by analyzing the image stored in the communication device>, <learning by analyzing the image stored in the communication device> and the like. If there is a registration instruction from the external device in step S1401, the process advances to step S1408 to set the learning mode determination to TRUE and perform processing of step S716. If there is no registration instruction from the external device in step S1401, the process advances to step S1402. In step 1402, it is determined whether there is a learning instruction from an external device. The learning instruction here is a determination as to whether or not there is an instruction to set a learning parameter, as in <Learning by changing the imaging device parameter in the communication device>. If it is determined in step S1402 that there is a learning instruction from an external device, the process advances to step S1408 to set the learning mode determination to TRUE, perform processing of step S716, and end the learning mode determination process. If it is determined in step 1402 that there is no learning instruction from the external device, the process advances to step 1403.

ステップ1403では、前回学習処理(ニューラルネットワークの重みの再計算)が行われてからの経過時間TimeNを取得し、ステップS1404に進む。ステップ1404では、学習する新規のデータ数DN(前回学習処理が行われてからの経過時間TimeNの間で、学習するように指定された画像の数)を取得し、ステップ1405に進む。ステップ1405では、TimeNから閾値DTを演算する。例えば、TimeNが所定値よりも小さい場合の閾値DTaが、所定値よりも大きい場合の閾値DTbよりも大きく設定されており、時間経過によって、閾値が小さくなるように設定してある。これにより、学習データが少ない場合においても、時間経過が大きいと再度学習するようにすることで、使用時間に応じて撮像装置が学習変化し易いようにしてある。   In step S1403, an elapsed time TimeN from the previous learning process (recalculation of weights of neural networks) is acquired, and the process proceeds to step S1404. In step 1404, the number of new data to be learned DN (the number of images designated to be learned during the elapsed time Time N since the previous learning process was performed) is acquired, and the process proceeds to step 1405. At step 1405, the threshold value DT is calculated from TimeN. For example, the threshold value DTa when TimeN is smaller than a predetermined value is set larger than the threshold value DTb when larger than the predetermined value, and the threshold value is set to be smaller with the passage of time. As a result, even when the amount of learning data is small, the image pickup apparatus is made to easily change learning according to the time of use by learning again if the time elapsed is large.

ステップ1405で閾値DTを演算すると、ステップ1406に進み、学習するデータ数DNが、閾値DTよりも大きいか否かを判定する。DNが、閾値DTよりも大きい場合、ステップ1407に進み、DNを0に設定した後、ステップ1408に進み、学習モード判定をTRUEにして、ステップ716の処理を行うように設定し、学習モード判定処理を終了する。   After calculating the threshold value DT in step 1405, the process proceeds to step 1406, where it is determined whether the number of data to be learned DN is larger than the threshold value DT. If the DN is larger than the threshold DT, the process proceeds to step 1407, sets DN to 0, and then proceeds to step 1408 to set the learning mode determination to TRUE and perform the process of step 716 to determine the learning mode End the process.

ステップ1406でDNが、閾値DT以下の場合、ステップ1409に進む。外部機器からの登録指示も、外部機器からの学習指示もなく、且つ学習データ数も所定値以下であるので、学習モード判定をFALSEにし、ステップ716の処理は行わないように設定し、学習モード判定処理を終了する。   If it is determined in step 1406 that the DN is smaller than the threshold DT, the process proceeds to step 1409. Since there is neither a registration instruction from an external device nor a learning instruction from an external device, and the number of learning data is less than a predetermined value, the learning mode determination is set to FALSE and the process of step 716 is set not to be performed. The determination process ends.

次に、学習モード処理(ステップ716)内の処理について説明する。学習モード処理の詳細なフローを図15に示す。   Next, the process in the learning mode process (step 716) will be described. The detailed flow of the learning mode process is shown in FIG.

図7のステップ715での学習モードと判定され、ステップ716に進むと、図15の処理がスタートする。ステップ1501では、外部機器301からの登録指示があるかどうかを判定する。ステップ1501で、外部機器からの登録指示があった場合、ステップ1502に進む。ステップ1502では、各種登録処理を行う。   When it is determined that the learning mode is in step 715 of FIG. 7 and the process proceeds to step 716, the process of FIG. 15 starts. In step 1501, it is determined whether there is a registration instruction from the external device 301. If it is determined in step 1501 that there is a registration instruction from an external device, the process advances to step 1502. At step 1502, various registration processing is performed.

各種登録は、ニューラルネットワークに入力する特徴の登録であり、例えば顔認証の登録や、一般物体認識の登録や、音情報の登録や、場所情報の登録などである。   The various registrations are registrations of features to be input to the neural network, such as registration of face recognition, registration of general object recognition, registration of sound information, registration of location information, and the like.

登録処理を終了すると、ステップ1503に進み、ステップ1502で登録された情報から、ニューラルネットワークへ入力する要素を変更する。   When the registration process is completed, the process proceeds to step 1503, and the information to be input to the neural network is changed from the information registered in step 1502.

ステップ1503の処理を終了すると、ステップ1507に進む。   When the process of step 1503 ends, the process proceeds to step 1507.

ステップ1501で外部機器301からの登録指示がない場合、ステップ1504に進み、外部機器301からの学習指示があるかどうかを判定する。外部機器からの学習指示があった場合、ステップ1505に進み、外部機器から通信された学習パラメータを各判定器(ニューラルネットワークの重みなど)に設定し、ステップ1507に進む。   If there is no registration instruction from the external device 301 in step 1501, the process proceeds to step 1504, and it is determined whether there is a learning instruction from the external device 301. If there is a learning instruction from the external device, the process proceeds to step 1505, the learning parameter communicated from the external device is set in each determiner (such as weight of neural network), and the process proceeds to step 1507.

ステップ1504で外部機器からの学習指示がない場合、ステップ1506で学習(ニューラルネットワークの重みの再計算)を行う。ステップ1506の処理に入るのは、図14を用いて説明したように、学習するデータ数DNが閾値を超えて、各判定器の再学習を行える条件である。誤差逆伝搬法或いは、勾配降下法などの方法を使って再学習させ、ニューラルネットワークの重みを再計算して、各判定器のパラメータを変更する。学習パラメータが設定されると、ステップ1507に進む。   If it is determined in step 1504 that there is no learning instruction from an external device, learning (recalculation of neural network weights) is performed in step 1506. The process of step 1506 is a condition under which the number of data to be learned DN exceeds the threshold and the respective learners can relearn, as described with reference to FIG. Retraining is performed using a method such as error back propagation method or gradient descent method, and weights of the neural network are recalculated to change parameters of each decision unit. Once the learning parameters are set, the process proceeds to step 1507.

ステップ1507では、ファイル内の画像を再スコア付する。本実施形態においては、学習結果に基づいてファイル(記録媒体221)内に保存されているすべての撮影画像にスコアを付けておき、付けられたスコアに応じて、自動編集や自動ファイル削除を行う構成となっている。よって、再学習や外部機器からの学習パラメータのセットが行われた場合には、撮影済み画像のスコアも更新を行う必要がある。よって、ステップ1507では、ファイル内に保存されている撮影画像に対して新たなスコアを付ける再計算が行われ、処理が終了すると学習モード処理を終了する。   At step 1507, the images in the file are re-scored. In the present embodiment, all photographed images stored in the file (recording medium 221) are scored based on learning results, and automatic editing and automatic file deletion are performed according to the scored scores. It is a structure. Therefore, when re-learning or setting of learning parameters from an external device is performed, it is also necessary to update the scores of captured images. Therefore, in step 1507, recalculation is performed to add a new score to the photographed image stored in the file, and when the process ends, the learning mode process ends.

本実施形態においては、ユーザが好んでいると思われるシーンを抽出し、その特徴を学習し、自動撮影や自動編集といった動作に反映させることにより、ユーザの好みの映像を提案する方法を説明したが、本発明はこの用途に限定されない。例えば、あえてユーザ自身の好みとは異なる映像を提案する用途に用いることもできる。その実現方法の例としては、以下のとおりである。   In this embodiment, a method of proposing a user's favorite video by extracting a scene that the user seems to like, learning its features, and reflecting the feature on operations such as automatic shooting and automatic editing has been described. However, the invention is not limited to this application. For example, it can also be used for an application that proposes an image different from the user's own preference. As an example of the realization method, it is as follows.

(1)好みを学習させたニューラルネットワークを用いる方法
学習については、上記説明したとおりユーザの好みの学習を実施する。そして、「自動撮影」のS908において、ニューラルネットワークの出力値が、教師データであるユーザの好みとは異なることを示す値であるときに自動撮影する。例えば、ユーザが好んだ画像を教師画像とし、教師画像と類似する特徴を示すときに高い値が出力されように学習をさせた場合は、逆に出力値が所定以上低いことを条件として自動撮影を行う。また、同様に被写体探索処理や自動編集処理においても、ニューラルネットワークの出力値が、教師データであるユーザの好みとは異なることを示す値となる処理を実行する。
(1) Method using neural network in which preference is learned For learning, the user preference learning is carried out as described above. Then, in S908 of "automatic imaging", automatic imaging is performed when the output value of the neural network is a value indicating that it is different from the user's preference which is teacher data. For example, if an image preferred by the user is used as a teacher image and learning is performed so that a high value is output when showing a feature similar to the teacher image, it is automatically performed on the condition that the output value is lower than a predetermined value. Take a picture. Similarly, also in the subject searching process and the automatic editing process, a process is performed in which the output value of the neural network becomes a value indicating that it is different from the user's preference as teacher data.

(2)好みとは異なるシチュエーションを学習させたニューラルネットワークを用いる方法
この方法では、学習処理の時点で、ユーザの好みとは異なるシチュエーションを教師データとして学習を実行する。例えば、手動で撮影した画像はユーザが好んで撮影したシーンであるとして、これを教師データとする学習方法を上述した。これに対し、本実施形態では逆に手動撮影した画像は教師データとして使用せず、所定時間以上手動撮影が行われなかったシーンを教師データとして追加する。あるいは、教師データの中に手動撮影した画像と特徴が類似するシーンがあれば、教師データから削除してもよい。また、外部通信機器で画像取得した画像と特徴が異なる画像を教師データに加えるか、画像取得した画像と特徴が似た画像を教師データから削除してもよい。このようにすることで、教師データには、ユーザの好みと異なるデータが集まり、学習の結果、ニューラルネットワークは、ユーザの好みと異なるシチュエーションを判別することができるようになる。そして、自動撮影ではそのニューラルネットワークの出力値に応じて撮影を行うことで、ユーザの好みとは異なるシーンを撮影できる。また、自動編集では、同様にユーザの好みとは異なる編集画像の提案が可能となる。
(2) Method of using a neural network in which a situation different from preference is learned In this method, at the time of the learning process, learning is performed by using a situation different from the user's preference as teacher data. For example, assuming that the image photographed manually is a scene photographed by the user, the learning method using the image as teacher data has been described above. On the other hand, in the present embodiment, an image captured manually is not used as teacher data, and a scene for which manual imaging has not been performed for a predetermined time or more is added as teacher data. Alternatively, if there is a scene whose feature is similar to the manually captured image in the teacher data, it may be deleted from the teacher data. Further, an image having a feature different from the image acquired by the external communication device may be added to the teacher data, or an image having a feature similar to the image acquired may be deleted from the teacher data. By doing this, data different from the user's preference is collected in the teacher data, and as a result of learning, the neural network can determine the situation different from the user's preference. Then, in the automatic shooting, a scene different from the user's preference can be shot by shooting according to the output value of the neural network. In addition, in automatic editing, it is possible to propose an edited image that is different from the preference of the user.

上記説明したとおり、あえてユーザ自身の好みとは異なる映像を提案することにより、ユーザが手動で撮影をしそびれてしまうシーンにおいて撮影を行うことで撮り逃しを減少させる効果がある。また、ユーザ自身の発想にないシーンでの撮影や編集効果を提案することで、ユーザに気付きを与えたり、嗜好の幅を広げたりといった効果が期待できる。   As described above, by intentionally presenting a video different from the user's preference, it is possible to reduce missed shots by shooting in a scene in which the user manually takes a picture. In addition, by proposing a shooting and editing effect in a scene that is not in the user's own idea, it is possible to expect the user to be aware of it and to broaden the range of preference.

また、上記の手段を組み合わせることで、ユーザの好みと多少似ているが一部違うシチュエーションの提案というように、ユーザの好みに対する適合度合いを調節することも容易である。ユーザの好みに対する適合度合いは、モード設定や、前記各種センサの状態、前記検出情報の状態に応じて変更してもよい。   In addition, by combining the above-described means, it is also easy to adjust the degree of conformity to the user's preference, such as a proposal of a situation that is somewhat similar to, but partially different from, the user's preference. The degree of conformity to the preference of the user may be changed according to the mode setting, the state of the various sensors, and the state of the detection information.

本実施形態においては、撮像装置101内で、学習する構成を基に説明したが、外部機器301側に学習処理をもち、学習に必要なデータを外部機器301に通信し、外部機器側でのみ学習を実行する構成でも同様の学習効果を実現可能である。その場合、上記<通信機器で、パラメータを変更することによる学習>で説明したように、外部機器側で学習したニューラルネットワークの重みなどのパラメータを撮像装置101に通信により設定することで学習を行う構成にしてもよい。   In the present embodiment, although the explanation has been made based on the configuration for learning in the imaging apparatus 101, the external device 301 has a learning process, data necessary for learning is communicated to the external device 301, and only the external device The same learning effect can be realized even with a configuration that executes learning. In that case, as described above in <Learning by changing parameters in the communication device>, learning is performed by setting parameters such as weights of the neural network learned on the external device side in the imaging apparatus 101 by communication. It may be configured.

また、撮像装置101内と、外部機器301内の両方に、それぞれ学習処理をもつ構成にしてもよい。例えば撮像装置101内で学習モード処理716が行われるタイミングで外部機器301が持つ学習情報を撮像装置101に通信し、学習パラメータをマージすることで学習を行う構成にしてもよい。   Further, both the inside of the imaging apparatus 101 and the inside of the external device 301 may have a learning process. For example, learning information possessed by the external device 301 may be communicated to the imaging apparatus 101 at the timing when the learning mode processing 716 is performed in the imaging apparatus 101, and learning may be performed by merging learning parameters.

また、上述の自動撮影モード処理(図9)のS907では、ユーザ(手動)による撮影指示があったがどうかを判定し、撮影指示があった場合、S910に進む構成とした。ここで、ユーザ(手動)による撮影指示は、撮像装置が向いている方向(以下撮影方向)を、ユーザが手で回転させることによって指示できるようにしてもよい。図17は鏡筒回転駆動部205の構成を示すブロック図である。図17の1701〜1707は、パン軸の駆動に関わる構成である。図17の1708〜1714は、チルト軸の駆動制御に関わる構成である。パン軸の駆動とチルトの駆動に関わる基本的な構成は同じであるため、パン軸の駆動に関わる構成のみ説明を行い、チルト軸の駆動に関わる構成の説明については省略する。1701は被写体の画像上での目標位置と現在位置の差からパン軸1706を駆動する際の目標位置を算出するための画像位置−パン位置変換部である。図18は撮像装置で撮像された画像における被写体の現在位置と目標位置の関係を表した図である。1801は、撮像装置が被写体探索中に画像処理部207にて得られたある瞬間の画像である。1802は被写体の現在位置(x1、y1)を示したものである。1803は被写体の目標位置(x0、y0)を示したものである。画像上の被写体の目標位置1803と現在位置1802の差からパンおよびチルトの目標位置を算出する際には、以下の式を用いる。
kp(f)×(x1−x0) (式1)
kt(f)×(y1−y0) (式2)
Further, in S907 of the above-described automatic shooting mode processing (FIG. 9), it is determined whether or not the user (manual) has issued a shooting instruction, and in the case where the shooting instruction is issued, the process proceeds to S910. Here, the photographing instruction by the user (manually) may be made possible by the user rotating the direction in which the imaging device is facing (hereinafter referred to as the photographing direction) by hand. FIG. 17 is a block diagram showing the configuration of the lens barrel rotation drive unit 205. As shown in FIG. Reference numerals 1701 to 1707 in FIG. 17 denote configurations related to the drive of the pan axis. Reference numerals 1708 to 1714 in FIG. 17 denote configurations related to drive control of the tilt axis. Since the basic configuration related to the drive of the pan axis and the drive of the tilt are the same, only the configuration related to the drive of the pan axis will be described, and the description of the configuration related to the drive of the tilt axis will be omitted. Reference numeral 1701 denotes an image position-pan position conversion unit for calculating a target position when driving the pan shaft 1706 from the difference between the target position on the image of the subject and the current position. FIG. 18 is a diagram showing the relationship between the current position of an object and the target position in an image captured by an imaging device. Reference numeral 1801 denotes a momentary image obtained by the image processing unit 207 while the imaging device is searching for a subject. Reference numeral 1802 denotes the current position (x1, y1) of the subject. Reference numeral 1803 denotes the target position (x0, y0) of the subject. When calculating the pan and tilt target positions from the difference between the target position 1803 of the subject on the image and the current position 1802, the following equation is used.
kp (f) x (x1-x0) (Expression 1)
kt (f) x (y1-y0) (Equation 2)

kp(f)は撮像装置の焦点距離fに応じて変化する被写体の画像上での目標位置と現在位置の差からパンの目標位置算出するための変換係数である。kt(f)は撮像装置の焦点距離fに応じて変化する被写体の画像上での目標位置と現在位置の差からチルトの目標位置算出するための変換係数である。   kp (f) is a conversion coefficient for calculating the pan target position from the difference between the target position and the current position on the image of the subject that changes according to the focal length f of the imaging device. kt (f) is a conversion coefficient for calculating the target position of the tilt from the difference between the target position and the current position on the image of the subject which changes according to the focal length f of the imaging device.

図17の1702は補償器である。補償器1702は、現在のパン位置と画像位置−パン位置変換部1701で算出されたパンの目標位置との差を無くすように、PID制御演算を行うことで制御出力を算出する。1703は撮影方向変更操作検出部であり、パンの目標位置と現在位置の差(以下、位置偏差)と制御出力、パンの移動速度から撮影方向変更操作を検出する。撮影方向変更操作検出部1703で撮影方向の変更を検出した場合には、制御出力をOFFにしてパンの駆動を停止する。一方、撮影方向変更操作検出部1703で撮影方向の変更を検出しなかった場合には、補償器1702にて算出された制御出力に応じてパンの駆動制御を行う。1704は、補償器1702にて算出された制御出力に応じた駆動信号を生成するためのドライバである。1705は、パン軸1706を駆動するためのアクチュエータである超音波モータ(USM)である。1707は、パン位置の時間変化からパンの移動速度を算出するための移動速度検出部である。移動速度検出部1707は、制御サンプリング毎のパン位置の変化量からパンの移動速度を算出する。図19は、ユーザ操作による撮影方向変更操作を検出して、撮影方向変更操作後の撮影エリアを重要な領域として学習情報を更新するフローを示したフローチャートである。   Reference numeral 1702 in FIG. 17 denotes a compensator. The compensator 1702 calculates a control output by performing a PID control operation so as to eliminate the difference between the current pan position and the pan target position calculated by the image position-pan position converter 1701. An imaging direction change operation detection unit 1703 detects an imaging direction change operation from the difference between the pan target position and the current position (hereinafter referred to as position deviation), the control output, and the moving speed of the pan. When a change in the shooting direction is detected by the shooting direction change operation detection unit 1703, the control output is turned off to stop the pan drive. On the other hand, when the change in the shooting direction is not detected by the shooting direction change operation detection unit 1703, pan drive control is performed according to the control output calculated by the compensator 1702. Reference numeral 1704 denotes a driver for generating a drive signal according to the control output calculated by the compensator 1702. An ultrasonic motor (USM) 1705 is an actuator for driving the pan shaft 1706. Reference numeral 1707 denotes a moving speed detection unit for calculating the moving speed of the pan from the time change of the pan position. The moving speed detection unit 1707 calculates the moving speed of the pan from the amount of change in the pan position for each control sampling. FIG. 19 is a flowchart showing a flow of detecting a shooting direction change operation by a user operation and updating learning information with the shooting area after the shooting direction change operation as an important area.

S1901において、ユーザによる撮像装置の撮影方向変更操作の有無の判定を行う。ユーザによる撮影方向変更操作の検出は、撮影方向変更操作検出部1703で、後述する制御出力および位置偏差が所定の条件を満たした場合に撮影方向変更有と判定する。S1901で撮影方向変更操作を検出した場合には、S1902に進み、位置制御動作を停止する。被写体追尾中や探索中であった場合には中断したうえで位置制御動作を停止する。一方、S1901で撮影方向変更操作を検出しなかった場合は、撮影方向変更操作の検出を継続する。S1902で位置制御を停止させた後は、S1903に進んでユーザによる撮影方向変更操作の終了判定を行う。   In step S1901, it is determined whether the user has performed a shooting direction change operation of the imaging apparatus. In the detection of the shooting direction change operation by the user, the shooting direction change operation detection unit 1703 determines that the shooting direction change is present when a control output and a positional deviation described later satisfy predetermined conditions. If the photographing direction change operation is detected in S1901, the process advances to S1902 to stop the position control operation. If the subject is being tracked or searched, the position control operation is stopped after being interrupted. On the other hand, when the shooting direction change operation is not detected in S1901, the detection of the shooting direction change operation is continued. After the position control is stopped in S1902, the process advances to S1903 to determine the end of the shooting direction change operation by the user.

撮影方向変更操作の終了判定は、撮影方向変更操作検出部1703で、パンの移動速度により撮影方向変更操作の継続または終了を判定する。撮影方向変更操作が終了したと判定した場合には、S1904に進み、撮影方向変更操作の終了判定後の撮影エリア情報を記憶する。記憶するエリアは、撮像装置の位置、パン位置、チルト位置、焦点距離から決まる画角を各分割エリアと比較して最も近いエリアを記憶する。S1903で撮影方向変更操作中であると判定した場合は、撮影方向変更操作終了の検出を継続する。S1905では、S1904で記憶したエリアを他の分割エリアよりも重要なエリアとして学習情報を更新する。S1906では、被写体追尾および位置制御を有効にしたうえでS1901に進み、撮影方向変更操作の検出を再開する。ユーザが撮影方向変更操作を行う例として、撮像装置101で花を撮影中にユーザが鏡筒102を手で回転させることにより、撮像装置101の光軸が画角外の特定の人物に向くように撮影方向変更操作した時の例を説明する。図20は、撮像装置101で花2001を撮影中に人物2003の方向にユーザの手で鏡筒102を回転させた後に、人物2003が存在するエリアを重要エリアとして学習情報を更新する例を説明するための模式図である。図20の2002は、花2001を撮影中の撮像装置101の光軸である。2004はユーザが手で撮影方向を変更させた後の光軸である。2005は、ユーザが撮影方向を変更した際の鏡筒102の回転方向を示している。図21および図22を用いて、花2001を撮影中にユーザ操作により人物2003の方向に撮影方向を変更した後に人物2003が存在するエリアを重要なエリアとして学習情報を更新するまでの動作について説明する。図21(a)、(b)、(c)、(d)は、花を撮影中から撮影方向を変更して特定人物2003の方向に撮影方向を変化させて学習情報を更新するまでの間に撮像されたある瞬間の画像を示した図である。図22は、花を撮影中にユーザが撮影方向を特定人物2003の方向に変更して、変更後の画角のエリアを重要なエリアとして学習情報を更新するまでの間のパンの制御出力2201、位置偏差2202、移動速度2203の時間変化を示した図である。図22のta、tb、tc、tdはそれぞれ図21(a)、(b)、(c)、(d)に示す画像を撮像した時間である。図22のThCは、ユーザが手で鏡筒102を回転させたことを判定するために使用する制御出力の閾値である。ThDiffは、ユーザが手で鏡筒102を回転させたことを判定するために使用する位置偏差の閾値である。制御出力がThC以上でかつ位置偏差がThDiff以上である時間が所定時間(図22はt2−t1)継続した場合にユーザにより撮影方向の変更がなされたとして、補償器1702の制御出力をOFFする。ThVは、ユーザが撮影方向操作を終了したと判定するために使用するパン軸の移動速度の閾値である。CMaxは補償器1702の制御出力の最大値である。位置制御する際には、制御出力を−CMaxからCMaxの範囲で変更する事によって被写体が画像上の目標位置に位置するようにパン軸の駆動を制御する。図22のt1はユーザが撮影方向操作を開始してから制御出力2201がThC以上でかつ位置偏差がThDiff以上となったときの時間を示している。t2は、制御出力2201がThC以上でかつ位置偏差2202がThDiff以上である時間が撮影方向変更判定時間(t2−t1)経過した時間を示している。t3は時間t2以降にはじめてパン軸の移動速度がThV以下となったときの時間を示している。t4は移動速度が時間t3でThV以下となってからの経過時間が撮影方向変更終了判定時間(t4−t3)となった時間を示している。   In the determination as to the end of the shooting direction change operation, the shooting direction change operation detection unit 1703 determines continuation or end of the shooting direction change operation based on the moving speed of pan. If it is determined that the shooting direction change operation has ended, the process advances to step S1904 to store shooting area information after it is determined that the shooting direction change operation has ended. The area to be stored stores the closest area by comparing the angle of view determined from the position of the imaging apparatus, the pan position, the tilt position, and the focal length with each divided area. If it is determined in S1903 that the shooting direction change operation is in progress, detection of the end of the shooting direction change operation is continued. In S1905, the learning information is updated with the area stored in S1904 as an area more important than the other divided areas. In step S1906, after subject tracking and position control are enabled, the process advances to step S1901 to resume detection of the shooting direction change operation. As an example in which the user performs a shooting direction change operation, the user rotates the lens barrel 102 while shooting a flower with the imaging device 101 so that the optical axis of the imaging device 101 faces a specific person outside the angle of view. An example when the shooting direction change operation is performed will be described. FIG. 20 illustrates an example in which the learning information is updated with the area where the person 2003 exists as the important area after rotating the lens barrel 102 with the user's hand in the direction of the person 2003 while photographing the flower 2001 with the imaging device 101. It is a schematic diagram for doing. Reference numeral 2002 in FIG. 20 denotes an optical axis of the imaging device 101 during imaging of the flower 2001. Reference numeral 2004 denotes an optical axis after the user manually changes the shooting direction. Reference numeral 2005 indicates the rotation direction of the lens barrel 102 when the user changes the shooting direction. Using FIG. 21 and FIG. 22, after changing the photographing direction in the direction of the person 2003 by the user operation while photographing the flower 2001, the operation from updating the learning information to the area where the person 2003 exists as an important area is described. Do. 21 (a), (b), (c), and (d), from the time of shooting a flower to the time of changing the shooting direction to the direction of the specific person 2003 and changing the shooting direction to update learning information. Is a diagram showing an image taken at a certain moment. FIG. 22 shows a pan control output 2201 until the user changes the shooting direction to the direction of the specific person 2003 while shooting a flower, and the area of the angle of view after the change is regarded as an important area and the learning information is updated. It is the figure which showed the time change of the position deviation 2202 and the moving speed 2203. FIG. Ta, tb, tc, and td in FIG. 22 are times at which the images shown in FIGS. 21 (a), (b), (c), and (d) were captured, respectively. ThC in FIG. 22 is a threshold of control output used to determine that the user has manually rotated the lens barrel 102. ThDiff is a threshold of positional deviation used to determine that the user has manually rotated the lens barrel 102. The control output of the compensator 1702 is turned off assuming that the user changes the imaging direction when the control output is ThC or more and the position deviation is ThDiff or more for a predetermined time (t2-t1 in FIG. 22). . ThV is a threshold value of the moving speed of the pan axis used to determine that the user has finished the shooting direction operation. CMax is the maximum value of the control output of the compensator 1702. In position control, the drive of the pan axis is controlled so that the object is positioned at the target position on the image by changing the control output in the range of -CMax to CMax. T1 in FIG. 22 indicates the time when the control output 2201 is ThC or more and the positional deviation is ThDiff or more after the user starts the shooting direction operation. t2 indicates the time when the control output 2201 is ThC or more and the positional deviation 2202 is ThDiff or more and the imaging direction change determination time (t2-t1) has elapsed. t3 indicates the time when the moving speed of the pan axis is less than ThV for the first time after time t2. t4 indicates a time when an elapsed time from when the moving speed becomes ThV or less at time t3 becomes the photographing direction change end determination time (t4-t3).

図21(a)は、花2001を撮影中に時間taのタイミングで撮像した画像を示している。図21(a)の2101は追尾、探索または撮影対象となる被写体を示す被写体枠である。2102は、被写体枠2101の中心の画像上の目標位置となる目標点を示したものである。2102の2つ線が交差する点が被写体の画像上での目標位置である。通常の撮影動作中(撮影方向変更操作中でない状態)は、被写体枠2101の中心と目標点2102が重なるように、パン軸またはチルト軸を駆動制御することによって、位置合わせを行う。図21(b)は、図21(a)の状態において時間tbのタイミングでユーザが固定部103に対して鏡筒102を右方向に回転させたときに撮像した画像である。図21(b)の黒塗りの矢印は、位置制御のパンの駆動方向、白抜きの矢印はユーザの撮影方向変更操作による鏡筒102の回転方向である。時間tbにおける制御出力2201、位置偏差2202を見ると、制御出力が最大値のCMaxとなっているにもかかわらず、位置偏差2202は増加傾向にある。このことからユーザが意図的にパン軸を回転させていると判定することができる。本実施形態では、ユーザが手で鏡筒102を回転させている状態である事を検知してから、補償器1702の制御出力をOFFするまでに所定時間(t2−t1)だけ待ってから撮影方向変更の判定を行っている。これは、意図せずにユーザが鏡筒に触れてしまった場合や、探索駆動中のパン軸またはチルト軸の負荷変動による影響で、ユーザが方向変更操作を行ってない場合に撮影方向変更有と判定しないための対策である。ユーザの撮影方向変更操作を開始してから撮影方向変更判定を素早く行うために、確定するまでの時間を短縮したり、無くしてもよい。   FIG. 21A shows an image captured at the timing of time ta while the flower 2001 is captured. Reference numeral 2101 in FIG. 21A denotes a subject frame indicating a subject to be tracked, searched, or photographed. Reference numeral 2102 denotes a target point as a target position on the image at the center of the subject frame 2101. A point at which two lines 2102 intersect is a target position on the image of the subject. During normal shooting operation (state in which shooting direction change operation is not performed), alignment is performed by drive control of the pan axis or tilt axis such that the center of the subject frame 2101 and the target point 2102 overlap. FIG. 21B is an image captured when the user rotates the lens barrel 102 in the right direction with respect to the fixed unit 103 at the timing of time tb in the state of FIG. 21A. The black arrows in FIG. 21B indicate the pan driving direction of position control, and the white arrows indicate the rotational direction of the lens barrel 102 due to the user's shooting direction changing operation. Looking at the control output 2201 and the position deviation 2202 at time tb, the position deviation 2202 tends to increase even though the control output is at the maximum value CMax. From this, it can be determined that the user intentionally rotates the pan axis. In this embodiment, after detecting that the user is rotating the lens barrel 102 by hand, the camera waits for a predetermined time (t2-t1) before the control output of the compensator 1702 is turned off. Judgment of direction change is performed. This is because the shooting direction has been changed if the user has not performed a direction change operation because the user has unintentionally touched the lens barrel, or if the user has not performed a direction change operation due to a load change of the pan axis or tilt axis during search driving. It is a measure for not judging it as The time from the start of the user's shooting direction change operation to the quick determination of the shooting direction change determination may be shortened or eliminated.

図21(c)は、時間tcで補償器1702の制御出力をOFFした状態でユーザの撮影方向変更操作によって新しい被写体の近くまでパン軸を回転させて目標となる被写体が画角に入ったときの図である。このように新たな撮影対象となる被写体が画角に入るまでユーザは撮影方向変更操作を継続する必要がある。本実施形態に示す撮像装置101のように撮影方向変更中の画像を直接確認できない場合にはスマートデバイスを使用して変更中の画像を確認しながら操作を行うことで撮影対象となる被写体が画角に入ったことを確認する。その他の撮影対象の被写体が画角内に入った事をユーザが知る手段として、撮影方向変更中に新たな被写体が画角内に入った場合にはLED制御部224によりLEDを発光させるか音声出力部218にて音声出力させることでユーザに報知するようにしてもよい。   In FIG. 21C, when the control output of the compensator 1702 is turned off at time tc, the pan axis is rotated to near the new subject by the user's shooting direction change operation, and the target subject enters the angle of view. Of the As described above, the user needs to continue the shooting direction change operation until the subject to be newly photographed enters the angle of view. As in the case of the imaging apparatus 101 shown in the present embodiment, when it is not possible to directly check the image being changed in shooting direction, the smart device is used to confirm the image being changed and the operation is performed. Make sure you are in the corner. As a means for the user to know that other subjects to be photographed have entered the angle of view, if a new subject enters the angle of view while changing the shooting direction, the LED control unit 224 may cause the LED to emit light The user may be notified by making the output unit 218 output voice.

図21(d)は、時間t4のタイミングで補償器1702の制御出力をONした状態で撮影方向変更後の新しい被写体を追尾、撮影中の画像である。時間t4は、時間tdでパンの移動速度2203がThV以下となる時間が撮影方向変更操作終了判定時間(t4−t3)以上経過後のタイミングである。時間t4でユーザによる撮影方向変更操作が終了したと判定した場合にはt4の時点での撮影エリアをユーザの好みのエリアとして他のエリアよりも重要度を高く設定したうえで学習情報を更新する。また、このエリアに存在する被写体を重要な被写体として追尾、撮影、認証登録のいずれか一つ以上の動作を行うようにしてもよい。たとえば、図21(d)に示すように、ユーザによる撮影方向変更操作が終わったことを検出したタイミングで人物2003が画角内に存在する場合には、人物2003を重要な被写体として追尾、撮影、認証登録のいずれかの動作を行う。学習情報更新処理は、自動的に行わずにユーザによる学習指示があった場合のみ行うようにしてもよい。例えば、画角に被写体が入ったことを撮像装置がユーザに報知した後に、事前に登録しておいた学習指示用の特定音声コマンドを入力した場合のみ学習情報の更新を行うようにするなど、ユーザから学習指示があった場合のみ学習情報を更新するようにしてもよい。   FIG. 21 (d) shows an image being captured while tracking a new subject after changing the shooting direction with the control output of the compensator 1702 turned ON at the timing of time t4. A time t4 is a timing after the time when the moving speed 2203 of the pan at the time td becomes ThV or less elapses for the photographing direction change operation end determination time (t4-t3) or more. If it is determined that the shooting direction change operation by the user is completed at time t4, the learning information is updated after setting the shooting area at time t4 as a user's favorite area with higher importance than other areas. . Also, the subject existing in this area may be tracked as an important subject, and one or more operations of photographing and authentication registration may be performed. For example, as shown in FIG. 21D, when a person 2003 is present within the angle of view at the timing when it is detected that the user has finished the shooting direction change operation by the user, the person 2003 is tracked as an important subject and shooting is performed. , Perform any operation of certification registration. The learning information update process may be performed only when there is a learning instruction from the user, not automatically. For example, after the imaging apparatus notifies the user that the subject is in the angle of view, the learning information is updated only when a specific voice command for learning instruction registered in advance is input. The learning information may be updated only when the user gives a learning instruction.

本実施形態では、ユーザによる撮像装置の撮影方向変更操作の開始および終了の検出を補償器の制御出力、位置偏差、駆動軸の移動速度によって検出する例を示したが、ユーザによる撮影方向操作を検出可能であれば他の方法で検出してもよい。例えば、装置揺れ検出部209からのジャイロセンサや加速度センサの信号の時間変化に基づいてユーザによる撮影方向変更の有無を検出するようにしてもよい。図23は、ユーザ操作により撮像装置の撮影方向を変更した際の装置揺れ検出部209の加速度センサの出力変化を示している。2301は、加速度の時間変化を示している。ThA1は、ユーザが撮影方向変更操作を開始したと判定する際に使用する加速度の閾値である。ThA2は、ユーザが撮影方向変更操作を終了したと判定する加速度の閾値である。これらの閾値と加速度を比較して、撮影方向変更操作の開始および終了を検出するようにしてもよい。このとき、撮影方向変更操作の誤検知防ぐために、事前に撮影方向変更操作時の加速度の時間変化パターンを学習させておいて、検出した加速度の時間変化が学習した時間変化パターンとの類似度が所定値以上の場合に撮影方向変更されたと判定してもよい。同様に、撮像装置により撮像した画像の動きベクトルの変化に応じて撮影方向操作の有無を検出するようにしてもよい。   In this embodiment, the detection of the start and the end of the shooting direction change operation of the imaging apparatus by the user is detected by the control output of the compensator, the position deviation, and the moving speed of the drive axis. If detectable, it may be detected by other methods. For example, the presence or absence of the imaging direction change by the user may be detected based on the time change of the signal of the gyro sensor or the acceleration sensor from the device shake detection unit 209. FIG. 23 shows a change in output of the acceleration sensor of the device shake detection unit 209 when the imaging direction of the imaging device is changed by a user operation. 2301 indicates time change of acceleration. ThA1 is a threshold value of acceleration used when it is determined that the user has started the shooting direction change operation. ThA2 is an acceleration threshold value that determines that the user has finished the shooting direction change operation. The threshold and the acceleration may be compared to detect the start and end of the shooting direction change operation. At this time, in order to prevent false detection of the shooting direction change operation, the time change pattern of the acceleration at the time of the shooting direction change operation is learned in advance, and the similarity to the time change pattern at which the time change of the detected acceleration is learned is It may be determined that the imaging direction has been changed if the value is equal to or more than a predetermined value. Similarly, the presence or absence of the shooting direction operation may be detected according to the change of the motion vector of the image captured by the imaging device.

また、上述の記載では、撮影方向変更操作後に画角内となる撮影エリアを重要なエリアとして学習する処理を説明した。しかしながら、これに限らず、ズーム変更や外部機器へのユーザ操作による撮影エリアの変更があった場合に、変更操作後の撮影エリアを重要なエリアとして学習する処理をしてもよい。   Further, in the above description, the processing for learning the imaging area that is within the angle of view after the imaging direction change operation has been described as an important area. However, the present invention is not limited to this, and when there is a change in the shooting area due to a zoom change or a user operation on an external device, processing may be performed to learn the shooting area after the change operation as an important area.

〔その他の実施形態〕
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Other Embodiments
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

本発明は、デジタルカメラやデジタルビデオカメラの撮影に限らず、監視カメラ、Webカメラ、携帯電話などの撮像装置にも搭載できる。   The present invention is not limited to photographing with digital cameras and digital video cameras, and can also be incorporated into imaging devices such as surveillance cameras, web cameras, and mobile phones.

101 撮像装置
301 スマートデバイス
501 ウエアラブルデバイス
104 チルト回転ユニット
105 パン回転ユニット
DESCRIPTION OF SYMBOLS 101 Imaging device 301 Smart device 501 Wearable device 104 Tilt rotation unit 105 Pan rotation unit

Claims (10)

被写体を探索する探索手段と、
装置の状態を検出する第1の検出手段と、
探索した被写体に関連する状態を検出する第2の検出手段と、
前記装置の状態の検出結果と前記被写体の状態の検出結果に基づいて、撮影処理を決定する決定手段と、
前記装置の状態の検出結果、前記被写体の状態の検出結果、および前記決定された撮影処理の少なくとも何れかにおいて得られた複数のデータを解析して、規則性を抽出し、抽出結果に応じてユーザの好みを学習する学習手段を有し、
前記学習手段による学習により、前記決定手段の前記撮影処理の決定が変更されることを特徴とする撮像装置。
Search means for searching for a subject,
First detection means for detecting the state of the device;
Second detecting means for detecting a state related to the searched subject;
A determination unit that determines a shooting process based on the detection result of the state of the device and the detection result of the state of the subject;
According to the result of detection of the state of the device, the result of detection of the state of the subject, and a plurality of data obtained in at least one of the determined photographing processing, regularity is extracted, and according to the extraction result Has learning means to learn the user's preferences,
An imaging apparatus, wherein the determination of the photographing process of the determination unit is changed by learning by the learning unit.
前記第1の検出手段は、装置の角度、装置の振動量、装置の移動量の少なくとも何れか1つを検出することを特徴とする請求項1に記載の撮像装置。   The image pickup apparatus according to claim 1, wherein the first detection means detects at least one of an angle of the apparatus, an amount of vibration of the apparatus, and an amount of movement of the apparatus. 前記第2の検出手段は、被写体までの距離、被写体の周辺領域にある被写体までの距離の少なくとも何れか1つを検出することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the second detection unit detects at least one of a distance to an object and a distance to an object in a peripheral region of the object. 前記第1の検出手段で検出された情報、前記第2の検出手段で検出された情報の少なくとも何れか1つを記録することを特徴とする請求項1に記載の撮像装置。   2. The image pickup apparatus according to claim 1, wherein at least one of the information detected by the first detection unit and the information detected by the second detection unit is recorded. 前記撮影処理として、静止画撮影、静止画の連続撮影、動画撮影、横方向のパノラマ撮影、縦方向のパノラマ撮影、360度のパノラマ撮影の少なくとも何れか1つを決定することを特徴とする請求項1に記載の撮像装置。   At least one of still image shooting, still image continuous shooting, moving image shooting, horizontal panoramic shooting, vertical panoramic shooting, and 360-degree panoramic shooting are determined as the photographing processing. An imaging device according to Item 1. 前記撮像装置は、二つ以上の種類の撮影処理によって撮影することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the imaging apparatus performs imaging by two or more types of imaging processing. 前記撮像装置は、前記装置の状態に基づいて動作を変えることを特徴とする請求項1乃至請求項6のいずれか1項に記載の撮像装置。   The imaging device according to any one of claims 1 to 6, wherein the imaging device changes an operation based on a state of the device. 前記装置の状態は、所定時間内の加速度変化に基づくことを特徴とする請求項1乃至請求項7のいずれか1項に記載の撮像装置。   The imaging device according to any one of claims 1 to 7, wherein the state of the device is based on a change in acceleration within a predetermined time. 撮像装置の制御方法であって、
被写体を探索する探索工程と、
装置の状態を検出する第1の検出工程と、
探索した被写体に関連する状態を検出する第2の検出工程と、
前記装置の状態の検出結果と前記被写体の状態の検出結果に基づいて、撮影処理を決定する決定工程と、
前記装置の状態の検出結果、前記被写体の状態の検出結果、および前記決定された撮影処理の少なくとも何れかにおいて得られた複数のデータを解析して、規則性を抽出し、抽出結果に応じてユーザの好みを学習する学習工程を有し、
前記学習工程による学習により、前記決定工程の前記撮影処理の決定が変更されることを特徴とする制御方法。
It is a control method of an imaging device, and
A search step of searching for a subject;
A first detection step of detecting the state of the device;
A second detection step of detecting a state related to the searched subject;
A determination step of determining a photographing process based on a detection result of the state of the device and a detection result of the state of the subject;
According to the result of detection of the state of the device, the result of detection of the state of the subject, and a plurality of data obtained in at least one of the determined photographing processing, regularity is extracted, and according to the extraction result Have a learning process to learn user's preferences,
A control method characterized in that the determination of the photographing process of the determination step is changed by learning in the learning step.
コンピュータにより請求項9に記載の制御方法を実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。   A computer readable storage medium storing a program for executing the control method according to claim 9 by a computer.
JP2017254232A 2017-12-28 2017-12-28 Imaging device and its control method Active JP7199808B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017254232A JP7199808B2 (en) 2017-12-28 2017-12-28 Imaging device and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017254232A JP7199808B2 (en) 2017-12-28 2017-12-28 Imaging device and its control method

Publications (2)

Publication Number Publication Date
JP2019121855A true JP2019121855A (en) 2019-07-22
JP7199808B2 JP7199808B2 (en) 2023-01-06

Family

ID=67305608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017254232A Active JP7199808B2 (en) 2017-12-28 2017-12-28 Imaging device and its control method

Country Status (1)

Country Link
JP (1) JP7199808B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021152711A1 (en) * 2020-01-28 2021-08-05 マクセル株式会社 Interval imaging device
CN113329144A (en) * 2020-02-28 2021-08-31 佳能株式会社 Lens device, imaging device, processing method, and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002209140A (en) * 2000-11-13 2002-07-26 Hewlett Packard Co <Hp> Basic adaptive learning setting/selecting process for image pickup device
JP2009118135A (en) * 2007-11-06 2009-05-28 Sony Corp Imaging apparatus and imaging method
JP2009207134A (en) * 2008-01-31 2009-09-10 Panasonic Corp Image apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002209140A (en) * 2000-11-13 2002-07-26 Hewlett Packard Co <Hp> Basic adaptive learning setting/selecting process for image pickup device
JP2009118135A (en) * 2007-11-06 2009-05-28 Sony Corp Imaging apparatus and imaging method
JP2009207134A (en) * 2008-01-31 2009-09-10 Panasonic Corp Image apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021152711A1 (en) * 2020-01-28 2021-08-05 マクセル株式会社 Interval imaging device
JPWO2021152711A1 (en) * 2020-01-28 2021-08-05
JP7343621B2 (en) 2020-01-28 2023-09-12 マクセル株式会社 interval imaging device
CN113329144A (en) * 2020-02-28 2021-08-31 佳能株式会社 Lens device, imaging device, processing method, and storage medium

Also Published As

Publication number Publication date
JP7199808B2 (en) 2023-01-06

Similar Documents

Publication Publication Date Title
JP7077376B2 (en) Image pickup device and its control method
JP6799660B2 (en) Image processing device, image processing method, program
CN111294488B (en) Image pickup apparatus, control method thereof, and storage medium
KR102475999B1 (en) Image processing apparatus and method for controling thereof
CN109981976B (en) Image pickup apparatus, control method thereof, and storage medium
JP7233162B2 (en) IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM, STORAGE MEDIUM
WO2019124055A1 (en) Image capturing device, control method therefor, program, and storage medium
JP2019118097A (en) Image processing method, image processing system, imaging apparatus, program, storage medium
JP7267686B2 (en) Imaging device and its control method
JP7545505B2 (en) Imaging device, control method thereof, and program
JP2020198556A (en) Image processing device, control method of the same, program, and storage medium
JP7403218B2 (en) Imaging device, its control method, program, storage medium
CN111105039A (en) Information processing apparatus, control method thereof, and memory
JP7527769B2 (en) Imaging device, control method thereof, program, and storage medium
JP7199808B2 (en) Imaging device and its control method
JP6896818B2 (en) Information processing equipment, information processing methods, and programs
JP2020145556A (en) Imaging device and control method thereof, program, and storage medium
JP2020195099A (en) Image processing device, and image processing method, imaging device, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221221

R151 Written notification of patent or utility model registration

Ref document number: 7199808

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151