JP2019118098A - Imaging device, control method therefor, program, and storage medium - Google Patents

Imaging device, control method therefor, program, and storage medium Download PDF

Info

Publication number
JP2019118098A
JP2019118098A JP2018203255A JP2018203255A JP2019118098A JP 2019118098 A JP2019118098 A JP 2019118098A JP 2018203255 A JP2018203255 A JP 2018203255A JP 2018203255 A JP2018203255 A JP 2018203255A JP 2019118098 A JP2019118098 A JP 2019118098A
Authority
JP
Japan
Prior art keywords
learning
image
user
imaging device
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018203255A
Other languages
Japanese (ja)
Other versions
JP6641447B2 (en
Inventor
英貴 門井
Hideki Kadoi
英貴 門井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to GB1919386.1A priority Critical patent/GB2582197B/en
Priority to GB1820576.5A priority patent/GB2570792B/en
Priority to US16/229,127 priority patent/US10893191B2/en
Priority to DE102018133328.5A priority patent/DE102018133328A1/en
Priority to CN201811600101.7A priority patent/CN109981976B/en
Publication of JP2019118098A publication Critical patent/JP2019118098A/en
Application granted granted Critical
Publication of JP6641447B2 publication Critical patent/JP6641447B2/en
Priority to US17/112,068 priority patent/US11405546B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Exposure Control For Cameras (AREA)
  • Image Analysis (AREA)

Abstract

To provide an imaging device capable of acquiring a video suitable for a user without performing a special operation by the user.SOLUTION: An imaging device includes an acquisition unit that acquires data related to a photographed image photographed by a photographing unit, a learning unit that learns conditions of an image preferred by the user on the basis of teacher data acquired by the acquiring unit, a control circuit that determines the automatic photographing by the photographing unit on the basis of the condition learned by the learning unit, and a registration unit that registers, as the teacher data, the data acquired by the acquisition unit for the photographed image for learning captured continuously to the photographing performed by the user's instruction.SELECTED DRAWING: Figure 9

Description

本発明は、撮像装置における自動撮影技術に関するものである。   The present invention relates to an automatic imaging technique in an imaging device.

カメラ等の撮像装置による静止画・動画撮影においては、ユーザがファインダー等を通して撮影対象を決定し、撮影状況を自ら確認して撮影画像のフレーミングを調整することによって、画像を撮影するのが通常である。このような撮像装置では、ユーザの操作ミスを検知してユーザに通知したり、外部環境の検知を行い、撮影に適していない場合にユーザに通知したりする機能が備えられている。また、撮影に適した状態になるようにカメラを制御する仕組みが従来から存在している。   In still image / moving image shooting with an imaging device such as a camera, it is common for a user to decide an object to be shot through a finder or the like, check the shooting situation by himself and adjust the framing of the shot image to shoot an image. is there. Such an imaging apparatus is provided with a function of detecting a user's operation error and notifying the user, or detecting an external environment and notifying the user when it is not suitable for photographing. In addition, there has conventionally been a mechanism for controlling the camera to be in a state suitable for photographing.

このようなユーザの操作により撮影を実行する撮像装置に対し、ユーザが撮影指示を与えることなく定期的および継続的に撮影を行うライフログカメラが存在する(特許文献1)。ライフログカメラは、ストラップ等でユーザの身体に装着された状態で用いられ、ユーザが日常生活で目にする光景を一定時間間隔で映像として記録するものである。ライフログカメラによる撮影は、ユーザがシャッターを切るなどの意図したタイミングで撮影するのではなく、一定の時間間隔で撮影を行うため、普段撮影しないような不意な瞬間を映像として残すことができる。   There is a life log camera that shoots regularly and continuously without the user giving a shooting instruction to an imaging apparatus that performs shooting by such a user operation (Japanese Patent Application Laid-Open No. 2008-112118). The life log camera is used in a state of being attached to the user's body by a strap or the like, and records a scene that the user sees in daily life as an image at regular time intervals. The life log camera does not shoot at a timing intended by the user, for example, but shoots at fixed time intervals, so that unexpected moments that are not normally shot can be left as images.

特表2016−536868号公報Japanese Patent Publication No. 2016-536868 Publication 特開2004−354251号公報JP, 2004-354251, A

しかしながら、ライフログカメラをユーザが身に着けた状態において、定期的に自動撮影を行った場合、ユーザの好みでない映像が取得され、本当に得たい瞬間の映像を取得できない場合があった。   However, when the user wears the life log camera, if automatic shooting is performed periodically, there is a case where a video which is not preferred by the user is acquired, and it is not possible to acquire a video at the moment when it is desired to obtain.

また、ライフログカメラが学習機能を有し、本当に撮影したい瞬間を学習して自動撮影することができたとしても、その学習のためには大量の教師データが必要となる。特許文献2には、ニューラルネットワークを用いて被検物の欠陥の有無を検査する欠陥検査装置において、被検物の人工的な欠陥画像を画像処理により作成して、学習用パターンの不足を補う技術が開示されている。しかし、被検物の種類が限られる欠陥検査とは異なり、ライフログカメラにおいては被写体の種類は無限にあり、画像処理によって学習用パターンの不足を補うことは難しい。   In addition, even if the life log camera has a learning function and can learn and automatically shoot the moment that the user really wants to shoot, a large amount of teacher data is required for the learning. In Patent Document 2, in a defect inspection apparatus for inspecting the presence or absence of a defect in a test object using a neural network, an artificial defect image of the test object is created by image processing to compensate for the lack of a learning pattern. Technology is disclosed. However, unlike the defect inspection in which the type of the object is limited, in the life log camera, the type of the object is infinite, and it is difficult to compensate for the lack of the learning pattern by image processing.

本発明は上述した課題に鑑みてなされたものであり、その目的は、ユーザが特別な操作を行うことなく、ユーザに好適な映像を取得することが可能な撮像装置を提供することである。   The present invention has been made in view of the above-described problems, and an object thereof is to provide an imaging device capable of acquiring a video suitable for the user without the user performing a special operation.

本発明に係わる撮像装置は、撮影手段により撮影された撮影画像に関するデータを取得する取得手段と、前記取得手段により取得された教師データに基づいて、ユーザが好む画像の条件を学習する学習手段と、前記学習手段により学習された条件に基づいて、前記撮影手段による自動撮影の判定を行う制御手段と、ユーザの指示により行われた撮影に連続して撮影された学習用の撮影画像について前記取得手段により取得されたデータを前記教師データとして登録する登録手段と、を備えることを特徴とする。   An imaging apparatus according to the present invention includes an acquisition unit that acquires data related to a photographed image captured by an imaging unit, and a learning unit that learns conditions of an image preferred by a user based on teacher data acquired by the acquisition unit. The control means for determining the automatic photographing by the photographing means based on the condition learned by the learning means, and the acquisition of the learning photographed image continuously photographed in the photographing performed by the user's instruction And registration means for registering data acquired by the means as the teacher data.

本発明によれば、ユーザが特別な操作を行うことなく、ユーザに好適な映像を取得することが可能な撮像装置を提供することが可能となる。   According to the present invention, it is possible to provide an imaging device capable of acquiring a video suitable for the user without the user performing a special operation.

撮像装置を模式的に示す図である。It is a figure which shows an imaging device typically. 撮像装置の構成を示す図である。It is a figure showing composition of an imaging device. 撮像装置と外部機器との構成を示す図である。It is a figure which shows the structure of an imaging device and an external apparatus. 外部機器の構成を示す図である。It is a figure which shows the structure of an external apparatus. 撮像装置と外部機器との構成を示す図である。It is a figure which shows the structure of an imaging device and an external apparatus. 外部機器の構成を示す図である。It is a figure which shows the structure of an external apparatus. 第1制御回路を説明するフローチャートである。It is a flowchart explaining a 1st control circuit. 第2制御回路を説明するフローチャートである。It is a flowchart explaining a 2nd control circuit. 撮影モード処理を説明するフローチャートである。5 is a flowchart illustrating shooting mode processing. ニューラルネットワークを説明する図である。It is a figure explaining a neural network. 撮影画像内のエリア分割を説明するための図である。It is a figure for demonstrating area division in a photography picture. 学習モード判定を説明するフローチャートである。It is a flowchart explaining a learning mode determination. 学習処理を説明するフローチャートである。It is a flowchart explaining a learning process. 本実施形態に係る表示処理を説明する図である。It is a figure explaining the display process which concerns on this embodiment.

〔第1の実施形態〕
<撮像装置の構成>
図1は、第1の実施形態の撮像装置を模式的に示す図である。
First Embodiment
<Configuration of Imaging Device>
FIG. 1 is a view schematically showing an imaging device of the first embodiment.

図1(a)に示す撮像装置101は、電源スイッチの操作を行うことができる操作部材(以後、電源ボタンというが、タッチパネルへのタップやフリック、スワイプなどの操作でもよい)などが設けられている。撮像を行う撮影レンズ群や撮像素子を含む筐体である鏡筒102は、撮像装置101に取り付けられ、鏡筒102を固定部103に対して回転駆動できる回転機構を設けている。チルト回転ユニット104は、鏡筒102を図1(b)に示すピッチ方向に回転できるモーター駆動機構であり、パン回転ユニット105は、鏡筒102をヨー方向に回転できるモーター駆動機構である。よって、鏡筒102は、1軸以上の方向に回転可能である。なお、図1(b)は、固定部103位置での軸定義である。角速度計106と加速度計107はともに、撮像装置101の固定部103に実装されている。そして、角速度計106や加速度計107に基づいて、撮像装置101の振動を検出し、チルト回転ユニットとパン回転ユニットを検出した揺れ角度に基づいて回転駆動する。これにより、可動部である鏡筒102の振れを補正したり、傾きを補正したりする構成となっている。   The imaging device 101 illustrated in FIG. 1A is provided with an operation member (hereinafter referred to as a power button, which may be a tap, flick, or swipe operation to a touch panel) that can operate the power switch. There is. A lens barrel 102, which is a housing including an imaging lens group for capturing an image and an imaging element, is attached to the imaging apparatus 101, and is provided with a rotation mechanism capable of rotationally driving the lens barrel 102 with respect to the fixed portion 103. The tilt rotation unit 104 is a motor drive mechanism capable of rotating the lens barrel 102 in the pitch direction shown in FIG. 1B, and the pan rotation unit 105 is a motor drive mechanism capable of rotating the lens barrel 102 in the yaw direction. Thus, the lens barrel 102 can rotate in one or more axes. FIG. 1B is an axis definition at the fixed portion 103 position. Both the angular velocity meter 106 and the accelerometer 107 are mounted on the fixing unit 103 of the imaging device 101. The vibration of the imaging apparatus 101 is detected based on the angular velocity meter 106 and the accelerometer 107, and the tilt rotation unit and the pan rotation unit are rotationally driven based on the detected swing angle. Thereby, the shake of the lens barrel 102 which is the movable portion is corrected, and the tilt is corrected.

図2は、本実施形態の撮像装置の構成を示すブロック図である。   FIG. 2 is a block diagram showing the configuration of the imaging device of the present embodiment.

図2において、第1制御回路223は、プロセッサ(例えば、CPU、GPU、マイクロプロセッサ、MPUなど)、メモリ(例えば、DRAM、SRAMなど)からなる。これらは、各種処理を実行して撮像装置101の各ブロックを制御したり、各ブロック間でのデータ転送を制御したりする。不揮発性メモリ(EEPROM)216は、電気的に消去・記録可能なメモリであり、第1制御回路223の動作用の定数、プログラム等が記憶される。   In FIG. 2, the first control circuit 223 includes a processor (for example, a CPU, a GPU, a microprocessor, an MPU, and the like) and a memory (for example, a DRAM, an SRAM, and the like). These units execute various processes to control each block of the imaging apparatus 101 or to control data transfer between the blocks. A nonvolatile memory (EEPROM) 216 is an electrically erasable and recordable memory, and stores constants, programs and the like for the operation of the first control circuit 223.

図2において、ズームユニット201は、変倍を行うズームレンズを含む。ズーム駆動制御回路202は、ズームユニット201を駆動制御する。フォーカスユニット203は、ピント調整を行うレンズを含む。フォーカス駆動制御回路204は、フォーカスユニット203を駆動制御する。   In FIG. 2, the zoom unit 201 includes a zoom lens that performs magnification change. The zoom drive control circuit 202 drives and controls the zoom unit 201. The focus unit 203 includes a lens that performs focus adjustment. The focus drive control circuit 204 drives and controls the focus unit 203.

撮像部206は、撮像素子とA/D変換器を備え、撮像素子が各レンズ群を通して入射する光を受け、その光量に応じた電荷の情報をアナログ画像データとして画像処理回路207に出力する。画像処理回路207は複数のALU(Arithmetic and Logic Unit)を搭載した演算回路であり、A/D変換により出力されたデジタル画像データに対して、歪曲補正やホワイトバランス調整や色補間処理等の画像処理を適用し、適用後のデジタル画像データを出力する。画像処理回路207から出力されたデジタル画像データは、画像記録回路208でJPEG形式等の記録用フォーマットに変換し、メモリ215や後述する映像出力回路217に送信される。   The imaging unit 206 includes an imaging element and an A / D converter, and the imaging element receives light incident through each lens group, and outputs information of charge corresponding to the light amount to the image processing circuit 207 as analog image data. An image processing circuit 207 is an arithmetic circuit equipped with a plurality of ALUs (Arithmetic and Logic Units), and an image such as distortion correction, white balance adjustment, or color interpolation processing for digital image data output by A / D conversion. Apply processing and output digital image data after application. The digital image data output from the image processing circuit 207 is converted into a recording format such as JPEG format by the image recording circuit 208, and is transmitted to the memory 215 or a video output circuit 217 described later.

鏡筒回転駆動回路205は、チルト回転ユニット104、パン回転ユニット105を駆動して鏡筒102をチルト方向とパン方向に駆動させる。   The lens barrel rotation drive circuit 205 drives the tilt rotation unit 104 and the pan rotation unit 105 to drive the lens barrel 102 in the tilt direction and the pan direction.

装置揺れ検出回路209は、例えば撮像装置101の3軸方向の角速度を検出する角速度計(ジャイロセンサ)106や、装置の3軸方向の加速度を検出する加速度計(加速度センサ)107が搭載される。装置揺れ検出回路209は、検出された信号に基づいて、装置の回転角度や装置のシフト量などが演算される。   The device shake detection circuit 209 is mounted with, for example, an angular velocity meter (gyro sensor) 106 that detects angular velocity in the direction of three axes of the imaging device 101 and an accelerometer (acceleration sensor) 107 that detects an acceleration in the direction of three axes of the device. . The device shake detection circuit 209 calculates the rotation angle of the device, the shift amount of the device, and the like based on the detected signal.

音声入力回路213は、撮像装置101に設けられたマイクから撮像装置101周辺の音声信号を取得し、アナログデジタル変換をして音声処理回路214に送信する。音声処理回路214は、入力されたデジタル音声信号の適正化処理等の音声に関する処理を行う。そして、音声処理回路214で処理された音声信号は、第1制御回路223によりメモリ215に送信される。メモリ215は、画像処理回路207、音声処理回路214により得られた画像信号及び音声信号を一時的に記憶する。   The audio input circuit 213 acquires an audio signal around the imaging device 101 from a microphone provided in the imaging device 101, performs analog-to-digital conversion, and transmits the signal to the audio processing circuit 214. The audio processing circuit 214 performs processing relating to audio such as optimization processing of the input digital audio signal. Then, the audio signal processed by the audio processing circuit 214 is transmitted to the memory 215 by the first control circuit 223. The memory 215 temporarily stores the image signal and the audio signal obtained by the image processing circuit 207 and the audio processing circuit 214.

画像処理回路207及び音声処理回路214は、メモリ215に一時的に記憶された画像信号や音声信号を読み出して画像信号の符号化、音声信号の符号化などを行い、圧縮画像信号、圧縮音声信号を生成する。第1制御回路223は、これらの圧縮画像信号、圧縮音声信号を、記録再生回路220に送信する。   An image processing circuit 207 and an audio processing circuit 214 read out an image signal and an audio signal temporarily stored in the memory 215, encode the image signal, encode an audio signal, and the like, and generate a compressed image signal and a compressed audio signal. Generate The first control circuit 223 transmits the compressed image signal and the compressed audio signal to the recording and reproducing circuit 220.

記録再生回路220は、記録媒体221に対して画像処理回路207及び音声処理回路214で生成された圧縮画像信号、圧縮音声信号、その他撮影に関する制御データ等を記録する。また、音声信号を圧縮符号化しない場合には、第1制御回路223は、音声処理回路214により生成された音声信号と画像処理回路207により生成された圧縮画像信号とを、記録再生回路220に送信し記録媒体221に記録させる。   The recording / reproducing circuit 220 records, on the recording medium 221, the compressed image signal and the compressed audio signal generated by the image processing circuit 207 and the audio processing circuit 214, and other control data related to photographing. When the audio signal is not compressed and encoded, the first control circuit 223 sends the audio signal generated by the audio processing circuit 214 and the compressed image signal generated by the image processing circuit 207 to the recording and reproducing circuit 220. It transmits and makes the recording medium 221 record.

記録媒体221は、撮像装置101に内蔵された記録媒体でも、取外し可能な記録媒体でもよい。記録媒体221は、撮像装置101で生成した圧縮画像信号、圧縮音声信号、音声信号などの各種データを記録することができ、不揮発性メモリ216よりも大容量な媒体が一般的に使用される。例えば、記録媒体221は、ハードディスク、光ディスク、光磁気ディスク、CD−R、DVD−R、磁気テープ、不揮発性の半導体メモリ、フラッシュメモリ、などのあらゆる方式の記録媒体を含む。   The recording medium 221 may be a recording medium built in the imaging device 101 or a removable recording medium. The recording medium 221 can record various data such as a compressed image signal, a compressed audio signal, and an audio signal generated by the imaging device 101, and a medium having a larger capacity than the non-volatile memory 216 is generally used. For example, the recording medium 221 includes a recording medium of any type such as a hard disk, an optical disk, a magneto-optical disk, a CD-R, a DVD-R, a magnetic tape, a non-volatile semiconductor memory, and a flash memory.

記録再生回路220は、記録媒体221に記録された圧縮画像信号、圧縮音声信号、音声信号、各種データ、プログラムを読み出す(再生する)。そして読み出した圧縮画像信号、圧縮音声信号を、第1制御回路223は画像処理回路207及び音声処理回路214に送信する。画像処理回路207及び音声処理回路214は、圧縮画像信号、圧縮音声信号を一時的にメモリ215に記憶させ、所定の手順で復号し、復号した信号を映像出力回路217、音声出力回路218に送信する。   The recording and reproducing circuit 220 reads (reproduces) the compressed image signal, the compressed audio signal, the audio signal, various data, and the program recorded on the recording medium 221. Then, the first control circuit 223 transmits the read compressed image signal and compressed audio signal to the image processing circuit 207 and the audio processing circuit 214. The image processing circuit 207 and the audio processing circuit 214 temporarily store the compressed image signal and the compressed audio signal in the memory 215, decode the signal according to a predetermined procedure, and transmit the decoded signal to the video output circuit 217 and the audio output circuit 218. Do.

音声入力回路213は複数のマイクが撮像装置101に搭載されており、音声処理回路214は複数のマイクが設置された平面上の音の方向を検出することができ、後述する探索や自動撮影に用いられる。さらに、音声処理回路214では、特定の音声コマンドを検出する。音声コマンドは事前に登録されたいくつかのコマンドの他、ユーザが特定音声を撮像装置に登録できる構成にしてもよい。また、音シーン認識も行う。音シーン認識では、予め大量の音声データを基に機械学習により学習させたネットワークにより音シーン判定を行う。例えば、「歓声が上がっている」、「拍手している」、「声を発している」などの特定シーンを検出するためのネットワークが音声処理回路214に設定されている。そして、特定音シーンや特定音声コマンドを検出すると、第1制御回路223や第2制御回路211に、検出トリガー信号を出力する構成になっている。   The voice input circuit 213 has a plurality of microphones mounted on the imaging apparatus 101, and the voice processing circuit 214 can detect the direction of sound on a plane on which the plurality of microphones are installed. Used. Further, the audio processing circuit 214 detects a specific audio command. The voice command may be configured so that the user can register a specific voice in the imaging device in addition to some commands registered in advance. It also performs sound scene recognition. In sound scene recognition, sound scene determination is performed by a network learned in advance by machine learning based on a large amount of audio data. For example, a network for detecting a specific scene such as “Chaiing”, “Claping”, “Speaking” is set in the audio processing circuit 214. Then, when a specific sound scene or a specific voice command is detected, a detection trigger signal is output to the first control circuit 223 and the second control circuit 211.

撮像装置101のメインシステム全体を制御する第1制御回路223とは別に設けられた、第2制御回路211が第1制御回路223の供給電力を制御する。   A second control circuit 211, which is provided separately from the first control circuit 223 that controls the entire main system of the imaging device 101, controls the power supplied from the first control circuit 223.

第1電源回路210と第2電源回路212は、第1制御回路223と第2制御回路211を動作させるための、電力をそれぞれ供給する。撮像装置101に設けられた電源ボタンの押下により、まず第1制御回路223と第2制御回路211の両方に電力が供給されるが、後述するように、第1制御回路223は、第1電源回路210へ自らの電力供給をOFFするように制御する。第1制御回路223が動作していない間も、第2制御回路211は動作しており、装置揺れ検出回路209や音声処理回路214からの情報が入力される。第2制御回路は各種入力情報を基にして、第1制御回路223を起動するか否かの判定処理を行い、起動判定されると第1電源回路に電力供給指示をする構成になっている。   The first power supply circuit 210 and the second power supply circuit 212 supply power for operating the first control circuit 223 and the second control circuit 211, respectively. Power is supplied to both the first control circuit 223 and the second control circuit 211 by pressing the power button provided on the imaging device 101, but as described later, the first control circuit 223 performs the first power supply. It is controlled to turn off its own power supply to the circuit 210. Even while the first control circuit 223 is not in operation, the second control circuit 211 is in operation, and information from the device fluctuation detection circuit 209 and the audio processing circuit 214 is input. The second control circuit is configured to determine whether to activate the first control circuit 223 based on various input information, and when the activation is determined, instructs the first power supply circuit to supply power. .

音声出力回路218は、例えば撮影時などに撮像装置101に内蔵されたスピーカーから予め設定された音声パターンを出力する。   The audio output circuit 218 outputs an audio pattern set in advance from a speaker incorporated in the imaging apparatus 101, for example, at the time of shooting.

LED制御回路224は、例えば撮影時などに撮像装置101に設けられたLEDを予め設定された点灯点滅パターンで制御する。   The LED control circuit 224 controls, for example, an LED provided in the imaging device 101 according to a preset lighting blink pattern at the time of shooting or the like.

映像出力回路217は、例えば映像出力端子からなり、接続された外部ディスプレイ等に映像を表示させるために画像信号を送信する。また、音声出力回路218、映像出力回路217は、結合された1つの端子、例えばHDMI(登録商標)(High−Definition Multimedia Interface)端子のような端子であってもよい。   The video output circuit 217 includes, for example, a video output terminal, and transmits an image signal to display a video on a connected external display or the like. In addition, the audio output circuit 218 and the video output circuit 217 may be one coupled terminal, for example, a terminal such as a high-definition multimedia interface (HDMI (registered trademark)) terminal.

通信回路222は、撮像装置101と外部装置との間で通信を行うもので、例えば、音声信号、画像信号、圧縮音声信号、圧縮画像信号などのデータを送信したり受信したりする。また、撮影開始や終了コマンド、パン・チルトやズーム駆動等の、撮影にかかわる制御信号を受信して、撮像装置101と相互通信可能な外部機器の指示から撮像装置101を駆動する。また、撮像装置101と外部装置との間で、後述する学習処理回路219で処理される学習にかかわる各種パラメータなどの情報を送信したり受信したりする。通信回路222は、例えば、赤外線通信モジュール、Bluetooth(登録商標)通信モジュール、無線LAN通信モジュール、WirelessUSB、GPS受信機等の無線通信モジュールである。   The communication circuit 222 performs communication between the imaging apparatus 101 and an external device, and transmits and receives data such as an audio signal, an image signal, a compressed audio signal, and a compressed image signal, for example. Also, the imaging device 101 is driven based on an instruction from an external device that can mutually communicate with the imaging device 101 by receiving imaging start and end commands and control signals related to imaging such as pan / tilt and zoom driving. In addition, information such as various parameters related to learning processed by a learning processing circuit 219 described later is transmitted and received between the imaging apparatus 101 and an external apparatus. The communication circuit 222 is, for example, a wireless communication module such as an infrared communication module, a Bluetooth (registered trademark) communication module, a wireless LAN communication module, a wireless USB, or a GPS receiver.

<外部通信機器との構成>
図3は、撮像装置101と外部装置301との無線通信システムの構成例を示す図である。撮像装置101は撮影機能を有するデジタルカメラであり、外部装置301はBluetooth通信モジュール、無線LAN通信モジュールを含むスマートデバイスである。
<Configuration with external communication device>
FIG. 3 is a diagram showing a configuration example of a wireless communication system of the imaging apparatus 101 and the external apparatus 301. The imaging apparatus 101 is a digital camera having a photographing function, and the external apparatus 301 is a smart device including a Bluetooth communication module and a wireless LAN communication module.

撮像装置101とスマートデバイス301は、例えばIEEE802.11規格シリーズに準拠した無線LANによる通信302と、例えばBluetooth Low Energy(以下、「BLE」と呼ぶ。)などの、制御局と従属局などの主従関係を有する通信303とによって通信可能である。なお、無線LAN及びBLEは通信手法の一例であり、各通信装置は、2つ以上の通信機能を有し、例えば制御局と従属局との関係の中で通信を行う一方の通信機能によって、他方の通信機能の制御を行うことが可能であれば、他の通信手法が用いられてもよい。ただし、一般性を失うことなく、無線LANなどの第1の通信は、BLEなどの第2の通信より高速な通信が可能であり、また、第2の通信は、第1の通信よりも消費電力が少ないか通信可能距離が短いかの少なくともいずれかであるものとする。   The imaging apparatus 101 and the smart device 301 communicate, for example, with a wireless LAN conforming to the IEEE 802.11 standard series, and master-slave such as a control station and a dependent station such as Bluetooth Low Energy (hereinafter, referred to as "BLE"). It is possible to communicate by means of the communication 303 which has a relationship. The wireless LAN and BLE are an example of a communication method, and each communication apparatus has two or more communication functions, for example, one communication function that performs communication in the relationship between the control station and the dependent station. Other communication methods may be used as long as control of the other communication function can be performed. However, without loss of generality, the first communication such as a wireless LAN can perform faster communication than the second communication such as BLE, and the second communication consumes more than the first communication. It is assumed that the power is low and / or the communicable distance is short.

スマートデバイス301の構成を、図4を用いて説明する。   The configuration of the smart device 301 will be described with reference to FIG.

スマートデバイス301は、例えば、無線LAN用の無線LAN制御回路401、及び、BLE用のBLE制御回路402に加え、公衆無線通信用の公衆回線制御回路406を有する。また、スマートデバイス301は、パケット送受信回路403をさらに有する。無線LAN制御回路401は、無線LANのRF制御、通信処理、IEEE802.11規格シリーズに準拠した無線LANによる通信の各種制御を行うドライバや無線LANによる通信に関するプロトコル処理を行う。BLE制御回路402は、BLEのRF制御、通信処理、BLEによる通信の各種制御を行うドライバやBLEによる通信に関するプロトコル処理を行う。公衆回線制御回路406は、公衆無線通信のRF制御、通信処理、公衆無線通信の各種制御を行うドライバや公衆無線通信関連のプロトコル処理を行う。公衆無線通信は例えばIMT(International Multimedia Telecommunications)規格やLTE(Long Term Evolution)規格などに準拠したものである。パケット送受信回路403は、無線LAN並びにBLEによる通信及び公衆無線通信に関するパケットの送信と受信との少なくともいずれかを実行するための処理を行う。なお、本例では、スマートデバイス301は、通信においてパケットの送信と受信との少なくともいずれかを行うものとして説明するが、パケット交換以外に、例えば回線交換など、他の通信形式が用いられてもよい。   The smart device 301 has, for example, a public line control circuit 406 for public wireless communication in addition to a wireless LAN control circuit 401 for wireless LAN and a BLE control circuit 402 for BLE. The smart device 301 further includes a packet transmission / reception circuit 403. The wireless LAN control circuit 401 performs RF control of a wireless LAN, communication processing, a driver that performs various controls of communication by a wireless LAN conforming to the IEEE 802.11 standard series, and protocol processing regarding communication by a wireless LAN. The BLE control circuit 402 performs RF control of BLE, communication processing, and protocol processing regarding communication by a driver that performs various control of communication by BLE and BLE. The public line control circuit 406 performs RF control of public wireless communication, communication processing, a driver that performs various controls of public wireless communication, and protocol processing related to public wireless communication. The public wireless communication conforms to, for example, the International Multimedia Telecommunications (IMT) standard or the Long Term Evolution (LTE) standard. The packet transmission / reception circuit 403 performs processing for performing transmission and / or reception of packets related to communication by wireless LAN and BLE and public wireless communication. In this example, the smart device 301 is described as performing at least one of transmission and reception of a packet in communication, but other communication formats such as circuit switching may be used other than packet switching. Good.

スマートデバイス301は、例えば、制御回路411、記憶回路404、GPS受信部405、表示装置407、操作部材408、音声入力音声処理回路409、電源回路410をさらに有する。制御回路411は、例えば、記憶回路404に記憶される制御プログラムを実行することにより、スマートデバイス301全体を制御する。記憶回路404は、例えば制御回路411が実行する制御プログラムと、通信に必要なパラメータ等の各種情報とを記憶する。後述する各種動作は、記憶回路404に記憶された制御プログラムを制御回路411が実行することにより、実現される。   The smart device 301 further includes, for example, a control circuit 411, a storage circuit 404, a GPS reception unit 405, a display device 407, an operation member 408, an audio input audio processing circuit 409, and a power supply circuit 410. The control circuit 411 controls the entire smart device 301 by executing a control program stored in the storage circuit 404, for example. The storage circuit 404 stores, for example, a control program executed by the control circuit 411 and various information such as parameters required for communication. Various operations to be described later are realized by the control circuit 411 executing a control program stored in the memory circuit 404.

電源回路410はスマートデバイス301に電力を供給する。表示装置407は、例えば、LCDやLEDのように視覚で認知可能な情報の出力、又はスピーカー等の音出力が可能な機能を有し、各種情報の表示を行う。操作部材408は、例えばユーザによるスマートデバイス301の操作を受け付けるボタン等である。なお、表示装置407及び操作部材408は、例えばタッチパネルなどの共通する部材によって構成されてもよい。   The power supply circuit 410 supplies power to the smart device 301. The display device 407 has a function capable of outputting visually recognizable information such as an LCD or an LED, or a sound output such as a speaker, and displays various information. The operation member 408 is, for example, a button that receives an operation of the smart device 301 by the user. The display device 407 and the operation member 408 may be configured by a common member such as a touch panel, for example.

音声入力音声処理回路409は、例えばスマートデバイス301に内蔵された汎用的なマイクから、ユーザが発した音声を取得し、音声認識処理により、ユーザの操作命令を取得する構成にしてもよい。   The voice input voice processing circuit 409 may be configured to obtain a voice uttered by the user from, for example, a general-purpose microphone built in the smart device 301, and to obtain a user's operation command by voice recognition processing.

また、スマートデバイス内の専用のアプリケーションを介して、ユーザの発音により音声コマンドを取得する。そして、無線LANによる通信302を介して、撮像装置101の音声処理回路214に特定音声コマンド認識させるための特定音声コマンドとして登録することもできる。   Also, a voice command is acquired by the user's pronunciation via a dedicated application in the smart device. Then, it can be registered as a specific voice command for causing the voice processing circuit 214 of the imaging apparatus 101 to recognize a specific voice command via the communication 302 by wireless LAN.

GPS(Global positioning system)405は、衛星から通知されるGPS信号を受信し、GPS信号を解析し、スマートデバイス301の現在位置(経度・緯度情報)を推定する。もしくは、位置推定は、WPS(Wi−Fi Positioning System)等を利用して、周囲に存在する無線ネットワークの情報に基づいて、スマートデバイス301の現在位置を推定するようにしてもよい。取得した現在のGPS位置情報が予め事前に設定されている位置範囲(所定半径の範囲以内)に位置している場合に、BLE制御回路402を介して撮像装置101へ移動情報を通知し、後述する自動撮影や自動編集のためのパラメータとして使用する。また、GPS位置情報に所定以上の位置変化があった場合に、BLE制御回路402を介して撮像装置101へ移動情報を通知し、後述する自動撮影や自動編集のためのパラメータとして使用する。   A GPS (Global Positioning System) 405 receives a GPS signal notified from a satellite, analyzes the GPS signal, and estimates the current position (longitude / latitude information) of the smart device 301. Alternatively, position estimation may estimate the current position of the smart device 301 based on information of a wireless network present in the vicinity using a Wi-Fi Positioning System (WPS) or the like. When the acquired current GPS position information is located in a position range (within a predetermined radius range) set in advance, movement information is notified to the imaging apparatus 101 via the BLE control circuit 402, and will be described later. Use as a parameter for automatic shooting and editing. In addition, when there is a position change of predetermined position or more in the GPS position information, the movement information is notified to the imaging apparatus 101 via the BLE control circuit 402, and used as a parameter for automatic photographing and automatic editing described later.

上記のように撮像装置101とスマートデバイス301は、無線LAN制御回路401、及び、BLE制御回路402を用いた通信により、撮像装置101とデータのやりとりを行う。例えば、音声信号、画像信号、圧縮音声信号、圧縮画像信号などのデータを送信したり受信したりする。また、スマートデバイスから撮像装置101の撮影などの操作指示であったり、音声コマンド登録データ送信や、GPS位置情報に基づいた所定位置検出通知や場所移動通知を行う。また、スマートデバイス内の専用のアプリケーションを介しての学習用データの送受信も行う。   As described above, the imaging apparatus 101 and the smart device 301 exchange data with the imaging apparatus 101 by communication using the wireless LAN control circuit 401 and the BLE control circuit 402. For example, it transmits and receives data such as an audio signal, an image signal, a compressed audio signal, and a compressed image signal. Further, the smart device issues an operation instruction such as photographing of the imaging apparatus 101, transmission of voice command registration data, notification of predetermined position detection based on GPS position information, and notification of location movement. It also sends and receives learning data via a dedicated application in the smart device.

<アクセサリ類の構成>
図5は、撮像装置101と通信可能である外部装置501との構成例を示す図である。撮像装置101は撮影機能を有するデジタルカメラであり、外部装置501は、例えばBluetooth通信モジュールなどにより撮像装置101と通信可能である各種センシング部を含むウエアラブルデバイスである。
<Configuration of accessories>
FIG. 5 is a diagram showing a configuration example of an external apparatus 501 that can communicate with the imaging apparatus 101. The imaging apparatus 101 is a digital camera having a photographing function, and the external apparatus 501 is a wearable device including various sensing units capable of communicating with the imaging apparatus 101 by, for example, a Bluetooth communication module.

ウエアラブルデバイス501において、例えばユーザの腕などに装着できるような構成なっており、所定の周期でユーザの脈拍、心拍、血流等の生体情報を検出するセンサやユーザの運動状態を検出できる加速度センサ等が搭載されている。   The wearable device 501 is configured to be attached to, for example, a user's arm, and is a sensor that detects biological information such as the user's pulse, heart rate, blood flow, etc. at a predetermined cycle, and an acceleration sensor that can detect the user's exercise state. Etc. are mounted.

生体情報検出回路502は、例えば、脈拍を検出する脈拍センサ、心拍を検出する心拍センサ、血流を検出する血流センサ、導電性高分子による皮膚の接触によって電位の変化を検出したことを検知するセンサを含む。本実施形態では、生体情報検出回路502として心拍センサを用いて説明する。心拍センサは、例えばLED等を用いて皮膚に赤外光を照射し、体組織を透過した赤外光を受光センサで検出して信号処理することによりユーザの心拍を検出する。生体情報検出回路502は、検出した生体情報を信号として、後述する制御回路607へ出力する。   The biological information detection circuit 502 detects, for example, a change in electric potential detected by contact of the skin with a conductive polymer, a pulse sensor that detects a pulse, a heartbeat sensor that detects a heartbeat, a blood flow sensor that detects blood flow, Include sensors that The present embodiment will be described using a heart rate sensor as the living body information detection circuit 502. The heart rate sensor irradiates the skin with infrared light using, for example, an LED or the like, and detects the heart rate of the user by detecting the infrared light transmitted through the body tissue with a light receiving sensor and processing the signal. The biological information detection circuit 502 outputs the detected biological information as a signal to a control circuit 607 described later.

ユーザの運動状態を検出する揺れ検出回路503は、例えば、加速度センサやジャイロセンサを搭載しており、加速度の情報に基づきユーザが移動しているかどうかや、腕を振り回してアクションをしているかどうかなどのモーションを検出することができる。   The shake detection circuit 503 for detecting the motion state of the user includes, for example, an acceleration sensor or a gyro sensor, and whether or not the user is moving based on acceleration information, or whether the user is swinging an arm And other motions can be detected.

また、ユーザによるウエアラブルデバイス501の操作を受け付ける操作部材505や、LCDやLEDのように視覚で認知可能な情報を出力する表示装置504が搭載される。   In addition, an operation member 505 that receives an operation of the wearable device 501 by the user, and a display device 504 that outputs visually recognizable information such as an LCD or an LED are mounted.

ウエアラブルデバイス501の構成を、図6を用いて説明する。   The configuration of the wearable device 501 will be described with reference to FIG.

ウエアラブルデバイス501は、例えば、制御回路607、通信回路601、生体情報検出回路502、揺れ検出回路503、表示装置504、操作部材505、電源回路606、記憶回路608を有する。   The wearable device 501 includes, for example, a control circuit 607, a communication circuit 601, a biological information detection circuit 502, a shake detection circuit 503, a display device 504, an operation member 505, a power supply circuit 606, and a storage circuit 608.

制御回路607は、例えば、記憶回路608に記憶される制御プログラムを実行することにより、ウエアラブルデバイス501全体を制御する。記憶回路608は、例えば制御回路607が実行する制御プログラムと、通信に必要なパラメータ等の各種情報とを記憶する。後述する各種動作は、例えば記憶回路608に記憶された制御プログラムを制御回路607が実行することにより、実現される。   The control circuit 607 controls the entire wearable device 501, for example, by executing a control program stored in the storage circuit 608. The storage circuit 608 stores, for example, a control program executed by the control circuit 607 and various information such as parameters required for communication. Various operations to be described later are realized, for example, by the control circuit 607 executing a control program stored in the memory circuit 608.

電源回路606はウエアラブルデバイス501に電力を供給する。表示装置504は、例えば、LCDやLEDのように視覚で認知可能な情報の出力、又はスピーカー等の音出力が可能な機能を有し、各種情報の表示を行う。操作部材505は、例えばユーザによるウエアラブルデバイス501の操作を受け付けるボタン等である。なお、表示装置504及び操作部材505は、例えばタッチパネルなどの共通する部材によって構成されてもよい。   The power supply circuit 606 supplies power to the wearable device 501. The display device 504 has a function capable of outputting visually recognizable information, such as an LCD or an LED, or a sound output such as a speaker, and displays various types of information. The operation member 505 is, for example, a button that receives an operation of the wearable device 501 by the user. The display device 504 and the operation member 505 may be configured by a common member such as a touch panel, for example.

また、操作部材は、例えばウエアラブルデバイス501に内蔵された汎用的なマイクから、ユーザが発した音声を取得し、音声処理によりユーザが発した音声を取得し、音声認識処理により、ユーザの操作命令を取得する構成にしてもよい。   In addition, the operation member acquires voice uttered by the user from, for example, a general-purpose microphone built in the wearable device 501, acquires voice uttered by the user by voice processing, and receives user's operation instruction by voice recognition processing. May be acquired.

生体情報検出回路502や揺れ検出回路503から制御回路607で処理された各種検出情報は、通信回路601により、撮像装置101へ送信される。   The various detection information processed by the control circuit 607 from the biological information detection circuit 502 and the shake detection circuit 503 is transmitted to the imaging device 101 by the communication circuit 601.

例えば、ユーザの心拍の変化を検出したタイミングで検出情報を撮像装置101に送信したり、歩行移動/走行移動/立ち止まりなどの移動状態の変化のタイミングで検出情報を送信したりする。また、例えば、予め設定された腕ふりのモーションを検出したタイミングで検出情報を送信したり、予め設定された距離の移動を検出したタイミングで検出情報を送信したりする。   For example, the detection information is transmitted to the imaging apparatus 101 at the timing at which a change in the user's heartbeat is detected, or the detection information is transmitted at the change timing of the movement state such as walking movement / running movement / stop. Also, for example, detection information is transmitted at a timing at which a pre-set arm-like motion is detected, or detection information is transmitted at a timing at which movement of a preset distance is detected.

<撮像動作のシーケンス>
図7は、本実施形態における撮像装置101の第1制御回路223が受け持つ動作の例を説明するフローチャートである。
<Sequence of imaging operation>
FIG. 7 is a flowchart for explaining an example of the operation of the first control circuit 223 of the imaging apparatus 101 according to the present embodiment.

ユーザが撮像装置101に設けられた電源ボタンを操作すると、第1電源回路210により電力供給部から、第1制御回路223及び撮像装置101の各ブロックに電力を供給させる。   When the user operates a power button provided on the imaging apparatus 101, the first power supply circuit 210 causes the power supply unit to supply power to each block of the first control circuit 223 and the imaging apparatus 101.

また、同様に第2制御回路211においても第2電源回路212により電力供給部から、第2制御回路に電力を供給させるが、第2制御回路の動作の詳細については後述する図8のフローチャートを用いて説明する。   Similarly, in the second control circuit 211, power is supplied from the power supply unit to the second control circuit by the second power supply circuit 212. For details of the operation of the second control circuit, see the flowchart of FIG. It demonstrates using.

電力が供給されると、図7の処理がスタートする。ステップS701(以下では、「ステップ」を単に「S」と省略する)では、起動条件の読み込みが行われる。本実施形態においては、起動条件は以下である。
(1)電源ボタンが手動で押下されて電源起動
(2)外部機器(例えば301)からの外部通信(例えばBLE通信)による指示で電源起動
(3)Subプロセッサ(第2制御回路211)から、電源起動
ここで、(3)のSubプロセッサから電源起動の場合は、Subプロセッサ内で演算された起動条件が読み込まれることになるが、詳細は後述する図8で説明する。
When power is supplied, the process of FIG. 7 starts. In step S701 (hereinafter, "step" is simply referred to as "S"), the activation condition is read. In the present embodiment, the activation condition is as follows.
(1) The power supply button is manually pressed and power supply activation (2) From the power supply activation (3) Sub processor (second control circuit 211) according to the instruction by the external communication (for example, BLE communication) from the external device (for example 301) Power Startup Here, in the case of power startup from the Sub processor of (3), the startup condition calculated in the Sub processor is read, but the details will be described later with reference to FIG.

また、ここで読み込まれた起動条件は、被写体探索や自動撮影時の1つのパラメータ要素として用いられるが、後述して説明する。起動条件読み込みが終了するとS702に進む。   Also, the start condition read in here is used as one parameter element at the time of subject search and automatic photographing, which will be described later. When the start condition reading is completed, the process proceeds to S702.

S702では、各種センサの読み込みが行われる。ここで読み込まれるセンサは、装置揺れ検出回路209からのジャイロセンサや加速度センサなどの振動検出するセンサであったりする。また、チルト回転ユニット104やパン回転ユニット105の回転位置であったりする。また、音声処理回路214にて検出される音声レベルや特定音声認識の検出トリガーや音方向検出だったりする。   In S702, reading of various sensors is performed. The sensor read in here is a sensor for detecting vibration such as a gyro sensor from the apparatus shake detection circuit 209 or an acceleration sensor. In addition, the rotational position of the tilt rotation unit 104 or the pan rotation unit 105 may be set. In addition, it may be a detection trigger of a voice level detected by the voice processing circuit 214, a specific voice recognition, or a sound direction detection.

また、図1乃至図6には図示していないが、環境情報を検出するセンサでも情報を取得する。   Further, although not shown in FIGS. 1 to 6, a sensor that detects environmental information also acquires information.

例えば、所定の周期で撮像装置101の周辺の温度を検出する温度センサや、撮像装置101の周辺の気圧の変化を検出する気圧センサがある。また、撮像装置101の周辺の明るさを検出する照度センサや、撮像装置101の周辺の湿度を検出する湿度センサや、撮像装置101の周辺の紫外線量を検出するUVセンサ等を備えてもよい。検出した温度情報や気圧情報や明るさ情報や湿度情報やUV情報に加え、検出した各種情報から所定時間間隔での変化率を算出した温度変化量や気圧変化量や明るさ変化量や湿度変化量や紫外線変化量などを後述する自動撮影などの判定に使用する。   For example, there are a temperature sensor that detects the temperature around the imaging device 101 at a predetermined cycle, and an air pressure sensor that detects a change in air pressure around the imaging device 101. In addition, an illuminance sensor that detects the brightness around the imaging device 101, a humidity sensor that detects the humidity around the imaging device 101, a UV sensor that detects the amount of ultraviolet light around the imaging device 101, or the like may be provided. . In addition to the detected temperature information, barometric pressure information, brightness information, humidity information, and UV information, the temperature change amount, pressure change amount, brightness change amount, humidity change, etc. are calculated by calculating the change rate at predetermined time intervals from the detected various information. It is used for determination of automatic photographing etc. which mention the amount and the amount of change of ultraviolet rays later.

S702で各種センサ読み込みが行われるとS703に進む。   When various sensors are read in S702, the process proceeds to S703.

S703では、外部機器からの通信が指示されているかを検出し、通信指示があった場合、外部機器との通信を行う。   In S703, it is detected whether communication from the external device is instructed, and when communication is instructed, communication with the external device is performed.

例えば、スマートデバイス301から、無線LANやBLEを介した、リモート操作であったり、音声信号、画像信号、圧縮音声信号、圧縮画像信号などのデータを送信したり受信したりする。また、スマートデバイス301からの撮像装置101の撮影などの操作指示や、音声コマンド登録データ送信や、GPS位置情報に基づいた所定位置検出通知や場所移動通知や学習用データの送受信の指示があるかどうかの読み込みを行う。   For example, data such as an audio signal, an image signal, a compressed audio signal, or a compressed image signal is transmitted or received from the smart device 301 via wireless LAN or BLE. In addition, whether there is an operation instruction such as shooting of the imaging device 101 from the smart device 301, transmission of voice command registration data, an instruction of transmission / reception of predetermined position detection notification based on GPS position information, location movement notification and learning data Do you read?

また、例えば、ウエアラブルデバイス501から、ユーザの運動情報、腕のアクション情報、心拍などの生体情報の更新がある場合、BLEを介した情報の読み込みを行う。また、上述した環境情報を検出する各種センサは、撮像装置101に搭載してもよいが、スマートデバイス301或いはウエアラブルデバイス501に搭載していてもよく、その場合、BLEを介した環境情報の読み込みも行う。S703で外部機器からの通信読み込みが行われると、S704に進む。   Also, for example, when there is an update of biological information such as user's exercise information, arm action information, and heartbeat from the wearable device 501, information is read via BLE. The various sensors for detecting the environmental information described above may be mounted on the imaging apparatus 101, or may be mounted on the smart device 301 or the wearable device 501. In that case, the environmental information is read via BLE Do also. When communication reading from the external device is performed in S703, the process proceeds to S704.

S704では、モード設定判定が行われる。S704で設定されるモードは、以下の内から判定され選ばれる。   In S704, mode setting determination is performed. The mode set in step S704 is determined and selected from the following.

(1)自動撮影モード
[モード判定条件]
後述する学習により設定された各検出情報(画像、音、時間、振動、場所、身体の変化、環境変化)や、自動撮影モードに移行してからの経過時間や、過去の撮影情報などから、自動撮影を行うべきと判定されると、自動撮影モードに設定される。
(1) Automatic shooting mode [mode judgment condition]
From each detection information (image, sound, time, vibration, location, change in the body, environmental change) set by learning described later, elapsed time after transition to the automatic shooting mode, and past shooting information, etc. When it is determined that the automatic shooting should be performed, the automatic shooting mode is set.

[モード内処理]
自動撮影モード処理(S710)では、各検出情報(画像、音、時間、振動、場所、体の変化、環境変化)に基づいて、パン・チルトやズームを駆動して被写体を自動探索する。そして、ユーザの好みの撮影が行えるタイミングであると判定されると、静止画一枚撮影、静止画連続撮影、動画撮影、パノラマ撮影、タイムラプス撮影など様々な撮影方法の中から、撮影方法の判定処理が行われ、自動で撮影が行われる。
[In-mode processing]
In the automatic photographing mode processing (S710), pan / tilt and zoom are driven to automatically search for a subject based on each detection information (image, sound, time, vibration, place, body change, environment change). Then, when it is determined that it is the timing at which the user's favorite shooting can be performed, determination of the shooting method among various shooting methods such as single still image shooting, still image continuous shooting, moving image shooting, panoramic shooting, time-lapse shooting Processing is performed and photographing is performed automatically.

(2)学習モード
[モード判定条件]
前回学習処理を行ってからの経過時間と、学習に使用することのできる画像に対応付けられた情報や学習データの数などから、自動学習を行うべきと判定されると、自動学習モードに設定される。または、スマートデバイス301からの通信を介して学習データが設定されるように指示があった場合も本モードに設定される。
(2) Learning mode [mode judgment condition]
If it is determined that automatic learning should be performed from the elapsed time since the previous learning process and information associated with images that can be used for learning, the number of learning data, etc., the automatic learning mode is set. Be done. Alternatively, this mode is also set when there is an instruction to set learning data via communication from the smart device 301.

[モード内処理]
自動学習モード処理(S712)では、ユーザの好みに合わせた学習を行う。スマートデバイス301での各操作、スマートデバイス301からの学習情報通知などの情報を基にニューラルネットワークを用いて、ユーザの好みに合わせた学習が行われる。スマートデバイス301での各操作の情報としては、例えば、撮像装置からの画像取得情報、専用アプリケーションを介して手動による編集指示がされた情報、撮像装置内の画像に対してユーザが入力した判定値情報がある。
[In-mode processing]
In the automatic learning mode process (S712), learning is performed according to the user's preference. Based on information such as each operation in the smart device 301 and notification of learning information from the smart device 301, learning is performed according to the user's preference using a neural network. As information on each operation in the smart device 301, for example, image acquisition information from the imaging apparatus, information on which a manual editing instruction is given via a dedicated application, and a determination value input by the user with respect to the image in the imaging apparatus There is information.

なお、自動撮影モード処理、学習モード処理についての詳細は、後述する。   The details of the automatic shooting mode process and the learning mode process will be described later.

S705ではS704でモード設定判定が低消費電力モードに設定されているかどうかを判定する。低消費電力モード判定は、後述する「自動撮影モード」と「学習モード」の何れのモードの判定条件でもない場合は、低消費電力モードになるように判定される。判定処理が行われるとS705に進む。   In step S705, it is determined in step S704 whether the mode setting determination is set to the low power consumption mode. The low power consumption mode determination is made to be in the low power consumption mode when it is not the determination condition of either the “automatic photographing mode” or the “learning mode” described later. When the determination process is performed, the process proceeds to step S705.

S705では、低消費電力モード条件であると判定されれば、S706に進む。   In S705, if it is determined that the low power consumption mode condition is satisfied, the process proceeds to S706.

S706では、Subプロセッサ(第2制御回路211)へ、Subプロセッサ内で判定する起動要因に係る各種パラメータを(揺れ検出判定用パラメータ、音検出用パラメータ、時間経過検出パラメータ)を通知する。各種パラメータは後述する学習処理にて、学習されることによって値が変化する。S706の処理を終了すると、S707に進み、Mainプロセッサ(第1制御回路223)の電源をOFFして、処理を終了する。   In S706, the Sub processor (second control circuit 211) is notified of various parameters related to the activation factor to be determined in the Sub processor (the shake detection determination parameter, the sound detection parameter, and the time lapse detection parameter). Various parameters change in value by being learned in a learning process described later. When the process of S706 is completed, the process proceeds to S707, the power of the Main processor (first control circuit 223) is turned off, and the process is completed.

一方、S705で低消費電力モードでないと判定されると、S709に進み、モード設定が自動撮影モードであるか否かを判定し、自動撮影モードであればS710に進み、自動撮影モード処理が行われる。処理が終了すると、S702に戻り、処理を繰り返す。S709で、自動撮影モードでないと判定されると、S711に進む。   On the other hand, if it is determined in S705 that the mode is not the low power consumption mode, the process proceeds to S709 to determine whether the mode setting is the automatic shooting mode. If the automatic shooting mode is selected, the process proceeds to S710 and the automatic shooting mode processing is performed. It will be. When the process ends, the process returns to S702 and repeats the process. If it is determined in S709 that the automatic shooting mode is not set, the process proceeds to S711.

S711では、モード設定が学習モードであるか否かを判定し、学習モードであればS712に進み、学習モード処理が行われる。処理が終了すると、S702に戻り、処理を繰り返す。S711で、学習モードでないと判定されると、S702に戻り、処理を繰り返す。   In S711, it is determined whether or not the mode setting is the learning mode, and if it is the learning mode, the process proceeds to S712, and learning mode processing is performed. When the process ends, the process returns to S702 and repeats the process. If it is determined in S711 that the learning mode is not set, the process returns to S702 to repeat the process.

図8は、本実施形態における撮像装置101の第2制御回路211が受け持つ動作の例を説明するフローチャートである。   FIG. 8 is a flowchart for explaining an example of the operation of the second control circuit 211 of the imaging apparatus 101 according to this embodiment.

ユーザが撮像装置101に設けられた電源ボタンを操作すると、第1電源回路210により電力供給部から第1制御回路223へ電力が供給されるのと同様に第2制御回路211においても第2電源回路212により電力供給部から第2制御回路211に電力が供給される。電力が供給されると、Subプロセッサ(第2制御回路211)が起動され、図8の処理がスタートする。   When the user operates the power button provided on the imaging apparatus 101, the second power supply is also supplied to the second control circuit 211 in the same manner as the first power supply circuit 210 supplies power from the power supply unit to the first control circuit 223. Power is supplied from the power supply unit to the second control circuit 211 by the circuit 212. When power is supplied, the Sub processor (second control circuit 211) is activated, and the process of FIG. 8 starts.

S801では、サンプリングの周期となる所定期間が経過したか否かを判定する。例えば10msecに設定された場合、10msec周期で、S802に進む。所定期間が経過していないと判定されると、Subプロセッサは何も処理をせずにS801に戻って所定期間が経過するのを待つ。   In S801, it is determined whether or not a predetermined period which is a sampling cycle has elapsed. For example, if it is set to 10 msec, the process proceeds to S802 in a 10 msec cycle. If it is determined that the predetermined period has not elapsed, the Sub processor returns to S801 without performing any processing and waits for the predetermined period to elapse.

S802では、揺れ検出値が取得される。揺れ検出値は、装置揺れ検出回路209からのジャイロセンサや加速度センサなどの振動検出するセンサからの出力値である。   In S802, a shake detection value is obtained. The shake detection value is an output value from a sensor that detects vibration such as a gyro sensor or an acceleration sensor from the device shake detection circuit 209.

S802で揺れ検出値が取得されると、S803に進み、予め設定された揺れ状態検出の処理を行う。いくつかの例を説明する。   When the shake detection value is acquired in S802, the process proceeds to S803, and a process of detecting a shake state set in advance is performed. Some examples are described.

(1)タップ検出
ユーザが撮像装置101を例えば指先などで叩いた状態(タップ状態)を、撮像装置101に取り付けられた加速度センサの出力値より検出することが可能である。3軸の加速度センサの出力を所定サンプリング周期で特定の周波数領域に設定したバンドパスフィルタ(BPF)に通すことで、タップによる加速度変化の信号領域を抽出することができる。BPF後の加速度信号を所定時間TimeA間に、所定閾値ThreshAを超えた回数が、所定回数CountAであるか否かにより、タップ検出を行う。ダブルタップの場合は、CountAは2に設定され、トリプルタップの場合は、CountAは3に設定される。
(1) Tap Detection A state (tap state) in which the user taps the imaging device 101 with, for example, a fingertip can be detected from an output value of an acceleration sensor attached to the imaging device 101. The signal area of the acceleration change due to the tap can be extracted by passing the output of the acceleration sensor of three axes through a band pass filter (BPF) set in a specific frequency area at a predetermined sampling cycle. Tap detection is performed based on whether the number of times the acceleration signal after BPF exceeds the predetermined threshold value ThreshA is the predetermined number of times CountA during the predetermined time TimeA. For double taps, CountA is set to 2, and for triple taps, CountA is set to 3.

(2)揺れ状態の検出
撮像装置101の揺れ状態を、撮像装置101に取り付けられたジャイロセンサや加速度センサの出力値より検出することが可能である。ジャイロセンサや加速度センサの出力をHPFで高周波成分をカットし、LPFで低周波成分をカットした後、絶対値変換を行う。算出した絶対値が所定時間TimeB間に、所定閾値ThreshBを超えた回数が、所定回数CountB以上であるか否かにより、振動検出を行う。例えば撮像装置101を机などに置いたような揺れが小さい状態か、ウエアラブルで撮像装置101を装着し歩いているような揺れが大きい状態かを判定することが可能である。また、判定閾値や判定のカウント数の条件を複数もつことで、揺れレベルに応じた細かい揺れ状態を検出することも可能である。
(2) Detection of Swing State The swing state of the imaging device 101 can be detected from the output value of a gyro sensor or an acceleration sensor attached to the imaging device 101. The output of the gyro sensor or the acceleration sensor is cut by HPF and the low frequency component is cut by LPF, and then the absolute value conversion is performed. The vibration detection is performed based on whether or not the number of times the calculated absolute value exceeds the predetermined threshold value ThreshB is equal to or more than the predetermined number of times CountB during the predetermined time TimeB. For example, it is possible to determine whether the shake is small when the imaging apparatus 101 is placed on a desk or the like, or is large when the imaging apparatus 101 is worn and walked with a wearable. Moreover, it is also possible to detect a fine shaking state according to the shaking level by having a plurality of conditions of the judgment threshold value and the judgment count number.

S803で特定揺れ状態検出処理が行われると、S804に進み、予め設定された特定音検出処理を行う。いくつかの例を説明する。   When the specific vibration state detection process is performed in S803, the process proceeds to S804, and a predetermined specific sound detection process is performed. Some examples are described.

(1)特定音声コマンド検出
特定の音声コマンドを検出する。音声コマンドは事前に登録されたいくつかのコマンドの他、ユーザが特定音声を撮像装置に登録できる。
(1) Specific voice command detection A specific voice command is detected. The voice command allows the user to register a specific voice in the imaging device, in addition to several commands registered in advance.

(2)特定音シーン認識
予め大量の音声データを基に機械学習により学習させたネットワークにより音シーン判定を行う。例えば、「歓声が上がっている」、「拍手している」、「声を発している」などの特定シーンを検出する。
(2) Specific Sound Scene Recognition Sound scene determination is performed by a network learned in advance by machine learning based on a large amount of audio data. For example, it detects a specific scene such as "Cheers up", "Applause", "Speaking" or the like.

(3)音レベル判定
所定時間の間で、音レベルの大きさがレベル所定値を超えている時間を加算するなどの方法によって、音レベル判定による検出を行う。
(3) Sound Level Determination Detection based on sound level determination is performed by adding time during which the magnitude of the sound level exceeds the level predetermined value during a predetermined time.

(4)音方向判定
複数のマイクが設置された平面上の音の方向を検出することができ、所定の大きさの音レベルに対して、音の方向を検出する。
(4) Sound Direction Determination It is possible to detect the direction of the sound on the plane where a plurality of microphones are installed, and to detect the direction of the sound with respect to the sound level of a predetermined magnitude.

音声処理回路214内で上記の判定処理が行われており、特定音検出がされたかをS804で判定する。   The above determination process is performed in the audio processing circuit 214, and it is determined in S804 whether the specific sound is detected.

S804で特定音検出処理が行われると、S805に進む。S805では、Mainプロセッサ(第1制御回路223)はOFF状態であるか否かを判定し、MainプロセッサがOFF状態であれば、S806に進み、予め設定された時間経過検出処理を行う。MainプロセッサがONからOFFへ遷移したときからの経過時間が計測されており、経過時間がパラメータTimeC以上であれば、時間経過と判定され、TimeCより小さければ、時間経過とは判定されない。   When the specific sound detection process is performed in S804, the process proceeds to S805. In S805, it is determined whether or not the Main processor (first control circuit 223) is in the OFF state, and if the Main processor is in the OFF state, the process proceeds to S806, and the processing for detecting a lapse of time set in advance is performed. The elapsed time from when the main processor transits from ON to OFF is measured, and if the elapsed time is greater than or equal to the parameter TimeC, it is determined that the time has elapsed, and if smaller than TimeC, it is not determined that the time has elapsed.

S806で時間経過検出処理が行われると、S807に進み、低消費電力モード解除判定がされたかを判定する。低消費電力モード解除条件は以下によって判定される。
(1)特定揺れ検出の判定条件
(2)特定音検出の判定条件
(3)時間経過判定の判定条件
それぞれ、S803での特定揺れ状態検出処理により、特定揺れ検出の判定条件に入ったか否かを判定できる。また、S804での特定音検出処理により、特定音検出の判定条件に入ったか否かを判定できる。また、S806での時間経過検出処理により、時間経過検出の判定条件に入ったか否かを判定できる。したがって、何れか一つ以上の条件に入っていれば、低消費電力モード解除を行うような判定が行われる。
When the time lapse detection process is performed in S806, the process proceeds to S807, and it is determined whether the low power consumption mode cancellation determination has been made. The low power consumption mode release condition is determined by the following.
(1) Judgment condition of specific vibration detection (2) Judgment condition of specific sound detection (3) Judgment condition of time lapse judgment Whether or not the specific vibration condition detection process in S803 entered the judgment condition of specific vibration detection Can be determined. In addition, it is possible to determine whether or not the determination condition of the specific sound detection has been entered by the specific sound detection process in S804. In addition, it is possible to determine whether or not the determination condition of time lapse detection has been entered by the time lapse detection processing in S806. Therefore, if any one or more conditions are entered, it is determined that the low power consumption mode is canceled.

S807で解除条件判定されると、S808に進みMainプロセッサの電源をONし、S809で、低消費電力モード解除と判定された条件(揺れ、音、時間)をMainプロセッサに通知し、S801に戻り処理をループする。   If the cancellation condition is determined in S807, the process proceeds to S808, the power of the Main processor is turned on, and the main processor is notified of the condition (shake, sound, time) determined to cancel the low power consumption mode in S809, and the process returns to S801. Loop the process.

S807で何れの解除条件にも当てはまらず、低消費電力モード解除判定でないと判定されると、S801に戻り処理をループする。   If it is determined in S807 that any release condition is not satisfied and it is determined that the low power consumption mode release determination is not made, the process returns to S801 and loops the processing.

S805で、MainプロセッサがON状態であると判定されている場合、S802乃至805までで取得した情報をMainプロセッサに通知し、S801に戻り処理をループする。   If it is determined in S805 that the Main processor is in the ON state, the information acquired in S802 to S805 is notified to the Main processor, and the processing returns to S801 and loops.

本実施形態においては、MainプロセッサがON状態においても揺れ検出や特定音検出をSubプロセッサで行い、検出結果をMainプロセッサに通知する構成にしている。しかしながら、MainプロセッサがONの場合は、S802乃至805の処理を行わず、Mainプロセッサ内の処理(図7のS702)で揺れ検出や特定音検出を検出する構成にしてもよい。   In the present embodiment, even when the Main processor is in the ON state, vibration detection and specific sound detection are performed by the Sub processor, and the detection result is notified to the Main processor. However, when the Main processor is ON, the processing in S802 to 805 may not be performed, and the fluctuation detection or the specific sound detection may be detected in the processing in the Main processor (S702 in FIG. 7).

上記、揺れ検出や音検出や時間経過による低消費電力モード解除方法について詳しく説明したが、環境情報により低消費電力モード解除を行ってもよい。環境情報は温度や気圧や明るさや湿度や紫外線量の絶対量や変化量が所定閾値を超えたか否かで判定することができる。   Although the low power consumption mode cancellation method based on vibration detection, sound detection, and passage of time has been described in detail, the low power consumption mode cancellation may be performed by environmental information. The environmental information can be determined based on whether the absolute amount or the change amount of the temperature, the atmospheric pressure, the brightness, the humidity, and the ultraviolet light amount exceeds a predetermined threshold.

<自動撮影モード処理>
図9を用いて、自動撮影モード処理の詳細を説明する。前述したように、以下の処理は、本実施形態における撮像装置101の第1制御回路223が制御を受け持つ。
<Automatic shooting mode processing>
The details of the automatic shooting mode process will be described with reference to FIG. As described above, the following process is controlled by the first control circuit 223 of the imaging apparatus 101 in the present embodiment.

S901では、画像処理回路207に撮像部206で取り込まれた信号を画像処理させ、被写体認識用の画像を生成させる。   In step S901, the image processing circuit 207 performs image processing on the signal acquired by the imaging unit 206 to generate an image for object recognition.

生成された画像からは、人物や物体認識などの被写体認識が行われる。   From the generated image, subject recognition such as human and object recognition is performed.

人物を認識する場合、被写体の顔や人体を検出する。顔検出処理では、人物の顔を判断するためのパターンが予め定められており、撮像された画像内に含まれる該パターンに一致する箇所を人物の顔画像として検出することができる。   When recognizing a person, the face or human body of the subject is detected. In the face detection process, a pattern for determining the face of a person is determined in advance, and a portion matching the pattern included in the captured image can be detected as a face image of the person.

また、被写体の顔としての確からしさを示す信頼度も同時に算出し、信頼度は、例えば画像内における顔領域の大きさや、顔パターンとの一致度等から算出される。   Further, the reliability indicating the certainty as the face of the subject is also calculated at the same time, and the reliability is calculated from, for example, the size of the face area in the image, the degree of coincidence with the face pattern, and the like.

物体認識についても同様に、予め登録されたパターンに一致する物体を認識することができる。   Similarly for object recognition, it is possible to recognize an object that matches the pattern registered in advance.

また、撮像された画像内の色相や彩度等のヒストグラムを使用する方法で特徴被写体を抽出する方法などもある。この場合、撮影画角内に捉えられている被写体の画像に関し、その色相や彩度等のヒストグラムから導出される分布を複数の区間に分け、区間ごとに撮像された画像を分類する処理が実行される。   Further, there is also a method of extracting a characteristic subject by a method of using a histogram such as hue or saturation in a captured image. In this case, with respect to the image of the subject captured within the shooting angle of view, the process of dividing the distribution derived from the histogram of the hue, saturation, etc. into a plurality of sections and classifying the captured images into sections is performed. Be done.

例えば、撮像された画像について複数の色成分のヒストグラムが作成され、その山型の分布範囲で区分けし、同一の区間の組み合わせに属する領域にて撮像された画像が分類され、被写体の画像領域が認識される。   For example, a histogram of a plurality of color components is created for the captured image, divided by the mountain-shaped distribution range, the captured image is classified in the region belonging to the combination of the same sections, and the image region of the subject is Be recognized.

認識された被写体の画像領域ごとに評価値を算出することで、当該評価値が最も高い被写体の画像領域を主被写体領域として判定することができる。   By calculating the evaluation value for each image area of the recognized subject, it is possible to determine the image area of the subject having the highest evaluation value as the main subject area.

以上の方法で、撮像情報から各被写体情報を得ることができる。   Each subject information can be obtained from the imaging information by the above method.

S902では、像揺れ補正量の算出を行う。具体的には、まず、装置揺れ検出回路209において取得した角速度および加速度情報に基づいて撮像装置の絶対角度の算出を行う。そして、絶対角度を打ち消す角度方向にチルト回転ユニット104およびパン回転ユニット105を動かす防振角度を求め、像揺れ補正量とする。なお、ここでの像揺れ補正量算出処理は、後述する学習処理によって、演算方法を変更することができる。   In S902, the image shake correction amount is calculated. Specifically, first, the absolute angle of the imaging device is calculated based on the angular velocity and acceleration information acquired by the device shake detection circuit 209. Then, an image stabilization angle for moving the tilt rotation unit 104 and the pan rotation unit 105 in the angular direction that cancels out the absolute angle is determined, and is used as the image shake correction amount. In the image shake correction amount calculation processing here, the calculation method can be changed by learning processing described later.

S903では、撮像装置の状態判定を行う。角速度情報や加速度情報やGPS位置情報などで検出した角度や移動量などにより、現在、撮像装置がどのような振動/動き状態なのかを判定する。   In step S903, the state determination of the imaging apparatus is performed. Based on angular velocity information, acceleration information, angle detected by GPS position information, etc., it is determined what kind of vibration / motion state of the imaging device is at present.

例えば、車に撮像装置101を装着して撮影する場合、移動された距離によって大きく周りの風景などの被写体情報が変化する。   For example, in the case where the imaging apparatus 101 is attached to a car and shooting is performed, subject information such as a surrounding scenery changes largely depending on the moved distance.

そのため、車などに装着して速い速度で移動している「乗り物移動状態」か否かを判定し、後に説明する自動被写体探索に使用することができる。   Therefore, it is possible to determine whether it is a "vehicle moving state" which is attached to a car or the like and moving at a high speed, and can be used for automatic subject search described later.

また、角度の変化が大きいか否かを判定し、撮像装置101が揺れ角度がほとんどない「置き撮り状態」であるのかを判定する。   Further, it is determined whether or not the change in angle is large, and it is determined whether or not the imaging device 101 is in the “posting state” with almost no swing angle.

「置き撮り状態」である場合は、撮像装置101自体の角度変化はないと考えてよいので、置き撮り用の被写体探索を行うことができる。   In the case of the “post-taking state”, it may be considered that there is no change in the angle of the imaging device 101 itself, so that it is possible to perform a subject search for the post-taking.

また、比較的、角度変化が大きい場合は、「手持ち状態」と判定され、手持ち用の被写体探索を行うことができる。   Also, if the change in angle is relatively large, it is determined that the "hand-held state", and it is possible to perform a hand-held subject search.

S904では、被写体探索処理を行う。被写体探索は、以下の処理によって構成される。   In S904, a subject search process is performed. The subject search is configured by the following processing.

(1)エリア分割
図11を用いて、エリア分割を説明する。図11(a)のように撮像装置(原点Oが撮像装置位置とする。)位置を中心として、全周囲でエリア分割を行う。図11(a)の例においては、チルト方向、パン方向それぞれ22.5度で分割している。図11(a)のように分割すると、チルト方向の角度が0度から離れるにつれて、水平方向の円周が小さくなり、エリア領域が小さくなる。よって、図11(b)のように、チルト角度が45度以上の場合、水平方向のエリア範囲は22.5度よりも大きく設定している。図11(c)、(d)に撮影画角内でのエリア分割された例を示す。軸1101は初期化時の撮像装置101の方向であり、この方向角度を基準位置としてエリア分割が行われる。1102は、撮像されている画像の画角エリアを示しており、そのときの画像例を図11(d)に示す。画角に写し出されている画像内ではエリア分割に基づいて、図11(d)の1103〜1118のように画像分割される。
(1) Area Division The area division will be described with reference to FIG. As shown in FIG. 11A, area division is performed all around the position of the imaging device (the origin O is the imaging device position). In the example of FIG. 11A, division is performed at 22.5 degrees in each of the tilt direction and the pan direction. When division is performed as shown in FIG. 11A, as the angle in the tilt direction deviates from 0 degree, the circumference in the horizontal direction becomes smaller and the area area becomes smaller. Accordingly, as shown in FIG. 11B, when the tilt angle is 45 degrees or more, the area range in the horizontal direction is set larger than 22.5 degrees. FIGS. 11 (c) and 11 (d) show examples of area division within the shooting angle of view. An axis 1101 is the direction of the imaging device 101 at the time of initialization, and area division is performed with this direction angle as a reference position. Reference numeral 1102 denotes the angle of view area of the image being captured, and an example of the image at that time is shown in FIG. In the image projected at the angle of view, the image is divided as shown by 1103 to 1118 in FIG. 11D based on the area division.

(2)エリア毎の重要度レベルの算出
前記のように分割した各エリアについて、エリア内に存在する被写体やエリアのシーン状況に応じて、探索を行う優先順位を示す重要度レベルを算出する。被写体の状況に基づいた重要度レベルは、例えば、エリア内に存在する人物の数、人物の顔の大きさ、顔向き、顔検出の確からしさ、人物の表情、人物の個人認証結果に基づいて算出する。また、シーンの状況に応じた重要度レベルは、例えば、一般物体認識結果、シーン判別結果(青空、逆光、夕景など)、エリアの方向からする音のレベルや音声認識結果、エリア内の動き検知情報等である。また、撮像装置の状態判定(S903)で、撮像装置の振動状態が検出されており、振動状態に応じても重要度レベルが変化するようにもすることができる。例えば、「置き撮り状態」と判定された場合、顔認証で登録されている中で優先度の高い被写体(例えば撮像装置のユーザである)を中心に被写体探索が行われるように、特定人物の顔認証を検出すると重要度レベルが高くなるように判定される。また、後述する自動撮影も上記顔を優先して行われることになり、撮像装置のユーザが撮像装置を身に着けて持ち歩き撮影を行っている時間が多くても、撮像装置を取り外して机の上などに置くことで、ユーザが写った画像も多く残すことができる。このときパン・チルトにより探索可能であることから、撮像装置の置き角度などを考えなくても、適当に設置するだけでユーザが写った画像やたくさんの顔が写った集合写真などを残すことができる。なお、上記条件だけでは、各エリアに変化がない限りは、最も重要度レベルが高いエリアが同じとなり、その結果探索されるエリアがずっと変わらないことになってしまう。そこで、過去の撮影情報に応じて重要度レベルを変化させる。具体的には、所定時間継続して探索エリアに指定され続けたエリアは重要度レベルを下げたり、後述するS910にて撮影を行ったエリアでは、所定時間の間重要度レベルを下げたりしてもよい。
(2) Calculation of Importance Level for Each Area For each area divided as described above, the importance level indicating the priority to be searched is calculated according to the scene status of the subject present in the area and the area. The importance level based on the condition of the subject is, for example, the number of persons present in the area, the size of the face of the person, the face direction, the certainty of face detection, the facial expression of the person, and the personal authentication result of the person. calculate. In addition, the importance level according to the situation of the scene is, for example, general object recognition result, scene discrimination result (blue sky, back light, sunset scene etc.), sound level from the direction of area and voice recognition result, motion detection in area It is information etc. In addition, the vibration state of the imaging device is detected in the state determination (S903) of the imaging device, and the importance level can be changed according to the vibration state. For example, when it is determined that the “deep-shooting state” is selected, a subject search is performed so that a subject search is performed centering on a high-priority subject (for example, the user of the imaging apparatus) registered in face authentication. When face recognition is detected, it is determined that the importance level is high. In addition, the automatic photographing described later is also performed with priority given to the face, and even if the user of the imaging apparatus wears the imaging apparatus and takes a lot of time taking pictures, the imaging apparatus is removed and the desk is By placing it on top, it is possible to leave many images captured by the user. At this time, it is possible to search by pan / tilt, so even if the installation angle of the imaging device is not considered, it is possible to leave an image photographed by the user or a group photograph with many faces photographed only by installing appropriately. it can. In addition, under the above conditions alone, as long as there is no change in each area, the area with the highest importance level is the same, and as a result, the area to be searched remains unchanged. Therefore, the importance level is changed according to the past shooting information. Specifically, the area continuously designated as the search area for a predetermined time is lowered in importance level, or in the area photographed in S910 to be described later, the importance level is lowered for a predetermined time. It is also good.

(3)探索対象エリアの決定
前記のように各エリアの重要度レベルが算出されたら、重要度レベルが高いエリアを探索対象エリアとして決定する。そして、探索対象エリアを画角に捉えるために必要なパン・チルト探索目標角度を算出する。
(3) Determination of Search Target Area When the importance level of each area is calculated as described above, an area having a high importance level is determined as a search target area. Then, the pan / tilt search target angle required to capture the search target area at the angle of view is calculated.

S905では、パン・チルト駆動を行う。具体的には、像振れ補正量とパン・チルト探索目標角度に基づいた制御サンプリングでの駆動角度を加算することで、パン・チルト駆動量を算出し、鏡筒回転駆動回路205によって、チルト回転ユニット104、パン回転ユニット105をそれぞれ駆動制御する。   In S905, pan and tilt driving is performed. Specifically, the pan / tilt drive amount is calculated by adding the drive shake amount at control sampling based on the image blur correction amount and the pan / tilt search target angle, and the lens barrel rotation drive circuit 205 performs tilt rotation. It drives and controls the unit 104 and the pan rotation unit 105 respectively.

S906ではズームユニット201を制御しズーム駆動を行う。具体的には、S904で決定した探索対象被写体の状態に応じてズームを駆動させる。例えば、探索対象被写体が人物の顔であるとき、画像上の顔が小さすぎると検出可能な最小サイズを下回ることで検出ができず、見失ってしまう恐れがある。そのような場合は、望遠側にズームすることで画像上の顔のサイズが大きくなるように制御する。一方で、画像上の顔が大きすぎる場合、被写体や撮像装置自体の動きによって被写体が画角から外れやすくなってしまう。そのような場合は、広角側にズームすることで、画面上の顔のサイズが小さくなるように制御する。このようにズーム制御を行うことで、被写体を追跡するのに適した状態を保つことができる。   In step S906, the zoom unit 201 is controlled to perform zoom driving. Specifically, the zoom is driven according to the state of the search target subject determined in S904. For example, when the search target subject is the face of a person, if the face on the image is too small, detection is not possible because the size is smaller than the minimum detectable size, and there is a risk of losing sight. In such a case, control is performed to increase the size of the face on the image by zooming to the telephoto side. On the other hand, when the face on the image is too large, the subject or the imaging apparatus itself easily moves the subject out of the angle of view. In such a case, control is performed to reduce the size of the face on the screen by zooming to the wide angle side. By performing zoom control in this manner, it is possible to maintain a state suitable for tracking an object.

S904乃至S906では、パン・チルトやズーム駆動により被写体探索を行う方法を説明したが、広角なレンズを複数使用して全方位を一度に撮影する撮像システムで被写体探索を行ってもよい。全方位カメラの場合、撮像によって得られる信号すべてを入力画像として、被写体検出などの画像処理を行うと膨大な処理が必要となる。そこで、画像の一部を切り出して、切り出した画像範囲の中で被写体の探索処理を行う構成にする。上述した方法と同様にエリア毎の重要度レベルを算出し、重要度レベルに基づいて切り出し位置を変更し、後述する自動撮影の判定を行う。これにより画像処理による消費電力の低減や高速な被写体探索が可能となる。   In S904 to S906, although the method for performing subject search by pan / tilt or zoom driving has been described, the subject search may be performed with an imaging system that captures an image in all directions at once using a plurality of wide-angle lenses. In the case of an omnidirectional camera, if all signals obtained by imaging are used as an input image and image processing such as object detection is performed, a vast amount of processing is required. Therefore, a part of the image is cut out, and the search processing of the subject is performed in the cut out image range. The importance level for each area is calculated in the same manner as the method described above, the cutout position is changed based on the importance level, and the automatic photographing determination described later is performed. This makes it possible to reduce power consumption and perform high-speed object search by image processing.

S907では、ユーザ(手動)による撮影指示があったがどうかを判定し、撮影指示があった場合、S910に進む。この時、ユーザ(手動)による撮影指示は、シャッターボタン押下によるものや、撮像装置の筺体を指等で軽く叩く(タップ)、音声コマンド入力、外部機器からの指示などによってもよい。タップ操作による撮影指示は、ユーザが撮像装置の筺体をタップした際、装置揺れ検出回路209によって短期間に連続した高周波の加速度を検知し、撮影のトリガーとする撮影指示方法である。音声コマンド入力は、ユーザが所定の撮影を指示する合言葉(例えば「写真とって」等)を発声した場合、音声処理回路214で音声を認識し、撮影のトリガーとする撮影指示方法である。外部機器からの指示は、例えば撮像装置とBlueTooth接続したスマートフォン等から、専用のアプリケーションを介して送信されたシャッター指示信号をトリガーとする撮影指示方法である。   In step S 907, it is determined whether or not there is a photographing instruction from the user (manually). If there is a photographing instruction, the process advances to step S 910. At this time, the photographing instruction by the user (manually) may be performed by pressing the shutter button, tapping the housing of the imaging device with a finger or the like (tap), voice command input, an instruction from an external device, or the like. The shooting instruction by the tap operation is a shooting instruction method in which when the user taps the housing of the imaging device, the device shake detection circuit 209 detects the acceleration of high frequency continuous in a short period, and uses it as a trigger for shooting. The voice command input is a shooting instruction method of recognizing a voice by the voice processing circuit 214 and using it as a trigger of shooting when the user utters a slogan (for example, "photograph taking" etc.) instructing a predetermined shooting. The instruction from the external device is, for example, a photographing instruction method using as a trigger a shutter instruction signal transmitted through a dedicated application from a smartphone or the like connected to the imaging device and BlueTooth.

また、S907でユーザによる撮影指示があった場合、S914にも進む。このS914、および、その後のS915の処理については、後で詳細な説明を行う。   If the user issues a shooting instruction in step S 907, the process advances to step S 914. The process of S 914 and the subsequent S 915 will be described in detail later.

S907で撮影指示がなかった場合、S908に進み、自動撮影判定を行う。自動撮影判定では、自動撮影を行うかどうかの判定と、撮影方法の判定(静止画一枚撮影、静止画連続撮影(連写)、動画撮影、パノラマ撮影、タイムラプス撮影などの内どれを実行するかの判定)を行う。   If there is no shooting instruction in S907, the process advances to S908 to make automatic shooting determination. In the automatic shooting determination, it is determined whether automatic shooting is to be performed and the shooting method (any one of still image shooting, still image continuous shooting (continuous shooting), moving image shooting, panorama shooting, time-lapse shooting, etc. Make a decision.

(1)自動撮影を行うかどうかの判定
自動撮影を行うかどうかの判定は以下の2つの判定に基づいて行う。1つは、S904にて得られたエリア別の重要度レベルに基づき、重要度レベルが所定値を超えている場合、自動撮影を実施する判定を下す。2つめは、機械学習の1つであるニューラルネットワークに基づく判定である。ニューラルネットワークの一例として、多層パーセプトロンによるネットワークの例を図10に示す。ニューラルネットワークは、入力値から出力値を予測することに使用されるものであり、予め入力値と、その入力に対して模範となる出力値とを学習しておくことで、新たな入力値に対して、学習した模範に倣った出力値を推定することができる。なお、学習の方法は後述する。図10の1001およびその縦に並ぶ丸は入力層のニューロンであり、1003およびその縦に並ぶ丸は中間層のニューロンであり、1004は出力層のニューロンである。1002のような矢印は各ニューロンを繋ぐ結合を示している。ニューラルネットワークに基づく判定では、入力層のニューロンに対して、現在の画角中に写る被写体や、シーンや撮像装置の状態に基づいた特徴量を入力として与え、多層パーセプトロンの順伝播則に基づく演算を経て出力層から出力された値を得る。そして、出力の値が閾値以上であれば、自動撮影を実施する判定を下す。なお、被写体の特徴は、現在のズーム倍率、現在の画角における一般物体認識結果、顔検出結果、現在画角に写る顔の数、顔の笑顔度・目瞑り度、顔角度、顔認証ID番号、被写体人物の視線角度、シーン判別結果、特定の構図の検出結果等を使用する。また、前回撮影時からの経過時間、現在時刻、GPS位置情報および前回撮影位置からの変化量、現在の音声レベル、声を発している人物、拍手、歓声が上がっているか否か等を使用してもよい。また、振動情報(加速度情報、撮像装置の状態)、環境情報(温度、気圧、照度、湿度、紫外線量)等を使用してもよい。更に、ウエアラブルデバイス501からの情報通知がある場合、通知情報(ユーザの運動情報、腕のアクション情報、心拍などの生体情報など)も特徴として使用してもよい。この特徴を所定の範囲の数値に変換し、特徴量として入力層の各ニューロンに与える。そのため、入力層の各ニューロンは上記使用する特徴量の数だけ必要となる。
(1) Determination of Whether to Perform Automatic Shooting Determination of whether to perform automatic shooting is performed based on the following two determinations. First, based on the importance level for each area obtained in S904, when the importance level exceeds a predetermined value, it is determined to perform automatic shooting. The second is determination based on a neural network which is one of machine learning. An example of a multi-layer perceptron network is shown in FIG. 10 as an example of a neural network. A neural network is used to predict an output value from an input value, and learns in advance an input value and an output value that is an exemplar for the input to obtain a new input value. On the other hand, it is possible to estimate an output value that follows the learned model. The method of learning will be described later. In FIG. 10, reference numeral 1001 in FIG. 10 and the vertically arranged circles are neurons in the input layer, 1003 and the vertically arranged circles are neurons in the intermediate layer, and 1004 are neurons in the output layer. Arrows such as 1002 indicate connections connecting each neuron. In the judgment based on the neural network, to the neurons of the input layer, an object based on the current view angle, a feature value based on the scene or the state of the imaging device is given as an input, and an operation based on the forward propagation law of the multilayer perceptron To obtain the value output from the output layer. Then, if the value of the output is equal to or greater than the threshold value, it is determined to perform automatic photographing. The characteristics of the subject include the current zoom magnification, the result of general object recognition at the current angle of view, the result of face detection, the number of faces in the current angle of view, the degree of smile and closing of the face, face angle, and face authentication ID The number, the gaze angle of the subject person, the scene discrimination result, the detection result of the specific composition, and the like are used. Also, use the elapsed time since the last shooting, the current time, GPS position information, the amount of change from the last shooting position, the current voice level, the person making a voice, whether applause or cheering has risen, etc. May be Also, vibration information (acceleration information, state of imaging device), environment information (temperature, atmospheric pressure, illuminance, humidity, amount of ultraviolet light) or the like may be used. Furthermore, when there is information notification from the wearable device 501, notification information (user's exercise information, arm's action information, biological information such as heart beat, etc.) may also be used as a feature. This feature is converted into a numerical value of a predetermined range, and given to each neuron of the input layer as a feature amount. Therefore, each neuron of the input layer is required as many as the number of feature quantities to be used.

なお、このニューラルネットワークに基づく判断は、後述する学習処理によって、各ニューロン間の結合重みを変化させることによって、出力値が変化し、判断の結果を学習結果に適応させることができる。   The judgment based on this neural network can change the output value by changing the connection weight between the neurons by learning processing described later, and the result of the judgment can be adapted to the learning result.

また、図7のS702で読み込んだMainプロセッサの起動条件によって、自動撮影される判定も変化する。例えば、タップ検出による起動や特定音声コマンドによる起動の場合は、ユーザが現在撮影してほしいための操作である可能性が非常に高い。そこで、撮影頻度が多くなるように設定されるようになる。   In addition, the determination as to the automatic photographing changes according to the start condition of the Main processor read in S702 of FIG. For example, in the case of activation by tap detection or activation by a specific voice command, there is a very high possibility that the operation is for the user to want to take a picture at present. Therefore, the frequency of photographing is set to be increased.

(2)撮影方法の判定
撮影方法の判定では、S901乃至S904において検出した、撮像装置の状態や周辺の被写体の状態に基づいて、静止画撮影、動画撮影、連写、パノラマ撮影などの内どれを実行するかの判定を行う。例えば、被写体(人物)が静止している場合は静止画撮影を実行し、被写体が動いている場合は動画撮影または連写を実行する。また、被写体が撮像装置を取り囲むように複数存在している場合や、前述したGPS情報に基づいて景勝地であることが判断できた場合には、パン・チルトを操作させながら順次撮影した画像を合成してパノラマ画像を生成するパノラマ撮影処理を実行してもよい。
(2) Determination of shooting method In the determination of the shooting method, any one of still image shooting, moving image shooting, continuous shooting, panorama shooting and the like is detected based on the state of the imaging apparatus and the surrounding objects detected in S901 to S904. To determine whether to execute. For example, when the subject (person) is stationary, still image shooting is performed, and when the subject is moving, moving image shooting or continuous shooting is performed. In the case where a plurality of subjects exist so as to surround the imaging apparatus, or when it is determined that the scenery is scenic based on the above-described GPS information, images taken sequentially while operating the pan and tilt are A panoramic imaging process may be performed to generate a panoramic image by combining.

S909では、S908の自動撮影判定により撮影する判定が下された場合、S910に進み、下されなかった場合、撮影モード処理終了へと進む。   In step S909, if it is determined in step S908 that shooting is determined by the automatic shooting determination in step S908, the process advances to step S910; otherwise, the process advances to end of shooting mode processing.

S910では、撮影を開始する。この時、手動撮影であれば静止画の撮影、あるいは、ユーザが手動で設定した撮影方法で撮影を行い、自動撮影であればS908にて判定された撮影方法による撮影を開始する。その際、フォーカス駆動制御回路204によるオートフォーカス制御を行う。また、不図示の絞り制御回路およびセンサゲイン制御回路、シャッター制御回路を用いて、被写体が適切な明るさになるような露出制御を行う。さらに、撮影後には画像処理回路207において、オートホワイトバランス処理、ノイズリダクション処理、ガンマ補正処理等、種々の画像処理を行い、画像を生成する。   In S910, shooting is started. At this time, in the case of manual shooting, shooting of a still image or shooting according to a shooting method manually set by the user is performed, and in the case of automatic shooting, shooting according to the shooting method determined in S908 is started. At this time, auto focus control is performed by the focus drive control circuit 204. In addition, exposure control is performed so that the subject has appropriate brightness by using an aperture control circuit, a sensor gain control circuit, and a shutter control circuit (not shown). Furthermore, after image capturing, the image processing circuit 207 performs various image processing such as auto white balance processing, noise reduction processing, gamma correction processing, and the like to generate an image.

なお、自動撮影の際に、所定の条件を満たした時、撮像装置が撮影対象となる人物に対し撮影を行う旨を報知処理した上で撮影する手段を取ってもよい。報知の方法は、例えば、音声出力回路218からの音声やLED制御回路224によるLED点灯光を使用してもよいし、パン・チルトを駆動することにより視覚的に被写体の視線を誘導するモーション動作をしてもよい。所定の条件は、例えば、画角内における顔の数、顔の笑顔度・目瞑り度、被写体人物の視線角度や顔角度、顔認証ID番号、個人認証登録されている人物の数等である。また、撮影時の一般物体認識結果、シーン判別結果、前回撮影時からの経過時間、撮影時刻、GPS情報に基づく現在位置が景勝地であるか否か、撮影時の音声レベル、声を発している人物の有無、拍手、歓声が上がっているか否か等である。また、振動情報(加速度情報、撮像装置の状態)、環境情報(温度、気圧、照度、湿度、紫外線量)等である。これらの条件に基づき報知撮影を行うことによって、重要性が高いシーンにおいてカメラ目線の好ましい画像を残すことができる。   In the automatic photographing, when the predetermined condition is satisfied, the image pickup apparatus may perform the photographing process after notifying that the person to be photographed is to be photographed, and then the photographing may be performed. The method of notification may use, for example, voice from the audio output circuit 218 or LED lighting light by the LED control circuit 224, or a motion operation that visually guides the subject's line of sight by driving pan and tilt. You may The predetermined conditions are, for example, the number of faces within the angle of view, the degree of smile / eye closure of the face, the gaze angle or face angle of the subject person, the face authentication ID number, the number of persons registered for personal authentication, etc. . In addition, whether the current position based on general object recognition result at the time of shooting, scene discrimination result, shooting time at the previous shooting time, shooting time, GPS information is scenic position, voice level at shooting, voice out Whether the person is present, applause, cheers are rising, etc. Also, the information includes vibration information (acceleration information, state of imaging device), environment information (temperature, atmospheric pressure, illuminance, humidity, amount of ultraviolet light), and the like. By performing informing shooting based on these conditions, it is possible to leave a preferable image of the camera gaze in a scene of high importance.

また、所定の条件を複数もち、各条件に応じて音声を変更したり、LEDの点灯方法(色や点滅時間など)を変更したり、パン・チルトのモーション方法(動き方や駆動速度)を変更してもよい。   In addition, there are multiple predetermined conditions, change the sound according to each condition, change the lighting method of LED (color, blink time, etc.), or pan / tilt motion method (motion or driving speed) You may change it.

S911では、S910にて生成した画像を加工したり、動画に追加したりといった編集処理を行う。画像加工については、具体的には、人物の顔や合焦位置に基づいたトリミング処理、画像の回転処理、HDR(ハイダイナミックレンジ)効果、ボケ効果、色変換フィルタ効果などである。画像加工は、S910にて生成した画像を元に、上記の処理の組み合わせによって複数生成し、前記S910にて生成した画像とは別に保存するとしてもよい。また、動画処理については、撮影した動画または静止画を、生成済みの編集動画にスライド、ズーム、フェードの特殊効果処理をつけながら追加するといった処理をしてもよい。S911での編集についても、撮影画像の情報、或いは撮影前に検出した各種情報をニューラルネットワークに基づく判断によって、画像加工の方法を判定することもできるし、この判定処理は、後述する学習処理によって、判定条件を変更することができる。   In step S911, editing processing such as processing the image generated in step S910 or adding it to a moving image is performed. More specifically, image processing is trimming processing based on the face of a person or the in-focus position, image rotation processing, HDR (high dynamic range) effect, blur effect, color conversion filter effect, and the like. A plurality of image processes may be generated based on the image generated in S910 by a combination of the above-described processes, and may be stored separately from the image generated in S910. In addition, in the moving image processing, processing may be performed such that the captured moving image or still image is added to the generated edited moving image while performing special effect processing of slide, zoom, and fade. With regard to the editing in S911, the method of image processing can also be determined by judgment based on information of the photographed image or various information detected before photographing based on the neural network, and this judgment processing is the learning processing described later. The judgment conditions can be changed.

S912では撮影画像の学習情報生成処理を行う。ここでは、後述する学習処理に使用する学習情報を生成し、記録する。具体的には、今回の撮影画像における、撮影時のズーム倍率、撮影時の一般物体認識結果、顔検出結果、撮影画像に写る顔の数、顔の笑顔度・目瞑り度、顔角度、顔認証ID番号、被写体人物の視線角度等である。また、シーン判別結果、前回撮影時からの経過時間、撮影時刻、GPS位置情報および前回撮影位置からの変化量、撮影時の音声レベル、声を発している人物、拍手、歓声が上がっているか否か等である。また、振動情報(加速度情報、撮像装置の状態)、環境情報(温度、気圧、照度、湿度、紫外線量)、動画撮影時間、手動撮影指示によるものか否か、等である。更にユーザの画像の好みを数値化した学習モデルの出力であるスコアも演算する。   In S912, learning information generation processing of the photographed image is performed. Here, learning information to be used for learning processing described later is generated and recorded. Specifically, the zoom magnification at the time of shooting, the result of general object recognition at the time of shooting, the result of face detection, the number of faces included in the shot image, the degree of smile / eye closing of face, face angle, face The authentication ID number, the gaze angle of the subject person, and the like. In addition, as a result of scene discrimination, elapsed time since the last shooting, shooting time, GPS position information and change amount from the last shooting position, voice level at the time of shooting, voiced person, applause, cheering or not It is In addition, vibration information (acceleration information, state of imaging device), environment information (temperature, atmospheric pressure, illuminance, humidity, ultraviolet light amount), moving image shooting time, whether by manual shooting instruction, etc. Furthermore, a score, which is the output of a learning model that quantifies the preferences of the user's image, is also calculated.

これらの情報を生成し、撮影画像ファイルへタグ情報として記録する。あるいは、不揮発性メモリ216へ書き込むか、記録媒体221内に、所謂カタログデータとして各々の撮影画像の情報をリスト化した形式で保存する、としてもよい。   These pieces of information are generated and recorded as tag information in the photographed image file. Alternatively, the information may be written to the non-volatile memory 216 or may be stored in the recording medium 221 as so-called catalog data in the form of a list of information of each photographed image.

S913では過去撮影情報の更新を行う。具体的には、S908の説明で述べたエリア毎の撮影枚数や、個人認証登録された人物毎の撮影枚数、一般物体認識で認識された被写体毎の撮影枚数、シーン判別のシーン毎の撮影枚数について、今回撮影された画像が該当する枚数のカウントを1つ増やす。   In step S913, the past shooting information is updated. Specifically, the number of shots for each area described in the description of S908, the number of shots for each person registered for personal identification, the number of shots for each subject recognized by general object recognition, the number of shots for each scene determination scene The count of the number of images corresponding to the image taken this time is incremented by one.

<学習モード処理>
次に、本実施形態におけるユーザの好みに合わせた学習について説明する。
<Learning mode processing>
Next, learning in accordance with the preference of the user in the present embodiment will be described.

本実施形態では、図10に示すようなニューラルネットワークを用い、機械学習アルゴリズムを使用して、学習処理回路219にてユーザの好みに合わせた学習を行って学習モデルを生成する。学習処理回路219は、例えば、NVIDIA社のJetson TX2を用いる。ニューラルネットワークは、入力値から出力値を予測することに使用されるものであり、予め入力値の実績値と出力値の実績値を学習しておくことで、新たな入力値に対して、出力値を推定することができる。ニューラルネットワークを用いることにより、前述の自動撮影や被写体探索に対して、ユーザの好みに合わせた学習を行う。   In this embodiment, using a neural network as shown in FIG. 10, using a machine learning algorithm, the learning processing circuit 219 performs learning in accordance with the user's preference to generate a learning model. The learning processing circuit 219 uses, for example, Jetson TX2 manufactured by NVIDIA. The neural network is used to predict the output value from the input value, and learns in advance the actual value of the input value and the actual value of the output value to output an output for the new input value. The value can be estimated. By using a neural network, learning is performed according to the user's preference for the above-described automatic shooting and subject search.

また、ニューラルネットワークに入力する特徴データともなる被写体登録(顔認証や一般物体認識など)を登録することも行う。   In addition, registration of an object (such as face recognition or general object recognition), which is also feature data to be input to a neural network, is performed.

本実施形態において、学習処理により、学習される要素は以下である。   In the present embodiment, the elements to be learned by the learning process are as follows.

(1)自動撮影
自動撮影に対する学習について説明する。自動撮影では、ユーザの好みに合った画像の撮影を自動で行うための学習を行う。図9のフローを用いた説明で上述したように、撮影後(S912)に学習情報生成処理が行われている。後述する方法により学習させる画像を選択させ、画像に含まれる学習情報を基に、ニューラルネットワークの重みを変化させることで学習する。学習は、自動撮影タイミングの判定を行うニューラルネットワークの変更と、撮影方法(静止画撮影、動画撮影、連写、パノラマ撮影など)の判定をニューラルネットワークの変更で行われる。
(1) Automatic shooting The learning for automatic shooting will be described. In automatic shooting, learning is performed to automatically take an image that suits the user's preference. As described above in the explanation using the flow of FIG. 9, the learning information generation process is performed after the photographing (S912). An image to be learned is selected by a method to be described later, and learning is performed by changing weights of the neural network based on learning information included in the image. The learning is performed by changing a neural network that performs automatic shooting timing determination and determining a shooting method (still image shooting, moving image shooting, continuous shooting, panoramic shooting, etc.).

(2)自動編集
自動編集に対する学習について説明する。自動編集は、図9のS911での撮影直後の編集に対して学習が行われる。撮影直後の編集について説明する。後述する方法により学習させる画像を選択させ、画像に含まれる学習情報を基に、ニューラルネットワークの重みを変化させることで学習する。撮影或いは撮影直前の情報により得られた各種検出情報をニューラルネットワークに入力し、編集方法(トリミング処理、画像の回転処理、HDR(ハイダイナミックレンジ)効果、ボケ効果、色変換フィルタ効果など)の判定を行う。
(2) Automatic Editing Describe the learning for automatic editing. In automatic editing, learning is performed on editing immediately after shooting in S911 of FIG. The editing immediately after shooting will be described. An image to be learned is selected by a method to be described later, and learning is performed by changing weights of the neural network based on learning information included in the image. Various detection information obtained by shooting or information immediately before shooting is input to a neural network, and determination of editing method (trimming process, image rotation process, HDR (high dynamic range) effect, blur effect, color conversion filter effect, etc.) I do.

(3)被写体探索
被写体探索に対する学習について説明する。被写体探索では、ユーザの好みに合った被写体の探索を自動で行うための学習を行う。図9のフローを用いた説明で上述したように、被写体探索処理(S904)において、各エリアの重要度レベルを算出し、パン・チルト、ズームを駆動し、被写体探索を行っている。学習は撮影画像や探索中の検出情報によって学習され、ニューラルネットワークの重みを変化させることで学習する。探索動作中の各種検出情報をニューラルネットワークに入力し、重要度レベルの算出を行い、重要度レベルに基づきパン・チルトの角度を設定することで学習を反映した被写体探索を行う。また、重要度レベルに基づくパン・チルト角度の設定以外にも、例えば、パン・チルト駆動(速度、加速度、動かす頻度)の学習も行う。
(3) Subject Search Learning for subject search will be described. In the subject search, learning is performed to automatically search for a subject matching the user's preference. As described above in the description using the flow of FIG. 9, in the subject search process (S904), the importance level of each area is calculated, pan / tilt and zoom are driven, and the subject search is performed. The learning is performed based on the photographed image and the detection information during the search, and learning is performed by changing the weight of the neural network. Various detection information during the search operation is input to the neural network, the importance level is calculated, and the pan / tilt angle is set based on the importance level to perform the object search reflecting the learning. In addition to the setting of the pan and tilt angles based on the importance level, for example, learning of pan and tilt driving (speed, acceleration, frequency of movement) is also performed.

(4)被写体登録
被写体登録に対する学習について説明する。被写体登録では、ユーザの好みに合った被写体の登録やランク付けを自動で行うための学習を行う。学習として、例えば、顔認証登録や一般物体認識の登録、ジェスチャーや音声認識、音によるシーン認識の登録を行う。認証登録は人と物体に対する認証登録を行い、画像取得される回数や頻度、手動撮影される回数や頻度、探索中の被写体の現れる頻度からランク設定を行う。登録された情報は、各ニューラルネットワークを用いた判定の入力として登録されることになる。
(4) Subject Registration The learning for subject registration will be described. In subject registration, learning is performed to automatically register and rank subjects according to the user's preference. As learning, for example, registration of face recognition registration and registration of general object recognition, registration of gesture and voice recognition, and scene recognition by sound are performed. In authentication registration, authentication registration is performed for a person and an object, and rank setting is performed based on the number and frequency of image acquisition, the number and frequency of manual photographing, and the frequency of appearance of a subject under search. The registered information is registered as an input of determination using each neural network.

次に、学習方法について説明する。   Next, the learning method will be described.

学習方法としては、「撮像装置内の学習」と「通信機器との連携による学習」がある。   As a learning method, there are “learning in the imaging device” and “learning in cooperation with the communication device”.

撮像装置内学習の方法について、以下説明する。本実施形態における撮像装置内学習は、以下の方法がある。   The method of in-imaging device learning will be described below. There are the following methods for in-imaging device learning in the present embodiment.

(1)ユーザによる撮影指示時の検出情報による学習
図9のS907乃至S913で説明したとおり、本実施形態においては、撮像装置101は、手動撮影と自動撮影の2つの撮影を行うことができる。S907で手動操作による撮影指示(上記説明したとおり、3つの判定に基づいて行う。)があった場合は、S912において、撮影画像は手動で撮影された画像であるとの情報が付加される。また、S909にて自動撮影ONと判定されて撮影された場合においては、S912において、撮影画像は自動で撮影された画像であると情報が付加される。
(1) Learning based on detection information at the time of shooting instruction by the user As described in S 907 to S 913 in FIG. 9, in the present embodiment, the imaging apparatus 101 can perform two shootings: manual shooting and automatic shooting. If there is a shooting instruction by manual operation (made based on three determinations as described above) in S 907, in S 912, information is added that the captured image is an image captured manually. In addition, when it is determined that the automatic imaging is ON in S909, the information is added that the captured image is an image captured automatically in S912.

ここで手動撮影される場合、ユーザの好みの被写体、好みのシーン、好みの場所や時間間隔を基に撮影された可能性が非常に高い。よって、手動撮影時に得られた各特徴データや撮影画像の学習情報を基とした学習が行われるようにする。   In the case of manual shooting here, the possibility of shooting based on the user's favorite subject, favorite scene, favorite place and time interval is very high. Therefore, learning based on learning of each feature data and captured image obtained at the time of manual imaging is performed.

また、手動撮影時の検出情報から、撮影画像における特徴量の抽出や個人認証の登録、個人ごとの表情の登録、人の組み合わせの登録に関して学習を行う。また、被写体探索時の検出情報からは、例えば、個人登録された被写体の表情から、近くの人や物体の重要度を変更するような学習を行う。   Further, from detection information at the time of manual imaging, learning is performed regarding extraction of feature amounts in the captured image, registration of personal authentication, registration of individual facial expressions, and registration of human combinations. In addition, from the detection information at the time of subject search, for example, learning is performed to change the importance of a nearby person or object from the expression of the subject registered individually.

(2)被写体探索時の検出情報による学習
被写体探索動作中において、個人認証登録されている被写体が、どんな人物、物体、シーンと同時に写っているかを判定し、同時に画角内に写っている時間比率を演算しておく。
(2) Learning subject based on detection information at the time of subject search During the subject search operation, it is judged what kind of person, object or scene the subject registered with personal identification is taken at the same time, and the time taken simultaneously within the angle of view Calculate the ratio.

例えば、個人認証登録被写体の人物Aが個人認証登録被写体の人物Bと同時に写っている時間比率が所定閾値よりも高い場合重要度が高いと判定できる。このため、人物Aと人物Bが画角内に入る場合は、自動撮影判定の点数が高くなるように各種検出情報を学習データとして保存して学習モード処理716で学習する。   For example, it can be determined that the importance is high when the time ratio in which the person A of the personal identification registration subject is shown simultaneously with the person B of the personal identification registration subject is higher than a predetermined threshold. For this reason, when the person A and the person B fall within the angle of view, various types of detection information are stored as learning data so as to increase the score of the automatic photographing determination, and learning is performed in the learning mode processing 716.

他の例では、個人認証登録被写体の人物Aが一般物体認識により判定された被写体「猫」と同時に写っている時間比率が所定閾値よりも高い場合、重要度が高いと判定できる。このため、人物Aと「猫」が画角内に入る場合は、自動撮影判定の点数が高くなるように各種検出情報を学習データとして保存する。そして、学習モード処理716で学習する。   In another example, it can be determined that the importance is high when the time ratio at which the person A of the personal identification registration subject simultaneously appears with the subject "cat" determined by general object recognition is higher than a predetermined threshold. Therefore, when the person A and the "cat" fall within the angle of view, various detection information is stored as learning data so that the score of the automatic photographing determination becomes high. Then, learning is performed in a learning mode process 716.

このように、探索中の被写体の現れる頻度が高い場合に、自動撮影判定の点数が高くなるようにすると、個人認証登録されている被写体の近くの人や物体の重要度も、高くなるように変更することができる。   As described above, when the number of occurrences of the subject under search is high, if the score of the automatic photographing determination is increased, the importance of the person or object near the subject registered for personal identification is also increased. It can be changed.

また、個人認証登録被写体の人物Aの笑顔度を検出したり、表情の検出により「喜び」「驚き」などが検出されたとき、同時に写っている被写体は重要であるように学習される処理が行われる。また、表情が「怒り」「真顔」などが検出されたときの、同時に写っている被写体は重要である可能性が低いので学習することはしないなどの処理が行われる。   In addition, when the degree of smile of the person A of the personal identification registration subject is detected or “joy” or “surprise” is detected by the detection of the expression, the subject that is shown at the same time is learned to be important To be done. Also, processing such as not learning is performed because the subject appearing at the same time when an expression such as "anger" or "true face" is detected is unlikely to be important.

次に、本実施形態における外部通信機器との連携による学習を説明する。本実施形態における外部通信機器との連携による学習には、以下の方法がある。   Next, learning in cooperation with an external communication device in the present embodiment will be described. There are the following methods for learning in cooperation with an external communication device in the present embodiment.

(3)外部通信機器で画像を取得したことによる学習
図3で説明したとおり、撮像装置101と外部機器301は、通信302、303の通信手段を有している。主に通信302によって画像の送受信が行われ、外部機器301内の専用のアプリケーションを介して、撮像装置101内の画像を外部機器301に通信取得することができる。また、撮像装置101内の保存されている画像データのサムネイル画像を外部機器301内の専用のアプリケーションを介して、閲覧可能な構成である。これにより、ユーザはサムネイル画像の中から、自分が気に入った画像を選択して、画像確認し、画像取得指示を操作することで外部機器301に画像取得できる。
(3) Learning Based on Acquisition of Image by External Communication Device As described in FIG. 3, the imaging apparatus 101 and the external device 301 have communication means of the communication 302 and 303. The image transmission / reception is mainly performed by the communication 302, and the image in the imaging apparatus 101 can be acquired by communication with the external device 301 via a dedicated application in the external device 301. Also, the thumbnail image of the image data stored in the imaging apparatus 101 can be browsed through a dedicated application in the external device 301. In this way, the user can select an image that he / she likes from the thumbnail images, check the image, and operate the image acquisition instruction to acquire the image on the external device 301.

このとき、ユーザが画像を選んで送信指示し取得しているので、取得された画像はユーザの好みの画像である可能性が非常に高い。よって取得された画像は、学習すべき画像であると判定し、取得された画像の学習情報を基に学習することでユーザの好みの各種学習を行うことができる。   At this time, since the user has selected an image and instructed to transmit and acquire it, the acquired image is very likely to be an image preferred by the user. Therefore, it is possible to perform various types of learning of the user's preference by determining that the acquired image is an image to be learned and learning based on the learning information of the acquired image.

操作例を説明する。スマートデバイスである外部機器301の専用のアプリケーションを介して、撮像装置101内の画像を閲覧している例を図14に示す。表示装置407に撮像装置内に保存されている画像データのサムネイル画像(1404乃至1409)を表示してあり、ユーザは自分が気に入った画像を選択し画像取得を行える。このとき、表示方法を変更する表示方法変更部(1401、1402、1403)が設けられている。1401を押下すると表示順序が日時優先表示モードに変更され、撮像装置101内画像の撮影日時の順番で表示装置407に画像が表示される。(例えば、1404は日時が新しく、1409が日時は古いように表示される。)1402を押下するとおすすめ画像優先表示モードに変更される。図9S912で演算した各画像に対してユーザの好みを判定したスコアに基づいて、撮像装置101内画像のスコアの高い順番で表示装置407に画像が表示される。(例えば、1404はスコアが高く、1409がスコアは低いように表示される。)1403を押下すると人物や物体被写体を指定でき、続いて特定の人物や物体被写体を指定すると特定の被写体のみを表示することもできる。   An operation example will be described. An example in which an image in the imaging apparatus 101 is browsed via an application dedicated to the external device 301 which is a smart device is shown in FIG. The thumbnail images (1404 to 1409) of the image data stored in the imaging apparatus are displayed on the display device 407, and the user can select an image that he / she likes and can acquire an image. At this time, a display method change unit (1401, 1402, 1403) for changing the display method is provided. When 1401 is pressed, the display order is changed to the date and time priority display mode, and the images are displayed on the display device 407 in the order of the shooting date and time of the image in the imaging device 101. (For example, the date and time is displayed as 1404 is new, and 1409 is displayed as the date and time are old.) When 1402 is pressed, the recommended image priority display mode is changed. The images are displayed on the display device 407 in the descending order of the scores of the images in the imaging apparatus 101 based on the scores obtained by determining the preference of the user for each image calculated in FIG. 9S912. (For example, 1404 indicates that the score is high and 1409 indicates that the score is low.) Pressing 1403 can designate a person or an object subject, and subsequently designating a specific person or an object subject displays only a specific subject. You can also

1401乃至1403は同時に設定をONすることもでき、例えばすべての設定がONされている場合、指定された被写体のみを表示し、且つ、撮影日時が新しい画像が優先され、且つ、スコアの高い画像が優先され、表示されることになる。   1401 to 1403 can simultaneously turn on the settings. For example, when all the settings are turned on, only a designated subject is displayed, and an image with a new shooting date and time is prioritized, and an image with a high score is displayed. Will take precedence and will be displayed.

このように、撮影画像に対してもユーザの好みを学習しているため、撮影された大量の画像の中から簡単な確認作業でユーザの好みの画像のみを簡単に抽出することが可能である。   As described above, since the user's preference is learned also for the photographed image, it is possible to easily extract only the user's favorite image from a large number of photographed images by a simple confirmation operation. .

(4)外部通信機器を介して、画像に判定値を入力することによる学習
上記で説明したとおり、撮像装置101と外部機器301は、通信手段を有しており、撮像装置101内の保存されている画像を外部機器301内の専用のアプリケーションを介して、閲覧可能な構成である。ここで、ユーザは、各画像に対して点数付を行う構成にしてもよい。ユーザが好みと思った画像に対して高い点数(例えば5点)を付けたり、好みでないと思った画像に対して低い点数(例えば1点)を付けることができ、ユーザの操作によって、撮像装置が学習していくような構成にする。各画像の点数は、撮像装置内で学習情報と共に再学習に使用する。指定した画像情報からの特徴データを入力にした、ニューラルネットワークの出力がユーザが指定した点数に近づくように学習される。
(4) Learning by inputting a determination value to an image through an external communication device As described above, the imaging device 101 and the external device 301 have communication means, and are stored in the imaging device 101. These images can be browsed through a dedicated application in the external device 301. Here, the user may be configured to score each image. A high score (for example, 5 points) can be added to an image that the user thinks is preferred, or a low score (for example, 1 point) can be added to an image thought to be unpreferable. Will be structured as you learn. The score of each image is used for relearning along with learning information in the imaging device. Learning is performed so that the output of the neural network, which has feature data from specified image information as an input, approaches a point specified by the user.

本実施形態では、通信機器301を介して、撮影済み画像にユーザが判定値を入力する構成にしたが、撮像装置101を操作して、直接、画像に判定値を入力する構成にしてもよい。その場合、例えば、撮像装置101にタッチパネルディスプレイを設け、タッチパネルディスプレイ画面表示装置に表示されたGUIボタンをユーザが押下して、撮影済み画像を表示するモードに設定する。そして、ユーザは撮影済み画像を確認しながら、各画像に判定値を入力するなどの方法により、同様の学習を行うことができる。   In the present embodiment, the user inputs the determination value to the photographed image via the communication device 301. However, the imaging device 101 may be operated to directly input the determination value to the image. . In that case, for example, the imaging device 101 is provided with a touch panel display, and the user presses a GUI button displayed on the touch panel display screen display device to set a mode for displaying a photographed image. Then, the user can perform similar learning by a method of inputting a determination value to each image while confirming the photographed image.

(5)外部通信機器で、パラメータを変更することによる学習
上記で説明したとおり、撮像装置101と外部機器301は、通信手段を有しており、撮像装置101内に現在設定されている学習パラメータを外部機器301に通信し、外部機器301の記憶回路404に保存することができる。学習パラメータとしては、例えば、ニューラルネットワークの重みや、ニューラルネットワークに入力する被写体の選択などが考えられる。また、外部機器301内の専用のアプリケーションを介して、専用のサーバにセットされた学習パラメータを公衆回線制御回路406を介して取得して、撮像装置101内の学習パラメータに設定することもできる構成とする。これにより、ある時点でのパラメータを外部機器301に保存しておいて、撮像装置101に設定することで学習パラメータを戻すこともできるし、他のユーザが持つ学習パラメータを専用のサーバを介して取得し自身の撮像装置101に設定することもできる。
(5) Learning by changing parameters in an external communication device As described above, the imaging device 101 and the external device 301 have communication means, and learning parameters currently set in the imaging device 101 Can be communicated to the external device 301 and stored in the storage circuit 404 of the external device 301. As learning parameters, for example, weights of a neural network, selection of an object to be input to the neural network, and the like can be considered. In addition, the learning parameter set in the dedicated server can be acquired via the public line control circuit 406 via the dedicated application in the external device 301, and can be set as the learning parameter in the imaging apparatus 101. I assume. In this way, the parameters at a certain point in time can be stored in the external device 301, and learning parameters can be returned by setting them in the imaging apparatus 101, or learning parameters possessed by other users can be obtained via a dedicated server. It is also possible to acquire and set the image capturing apparatus 101 of its own.

次に、学習処理シーケンスについて説明する。   Next, the learning processing sequence will be described.

図7のS704のモード設定判定にて、学習処理を行うべきか否かを判定し、学習処理を行う場合、学習モードであると判定され、S712の学習モード処理を行う。   In the mode setting determination in S704 of FIG. 7, it is determined whether or not the learning process should be performed. When the learning process is performed, it is determined that the learning mode is set, and the learning mode process in S712 is performed.

学習モードの判定条件を説明する。学習モードに移行するか否かは、前回学習処理を行ってからの経過時間と、学習に使用できる情報の数、通信機器を介して学習処理指示があったかなどから判定される。S704のモード設定判定処理内で判定される、学習モードに移行すべきか否かの判定処理フローを図12に示す。   The determination conditions of the learning mode will be described. Whether or not to shift to the learning mode is determined based on the elapsed time since the previous learning process, the number of information that can be used for learning, and whether there is a learning process instruction via the communication device. FIG. 12 shows a flow of processing for determining whether or not to shift to the learning mode, which is determined in the mode setting determination processing of S704.

S704のモード設定判定処理内で学習モード判定が開始指示されると、図12の処理がスタートする。S1201では、外部機器301からの登録指示があるかどうかを判定する。ここでの登録は、上記説明した学習するための登録指示があったかどうかの判定である。例えば、<通信機器で画像取得された画像情報による学習>や、<通信機器を介して、画像に判定値を入力することによる学習>がある。S1201で、外部機器からの登録指示があった場合、S1208に進み、学習モード判定をTRUEにして、S712の処理を行うように設定する。S1201で外部機器からの登録指示がない場合、S1202に進む。S1202では外部機器からの学習指示があるかどうかを判定する。ここでの学習指示は<通信機器で、撮像装置パラメータを変更することによる学習>のように、学習パラメータをセットする指示があったかどうかの判定である。S1202で、外部機器からの学習指示があった場合、S1208に進み、学習モード判定をTRUEにして、S712の処理を行うように設定し、学習モード判定処理を終了する。S1202で外部機器からの学習指示がない場合、S1203に進む。   When the start of the learning mode determination is instructed in the mode setting determination process of S704, the process of FIG. 12 starts. In S1201, it is determined whether there is a registration instruction from the external device 301. The registration here is a determination as to whether or not there is a registration instruction for learning as described above. For example, there are <learning based on image information acquired by the communication device> and <learning based on inputting a determination value to an image through the communication device>. If there is a registration instruction from the external device in S1201, the process advances to S1208, the learning mode determination is set to TRUE, and the process of S712 is set to be performed. If there is no registration instruction from the external device in S1201, the process proceeds to S1202. In S1202, it is determined whether there is a learning instruction from an external device. The learning instruction here is a determination as to whether or not there is an instruction to set a learning parameter, as in <Learning by changing the imaging device parameter in the communication device>. If there is a learning instruction from the external device in S1202, the process advances to S1208, the learning mode determination is set to TRUE, and the process of S712 is set to be performed, and the learning mode determination process is ended. If there is no learning instruction from the external device in S1202, the process proceeds to S1203.

S1203では、前回学習処理(ニューラルネットワークの重みの再計算)が行われてからの経過時間TimeNを取得し、S1204に進む。S1204では、学習する新規のデータ数DN(前回学習処理が行われてからの経過時間TimeNの間で、学習するように指定された画像の数)を取得し、S1205に進む。S1205では、TimeNから閾値DTを演算する。例えば、TimeNが所定値よりも小さい場合の閾値DTaが、所定値よりも大きい場合の閾値DTbよりも大きく設定されており、時間経過によって、閾値が小さくなるように設定してある。これにより、学習データが少ない場合においても、時間経過が大きいと再度学習するようにすることで、使用時間に応じて撮像装置が学習変化し易いようにしてある。   In S1203, an elapsed time Time N after the previous learning process (recalculation of weights of the neural network) is obtained, and the process proceeds to S1204. In S1204, the number of new data to be learned DN (the number of images designated to be learned during the elapsed time Time N since the previous learning process was performed) is acquired, and the process proceeds to S1205. In S1205, the threshold value DT is calculated from TimeN. For example, the threshold value DTa when TimeN is smaller than a predetermined value is set larger than the threshold value DTb when larger than the predetermined value, and the threshold value is set to be smaller with the passage of time. As a result, even when the amount of learning data is small, the image pickup apparatus is made to easily change learning according to the time of use by learning again if the time elapsed is large.

S1205で閾値DTを演算すると、S1206に進み、学習するデータ数DNが、閾値DTよりも大きいか否かを判定する。DNが、閾値DTよりも大きい場合、S1207に進み、DNを0に設定した後、S1208に進み、学習モード判定をTRUEにして、S712の処理を行うように設定し、学習モード判定処理を終了する。   When the threshold value DT is calculated in S1205, the process proceeds to S1206, and it is determined whether the number of data to be learned DN is larger than the threshold value DT. If the DN is larger than the threshold value DT, the process proceeds to S1207, sets the DN to 0, and then proceeds to S1208, sets the learning mode determination to TRUE, performs the process of S712, and ends the learning mode determination process. Do.

S1206でDNが、閾値DT以下の場合、S1209に進む。外部機器からの登録指示も、外部機器からの学習指示もなく、且つ学習データ数も所定値以下であるので、学習モード判定をFALSEにし、S712の処理は行わないように設定し、学習モード判定処理を終了する。   If the DN is less than the threshold value DT in S1206, the process proceeds to S1209. Since there is neither a registration instruction from an external device nor a learning instruction from an external device, and the number of learning data is less than a predetermined value, the learning mode determination is set to FALSE and the process of S712 is not performed, and the learning mode determination is made. End the process.

次に、学習モード処理(S712)内の処理について説明する。学習モード処理の詳細なフローを図13に示す。   Next, the process in the learning mode process (S712) will be described. The detailed flow of the learning mode process is shown in FIG.

図7のS711で学習モードと判定され、S712に進むと、図13の処理がスタートする。S1301では、外部機器301からの登録指示があるかどうかを判定する。S1301で、外部機器からの登録指示があった場合、S1302に進む。S1302では、各種登録処理を行う。   When it is determined in S711 of FIG. 7 that the learning mode is set, and the process proceeds to S712, the process of FIG. 13 starts. In S1301, it is determined whether there is a registration instruction from the external device 301. If there is a registration instruction from the external device in S1301, the process proceeds to S1302. In S1302, various registration processing is performed.

各種登録は、ニューラルネットワークに入力する特徴の登録であり、例えば顔認証の登録や、一般物体認識の登録や、音情報の登録や、場所情報の登録などである。   The various registrations are registrations of features to be input to the neural network, such as registration of face recognition, registration of general object recognition, registration of sound information, registration of location information, and the like.

登録処理を終了すると、S1303に進み、S1302で登録された情報から、ニューラルネットワークへ入力する要素を変更する。   When the registration process is completed, the process proceeds to S1303, and the element to be input to the neural network is changed from the information registered in S1302.

S1303の処理を終了すると、S1307に進む。   When the process of S1303 ends, the process proceeds to S1307.

S1301で外部機器301からの登録指示がない場合、S1304に進み、外部機器301からの学習指示があるかどうかを判定する。外部機器からの学習指示があった場合、S1305に進み、外部機器から通信された学習パラメータを各判定器(ニューラルネットワークの重みなど)に設定し、S1307に進む。   If there is no registration instruction from the external device 301 in S1301, the process advances to S1304 to determine whether there is a learning instruction from the external device 301. If there is a learning instruction from the external device, the process advances to step S1305 to set the learning parameters communicated from the external device in each determiner (such as the weight of the neural network), and the process advances to step S1307.

S1304で外部機器からの学習指示がない場合、S1306で学習(ニューラルネットワークの重みの再計算)を行う。S1306の処理に入るのは、図12を用いて説明したように、学習するデータ数DNが閾値を超えて、各判定器の再学習を行える条件である。誤差逆伝搬法或いは、勾配降下法などの方法を使って再学習させ、ニューラルネットワークの重みを再計算して、各判定器のパラメータを変更する。学習パラメータが設定されると、S1307に進む。   If there is no learning instruction from the external device in S1304, learning (recalculation of weight of neural network) is performed in S1306. As described with reference to FIG. 12, the process of S1306 is a condition under which the number of data to be learned DN exceeds the threshold, and the respective learners can perform relearning. Retraining is performed using a method such as error back propagation method or gradient descent method, and weights of the neural network are recalculated to change parameters of each decision unit. When the learning parameter is set, the process proceeds to S1307.

S1307では、ファイル内の画像を再スコア付する。本実施形態においては、学習結果に基づいてファイル(記録媒体221)内に保存されているすべての撮影画像にスコアを付けておき、付けられたスコアに応じて、自動編集や自動ファイル削除を行う構成となっている。よって、再学習や外部機器からの学習パラメータのセットが行われた場合には、撮影済み画像のスコアも更新を行う必要がある。よって、S1307では、ファイル内に保存されている撮影画像に対して新たなスコアを付ける再計算が行われ、処理が終了すると学習モード処理を終了する。   At S1307, the images in the file are re-scored. In the present embodiment, all photographed images stored in the file (recording medium 221) are scored based on learning results, and automatic editing and automatic file deletion are performed according to the scored scores. It is a structure. Therefore, when re-learning or setting of learning parameters from an external device is performed, it is also necessary to update the scores of captured images. Therefore, in S1307, recalculation for adding a new score to the photographed image stored in the file is performed, and when the process ends, the learning mode process ends.

本実施形態においては、撮像装置101内で、学習する構成を基に説明したが、外部機器301側に学習処理をもち、学習に必要なデータを外部機器301に通信し、外部機器側でのみ学習を実行する構成でも同様の学習効果を実現可能である。その場合、上記<通信機器で、パラメータを変更することによる学習>で説明したように、外部機器側で学習したニューラルネットワークの重みなどのパラメータを撮像装置101に通信により設定することで学習を行う構成にしてもよい。   In the present embodiment, although the explanation has been made based on the configuration for learning in the imaging apparatus 101, the external device 301 has a learning process, data necessary for learning is communicated to the external device 301, and only the external device The same learning effect can be realized even with a configuration that executes learning. In that case, as described above in <Learning by changing parameters in the communication device>, learning is performed by setting parameters such as weights of the neural network learned on the external device side in the imaging apparatus 101 by communication. It may be configured.

また、撮像装置101内と、外部機器301内の両方に、それぞれ学習処理をもつ構成にしてもよい。例えば撮像装置101内で学習モード処理716が行われるタイミングで外部機器301が持つ学習情報を撮像装置101に通信し、学習パラメータをマージすることで学習を行う構成にしてもよい。   Further, both the inside of the imaging apparatus 101 and the inside of the external device 301 may have a learning process. For example, learning information possessed by the external device 301 may be communicated to the imaging apparatus 101 at the timing when the learning mode processing 716 is performed in the imaging apparatus 101, and learning may be performed by merging learning parameters.

次に、ニューラルネットワークの学習において教師データの不足を補う方法について説明する。   Next, a method of compensating for the shortage of teacher data in learning of a neural network will be described.

ニューラルネットワークで入力値から精度良く出力値を推定するためには十分な数の教師データが必要とされる。教師データの数に対してニューラルネットワークのモデルが複雑で自由度が高いと推定精度を上げるのは難しい。また機械学習の分野では、教師データと少し異なるデータであってもロバストに推定ができるようするためにData Augmentationという処理を行う場合がある。これは教師データ(この場合は画像)に対してアスペクト比の変更、回転(ロール、ピッチ、ヨー)、ぼかし、ノイズ付加、ずらし等の画像処理を加えることで行うことが多い。しかしながら、必ずしもカメラで撮影できる画像と一致するとはいえない。たとえば画像処理でぼかしを加えたとしても、実際にカメラで絞りを開放にしたり、ピントをずらしたりしても、同等のぼかしが実現できるとは限らない。   A sufficient number of training data is required to accurately estimate the output value from the input value in the neural network. It is difficult to increase the estimation accuracy if the model of the neural network is complex and has a high degree of freedom with respect to the number of teacher data. In the field of machine learning, in order to be able to estimate robustly even data that is slightly different from teacher data, a process called Data Augmentation may be performed. This is often performed by adding image processing such as change of aspect ratio, rotation (roll, pitch, yaw), blurring, addition of noise, shift and the like to teacher data (in this case, an image). However, it does not necessarily coincide with the image that can be taken by the camera. For example, even if blurring is added in image processing, equivalent blurring can not always be realized even if the camera actually opens the aperture or shifts the focus.

ニューラルネットワークで推定をしたいデータと教師データが似ていないと、この教師データがニューラルネットワークの推定精度を下げる要因となりかねない。また、所定の回転(ロール、ピッチ、ヨー)を加えたとしても、実際に人間がカメラで撮影する角度を再現できるとは限らない。具体的には、画像を単純に画像中心からたとえば45度や90度回転させても、ユーザは被写体が直立していない写真を撮る機会は少ないので、ユーザの好みを学習するための教師データとしては貢献度が低い。   If the data desired to be estimated by the neural network and the teacher data are not similar, this teacher data may be a factor to reduce the estimation accuracy of the neural network. Further, even if a predetermined rotation (roll, pitch, yaw) is added, it is not always possible to reproduce the angle at which a person actually shoots with a camera. Specifically, even if the image is simply rotated 45 degrees or 90 degrees from the center of the image, for example, the user does not have a chance to take a picture with the subject not standing upright. Have a low degree of contribution.

このように画像処理によって教師データの不足を補うことは難しく、好ましくは実際の撮影によって教師データを増加させる方が良い。もしくは画像処理でData Augmentationを行う場合も、カメラとして撮影できない画像よりも、カメラで撮影できる画像に近いものの方が良い。そこで本実施形態では、学習用に実際の撮影を自動的に行って教師データを増加させる方法について説明する。   As described above, it is difficult to compensate for the shortage of teacher data by image processing, and it is preferable to increase teacher data by actual photographing. Alternatively, when performing data augmentation by image processing, it is better to use an image closer to an image that can be captured by the camera than an image that can not be captured by the camera. Therefore, in the present embodiment, a method of automatically performing actual shooting for learning to increase teacher data will be described.

上述したように、図9のS907でユーザによる撮影指示があったと判別された場合、S910およびS914に進む。   As described above, when it is determined in S907 of FIG. 9 that there is a photographing instruction from the user, the process proceeds to S910 and S914.

S914では現在の教師データ数が所定の数N(Nは自然数)より小さいか否かが判断される。そして、現在の教師データ数が所定の数Nより小さいときのみ、教師データが不足しているとしてS915に進み、教師データの補充のための学習用自動撮影を行う。このNは、ニューラルネットワークの複雑さや自由度(ノード数や中間層の層数)に応じて変化させるとよい。ニューラルネットワークが複雑であったり、自由度が高かったりすると必要な教師データ数は増えるので、Nを増加させる。S914で現在の教師データ数≧Nになり、十分な教師データが蓄えられたと判断された場合は、S915をスキップして、S912に進む。   In S914, it is determined whether the current number of teacher data is smaller than a predetermined number N (N is a natural number). Then, only when the current number of teacher data is smaller than the predetermined number N, it is determined that the teacher data is insufficient, the process proceeds to S915, and learning automatic imaging for supplementing the teacher data is performed. This N may be changed according to the complexity and the degree of freedom of the neural network (the number of nodes and the number of layers in the middle layer). If the neural network is complex or has a high degree of freedom, the number of required teacher data increases, so N is increased. If it is determined in S914 that the current number of teacher data is N N and it is determined that sufficient teacher data has been stored, S915 is skipped and the process proceeds to S912.

S907で手動撮影指示があった時にのみ学習用自動撮影をするのは、前述したとおり、手動撮影される場合はユーザの好みの被写体、好みのシーン、好みの場所や時間間隔を基に撮影された可能性が非常に高いためである。よってこのときに学習用自動撮影をすれば、ユーザの好みを反映した教師データが取得できる可能性が高い。   The automatic shooting for learning only when a manual shooting instruction is given in S 907 is, as described above, when shooting manually, shooting is performed based on the user's favorite subject, favorite scene, favorite place and time interval. Because the possibility is very high. Therefore, if automatic imaging for learning is performed at this time, there is a high possibility that teacher data reflecting the preference of the user can be acquired.

またS915の学習用自動撮影とS910の手動撮影は同時には行えないので、タイミングをずらして行う。どちらが先でもよいが、学習用自動撮影と手動撮影が連続して行われるようにする。もし学習用自動撮影が遅れてしまうと、ユーザがカメラを動かしてしまって手動撮影時の好ましい構図から離れてしまう恐れがある。一方、手動撮影が遅れてしまうと、シャッタータイミングがずれることになる。以降の説明では特に明記しないかぎり、最初に手動撮影が行われ、直後に学習用自動撮影が行われるものとする。   In addition, since the automatic shooting for learning in step S915 and the manual shooting in step S910 can not be performed simultaneously, the timing is shifted. Either way may be ahead, but automatic shooting for learning and manual shooting should be performed continuously. If the automatic learning for learning is delayed, the user may move the camera and move away from the preferable composition at the time of manual photographing. On the other hand, if the manual shooting is delayed, the shutter timing will be shifted. In the following description, unless otherwise specified, manual imaging is performed first and automatic imaging for learning is performed immediately thereafter.

S915では学習用自動撮影が行われる。学習用自動撮影はいくつかの方法が考えられる。一つ目は連写である。手動撮影後に学習用に自動で連写を行い、連写画像を取得する。手動撮影とタイミングが近ければ、ユーザの好みの画像と近い教師データを複数取得できる。この場合、手動撮影で得られた画像は記録画像として扱われるため、記録媒体221に記録されるが、学習用自動撮影で得られた画像は学習のためだけに用いられ、ユーザの目には付かない。   In S915, learning automatic imaging is performed. There are several methods for automatic learning for learning. The first one is continuous shooting. After manual shooting, continuous shooting is performed automatically for learning, and continuous shooting images are acquired. If the timing is close to that of the manual shooting, it is possible to acquire a plurality of teacher data similar to the user's favorite image. In this case, an image obtained by manual shooting is treated as a recorded image, and thus is recorded in the recording medium 221. However, an image obtained by automatic learning for learning is used only for learning, and is used by the user's eyes. It does not attach.

二つ目は動画撮影である。手動撮影の前か後に自動的に動画撮影が行われ、静止画と動画が組み合わされてユーザへ提供される機能が一般のカメラやライフログカメラに搭載されることがある。あるいは、カメラは、リングバッファなどのメモリに、一定期間の動画を常に上書きしておいて、静止画が撮影されたタイミングを基準とした前後の所定期間の動画をユーザへ提供する機能が搭載されることがある。この自動的に取得される動画を静止画に分解して教師データとする。これも一つ目の連写と同じ理由で教師データとしての価値がある。なお、この機能を使ったときに制限されるわけではなく、学習用の目的だけで動画を撮影してもよい。その場合、動画はユーザへ提供されない。   The second is moving image shooting. Before or after manual shooting, moving image shooting is automatically performed, and a function in which a still image and a moving image are combined and provided to the user may be installed in a general camera or a life log camera. Alternatively, the camera has a function of constantly overwriting a moving image for a predetermined period in a memory such as a ring buffer and providing the user with moving images of a predetermined period before and after the timing at which the still image was taken. There is a thing. This automatically acquired moving image is decomposed into still images and used as teacher data. This is also valuable as teacher data for the same reason as the first continuous shooting. In addition, when using this function, it is not necessarily restricted and you may shoot a moving image only for the purpose of learning. In that case, the video is not provided to the user.

三つ目はブラケット撮影である。ブラケット撮影は手動撮影での撮影条件を少しずつ変化させて行う。変化させる撮影条件はカメラで変更可能なパラメータであればよく、フォーカス、露出、ホワイトバランス、ストロボ発光、ズーム、シャープネスなどである。これらの撮影条件を変えることでData Augmentationと同じ効果が期待できる。もしカメラで実現不可能なData Augmentationを行い教師データとしてしまうと、それから学習したニューラルネットワークでは、その教師データに近いものしか良く推定できなくなってしまう。これではカメラ用のニューラルネットワークとしては不適格なものとなってしまう。そのため、カメラで実現可能なブラケット撮影による教師データの増加であれば、Data Augmentationとしての効果が期待できる。   The third is bracket shooting. Bracket shooting is performed by gradually changing shooting conditions in manual shooting. The shooting conditions to be changed may be parameters that can be changed by the camera, such as focus, exposure, white balance, flash, zoom, and sharpness. By changing these shooting conditions, the same effect as Data Augmentation can be expected. If you use Data Augmentation, which can not be realized with a camera, and use it as teacher data, the neural network learned from it can only estimate things close to the teacher data well. This makes it unsuitable as a neural network for cameras. Therefore, if the increase in teacher data by bracket photography that can be realized by a camera, an effect as Data Augmentation can be expected.

なお、ブラケット撮影の中には手動撮影直後に行わないといけないものと、ある程度時間がたってからでも可能なものとがある。前者はフォーカス、ズームなどの機械動作を伴うものである。これらは手動撮影と連続して撮らないと構図が変わってしまい教師データとして成り立たない。一方後者は、ホワイトバランスやシャープネス、RAW画像データの現像条件等の画像処理によるものである。これらは例え手動撮影と連続して行えなくても、手動撮影画像を基に生成できる。この場合は手動撮影画像のRAWデータを記録するようにしてもよい。手動撮影画像を基に生成する場合は、撮影時である必要はなく、カメラの待機中などに生成してもよい。   There are two types of bracket shooting, one that must be performed immediately after manual shooting, and one that can be performed even after a certain amount of time. The former involves mechanical operations such as focusing and zooming. If these are not taken continuously with manual shooting, the composition will change and can not be used as teacher data. On the other hand, the latter is based on image processing such as white balance, sharpness, development conditions of RAW image data, and the like. Even if these can not be performed continuously with the manual imaging, they can be generated based on the manually captured image. In this case, RAW data of a manually captured image may be recorded. When generating based on a manually captured image, it does not have to be at the time of shooting, and may be generated while the camera is on standby.

このようにブラケット撮影の中には手動撮影と連続して行う必要があるものと、連続して行う必要がないものがあるため、ブラケット撮影の種別に優先順位を設けて自動撮影を行ってもよい。手動撮影と連続して行う必要があるブラケット撮影を先に行うということである。   As described above, there are some types of bracket imaging that need to be performed continuously with manual imaging and some that do not need to be performed continuously, so even if priority is given to the type of bracket imaging and automatic imaging is performed. Good. This means that bracket shooting, which needs to be performed continuously with manual shooting, is performed first.

また、手動撮影から学習用自動撮影を行うまでに、カメラの角速度計106と加速度計107の情報等から、ユーザがカメラを動かしたと判断される場合には、学習用自動撮影を中止するようにしてもよい。   In addition, when it is determined from the information of the angular velocity sensor 106 of the camera and the accelerometer 107 etc. that the user moved the camera from manual imaging to automatic imaging for learning, automatic imaging for learning is to be canceled. May be

S912では手動撮影と学習用自動撮影の学習用情報を生成し、教師データを作成する。学習用自動撮影で得られた画像についても手動撮影で得られた画像と同様の方法で学習用情報が生成できる。手動撮影で得られた画像はユーザの好みである可能性が高いので、所定の高いスコアを付ける。そして、そのスコアを学習用自動撮影で得られた画像から生成された教師データにもつける。   In S912, learning information for manual shooting and automatic shooting for learning is generated, and teacher data is created. The learning information can also be generated in the same manner as the image obtained by the manual shooting, for the image obtained by the automatic shooting for learning. The images obtained by the manual imaging are highly likely to be the user's preference, so they are given a predetermined high score. Then, the score is also attached to teacher data generated from an image obtained by automatic learning for learning.

あるいは、学習用自動撮影で得られた画像に対して、手動撮影で得られた画像との関係に応じたスコアをつけるようにしてもよい。たとえば、手動撮影と間を空けずに学習用自動撮影が行われたのであれば、学習用自動撮影で得られた画像に対しても手動撮影で得られた画像と同等の高いスコアを付与する。そして、手動撮影と、学習用自動撮影の間隔が離れるにつれて、学習用自動撮影で得られた画像に対するスコアを下げていくということもできる。これにより、ユーザが指示したベストショットタイミングの手動撮影画像の点数が一番高くなり、それよりずれるにつれて低い点がついていくため、ユーザのシャッタータイミングの好みを学習することができる。あるいは、学習用自動撮影で得られた画像のそれぞれに対して手動撮影画像と類似度を比較し、その類似度に応じてスコアをつけるようにしてもよい。さらに、被写体が動体であったり、被写体を含むシーンが変化していたりする場合には、手動撮影のタイミングで撮影された画像の前後の画像を、敢えて、負の教師データとして学習に用いるようにしてもよい。こうすることで、ユーザのシャッタータイミングの好みをより厳密に学習することができるようになることが期待できる。また、前後の画像の代わりに、連続して撮像された画像のうちの、手動撮影で得られた画像との類似度が閾値より低い画像を負の教師データとしてもよい。   Alternatively, the image obtained by the automatic learning for learning may be scored according to the relationship with the image obtained by the manual shooting. For example, if automatic imaging for learning is performed without leaving a space between manual imaging, an image obtained by automatic imaging for learning is also given a high score equivalent to an image obtained by manual imaging. . Then, as the interval between the manual imaging and the learning automatic imaging increases, it is possible to lower the score of the image obtained by the learning automatic imaging. As a result, the score of the manually shot image at the best shot timing instructed by the user is the highest, and the point becomes lower as it deviates from that point, so that the user's preference for shutter timing can be learned. Alternatively, the degree of similarity may be compared with that of the manually captured image for each of the images obtained by learning for automatic imaging, and a score may be added according to the degree of similarity. Furthermore, when the subject is a moving object or the scene including the subject is changed, the images before and after the image captured at the timing of manual shooting are dared to be used as learning data as negative teacher data. May be By doing this, it can be expected that the user's shutter timing preference can be learned more strictly. Further, instead of the images before and after, an image whose similarity with the image obtained by the manual imaging is lower than the threshold among the continuously captured images may be set as the negative teacher data.

また、ブラケット画像についても同様の考えで、ブラケットによって設定された撮影条件が、手動撮影にて設定された撮影条件から離れるにつれてスコアを下げることもできる。たとえば手動撮影で得られた画像に一番高いスコアをつけ、ブラケット撮影で露出補正+1とした画像に二番目に高いスコアをつけ、露出補正+2とした画像に三番目に高いスコアをつけるなどである。これにより、ユーザの好きな撮影条件についても学習することができる。   Also, with regard to the bracket image, in the same way, the score can be lowered as the shooting condition set by the bracket deviates from the shooting condition set by the manual shooting. For example, the highest score is given to the image obtained by manual shooting, the second highest score is given to the image set as exposure correction + 1 by bracket shooting, the third highest score to the image set as exposure correction + 2 etc. is there. This makes it possible to learn about the user's favorite imaging conditions.

学習用自動撮影で得られた画像の学習用情報は、手動撮影で得られた画像の学習用情報から流用してもよい。たとえば、学習用自動撮影と手動撮影で、撮影対象である被写体は同じである可能性が高いので、手動撮影で得られた画像から生成された一般物体認識結果や顔検出結果などは、学習用自動撮影で得られた画像の学習用情報として流用可能である。これにより学習用情報生成の時間を短縮することができる。   The learning information of the image obtained by automatic learning for learning may be diverted from the learning information of the image obtained by manual photographing. For example, there is a high possibility that the subject to be photographed is the same in automatic learning for learning and manual photographing, so general object recognition results and face detection results generated from images obtained by manual photographing are for learning It can be diverted as learning information of an image obtained by automatic photographing. Thus, the time for generating the learning information can be shortened.

また、S907で判定対象とするユーザによる撮影指示には、前述した音声コマンドや装置101へのタップ操作、外部装置301,501からの撮影指示を含むようにしてもよい。   In addition, the shooting instruction from the user to be determined in S 907 may include the above-described voice command, the tap operation to the device 101, and the shooting instruction from the external devices 301 and 501.

また、学習用自動撮影自体はユーザが指示したものではないため、学習用自動撮影では、シャッター音の小さい電子シャッターによる撮影を行うことが望ましい。   In addition, since automatic learning for learning itself is not instructed by the user, it is desirable to perform photographing using an electronic shutter with a small shutter sound in automatic learning for learning.

また、学習用自動撮影は、ユーザの意図したタイミングとは別のタイミングで撮影が行われるため、ユーザの意図しない個人情報を保存してしまう可能性がある。これはプライバシーを考慮する上で問題になる可能性がある。そこで学習用自動撮影で得られた画像は保存せずに、この画像から生成された学習用情報のみを保存する構成にしてもよい。学習用情報はたとえばニューラルネットワークの入力層に当たるパラメータで、画像以外の形式となるため、プライバシー情報が特定されにくい。あるいは、学習用情報に個人認証ID等の人物に関連する情報は記録しないようにし、代わりに所定の規定値で置き換えるようにしてもよい。   Further, in the case of automatic learning for learning, since photographing is performed at a timing different from the timing intended by the user, there is a possibility that personal information not intended by the user may be stored. This can be an issue when considering privacy. Therefore, only the learning information generated from the image may be stored without storing the image obtained by the automatic learning for learning. The learning information is, for example, a parameter corresponding to the input layer of the neural network, and is in a form other than an image, so privacy information is difficult to identify. Alternatively, information related to a person such as a personal identification ID may not be recorded in the learning information, and instead may be replaced with a predetermined specified value.

またS914の学習用自動撮影を行うための条件は、教師データ数でなくてもよい。例えば、ニューラルネットワークの推定精度が高まったと判断できたらS914の判定はNOとしてもよい。推定精度が高まったかどうかは次の方法で検証する。学習用自動撮影により教師データが取得されたら、それをニューラルネットワークに入力して出力値を求める。その出力値と教師値の差が所定の値より小さければニューラルネットワークの精度が高まったと判断できる。つまり新たなデータを入力しても出力値が模範となる値と近くなったので精度が高くなったと判断できる。   Further, the condition for performing automatic learning for learning in step S 914 may not be the number of teacher data. For example, if it is determined that the estimation accuracy of the neural network has increased, the determination in S914 may be NO. It is verified by the following method whether the estimation accuracy has increased. When teacher data is acquired by automatic imaging for learning, it is input to a neural network to obtain an output value. If the difference between the output value and the training value is smaller than a predetermined value, it can be determined that the accuracy of the neural network is enhanced. That is, even if new data is input, the output value is close to the model value, so it can be determined that the accuracy is high.

また、この「ニューラルネットワーク出力値と教師値の差」を用いて、学習用自動撮影で取得された教師データのうち、教師データとして適さないものを外れ値として除去することも可能である。ニューラルネットワーク出力値と教師値の差が所定の値より大きい場合は、推定ができていないことになり、この教師データは過去に学習してきた教師データと性質が大きく異なる教師データと言える。この場合は、手動撮影直後にカメラが既にユーザによって動かされ、天空や地面など意図しない方向を向いている可能性が高く、外れ値として除去する。つまり、教師データとして登録しない。   Moreover, it is also possible to remove out of the teacher data acquired by automatic learning for learning as what is not suitable as teacher data as an outlier using this “difference between neural network output value and teacher value”. If the difference between the neural network output value and the teacher value is larger than a predetermined value, it means that estimation has not been made, and this teacher data can be said to be teacher data whose nature is significantly different from the teacher data learned in the past. In this case, the camera is already moved by the user immediately after the manual shooting, and it is highly likely that the camera is facing an unintended direction such as the sky or the ground, and is removed as an outlier. That is, it does not register as teacher data.

またニューラルネットワークを通さなくても学習用自動撮影画像の外れ値検証が可能である。ニューラルネットワークの入力層の特徴量を組み合わせた特徴量ベクトルにおいて学習用自動撮影画像と手動撮影画像の差が所定の値より大きければ外れ値として除去してもよい。   In addition, outlier verification of learning automatically captured images is possible without passing through a neural network. If the difference between the automatically captured image for learning and the manually captured image is larger than a predetermined value in a feature amount vector obtained by combining the feature amounts of the input layer of the neural network, it may be removed as an outlier.

これらの学習用自動撮影により教師データの増加が可能となる。これらの教師データは次の学習モードが実行されたときに学習に利用される。教師データが増えた分、ニューラルネットワークの推定精度の向上が望める。   These automatic learning for learning makes it possible to increase teacher data. These teacher data are used for learning when the next learning mode is executed. As the amount of teacher data increases, the estimation accuracy of the neural network can be improved.

(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
Furthermore, the present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read the program. It can also be realized by the process to be executed. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

本発明は、デジタルカメラやデジタルビデオカメラの撮影に限らず、監視カメラ、Webカメラ、携帯電話などの撮影装置にも搭載できる。   The present invention is not limited to shooting with digital cameras and digital video cameras, and can also be installed in shooting devices such as surveillance cameras, web cameras, and mobile phones.

101:撮像装置、301:スマートデバイス、501:ウエアラブルデバイス、104:チルト回転ユニット、105:パン回転ユニット 101: imaging apparatus, 301: smart device, 501: wearable device, 104: tilt rotation unit, 105: pan rotation unit

Claims (21)

撮影手段により撮影された撮影画像に関するデータを取得する取得手段と、
前記取得手段により取得された教師データに基づいて、ユーザが好む画像の条件を学習する学習手段と、
前記学習手段により学習された条件に基づいて、前記撮影手段による自動撮影の判定を行う制御手段と、
ユーザの指示により行われた撮影に連続して撮影された学習用の撮影画像について前記取得手段により取得されたデータを前記教師データとして登録する登録手段と、
を備えることを特徴とする撮像装置。
Acquisition means for acquiring data related to a photographed image photographed by the photographing means;
Learning means for learning conditions of an image preferred by the user based on the teacher data acquired by the acquisition means;
A control unit that determines the automatic photographing by the photographing unit based on the conditions learned by the learning unit;
Registration means for registering, as the teacher data, data acquired by the acquisition means with respect to a learning image for photography continuously taken in response to a user's instruction.
An imaging apparatus comprising:
撮影画像を現像する現像手段をさらに備え、該現像手段は、前記学習用の撮影画像を、ユーザの指示により行われた撮影から得られた撮影画像とは異なる条件で現像することを特徴とする請求項1に記載の撮像装置。   The image processing apparatus further includes a developing unit that develops the photographed image, and the developing unit develops the photographed image for learning under conditions different from those of the photographed image obtained from the photographing performed by the user's instruction. The imaging device according to claim 1. 前記ユーザの指示は、所定の音声コマンドを入力することによって行われることを特徴とする請求項1または2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the user's instruction is performed by inputting a predetermined voice command. 前記ユーザの指示は、前記撮像装置と通信可能な外部装置を通じて行われること特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   The imaging device according to any one of claims 1 to 3, wherein the instruction of the user is performed through an external device capable of communicating with the imaging device. 前記学習用の撮影画像の教師値は、前記ユーザの指示により行われた撮影から得られた撮影画像である記録画像の教師値に基づいて決定されること特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。   5. The teaching value of the photographed image for learning is determined based on the teaching value of a recorded image which is a photographed image obtained from photographing performed by the user's instruction. An imaging device according to claim 1. 前記記録画像と前記学習用の撮影画像の撮影条件の差が大きくなるほど、前記記録画像と前記学習用の撮影画像の前記教師値の差が大きくなるように前記学習用の撮影画像の教師値を決定すること特徴とする請求項5に記載の撮像装置。   The teaching value of the taken image for learning is set so that the difference between the teaching value of the recorded image and the taken image for learning becomes larger as the difference between the photographing conditions of the recorded image and the taken image for learning increases. The imaging device according to claim 5, wherein the imaging device is determined. 前記記録画像と前記学習用の撮影画像のシャッタータイミングの差が大きくなるほど、前記記録画像と前記学習用の撮影画像の前記教師値の差が大きくなるように前記学習用の撮影画像の教師値を決定すること特徴とする請求項5に記載の撮像装置。   The teaching value of the photographed image for learning is set so that the difference between the teaching value of the recorded image and the photographed image for learning increases as the difference between the shutter timings of the recorded image and the photographed image for learning increases. The imaging device according to claim 5, wherein the imaging device is determined. 前記登録手段は、前記学習用の撮影画像の少なくとも一部を、負の教師データとして登録することを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。   The imaging device according to any one of claims 1 to 7, wherein the registration unit registers at least a part of the photographed image for learning as negative teacher data. 前記登録手段は、前記学習用の撮影画像のうち、前記ユーザの指示により行われた撮影から得られた撮影画像との類似度が閾値より低い画像を、負の教師データとして登録することを特徴とする請求項8に記載の撮像装置。   The registration unit is characterized in that, among the photographed images for learning, an image having a degree of similarity lower than a threshold with a photographed image obtained from the photographing performed by the user's instruction is registered as negative teacher data. The imaging device according to claim 8. 前記学習用の撮影画像は、前記ユーザの指示により行われた撮影から得られた撮影画像の撮影条件と、少なくとも、フォーカス、露出、ホワイトバランス、ストロボ発光、ズームのいずれかの条件を変えて撮影された画像であることを特徴とする請求項1乃至9のいずれか1項に記載の撮像装置。   The photographed image for learning is photographed by changing the photographing condition of the photographed image obtained from the photographing performed by the user's instruction and at least any of the focus, exposure, white balance, strobe light emission, and zoom. The imaging device according to any one of claims 1 to 9, which is a captured image. 前記学習用の撮影画像は、前記ユーザの指示により行われた撮影の直前または直後に撮影された動画から生成されることを特徴とする請求項1乃至10のいずれか1項に記載の撮像装置。   The imaging device according to any one of claims 1 to 10, wherein the learning photographed image is generated from a moving image photographed immediately before or after photographing performed by the user's instruction. . 前記学習用の撮影画像は、前記ユーザの指示により行われた撮影の直前または直後に撮影された連写画像であることを特徴とする請求項1乃至10のいずれか1項に記載の撮像装置。   The imaging device according to any one of claims 1 to 10, wherein the learning photographed image is a continuously shot image photographed immediately before or after photographing performed according to the user's instruction. . 前記撮影手段は、電子シャッターにより前記学習用の撮影画像を撮影することを特徴とする請求項1乃至12のいずれか1項に記載の撮像装置。   The imaging apparatus according to any one of claims 1 to 12, wherein the imaging unit captures the learning image by using an electronic shutter. 前記制御手段は、前記教師データの数が所定の数より少ないときに、前記撮影手段に前記学習用の撮影画像を撮影させることを特徴とする請求項1乃至13のいずれか1項に記載の撮像装置。   14. The control method according to any one of claims 1 to 13, wherein when the number of the teacher data is smaller than a predetermined number, the control means causes the imaging means to capture the captured image for learning. Imaging device. 前記制御手段は、前記学習手段により学習された条件に基づくニューラルネットワークにより前記自動撮影の判定を行うものであり、前記ニューラルネットワークに前記学習用の撮影画像を入力して出力された値と前記教師データの教師値の差に基づいて、前記撮影手段に前記学習用の撮影画像を撮影させるか否かを決定することを特徴とする請求項1乃至13のいずれか1項に記載の撮像装置。   The control means determines the automatic photographing by a neural network based on a condition learned by the learning means, and the teacher outputs a value obtained by inputting the photographed image for learning to the neural network and the teacher The imaging apparatus according to any one of claims 1 to 13, wherein whether or not to cause the imaging unit to capture the learning image is determined based on a difference in teacher values of data. 前記制御手段は、前記ニューラルネットワークに前記学習用の撮影画像を入力して出力された値と前記教師データの教師値の差が所定の値より小さくなった場合、前記撮影手段に前記学習用の撮影画像を撮影させないことを特徴とする請求項15に記載の撮像装置。   The control means is configured to input the learning image to the imaging means when a difference between a value output by inputting the photographed image for learning into the neural network and an output value of the teacher data becomes smaller than a predetermined value. The imaging device according to claim 15, wherein the imaging image is not captured. 前記制御手段は、前記ニューラルネットワークに前記学習用の撮影画像を入力して出力された値と前記教師データの教師値の差が所定の値以上となった場合、前記学習用の撮影画像を教師データとして用いないことを特徴とする請求項15に記載の撮像装置。   The control means is configured to teach the photographed image for learning when a difference between a value output by inputting the photographed image for learning into the neural network and a teacher value of the teacher data is equal to or more than a predetermined value. The imaging device according to claim 15, wherein the imaging device is not used as data. 前記学習手段により学習された条件に基づくニューラルネットワークにより前記自動撮影の判定を行うものであり、
前記ニューラルネットワークの入力層の特徴量を組み合わせたベクトルにおいて、前記ユーザの指示により行われた撮影から得られた撮影画像と前記学習用の撮影画像のデータの差が所定の値以上となった場合、前記学習用の撮影画像を教師データとして用いないことを特徴とする請求項1乃至13のいずれか1項に記載の撮像装置。
The determination of the automatic photographing is performed by a neural network based on the conditions learned by the learning means,
When the difference between the data of the photographed image obtained from the photographing performed by the user's instruction and the data of the photographed image for learning becomes a predetermined value or more in the vector combining the feature quantities of the input layer of the neural network The image pickup apparatus according to any one of claims 1 to 13, wherein the photographed image for learning is not used as teacher data.
撮影手段により撮影された撮影画像に関するデータを取得する取得工程と、
前記取得工程において取得された教師データに基づいて、ユーザが好む画像の条件を学習する学習工程と、
前記学習工程において学習された条件に基づいて、前記撮影手段による自動撮影の判定を行う制御工程と、
ユーザの指示により行われた撮影に連続して撮影された学習用の撮影画像について前記取得工程において取得されたデータを前記教師データとして登録する登録工程と、
を有することを特徴とする撮像装置の制御方法。
An acquisition step of acquiring data related to a photographed image photographed by the photographing means;
A learning step of learning conditions of an image preferred by the user based on the teacher data acquired in the acquiring step;
A control step of performing automatic photographing determination by the photographing means based on the conditions learned in the learning step;
A registration step of registering, as the teacher data, data acquired in the acquisition step on a learning photographed image continuously photographed in accordance with a user's instruction;
And a control method of an imaging apparatus.
請求項19に記載の制御方法の各工程をコンピュータに実行させるためのプログラム。   The program for making a computer perform each process of the control method of Claim 19. 請求項19に記載の制御方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。   A computer readable storage medium storing a program for causing a computer to execute each step of the control method according to claim 19.
JP2018203255A 2017-12-26 2018-10-29 Imaging device and control method therefor, program, storage medium Active JP6641447B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
GB1919386.1A GB2582197B (en) 2017-12-26 2018-12-18 Image capturing apparatus, method of controlling the same, and storage medium
GB1820576.5A GB2570792B (en) 2017-12-26 2018-12-18 Image capturing apparatus, method of controlling the same, and storage medium
US16/229,127 US10893191B2 (en) 2017-12-26 2018-12-21 Image capturing apparatus, method of controlling the same, and storage medium
DE102018133328.5A DE102018133328A1 (en) 2017-12-26 2018-12-21 An image pickup device, a method of controlling the image pickup device, and a storage medium
CN201811600101.7A CN109981976B (en) 2017-12-26 2018-12-26 Image pickup apparatus, control method thereof, and storage medium
US17/112,068 US11405546B2 (en) 2017-12-26 2020-12-04 Image capturing apparatus, method of controlling the same, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017250104 2017-12-26
JP2017250104 2017-12-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019231955A Division JP6799660B2 (en) 2017-12-26 2019-12-23 Image processing device, image processing method, program

Publications (2)

Publication Number Publication Date
JP2019118098A true JP2019118098A (en) 2019-07-18
JP6641447B2 JP6641447B2 (en) 2020-02-05

Family

ID=67305454

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018203255A Active JP6641447B2 (en) 2017-12-26 2018-10-29 Imaging device and control method therefor, program, storage medium
JP2019231955A Active JP6799660B2 (en) 2017-12-26 2019-12-23 Image processing device, image processing method, program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019231955A Active JP6799660B2 (en) 2017-12-26 2019-12-23 Image processing device, image processing method, program

Country Status (2)

Country Link
JP (2) JP6641447B2 (en)
GB (1) GB2582197B (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210023707A1 (en) * 2019-07-23 2021-01-28 Toyota Research Institute, Inc. Virtual teach and repeat mobile manipulation system
JP2021022811A (en) * 2019-07-26 2021-02-18 株式会社オレンジテクラボ Moving image processing device, moving image processing method, and moving image processing program
CN113014796A (en) * 2019-12-20 2021-06-22 佳能株式会社 Image processing apparatus, image capturing apparatus, image processing method, and storage medium
WO2021130593A1 (en) * 2019-12-27 2021-07-01 株式会社半導体エネルギー研究所 Imaging system
WO2021193147A1 (en) 2020-03-27 2021-09-30 ソニーグループ株式会社 Image-capturing device, image-capturing method, and program
WO2021229926A1 (en) * 2020-05-15 2021-11-18 ソニーグループ株式会社 Information processing device, information processing method, computer program, and imaging device
WO2022014306A1 (en) * 2020-07-16 2022-01-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Learning method, image identification method, learning device, and image identification system
WO2023286360A1 (en) * 2021-07-12 2023-01-19 古野電気株式会社 Training data collection device, training data collection method, and program

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022201810A1 (en) * 2021-03-24 2022-09-29 富士フイルム株式会社 Control device, control method, and program
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information
US11895368B2 (en) * 2022-03-04 2024-02-06 Humane, Inc. Generating, storing, and presenting content based on a memory metric

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2404511B (en) * 2003-07-26 2007-08-22 Hewlett Packard Development Co Image capture device having a learning function
JP6205941B2 (en) * 2013-07-24 2017-10-04 富士通株式会社 Imaging program, imaging method, and information processing apparatus
JP6624167B2 (en) * 2017-06-26 2019-12-25 カシオ計算機株式会社 Imaging control device, imaging control method, and imaging control program
JP6544716B2 (en) * 2017-12-15 2019-07-17 オムロン株式会社 DATA GENERATION APPARATUS, DATA GENERATION METHOD, AND DATA GENERATION PROGRAM

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11580724B2 (en) * 2019-07-23 2023-02-14 Toyota Research Institute, Inc. Virtual teach and repeat mobile manipulation system
US20210023707A1 (en) * 2019-07-23 2021-01-28 Toyota Research Institute, Inc. Virtual teach and repeat mobile manipulation system
JP2021022811A (en) * 2019-07-26 2021-02-18 株式会社オレンジテクラボ Moving image processing device, moving image processing method, and moving image processing program
JP7374430B2 (en) 2019-07-26 2023-11-07 株式会社オレンジテクラボ Video processing device, video processing method, and video processing program
EP3843378A1 (en) * 2019-12-20 2021-06-30 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus and image processing method
CN113014796B (en) * 2019-12-20 2023-11-03 佳能株式会社 Image processing apparatus, image capturing apparatus, image processing method, and storage medium
CN113014796A (en) * 2019-12-20 2021-06-22 佳能株式会社 Image processing apparatus, image capturing apparatus, image processing method, and storage medium
WO2021130593A1 (en) * 2019-12-27 2021-07-01 株式会社半導体エネルギー研究所 Imaging system
US11924589B2 (en) 2019-12-27 2024-03-05 Semiconductor Energy Laboratory Co., Ltd. Imaging system
WO2021193147A1 (en) 2020-03-27 2021-09-30 ソニーグループ株式会社 Image-capturing device, image-capturing method, and program
WO2021229926A1 (en) * 2020-05-15 2021-11-18 ソニーグループ株式会社 Information processing device, information processing method, computer program, and imaging device
WO2022014306A1 (en) * 2020-07-16 2022-01-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Learning method, image identification method, learning device, and image identification system
WO2023286360A1 (en) * 2021-07-12 2023-01-19 古野電気株式会社 Training data collection device, training data collection method, and program

Also Published As

Publication number Publication date
JP6641447B2 (en) 2020-02-05
GB201919386D0 (en) 2020-02-05
GB2582197A (en) 2020-09-16
GB2582197B (en) 2021-12-08
JP6799660B2 (en) 2020-12-16
JP2020061761A (en) 2020-04-16

Similar Documents

Publication Publication Date Title
JP6799660B2 (en) Image processing device, image processing method, program
JP7077376B2 (en) Image pickup device and its control method
CN109981976B (en) Image pickup apparatus, control method thereof, and storage medium
JP6641446B2 (en) Image processing method, image processing device, imaging device, program, storage medium
CN111294488B (en) Image pickup apparatus, control method thereof, and storage medium
JP7233162B2 (en) IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM, STORAGE MEDIUM
JP2022070684A (en) Imaging device, control method thereof, and program
WO2019124055A1 (en) Image capturing device, control method therefor, program, and storage medium
KR102475999B1 (en) Image processing apparatus and method for controling thereof
CN112040115B (en) Image processing apparatus, control method thereof, and storage medium
JP6852141B2 (en) Information processing device, imaging device, control method of information processing device, and program
US11463617B2 (en) Information processing apparatus, information processing system, image capturing apparatus, information processing method, and memory
JP7403218B2 (en) Imaging device, its control method, program, storage medium
JP2023057157A (en) Image capturing apparatus, method for controlling the same, and program
JP7267686B2 (en) Imaging device and its control method
JP6896818B2 (en) Information processing equipment, information processing methods, and programs
JP7199808B2 (en) Imaging device and its control method
JP2021057815A (en) Imaging apparatus, control method of the same, program, and storage medium
JP7393133B2 (en) Image processing device, image processing method, imaging device, program, storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191227

R151 Written notification of patent or utility model registration

Ref document number: 6641447

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151