JP7175772B2 - Imaging device and imaging method - Google Patents

Imaging device and imaging method Download PDF

Info

Publication number
JP7175772B2
JP7175772B2 JP2019000640A JP2019000640A JP7175772B2 JP 7175772 B2 JP7175772 B2 JP 7175772B2 JP 2019000640 A JP2019000640 A JP 2019000640A JP 2019000640 A JP2019000640 A JP 2019000640A JP 7175772 B2 JP7175772 B2 JP 7175772B2
Authority
JP
Japan
Prior art keywords
image
user
control circuit
shooting
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019000640A
Other languages
Japanese (ja)
Other versions
JP2020109915A (en
Inventor
和男 神田
和彦 志村
佳之 福谷
伸之 志摩
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2019000640A priority Critical patent/JP7175772B2/en
Publication of JP2020109915A publication Critical patent/JP2020109915A/en
Application granted granted Critical
Publication of JP7175772B2 publication Critical patent/JP7175772B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置及び撮像方法に関する。 The present invention relates to an imaging device and an imaging method .

近年、ユーザによる機器の操作履歴を利用できるように構成された機器が提案されてきている。例えば、特許文献1の医療装置は、医用画像に対して行われた操作を記憶しておくことで、この操作を後で再現できるように構成されている。 2. Description of the Related Art In recent years, devices have been proposed that are configured to be able to use device operation histories by users. For example, the medical device disclosed in Patent Literature 1 is configured to store an operation performed on a medical image so that the operation can be reproduced later.

特開2014-176516号公報JP 2014-176516 A

デジタルカメラ等の撮像装置においては、ユーザは、特定の対象物やシーンの画像を自分の望むように撮影したり、対象物を含む画像を確認したり、編集したりするために各種の操作をする。この操作には、対象物毎のユーザのこだわり等が反映されることが多い。 2. Description of the Related Art In an imaging device such as a digital camera, a user performs various operations in order to take a desired image of a specific object or scene, check an image including the object, and edit the image. do. This operation often reflects the user's preference for each object.

本発明は、前記の事情に鑑みてなされたものであり、過去の操作の履歴を利用することで、対象物又はシーン毎のユーザのこだわり等を反映してユーザをアシストする撮像装置及び撮像方法を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and an image pickup apparatus and image pickup method that assist a user by reflecting the user's preference for each object or scene by utilizing the history of past operations. The purpose is to provide law .

本発明の第1の態様の撮像装置は、表示素子に再生された第1の画像に対するユーザの操作を取得し、取得された前記操作の履歴に従って前記第1の画像における第1の対象物を特定し、第2の画像の撮影時における対象物が前記第1の対象物と類似した第2の対象物であるか否かを判定し、前記第2の画像の撮影時における前記対象物が前記第2の対象物であるときに、前記操作の履歴に従って前記第2の画像の撮影をアシストするための制御をするように構成された少なくとも1つの制御回路を具備し、前記表示素子に再生された第1の画像は、前記ユーザが撮影した画像であり、前記制御回路は、前記第1の画像の中で前記ユーザによって確認された領域に含まれる対象物を前記第1の対象物として抽出し、前記第2の画像の撮影時において、前記表示素子に再生された第1の画像に対して行われた編集の操作と対応する制御を行うことができるか否かを判定し、行うことができると判定したときに、前記第1の画像に対して行われた編集の操作と対応する制御を行うThe imaging device according to the first aspect of the present invention acquires a user's operation on a first image reproduced on a display element, and moves a first object in the first image according to the acquired history of the operation. determining whether or not a target object at the time of capturing a second image is a second target object similar to the first target object, and determining whether the target object at the time of capturing the second image is at least one control circuit configured to perform control for assisting shooting of the second image according to the history of the operation when the object is the second object, and reproduced on the display element The captured first image is an image captured by the user, and the control circuit defines an object included in the region confirmed by the user in the first image as the first object. It is determined whether or not control corresponding to the editing operation performed on the first image reproduced on the display element can be performed when the second image is captured, and performed. When it is determined that the first image can be edited, control corresponding to the editing operation performed on the first image is performed .

本発明の第の態様の撮像方法は、ユーザが撮影し、表示素子に再生された第1の画像に対する前記ユーザの操作を取得することと、取得された前記操作の履歴に従って前記第1の画像における第1の対象物を特定することと、第2の画像の撮影時における対象物が前記第1の対象物と類似した第2の対象物であるか否かを判定することと、前記第2の画像の撮影時における前記対象物が前記第2の対象物であるときに、前記操作の履歴に従って前記第2の画像の撮影をアシストするための制御をすることと、前記第1の画像の中で前記ユーザによって確認された領域に含まれる対象物を前記第1の対象物として抽出し、前記第2の画像の撮影時において、前記表示素子に再生された第1の画像に対して行われた編集の操作と対応する制御を行うことができるか否かを判定し、行うことができると判定したときに、前記第1の画像に対して行われた編集の操作と対応する制御を行うこととを具備する。 According to a second aspect of the present invention, there is provided an imaging method comprising : obtaining an operation by the user on a first image photographed by a user and reproduced on a display device; identifying a first object in the image; determining whether the object at the time of capturing the second image is a second object similar to the first object; performing control for assisting the photographing of the second image according to the operation history when the object is the second object at the time of photographing the second image ; An object included in the area confirmed by the user in the image is extracted as the first object, and when the second image is captured, the first image reproduced on the display device is determining whether or not control corresponding to the editing operation performed on the first image can be performed; and controlling .

本発明によれば、過去の操作の履歴を利用することで、対象物又はシーン毎のユーザのこだわり等を反映してユーザをアシストする撮像装置及び撮像方法を提供することができる。 According to the present invention, it is possible to provide an imaging apparatus and an imaging method that assist a user by reflecting the user's preference for each object or scene by using the history of past operations.

図1は、第1の実施形態に係る撮像装置の一例の構成を示す図である。FIG. 1 is a diagram showing the configuration of an example of an imaging device according to the first embodiment. 図2Aは、静止画を撮影しているユーザの動作の一例を示す図である。FIG. 2A is a diagram illustrating an example of a user's action while capturing a still image. 図2Bは、撮影時の操作履歴を活用した撮影時のアシスト制御の一例を示す図である。FIG. 2B is a diagram illustrating an example of assist control at the time of shooting using the operation history at the time of shooting. 図2Cは、撮影時の操作履歴を活用した別の撮影時のアシスト制御の一例を示す図である。FIG. 2C is a diagram illustrating another example of assist control during shooting using the operation history during shooting. 図3Aは、静止画を再生したユーザの動作の一例を示す図である。FIG. 3A is a diagram illustrating an example of a user's action that reproduces a still image. 図3Bは、再生時の操作履歴を活用した撮影時のアシスト制御の例を示す図である。FIG. 3B is a diagram illustrating an example of assist control at the time of shooting using the operation history at the time of playback. 図4Aは、動画撮影時のユーザの動作の一例を示す図である。FIG. 4A is a diagram illustrating an example of a user's motion when shooting a moving image. 図4Bは、動画再生時のユーザの動作の一例を示す図である。FIG. 4B is a diagram illustrating an example of a user's action during video playback. 図5は、第1の実施形態における撮像装置の動作の一例を示すフローチャートである。FIG. 5 is a flow chart showing an example of the operation of the imaging device according to the first embodiment. 図6は、操作履歴を含む画像ファイルの例を示す図である。FIG. 6 is a diagram showing an example of an image file containing an operation history. 図7は、静止画又は動画撮影後に行われる分析処理の一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of analysis processing performed after still image or moving image shooting. 図8は、静止画の再生時に行われる分析処理の一例を示すフローチャートである。FIG. 8 is a flow chart showing an example of analysis processing performed during playback of a still image. 図9は、動画の再生時に行われる分析処理の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of analysis processing that is performed when playing back a moving image. 図10は、撮影時のアシスト制御について示すフローチャートである。FIG. 10 is a flowchart showing assist control during shooting. 図11は、一例の撮影時の状況を示す図である。FIG. 11 is a diagram showing an example of a situation during photographing. 図12は、拡大表示についてのアシスト制御の例を示す図である。FIG. 12 is a diagram showing an example of assist control for enlarged display. 図13は、再生時のアシスト制御について示すフローチャートである。FIG. 13 is a flowchart showing assist control during reproduction. 図14は、コマ選択についてのアシスト制御の例を示す図である。FIG. 14 is a diagram showing an example of assist control for frame selection. 図15は、第2の実施形態に係る撮像装置の一例の構成を示す図である。FIG. 15 is a diagram illustrating an example configuration of an imaging device according to the second embodiment. 図16Aは、推論エンジン116aを作成するための深層学習の概念を示す図である。FIG. 16A is a diagram illustrating deep learning concepts for creating an inference engine 116a. 図16Bは、推論エンジン116bを作成するための深層学習の概念を示す図である。FIG. 16B is a diagram illustrating deep learning concepts for creating the inference engine 116b. 図17は、推論エンジンを生成するための処理の一例を示したフローチャートである。FIG. 17 is a flowchart illustrating an example of processing for generating an inference engine.

以下、図面を参照して本発明の実施形態を説明する。
[第1の実施形態]
第1の実施形態について説明する。図1は、第1の実施形態に係る撮像装置の一例の構成を示す図である。撮像装置100は、制御回路102と、撮像部104と、表示素子106と、メモリ108と、記録媒体110と、操作部112と、通信回路114とを有している。撮像装置100は、表示素子106を有していて、画像を再生する再生装置としても動作する。この撮像装置100は、デジタルカメラ、スマートフォン、タブレット端末、携帯ゲーム機といった、撮像機能又は再生機能を有する各種の機器に対して適用され得る。撮像装置100は、図1で示した以外の構成を有していてもよいし、図1で示した一部の構成を有していなくてもよい。
Embodiments of the present invention will be described below with reference to the drawings.
[First Embodiment]
A first embodiment will be described. FIG. 1 is a diagram showing the configuration of an example of an imaging device according to the first embodiment. The imaging device 100 has a control circuit 102 , an imaging unit 104 , a display element 106 , a memory 108 , a recording medium 110 , an operation unit 112 and a communication circuit 114 . The imaging device 100 has a display element 106 and also operates as a reproducing device for reproducing images. This imaging device 100 can be applied to various devices having an imaging function or a playback function, such as digital cameras, smart phones, tablet terminals, and portable game machines. The imaging device 100 may have a configuration other than that shown in FIG. 1, or may not have a part of the configuration shown in FIG.

制御回路102は、撮像装置100の各部の動作を制御する。制御回路102は、CPU、GPU、ASIC、FPGA、メインメモリといったハードウェアを備えている。制御回路102は、単独のCPU等によって構成されてもよいし、複数のCPU等によって構成されてもよい。また、制御回路102による一部の処理は、ソフトウェアによって実現されてもよい。 A control circuit 102 controls the operation of each unit of the imaging apparatus 100 . The control circuit 102 includes hardware such as a CPU, GPU, ASIC, FPGA, and main memory. The control circuit 102 may be configured by a single CPU or the like, or may be configured by a plurality of CPUs or the like. Also, part of the processing by the control circuit 102 may be realized by software.

撮像部104は、対象物の画像を取得する。撮像部104は、例えば光学系104a及び撮像素子104bを含む。光学系104aは、対象物からの光を撮像素子104bに入射させる。光学系104aは、焦点距離を可変させるためのズーム光学系を有していてもよいし、ピント位置を可変させるためのフォーカス光学系を有していてもよい。撮像素子104bは、例えばCMOSイメージャ、CCDイメージャといった撮像素子である。撮像素子104bは、対象物からの光を電気信号に変換する。 The imaging unit 104 acquires an image of an object. The imaging unit 104 includes, for example, an optical system 104a and an imaging device 104b. The optical system 104a allows light from the object to enter the imaging device 104b. The optical system 104a may have a zoom optical system for varying the focal length, or may have a focus optical system for varying the focus position. The imaging device 104b is, for example, an imaging device such as a CMOS imager or a CCD imager. The imaging device 104b converts light from the object into an electrical signal.

メモリ108は、RAM及びROMといったメモリである。メモリ108には、撮像装置100の動作のためのプログラム及びパラメータが記憶される。また、メモリ108には、ユーザの操作部112の操作履歴の情報が記憶される。操作履歴の情報は、画像の撮影時のユーザ操作の履歴又は画像の再生時のユーザの操作の履歴の情報である。メモリ108は、単一であっても複数であってもよい。 The memory 108 is memory such as RAM and ROM. The memory 108 stores programs and parameters for the operation of the imaging device 100 . In addition, the memory 108 stores information on the operation history of the operation unit 112 of the user. The information on the operation history is information on the history of user operations during image shooting or user operation history during image reproduction. Memory 108 may be single or multiple.

記録媒体110は、フラッシュメモリといったメモリを含む。記録媒体110には、撮像装置100で取得された画像が記録される。記録媒体110は、撮像装置100に内蔵されていなくてもよい。例えば、記録媒体110は、撮像装置100に対して着脱できるように構成されていてもよい。 The recording medium 110 includes memory such as flash memory. Images captured by the imaging device 100 are recorded on the recording medium 110 . The recording medium 110 does not have to be built in the imaging device 100 . For example, the recording medium 110 may be configured to be detachable from the imaging device 100 .

表示素子106は、各種の画像を表示する。表示素子106は、液晶ディスプレイ又は有機ELディスプレイといった表示素子である。また、表示素子106は、音声を再生するためのスピーカ等を有していてもよい。 The display element 106 displays various images. The display element 106 is a display element such as a liquid crystal display or an organic EL display. Moreover, the display element 106 may have a speaker or the like for reproducing sound.

操作部112は、ボタン、スイッチ、ダイヤルといった機械的な操作部材を含む。また、操作部112は、タッチパネルを含んでいてもよい。撮像装置100が表示素子を含んでいるときには、タッチパネルは表示素子と一体的に設けられていてもよい。 The operation unit 112 includes mechanical operation members such as buttons, switches, and dials. Moreover, the operation unit 112 may include a touch panel. When the imaging device 100 includes a display element, the touch panel may be provided integrally with the display element.

通信回路114は、撮像装置100が撮像装置100の外部のサーバ等と通信するための回路を含む。通信回路114は、例えばWi-Fi(登録商標)のための通信回路である。通信回路114は、例えばBluetooth(登録商標)のための通信回路を含んでいてもよい。このほか、通信回路114は、各種の有線通信のための通信回路を含んでいてもよい。 The communication circuit 114 includes a circuit for the imaging device 100 to communicate with a server or the like external to the imaging device 100 . The communication circuit 114 is, for example, a communication circuit for Wi-Fi (registered trademark). Communication circuitry 114 may include, for example, communication circuitry for Bluetooth®. In addition, communication circuit 114 may include communication circuits for various wired communications.

以下、第1の実施形態に係る撮像装置100の動作を説明する。図2Aは、静止画を撮影しているユーザの動作の一例を示している。図2Aにおいて、左右に並んだ四角形は、各時点の撮影画像を模式的に示し、例えば左から右に向けて時間が経過しているものとする。 The operation of the imaging device 100 according to the first embodiment will be described below. FIG. 2A shows an example of a user's behavior while taking a still image. In FIG. 2A , squares arranged on the left and right schematically represent captured images at each point in time, and it is assumed that time elapses from left to right, for example.

例えば撮像装置100の動作が撮影モードに設定されると、撮像装置100の表示素子106にはライブビューLが表示される。ライブビューLは、撮像部104の連続動作によって撮像部104で逐次に取得される画像である。ライブビューLがリアルタイムで表示されることにより、ユーザは表示素子106を用いて撮影の対象物Oを確認することができる。 For example, when the operation of the imaging device 100 is set to the shooting mode, the live view L is displayed on the display element 106 of the imaging device 100 . A live view L is an image that is sequentially acquired by the imaging unit 104 through continuous operation of the imaging unit 104 . By displaying the live view L in real time, the user can use the display element 106 to check the object O to be photographed.

ライブビューLの表示中、ユーザは、ライブビューLを見ながら例えばモード設定、フレーミング、ズーミング、ピント合わせ/露出合わせといった各種の操作を行う。図2Aでは、フレーミング、ズーミング、ピント合わせ/露出合わせの順で操作が行われている。しかしながら、この順序は一例である。モード設定、フレーミング、ズーミング、ピント合わせ/露出合わせは、任意の順序で行われ得る。また、ライブビューLの表示中にモード設定、フレーミング、ズーミング、ピント合わせ/露出合わせ以外の動作が行われることもあるし、何れかの動作が行われないこともある。 While the live view L is being displayed, the user performs various operations such as mode setting, framing, zooming, and focusing/exposure adjustment while watching the live view L. In FIG. 2A, operations are performed in the order of framing, zooming, and focusing/exposure. However, this order is an example. Mode setting, framing, zooming, focusing/exposure can be done in any order. Further, operations other than mode setting, framing, zooming, and focusing/exposure adjustment may be performed during display of the live view L, or any of the operations may not be performed.

モード設定では、ユーザは、撮影しようとしている画像に応じて撮像装置100のモードを特定のモードに設定する。このモードは、ハイダイナミックレンジ(HDR)モード、深度合成モード、超解像モード、RAWモードといったモードを含む。HDRモードは、同一の対象物を異なる露出で複数回撮影することにより得られた複数の画像を合成することにより、ダイナミックレンジが拡大された画像を得るモードである。深度合成モードは、同一のシーンを異なるピント状態で複数回撮影することにより得られた複数の画像を合成することにより、異なる距離の対象物に対して同時にピントがあった画像を得るモードである。超解像モードは、同一の対象物を光学系104a又は撮像素子104bの位置をずらしながら複数回撮影することにより得られた画像を合成することにより、元の画像よりも高解像度の画像を得るモードである。RAWモードは、撮像部104で得られた画像を画像処理せずにそのまま記録媒体110に記録するモードである。実施形態において、制御回路102は、モードの設定がされる毎にモードの操作履歴を例えばメモリ108に記憶させていく。モードの操作履歴は、例えば設定されたモードの名称を含む。 In mode setting, the user sets the mode of the imaging device 100 to a specific mode according to the image to be captured. This mode includes modes such as high dynamic range (HDR) mode, focus stacking mode, super resolution mode, and RAW mode. The HDR mode is a mode in which an image with an expanded dynamic range is obtained by synthesizing a plurality of images obtained by photographing the same object multiple times with different exposures. Focus stacking mode is a mode in which a plurality of images obtained by photographing the same scene multiple times with different focus states are combined to obtain images of objects at different distances that are in focus at the same time. . The super-resolution mode obtains an image with higher resolution than the original image by synthesizing the images obtained by photographing the same object multiple times while shifting the position of the optical system 104a or the image sensor 104b. mode. The RAW mode is a mode in which an image obtained by the imaging unit 104 is recorded as it is on the recording medium 110 without image processing. In the embodiment, the control circuit 102 stores the mode operation history in the memory 108, for example, each time the mode is set. The mode operation history includes, for example, the name of the set mode.

フレーミングでは、ユーザは、ライブビューLを確認しながら例えば撮像装置100の筐体を動かすことで、所望の対象物OをライブビューLにおける所望の位置に収める。このような操作を記憶するため、制御回路102は、ライブビューLの画像を例えばメモリ108に記憶させる。このライブビューLが、フレーミングの操作履歴として用いられ得る。撮像装置100が動きセンサを有していれば、動きセンサによって検出される撮像装置100の動きがフレーミングの操作履歴として用いられてもよい。さらに、フレーミングにおいて、対象物が小さくて見えない場合又は対象物をより細かく見たい場合に、ユーザは、気になる対象物の拡大表示の操作をすることもある。制御回路102は、撮影モード時の拡大操作の履歴を操作履歴としてメモリ108に記憶させてもよい。 In framing, the user moves the housing of the imaging device 100, for example, while confirming the live view L, so that the desired object O is placed in the desired position in the live view L. In order to store such operations, the control circuit 102 causes the image of the live view L to be stored in the memory 108, for example. This live view L can be used as an operation history for framing. If the imaging device 100 has a motion sensor, the motion of the imaging device 100 detected by the motion sensor may be used as the framing operation history. Furthermore, in framing, when the object is too small to be seen or when the user wants to see the object in more detail, the user may perform an operation to enlarge and display the object of interest. The control circuit 102 may cause the memory 108 to store a history of enlarging operations in the shooting mode as an operation history.

ズーミングでは、ユーザは、ライブビューLに表示される対象物Oのサイズが所望のものとなるように、光学ズームを使用したり、電子ズームを使用したりする。制御回路102は、ズーミングに関する操作がされる毎にズーミングの操作履歴を例えばメモリ108に記憶させる。ズーミングの操作履歴は、光学ズームの操作履歴と電子ズームの操作履歴とを含む。光学ズームの操作履歴は、例えばズーム光学系の焦点距離を含む。電子ズームの操作履歴は、例えば電子ズームがされた画像内の領域の位置及びズームの倍率を含む。対象物を特定できるときには、ズーミングの操作履歴は、ズーミングの対象となった対象物の情報を含んでいてもよい。対象物の情報は、例えば対象物の名称を含む。また、対象物の情報は、撮影された画像に写っている対象物の画像上での構造的な特徴を表す情報、例えばエッジの形状、明るさ、色といった情報を含んでいてもよい。 In zooming, the user uses an optical zoom or an electronic zoom so that the size of the object O displayed in the live view L becomes a desired size. The control circuit 102 stores a zooming operation history in the memory 108, for example, each time an operation related to zooming is performed. The zooming operation history includes an optical zoom operation history and an electronic zoom operation history. The optical zoom operation history includes, for example, the focal length of the zoom optical system. The electronic zoom operation history includes, for example, the position of the area in the electronically zoomed image and the zoom magnification. When the object can be identified, the zooming operation history may include information on the object that has been zoomed. The object information includes, for example, the name of the object. The object information may also include information representing the structural features of the object in the captured image, such as edge shape, brightness, and color.

ピント合わせでは、特定の対処物に対して撮像部104の光学系104aのピントが調節される。制御回路102は、ピント合わせが行われる毎に、ピント合わせの操作履歴を例えばメモリ108に記憶させる。ピント合わせの操作履歴は、例えばピント合わせが自動で行われたか否かを示す情報、ピント合わせが行われた際に使用された判定情報、フォーカス光学系の位置及びピント合わせの対象となった画像内の領域の位置を含む。判定情報は、位相差方式であれば2像間隔値及びデフォーカス量、コントラスト方式であればコントラスト差といった情報を含む。対象物を特定できるときには、ピント合わせの操作履歴は、ピント合わせの対象となった対象物の情報を含んでいてもよい。 In focusing, the focus of the optical system 104a of the imaging unit 104 is adjusted with respect to a specific object. The control circuit 102 causes the memory 108, for example, to store the operation history of focusing each time the focusing is performed. The operation history of focusing includes, for example, information indicating whether or not focusing was performed automatically, determination information used when focusing was performed, the position of the focusing optical system, and the image to be focused. Contains the location of the region within the . The determination information includes information such as a two-image interval value and a defocus amount in the case of the phase difference method, and contrast difference in the case of the contrast method. When the target can be specified, the focusing operation history may include information on the target for focusing.

露出合わせでは、特定の対象物の明るさが撮影時において適正となるように絞り及びシャッタスピードが調節される。制御回路102は、露出合わせが行われる毎に、露出合わせの操作履歴を例えばメモリ108に記憶させる。露出合わせの操作履歴は、例えば露出合わせが自動で行われたか否かを示す情報、露出合わせが行われた画像内の領域の位置を含む。対象物を特定できるときには、露出合わせの操作履歴は、露出合わせの対象となった対象物の情報を含んでいてもよい。 In exposure matching, the aperture and shutter speed are adjusted so that the brightness of a specific object is appropriate when photographing. The control circuit 102 causes the memory 108, for example, to store the operation history of the exposure adjustment each time the exposure adjustment is performed. The operation history of exposure adjustment includes, for example, information indicating whether or not exposure adjustment was performed automatically, and the position of the area within the image in which exposure adjustment was performed. When the target can be identified, the exposure adjustment operation history may include information on the target for exposure adjustment.

ユーザは、ライブビューLを確認しながら所望のタイミングで静止画撮影の指示をする。これを受けて、制御回路102は、静止画撮影のために必要な処理を行う。この結果、静止画が記録媒体110に記録される。制御回路102は、撮影に至るまでの各操作履歴を撮影の結果として得られた静止画と関連付けて例えば記録媒体110に記録する。 While checking the live view L, the user gives an instruction to shoot a still image at a desired timing. In response to this, the control circuit 102 performs necessary processing for still image shooting. As a result, a still image is recorded on the recording medium 110 . The control circuit 102 records, for example, the recording medium 110 in association with the still image obtained as a result of photographing each operation history up to photographing.

操作履歴の記録後、制御回路102は、操作履歴を分析する。例えば、制御回路102は、撮影結果として得られた静止画及びライブビューのそれぞれから対象物を抽出する。対象物の抽出は、エッジ抽出及び画像マッチング等の手法で行われ得る。撮影の結果として得られた静止画に写っている対象物は、今回の撮影においてユーザが興味を持っている対象物であると判断され得る。一方、画像内に複数の対象物が含まれている可能性もある。画像内に複数の対象物が含まれているときには、例えば画像の最も中央に近い場所に存在している対象物、最も近距離に存在している対象物、フォーカス又は露出が合わせられた対象物、ライブビューに写っている時間の長い、すなわちユーザによるフレーミングによって最も画角に収められている時間の長い対象物が、ユーザが興味を持っている対象物であると判断され得る。 After recording the operation history, the control circuit 102 analyzes the operation history. For example, the control circuit 102 extracts the object from each of the still image and the live view obtained as the imaging result. Object extraction can be performed by techniques such as edge extraction and image matching. An object appearing in a still image obtained as a result of photographing can be determined to be an object in which the user is interested in the current photographing. On the other hand, an image may contain multiple objects. When an image contains multiple objects, for example, the object closest to the center of the image, the closest object, the focused or exposed object , an object that is in the live view for the longest time, that is, the object that is most captured in the angle of view by the user's framing can be determined to be the object that the user is interested in.

また、例えば、制御回路102は、設定されたモードを対象物毎に分類する。つまり、ある対象物に対して特定のモードの設定回数が多ければ、次回の類似の対象物の撮影時においてもそのモードに設定される可能性が高いと判断できる。このような判断に基づき、制御回路102は、次回の類似の対象物の撮影時において、例えばその特定のモードの使用を提案することができる。 Also, for example, the control circuit 102 classifies the set modes for each object. That is, if a specific mode is set many times for a certain object, it can be determined that there is a high possibility that the mode will be set for the next similar object to be photographed. Based on such a determination, the control circuit 102 can, for example, suggest using that particular mode the next time a similar object is photographed.

また、例えば、制御回路102は、拡大表示、ズーミング、ピント合わせ、露出合わせがされた領域を対象物毎に分類する。ある対象物についてライブビュー中にその対象物の特定の位置が拡大表示されている回数が多かったり、ある対象物に対してズーミングが適用される回数が多かったり、特定の位置にピント合わせされている回数が多かったり、特定の位置に露出合わせされている回数が多かったりすれば、次回の類似の対象物の撮影時においてもその特定の位置に対して拡大表示、ズーミング、ピント合わせ又は露出合わせが行われる可能性が高いと判断できる。このような判断に基づき、制御回路102は、次回の類似の対象物の撮影時において、その特定の位置を予め拡大したり、その対象物をズーミングしたり、その位置に対してピント合わせ又は露出合わせをしたりといった制御をすることができる。 Also, for example, the control circuit 102 classifies the areas that have been enlarged, zoomed, focused, and exposed for each object. For an object, the number of times a specific position of the object is magnified during live view, the number of times zooming is applied to the object, or the specific position is not in focus. If there is a large number of times that the camera is in a specific position or the number of times that the exposure is adjusted to a specific position, the next time a similar object is photographed, the specific position will be magnified, zoomed, focused, or exposed. can be determined to be likely to occur. Based on such a determination, the control circuit 102 preliminarily enlarges the specific position, zooms the target, adjusts the focus or exposes the target, and adjusts the focus or exposure for the target when photographing a similar target next time. Control such as alignment can be performed.

操作履歴の分析は、操作履歴の対象物毎の分類によって行われるものに限らない。例えば、操作履歴が数値として得られる場合には、この数値の平均値を算出する等の各種の統計処理が用いられてよい。これらの統計処理は、単独で用いられてもよいし、組み合わせて用いられてもよい。 The analysis of the operation history is not limited to that performed by classifying the operation history for each object. For example, when the operation history is obtained as a numerical value, various statistical processing such as calculating the average value of this numerical value may be used. These statistical processes may be used alone or in combination.

図2Bは、撮影時の操作履歴を活用した撮影時のアシスト制御の一例である。例えば、制御回路102は、現在の撮影の対象物が過去に撮影されていた対象物又はシーンと類似であるか否かを判定する。この判定は、例えば、ライブビューの画像と事前にメモリ108に記憶させていた対象物の特徴の情報とを比較することで行われる。そして、現在の撮影の対象物が過去に撮影されていた対象物又はシーンと類似であると判定したときに、制御回路102は、例えば図2Bに示すようにして、対象物Oが画角内に入ったことをユーザに示す矢印マークAを表示させる。この矢印マークAを見たユーザは、自身の興味のある対象物が画角内に入ったことを認識して、撮影の動作をすることが期待される。あるいは、夕日のような様々な色合いが彩なすシーン等についての色再現の好みは、ユーザによって異なる場合がある。このようなシーンも空や雲といった対象物からなるので、対象物と言ってもよい。 FIG. 2B is an example of assist control at the time of shooting using the operation history at the time of shooting. For example, the control circuit 102 determines whether the object currently being photographed is similar to an object or scene that has been photographed in the past. This determination is made, for example, by comparing the live-view image with the feature information of the object stored in the memory 108 in advance. Then, when it is determined that the object currently photographed is similar to the object or scene photographed in the past, the control circuit 102, for example, as shown in FIG. An arrow mark A is displayed to indicate to the user that it has entered the . It is expected that the user who sees the arrow mark A recognizes that an object of interest to him/herself is within the angle of view, and performs a photographing operation. Alternatively, users may have different preferences for color reproduction of scenes such as sunsets, which are colored in various shades. Since such a scene also consists of objects such as the sky and clouds, it can be called an object.

また、制御回路102は、現在の撮影の対象物が過去にHDRモードで撮影されていた対象物であると判定したときに、例えば図2Bに示すようにして、ユーザに対してHDRモードで撮影することを提案するメッセージM1を表示させる。このとき、制御回路102は、ユーザの撮影開始の指示を待たずにHDRモードで対象物を撮影し、HDRモードによる撮影画像を例えばメモリ108に記憶させておいてもよい。この場合、制御回路102は、ユーザによって実際に対象物の撮影開始の指示がされたときには、撮影開始の指示に応じて得られた撮影画像とともに、事前のHDRモードの撮影で得られた撮影画像を記録媒体110に記録してよい。 Further, when the control circuit 102 determines that the current object to be photographed is an object that has been photographed in the HDR mode in the past, the control circuit 102 instructs the user to photograph in the HDR mode, for example, as shown in FIG. 2B. display a message M1 proposing to At this time, the control circuit 102 may capture an image of the object in the HDR mode without waiting for the user's instruction to start capturing, and store the captured image in the HDR mode in the memory 108, for example. In this case, when the user actually instructs the start of photographing of the object, the control circuit 102 displays the photographed image obtained in advance in HDR mode photographing together with the photographed image obtained in response to the instruction to start photographing. may be recorded on the recording medium 110 .

さらに、制御回路102は、対象物Oを狙うことができるようにフレーミングの方向を誘導するためのマークを表示させてもよい。また、制御回路102は、過去の画像の撮影時において対象物の特定の箇所が拡大表示されていたときには、今回の撮影時のライブビューにおいてその特定の箇所を拡大表示させてもよい。また、制御回路102は、過去の画像の撮影時において対象物やシーンの特定の箇所へのピント合わせ又は露出合わせがされていたと判定したときには、今回の撮影時においてその特定の箇所へのピント合わせ及び露出合わせを自動で行ってもよい。 Furthermore, the control circuit 102 may display a mark for guiding the direction of framing so that the object O can be aimed. Further, when a specific portion of the object was displayed in an enlarged manner when the previous image was captured, the control circuit 102 may enlarge and display the specific portion in the live view during the current capturing. Further, when the control circuit 102 determines that a specific portion of an object or scene has been focused or exposed during the past image capturing, the control circuit 102 adjusts the focus or exposure to the specific portion during the current capturing. And exposure adjustment may be performed automatically.

図2Cは、撮影時の操作履歴を活用した別の撮影時のアシスト制御の一例である。撮像装置100は、撮像装置100以外の機器、例えば照明機器とともに用いられることがある。例えば、撮像装置100と照明機器とが通信できるように構成されており、撮像装置100と照明機器との通信によって撮像装置100と照明機器との位置関係を撮像装置100が知ることができるのであれば、過去に照明を用いて撮影された対象物と類似の対象物の撮影時に、制御回路102は、例えば図2Cに示すようにして、照明機器の使用をユーザに対して促すメッセージM2をライブビューに代えて表示させてもよい。また、制御回路102は、図2Cに示すように、過去の画像と同等の画像を撮影するための対象物O、撮像装置100、照明機器Iの位置関係をライブビューに代えて表示させてもよい。図2Cは、例えば空から見た模式図である。この表示において、制御回路102は、照明機器Iの位置だけでなく、照明機器Iの向き等も分かるような表示をしてもよい。さらには、位置関係の表示はライブビューに重ねて表示されてもよい。この場合、撮像装置100から見たライブビュー上の特定の位置に照明機器Iの位置を示す画像が表示される。 FIG. 2C is an example of another assist control at the time of shooting that utilizes the operation history at the time of shooting. The imaging device 100 may be used together with equipment other than the imaging device 100, such as lighting equipment. For example, if the imaging device 100 and the lighting equipment are configured to be able to communicate with each other, and the imaging device 100 can know the positional relationship between the imaging device 100 and the lighting equipment through the communication between the imaging device 100 and the lighting equipment. For example, when photographing an object similar to an object photographed using illumination in the past, the control circuit 102, for example, as shown in FIG. It may be displayed instead of the view. Further, as shown in FIG. 2C, the control circuit 102 may display the positional relationship of the object O, the imaging device 100, and the lighting equipment I for capturing an image equivalent to the past image instead of the live view. good. FIG. 2C is, for example, a schematic diagram viewed from the sky. In this display, the control circuit 102 may display not only the position of the lighting device I but also the direction of the lighting device I and the like. Furthermore, the display of the positional relationship may be superimposed on the live view. In this case, an image indicating the position of the lighting device I is displayed at a specific position on the live view viewed from the imaging device 100 .

また、撮像装置100は、外付けフラッシュ等のアクセサリとともに用いられることもある。特定の対象物の撮影において特定のアクセサリが使用されている回数が多ければ、制御回路102は、次回の撮影時にそのアクセサリの使用を提案するメッセージをライブビューに表示させてもよい。 Also, the imaging device 100 may be used together with an accessory such as an external flash. If the number of times a particular accessory is used in photographing a particular object is high, the control circuit 102 may display a message in live view suggesting the use of that accessory in the next photographing.

また、前述したような撮影時の操作履歴を活用したアシスト制御は、再生時に行われてもよい。例えば、撮影時において拡大表示された領域、ピント合わせされて領域が再生時において拡大表示されてもよい。 Also, the assist control utilizing the operation history at the time of shooting as described above may be performed at the time of playback. For example, the area displayed in an enlarged manner during shooting, and the focused area may be displayed in an enlarged manner during playback.

図3Aは、静止画を再生したユーザの動作の一例を示している。ユーザは、撮影された静止画が所望のものであったかを確認したり、所望の画像が得られるように撮影された静止画を編集したりすることがある。一般に、撮影後の確認作業は、撮影中に比べてユーザの時間的な余裕があることが多い。このため、ユーザは撮影中に比べてより詳細に画像を確認することができる。したがって、撮影後の確認作業の操作履歴を分析することでも、ユーザの興味のある対象物が抽出され得る。 FIG. 3A shows an example of a user's action that reproduces a still image. A user may check whether the captured still image is a desired one, or may edit the captured still image so as to obtain a desired image. In general, the user often has more time to check after shooting than during shooting. Therefore, the user can check the image in more detail than during shooting. Therefore, an object of interest to the user can also be extracted by analyzing the operation history of confirmation work after photographing.

図3Aの動作は、ユーザの望む任意のタイミングで行われ得る。例えば、図3Aの動作は、撮影の直後のタイミングで行われることもあるし、数時間後、数日後といったタイミングで行われることもある。なお、図3Aで示す撮影後の確認作業の動作は一例である。図3Aで示す動作の一部が省略されてもよいし、図3Aで示す以外の動作が行われてもよい。特に撮影直後は、ユーザは、狙った対象物又は対象物の組み合わせが狙った通りになっているかを確認し、確認結果に基づいて次の撮影をするかどうかを決めたり、確認結果を次の撮影の仕方に反映させるかどうかを決めたりすることが多い。このよう判断のためには、迅速な確認が必要である。つまり、このような確認は、必要最小限の行為でありながら、ユーザの狙いを反映しており、客観的にその意図を推定するのに重要な情報を多く含んだ行為である。したがって、このような確認時のユーザの操作は、ユーザがその表現にこだわった対象物やシーンを推論したり特定したりするときの有効な参考情報になり得る。このような確認時の画像を第1の画像とすると、同様の画像である第2の画像の撮影時における対象物が第1の画像における第1の対象物やシーンと類似している場合に、そのユーザのこだわりを反映した撮影を補助するのに役立つ。この同様の画像の意味は、撮影対象が同様であったり、続けて撮影する時にシーンや状況の同様であったりすることを想定している。先の操作の履歴に従って撮影アシストするための制御をすれば、迅速かつ正確にユーザにとってのこだわりの撮影が可能となる。この時のユーザが同じであるか否かの判定は手動のスイッチ操作等でされてもよい。また、同じ撮影装置で撮影と確認とが連続的に行われている場合には、同一のユーザの行為と判定されることが自然である。したがって、同じ撮影装置で撮影と確認とが連続的に行われている場合には、同一のユーザによる行為であると判定されてもよい。つまり、撮影直後にユーザが撮影画像確認を行うために、表示素子に再生された第1の画像に対する操作(トリミングや拡大等の他、確認表示を行うという行為も含める)を取得し、ユーザの確認操作の履歴に従って第1の画像におけるこだわり要素(対象物が何か、その形状や姿勢や表情、色やピントや露出)を特定し、続いて行われる第2の画像の撮影時(確認の結果、改善点を見つけたりして、何かさらに良い画像を撮影しようとして追加で行う撮影時、あるいは、単に様々な態様で撮影しておいて、後で比較したりするための追加撮影時)における状況が第1の撮影状況と類似した状況であるか否かを判定し、第2の画像の撮影時に、操作の履歴に従って第2の画像の撮影をアシストするための制御をするように制御回路が機能すればよい。図17で後述するが、こうした確認時の操作は、ユーザのこだわりを推論する時に役立つ。つまり、機械学習によってこうした推論を行う場合、各画像と確認操作の関係が教師データとなる。特定の対象物やシーン毎に、それが確認される時の操作の関係を推論することが可能となる。 The operations of FIG. 3A can be performed at any timing desired by the user. For example, the operation shown in FIG. 3A may be performed immediately after shooting, or may be performed several hours or days after shooting. Note that the operation of the confirmation work after photographing shown in FIG. 3A is an example. Some of the operations shown in FIG. 3A may be omitted, and operations other than those shown in FIG. 3A may be performed. In particular, immediately after photographing, the user confirms whether the target object or the combination of objects is as intended, and decides whether or not to perform the next photographing based on the confirmation result, or decides whether or not to perform the next photographing based on the confirmation result. I often decide whether to reflect it in the way I shoot. Such determinations require prompt confirmation. In other words, such confirmation is a minimum necessary action, but it reflects the user's intention and contains a lot of important information for objectively estimating the intention. Therefore, the user's operation at the time of such confirmation can be effective reference information when the user infers or identifies an object or scene from which the expression is particular. Assuming that the image at the time of such confirmation is the first image, if the object at the time of photographing the second image, which is a similar image, is similar to the first object or scene in the first image, , is useful for assisting shooting that reflects the user's preferences. The meaning of the similar images is assumed to be that the objects to be photographed are the same, or that the scenes or situations are the same when the images are consecutively photographed. If the control for assisting shooting is performed according to the history of previous operations, it is possible to quickly and accurately perform shooting that is particular to the user. At this time, whether or not the user is the same may be determined by manual switch operation or the like. In addition, when photographing and checking are continuously performed with the same photographing device, it is natural that the action is determined to be the action of the same user. Therefore, when photographing and confirmation are continuously performed with the same photographing device, it may be determined that the actions are performed by the same user. In other words, in order for the user to check the captured image immediately after shooting, the user acquires an operation (including trimming, enlarging, and confirmation display) for the first image reproduced on the display device, and According to the history of confirmation operations, specific elements in the first image (what the object is, its shape, posture, facial expression, color, focus and exposure) are specified, and when the subsequent second image is captured (confirmation As a result, when you find an improvement point and try to take an even better image, or when you simply shoot in various modes and take additional shots for later comparison) is similar to the first photographing situation, and control is performed to assist photographing of the second image according to the operation history when photographing the second image. The circuit should work. As will be described later with reference to FIG. 17, such confirmation operations are useful when inferring the user's preferences. In other words, when such inference is performed by machine learning, the relationship between each image and confirmation operation becomes training data. For each specific object or scene, it becomes possible to infer the relationship of operations when it is confirmed.

ユーザは、例えば撮像装置100の動作モードを再生モードにし、所望の画像iを再生する。そして、ユーザは、画像内の気になる対象物O1の確認を行う。例えば、対象物が小さくて見えない場合又は対象物をより細かく見たい場合に、ユーザは、気になる対象物を拡大表示させる操作をすることもある。制御回路102は、再生モード時の拡大操作の情報を操作履歴としてメモリ108に記憶させる。拡大操作の情報は、拡大された領域の位置及び倍率を含む。また、例えば鳥の画像の確認時において、ユーザは、鳥の目の部位を対象物O1として確認し、尾の部位を対象物O2として確認するといったように2か所以上の部位で対象物の拡大を行う場合もある。この場合、制御回路102は、拡大操作又は縮小操作の履歴として、拡大操作がされた順序も併せてメモリ108に記憶させてよい。2箇所以上の部位で対象物の拡大が行われる場合、ユーザによる確認の順序にも、例えば対象物の興味のある順序といったユーザの意図が含まれている可能性があるためである。 For example, the user sets the operation mode of the imaging device 100 to the reproduction mode to reproduce the desired image i. Then, the user confirms the interesting object O1 in the image. For example, when the object is too small to be seen or when the user wants to see the object in more detail, the user may perform an operation to enlarge and display the object of interest. The control circuit 102 causes the memory 108 to store the information of the enlarging operation in the reproduction mode as an operation history. The enlargement operation information includes the position and magnification of the enlarged area. Further, for example, when confirming an image of a bird, the user confirms the bird's eye region as the target object O1 and the tail region as the target object O2. It may be expanded. In this case, the control circuit 102 may cause the memory 108 to store the order of enlargement operations as a history of enlargement operations or reduction operations. This is because when an object is magnified in two or more parts, the order of confirmation by the user may also include the user's intention, for example, the order in which the object is of interest.

また、ユーザは、所望の対象物が所望の位置に来るように画像の位置合わせを行うこともある。また、編集作業として、ユーザは、画像の内の所望の範囲をトリミングすることもある。このほか、編集作業として、ユーザは、画像の明るさを変えたり、色合いを変えたり、ぼかし等の特殊効果を追加したりすることもある。これらの編集の操作がされた場合、制御回路102は、その編集の操作の内容を示す情報と、編集がされた領域の情報とを操作履歴として例えばメモリ108に記憶させる。 The user may also align the images so that the desired object is at the desired location. Also, as an editing task, the user may crop a desired portion of the image. In addition, as editing work, the user may change the brightness of the image, change the color tone, or add special effects such as blurring. When these editing operations are performed, the control circuit 102 stores information indicating the details of the editing operations and information on the edited area in the memory 108, for example, as an operation history.

また、再生モード等では、ユーザは、画像を特定のサイトに公開することもある。このような公開の操作がされた場合、制御回路102は、公開の操作がされたことを示す情報を操作履歴として例えばメモリ108に記憶させる。 The user may also publish the image to a particular site, such as in playback mode. When such a disclosure operation is performed, the control circuit 102 stores information indicating that the disclosure operation has been performed in, for example, the memory 108 as an operation history.

画像の確認の終了後に、制御回路102は、一連の画像確認時の操作履歴を、再生された静止画と関連付けて例えば記録媒体110に記録する。 After confirming the image, the control circuit 102 records the operation history at the time of confirming a series of images in, for example, the recording medium 110 in association with the reproduced still image.

操作履歴の記録後、制御回路102は、操作履歴を分析する。例えば、制御回路102は、画像内の拡大等の操作がされた領域に含まれる対象物を抽出する。そして、例えば、制御回路102は、拡大及びトリミング等の操作がされた領域を対象物毎に分類する。ある対象物についてライブビュー中にその対象物の特定の位置が拡大されている回数が多ければ、次回の類似の対象物の画像の再生時においてもその特定の位置に対してユーザが関心を持っている可能性が高いと判断できる。このような判断に基づき、制御回路102は、次回の類似の対象物の画像の撮影時又は再生時において、その特定の位置を予め拡大するといった制御をすることができる。 After recording the operation history, the control circuit 102 analyzes the operation history. For example, the control circuit 102 extracts an object included in an area in which an operation such as enlargement has been performed within the image. Then, for example, the control circuit 102 classifies the regions subjected to operations such as enlargement and trimming for each object. If the number of times a specific position of a certain object is enlarged during live view is large, the user will be interested in the specific position even when the image of a similar object is reproduced next time. It can be determined that there is a high possibility that Based on such determination, the control circuit 102 can perform control such as enlarging the specific position in advance when capturing or reproducing an image of a similar object next time.

図3Bは、再生時の操作履歴を活用した撮影時のアシスト制御の例である。例えば、ユーザが過去にある対象物の画像の再生時に画像内の2箇所の部位の拡大表示の操作をしていたとする。このとき、前述したように、メモリ108には、拡大表示の操作がなされたことを示す情報と、拡大された対象物の部位の情報とが操作履歴として記憶されている。 FIG. 3B is an example of assist control during shooting using the operation history during playback. For example, assume that the user has performed an operation to enlarge and display two parts in the image when reproducing an image of an object in the past. At this time, as described above, the memory 108 stores, as an operation history, information indicating that an enlarged display operation has been performed and information on the enlarged target part.

制御回路102は、ライブビューの画像に過去の対象物と類似の対象物が含まれているか否かを判定する。そして、ライブビューの画像に過去の対象物と類似の対象物が含まれていると判定したとき、制御回路102は、図3Bで示すようにして、ライブビューに、過去に拡大された対象物の部位を表すガイドG1及びG2を表示させる。ガイドG1及びG2の表示位置は、対象物に追従させる。つまり、制御回路102は、対象物の移動に応じて、ガイドG1及びG2の表示位置を変更する。ここで、拡大操作の順序も記憶されているときには、拡大操作の順序に応じてガイドG1とガイドG2とで枠の形状を分けたり、色分けをしたり、表示の順序を変えたりしてもよい。ユーザは、ガイドG1及びG2を見ることで、過去に自分がガイドG1及びG2の箇所を気にしていたことを思い出すことができる。これにより、ユーザは、ガイドG1及びG2の箇所のピント及び露出等を所望のものとなるように操作等することが期待される。なお、ガイドは、必ずしも撮像装置1の表示素子106に表示される必要はない。ガイドは、スマートフォン等の、表示素子を有する撮像装置1とは別の機器に表示されてもよい。 The control circuit 102 determines whether or not the live view image includes an object similar to the past object. When it is determined that the live view image includes an object similar to the past object, the control circuit 102 displays the past enlarged object in the live view as shown in FIG. 3B. The guides G1 and G2 representing the parts of are displayed. The display positions of the guides G1 and G2 follow the object. That is, the control circuit 102 changes the display positions of the guides G1 and G2 according to the movement of the object. Here, when the order of enlarging operations is also stored, the guide G1 and the guide G2 may have different shapes of frames, different colors, or change the display order according to the order of the enlarging operations. . By looking at the guides G1 and G2, the user can remember that he/she was concerned about the guides G1 and G2 in the past. As a result, the user is expected to operate the guides G1 and G2 so as to obtain desired focus, exposure, and the like. Note that the guide does not necessarily have to be displayed on the display element 106 of the imaging device 1 . The guide may be displayed on a device other than the imaging device 1 having a display element, such as a smartphone.

図3Bで示したアシスト制御は、再生時にユーザが気にしていた箇所を撮影時に表示させる例である。図3Bのような表示は、他のアシスト制御にも適用され得る。例えば、図3Bのような表示は、撮影時又は編集時に深度合成の操作が行われた場合にも適用され得る。例えば、制御回路102は、深度合成によってピントを合わせた箇所に対してガイドG1を表示させ、深度合成によってピントを外した箇所に対してガイドG2を表示させてもよい。このような表示により、ユーザは、撮影時に特定の箇所にピントを合わせるように操作をしたり、特定の箇所をぼかすように絞りを操作したりすることが期待される。 The assist control shown in FIG. 3B is an example of displaying, at the time of shooting, the part that the user was concerned about at the time of playback. A display such as that of FIG. 3B can also be applied to other assist controls. For example, the display as shown in FIG. 3B can also be applied when a focus stacking operation is performed during shooting or editing. For example, the control circuit 102 may display a guide G1 for a location focused by focus stacking, and a guide G2 for a location out of focus by focus stacking. With such a display, the user is expected to perform an operation to focus on a specific portion or operate the aperture to blur a specific portion during photographing.

また、図3Bで示したアシスト制御は、類似の対象物の撮影時ではなく、類似の対象物を含む画像の再生時に行われてもよい。この場合、ユーザは、過去の確認時の意図を思い出しながら確認作業を行い得る。このとき、制御回路102は、ガイドのための枠を出すだけでなく、該当の領域を実際に拡大したり、該当する領域の編集結果をユーザに対して提示したりしてもよい。 Also, the assist control shown in FIG. 3B may be performed during playback of an image including a similar object instead of when the similar object is photographed. In this case, the user can perform confirmation work while remembering the intention at the time of past confirmation. At this time, the control circuit 102 may not only display a guide frame, but also actually enlarge the relevant area or present the editing result of the relevant area to the user.

図4Aは、動画撮影時のユーザの動作の一例を示している。動画撮影の場合も静止画撮影と同様に、制御回路102は、動画モード中においてユーザによるフレーミング、ズーミングといった操作がされる毎にその操作履歴を例えばメモリ108に記憶させる。動画撮影の場合、静止画撮影とは異なり、撮影中であっても、ユーザによる操作がされ得る。制御回路102は、撮影中に行われた操作の操作履歴も例えばメモリ108に記憶させる。そして、動画撮影の終了後に、制御回路102は、一連の動画撮影時の操作履歴を、撮影の結果として得られた動画と関連付けて例えば記録媒体110に記録する。 FIG. 4A shows an example of a user's action during video shooting. In the case of moving image shooting as well as still image shooting, the control circuit 102 stores the operation history in the memory 108, for example, every time the user performs an operation such as framing or zooming in the moving image mode. In the case of moving image shooting, unlike still image shooting, the user can perform an operation even during shooting. The control circuit 102 also causes the memory 108 to store an operation history of operations performed during shooting. After the video shooting is completed, the control circuit 102 records the operation history during the video shooting in, for example, the recording medium 110 in association with the video obtained as a result of shooting.

操作履歴の記録後、制御回路102は、操作履歴を分析する。動画の操作履歴の分析は、静止画の操作履歴の分析と類似でよい。前述したように、動画の場合には、撮影開始の指示がされた後の操作履歴も記録されている。制御回路102は、撮影開始の指示がされた後の操作履歴も分析することができる。 After recording the operation history, the control circuit 102 analyzes the operation history. The analysis of the operation history of moving images may be similar to the analysis of the operation history of still images. As described above, in the case of moving images, the operation history after the instruction to start shooting is also recorded. The control circuit 102 can also analyze the operation history after an instruction to start shooting is given.

図4Bは、動画再生時のユーザの動作の一例を示している。動画の場合も静止画の場合と同様に、ユーザは、撮影された動画が自身の所望するものであったかを確認し、自身の所望の画像が得られるように撮影された動画を編集することがある。ユーザは、例えば撮像装置100の動作モードを再生モードにし、所望の画像を再生する。そして、ユーザは、動画の各コマの確認を行う。この確認において、ユーザは、各コマにおける気になる対象物を拡大することもある。また、この確認において、ユーザは、気になるコマを選択することもある。制御回路102は、これらの操作を操作履歴として例えばメモリ108に記憶させる。 FIG. 4B shows an example of a user's action during video playback. In the case of moving images, as in the case of still images, the user can confirm whether the captured moving image is what he or she desires, and edit the captured moving image so as to obtain the image desired by the user. be. For example, the user sets the operation mode of the imaging device 100 to the reproduction mode to reproduce a desired image. Then, the user confirms each frame of the moving image. In this confirmation, the user may magnify the object of interest in each frame. Also, in this confirmation, the user may select a piece of interest. The control circuit 102 stores these operations as an operation history in the memory 108, for example.

また、ユーザは、所望の対象物が所望の位置に来るように画像の位置合わせを行うこともある。また、編集作業として、ユーザは、画像の内の所望の範囲をトリミングすることもある。これらの編集の操作がなされた場合、制御回路102は、その操作の内容を示す情報を操作履歴として例えばメモリ108に記憶させる。操作履歴は、選択操作がされたこと、及び選択されたコマを特定するための情報、例えばコマの番号を含む。図4Bでは、例えばコマ2及びコマ3が選択されている。このうち、ユーザによって最初に選択されたコマは、ユーザが最も重視しているコマであると考えることもできる。したがって、制御回路102は、ユーザによって最初に選択されたコマを重視コマとし、重視コマを特定するための情報、例えばコマの番号を例えばメモリ108に記憶させてもよい。例えば、図4Bでは、コマ3が重視コマである。 The user may also align the images so that the desired object is at the desired location. Also, as an editing task, the user may crop a desired portion of the image. When these editing operations are performed, the control circuit 102 stores information indicating the details of the operations in the memory 108, for example, as an operation history. The operation history includes selection operations and information for identifying the selected frame, such as the frame number. In FIG. 4B, for example, frame 2 and frame 3 are selected. Among them, the frame first selected by the user can be considered to be the frame that the user places the most importance on. Therefore, the control circuit 102 may set the frame selected first by the user as the priority frame, and store information for specifying the priority frame, such as the frame number, in the memory 108, for example. For example, in FIG. 4B, frame 3 is the priority frame.

また、ユーザは、選択したコマに対して編集を行うことがある。編集の操作がなされた場合、制御回路102は、その操作の内容を示す情報と編集結果とを操作履歴として例えばメモリ108に記憶させる。 Also, the user may edit the selected frame. When an editing operation is performed, the control circuit 102 stores information indicating the content of the operation and the result of editing in the memory 108, for example, as an operation history.

また、再生モード等では、ユーザは、画像を特定のサイトに公開することもある。公開の操作された場合、制御回路102は、公開の操作がされたことを示す情報及び公開された画像を特定するための情報、例えば画像のファイル名を操作履歴として例えばメモリ108に記憶させる。 The user may also publish the image to a particular site, such as in playback mode. When a disclosure operation is performed, the control circuit 102 stores information indicating that the disclosure operation has been performed and information for specifying the disclosed image, for example, the file name of the image, in a memory 108, for example, as an operation history.

画像の確認の終了後に、制御回路102は、一連の画像確認時の操作履歴を、再生された動画と関連付けて例えば記録媒体110に記録する。 After confirming the images, the control circuit 102 records the operation history at the time of confirming a series of images in, for example, the recording medium 110 in association with the reproduced moving image.

操作履歴の記録後、制御回路102は、操作履歴を分析する。分析の結果を類似の対象物の撮影時又は編集時に活用することで、ユーザに対するアシストをすることができる。アシスト制御は、静止画撮影のときと類似に対象物が画角内に入ってきたことをユーザに示す矢印マークを表示させる制御でもよいし、特定のモードで撮影することをユーザに対して提案するメッセージを表示させる制御でもよい。また、動画編集時のアシスト制御として、過去にユーザによって選択されたコマと類似の特徴のコマをユーザに対して提示する制御が行われてもよい。 After recording the operation history, the control circuit 102 analyzes the operation history. A user can be assisted by using the analysis result when shooting or editing a similar object. The assist control may be control to display an arrow mark to the user to indicate that an object has entered the angle of view, similar to the time of still image shooting, or to suggest to the user to shoot in a specific mode. The control may be such that a message to be displayed is displayed. Also, as assist control during video editing, control may be performed to present to the user a frame having characteristics similar to those previously selected by the user.

以下、第1の実施形態における撮像装置100の動作をさらに詳しく説明する。図5は、第1の実施形態における撮像装置100の動作の一例を示すフローチャートである。図5の処理は、例えば制御回路102によって制御される。 The operation of the imaging device 100 according to the first embodiment will be described in more detail below. FIG. 5 is a flow chart showing an example of the operation of the imaging device 100 according to the first embodiment. The processing in FIG. 5 is controlled by the control circuit 102, for example.

ステップS1において、制御回路102は、撮像装置100の動作モードが撮影モードに設定されているか否かを判定する。撮像装置100は、例えば撮影モードと再生モードとを動作モードとして有している。撮影モードは、記録のための画像を撮影するためのモードである。再生モードは、記録されている画像を再生するためのモードである。勿論、撮像装置100は、撮影モードと再生モード以外の動作モードを有していてもよい。動作モードは、例えばユーザによる操作部112の操作によって設定される。ステップS1において、撮像装置100の動作モードが撮影モードに設定されていると判定されたときには、処理はステップS2に移行する。ステップS1において、撮像装置100の動作モードが撮影モードに設定されていないと判定されたときには、処理はステップS17に移行する。 In step S1, the control circuit 102 determines whether or not the operation mode of the imaging device 100 is set to the shooting mode. The imaging device 100 has, for example, a shooting mode and a playback mode as operation modes. The shooting mode is a mode for shooting an image for recording. The playback mode is a mode for playing back recorded images. Of course, the imaging device 100 may have operation modes other than the shooting mode and the playback mode. The operation mode is set, for example, by the user's operation of the operation unit 112 . When it is determined in step S1 that the operation mode of the imaging device 100 is set to the shooting mode, the process proceeds to step S2. When it is determined in step S1 that the operation mode of the imaging device 100 is not set to the shooting mode, the process proceeds to step S17.

ステップS2において、制御回路102は、ライブビューを表示素子106に表示させるための処理を行う。このとき、制御回路102は、撮像部104によるライブビューのための撮像によって取得されたライブビューのための画像をメモリ108に記憶させておく。このライブビューのための画像は、フレーミングの操作履歴として用いられ得る。 In step S<b>2 , the control circuit 102 performs processing for displaying the live view on the display element 106 . At this time, the control circuit 102 causes the memory 108 to store an image for live view acquired by imaging for live view by the imaging unit 104 . This live view image can be used as a framing operation history.

ステップS3において、制御回路102は、アシスト制御を行うか否かを判定する。アシスト制御を行うか否かは、例えばライブビューに写っている対象物に基づいて判定される。例えば、過去の分析の結果と関連付けられた対象物と類似の対象物がライブビューのための画像に含まれているときには、アシスト制御を行うと判定される。対象物の類似性は、画像マッチング等によって判定され得る。ステップS3において、アシスト制御を行うと判定されたときには、処理はステップS4に移行する。ステップS3において、アシスト制御を行わないと判定されたときには、処理はステップS5に移行する。 In step S3, the control circuit 102 determines whether or not to perform assist control. Whether or not to perform the assist control is determined, for example, based on the object shown in the live view. For example, when an object similar to the object associated with the past analysis result is included in the image for live view, it is determined to perform the assist control. Object similarity may be determined by image matching or the like. When it is determined in step S3 that the assist control should be performed, the process proceeds to step S4. When it is determined in step S3 that the assist control should not be performed, the process proceeds to step S5.

ステップS4において、制御回路102は、撮影時のアシスト制御を行う。アシスト制御の詳細については後で説明する。アシスト制御の後、処理はステップS5に移行する。 In step S4, the control circuit 102 performs assist control during photographing. Details of the assist control will be described later. After assist control, the process proceeds to step S5.

ステップS5において、制御回路102は、ユーザによる撮影前の操作がされたか否かを判定する。撮影前の操作は、前述したモード設定、フレーミング、ズーミング、ピント合わせ、露出合わせといった操作である。ステップS5において、ユーザによる操作がされたと判定されたときには、処理はステップS6に移行する。ステップS5において、ユーザによる操作がされていないと判定されたときには、処理はステップS8に移行する。 In step S5, the control circuit 102 determines whether or not the user has performed an operation before photographing. The operations before shooting are the above-described mode setting, framing, zooming, focusing, and exposure adjustment. When it is determined in step S5 that the user has performed an operation, the process proceeds to step S6. When it is determined in step S5 that no operation has been performed by the user, the process proceeds to step S8.

ステップS6において、制御回路102は、ユーザによる操作に応じた処理を実行する。例えばズーミングの指示がされた場合には、制御回路102は、ズーム光学系を駆動する。ピント合わせの指示がされた場合には、制御回路102は、フォーカス光学系を駆動する。 In step S6, the control circuit 102 executes processing according to the user's operation. For example, when a zooming instruction is issued, the control circuit 102 drives the zoom optical system. When a focusing instruction is issued, the control circuit 102 drives the focusing optical system.

ステップS7において、制御回路102は、ユーザの操作に応じた操作履歴を、例えばメモリ108に記憶させる。 In step S7, the control circuit 102 causes the memory 108, for example, to store an operation history corresponding to the user's operation.

ステップS8において、制御回路102は、撮影開始の操作がされたか否かを判定する。撮影開始の操作は、例えば操作部112のレリーズボタンの操作、タッチパネルへのタッチ操作といった操作を含む。ステップS8において、撮影開始の操作がされたと判定されたときには、処理はステップS9に移行する。ステップS8において、ユーザによる撮影開始の操作がされていないと判定されたときには、処理はステップS16に移行する。 In step S8, the control circuit 102 determines whether or not an operation to start shooting has been performed. The shooting start operation includes, for example, operation of the release button of the operation unit 112 and touch operation on the touch panel. When it is determined in step S8 that an operation to start photographing has been performed, the process proceeds to step S9. When it is determined in step S8 that the user has not operated to start shooting, the process proceeds to step S16.

ステップS9において、制御回路102は、撮影の処理を開始させる。静止画撮影であれば、制御回路102は、静止画撮影に必要な処理を行う。動画撮影であれば、制御回路102は、動画撮影に必要な処理を行う。 In step S9, the control circuit 102 starts the imaging process. In the case of still image shooting, the control circuit 102 performs processing necessary for still image shooting. In the case of moving image shooting, the control circuit 102 performs processing necessary for moving image shooting.

ステップS10において、ユーザによる撮影中の操作がされたか否かを判定する。この撮影中の操作は、主に動画撮影中の操作である。つまり、動画撮影であれば、ユーザは撮影中にも前述したモード設定、フレーミング、ズーミング、ピント合わせ、露出合わせといった操作を行い得る。ステップS10では、このような撮影中の操作の有無が判定される。ステップS10において、ユーザによる操作がされたと判定されたときには、処理はステップS11に移行する。ステップS10において、ユーザによる操作がされていないと判定されたときには、処理はステップS13に移行する。 In step S10, it is determined whether or not the user has performed an operation during shooting. This operation during shooting is mainly an operation during moving image shooting. In other words, in moving image shooting, the user can perform operations such as mode setting, framing, zooming, focusing, and exposure adjustment during shooting. In step S10, it is determined whether or not there is such an operation during shooting. When it is determined in step S10 that the user has performed an operation, the process proceeds to step S11. When it is determined in step S10 that the user has not performed an operation, the process proceeds to step S13.

ステップS11において、制御回路102は、ユーザによる操作に応じた処理を実行する。 In step S11, the control circuit 102 executes processing according to the user's operation.

ステップS12において、制御回路102は、ユーザの操作に応じた操作履歴を、例えばメモリ108に記憶させる。その後、処理はステップS13に移行する。 In step S<b>12 , the control circuit 102 causes the memory 108 to store an operation history corresponding to the user's operation. After that, the process moves to step S13.

ステップS13において、制御回路102は、撮影を終了するか否かを判定する。静止画モードであれば、1回の静止画撮影の処理が完了したときに撮影を終了すると判定される。一方、動画モードであれば、ユーザによって撮影終了の操作がされたときに撮影を終了すると判定される。撮影終了の操作は、例えば操作部112のレリーズボタンの再度の操作、タッチパネルへのタッチ操作といった操作を含む。ステップS13において、撮影を終了すると判定されたときには、処理はステップS14に移行する。ステップS13において、撮影を終了しないと判定されたときには、処理はステップS9に戻る。 In step S13, the control circuit 102 determines whether or not to end the shooting. In the still image mode, it is determined that the photographing is finished when the processing of one still image photographing is completed. On the other hand, in the moving image mode, it is determined to end the shooting when the user performs an operation to end shooting. The shooting end operation includes, for example, an operation such as a second operation of the release button of the operation unit 112 or a touch operation on the touch panel. When it is determined in step S13 that the photographing is finished, the process proceeds to step S14. When it is determined in step S13 that the photographing is not finished, the process returns to step S9.

ステップS14において、制御回路102は、撮影によって得られた静止画又は動画を画像ファイルとして記録媒体110に記録する。また、制御回路102は、ステップS7又はS12においてメモリ108に記憶させておいた操作履歴を画像ファイルに関連付ける。操作履歴は、画像ファイルに記録されることで関連付けされてもよいし、画像ファイルとは別のファイルとして関連付けされてもよい。 In step S14, the control circuit 102 records the captured still image or moving image in the recording medium 110 as an image file. Further, the control circuit 102 associates the operation history stored in the memory 108 in step S7 or S12 with the image file. The operation history may be associated by being recorded in the image file, or may be associated as a file separate from the image file.

ステップS15において、制御回路102は、記録した操作履歴を分析する。操作履歴の分析についての詳細は後で説明する。分析の後、処理はステップS16に移行する。 In step S15, the control circuit 102 analyzes the recorded operation history. Details of the operation history analysis will be described later. After analysis, the process proceeds to step S16.

ステップS16において、制御回路102は、撮像装置100の動作を終了するか否かを判定する。例えば、ユーザによって撮像装置100の電源がオフにされたとき、一定時間のユーザの操作がないときには、撮像装置100の動作を終了すると判定される。ステップS16において、撮像装置100の動作を終了しないと判定されたときには、処理はステップS1に戻る。ステップS16において、撮像装置100の動作を終了すると判定されたときには、図5の処理は終了する。 In step S<b>16 , the control circuit 102 determines whether or not to end the operation of the imaging device 100 . For example, when the imaging device 100 is turned off by the user and there is no user operation for a certain period of time, it is determined that the operation of the imaging device 100 is finished. When it is determined in step S16 that the operation of the imaging device 100 is not finished, the process returns to step S1. When it is determined in step S16 that the operation of the imaging device 100 is finished, the process of FIG. 5 is finished.

ステップS17において、制御回路102は、撮像装置100の動作モードが再生モードに設定されているか否かを判定する。ステップS17において、撮像装置100の動作モードが再生モードに設定されていると判定されたときには、処理はステップS18に移行する。ステップS17において、撮像装置100の動作モードが再生モードに設定されていないと判定されたときには、処理はステップS16に移行する。 In step S17, the control circuit 102 determines whether or not the operation mode of the imaging device 100 is set to the reproduction mode. When it is determined in step S17 that the operation mode of the imaging device 100 is set to the reproduction mode, the process proceeds to step S18. When it is determined in step S17 that the operation mode of the imaging device 100 is not set to the reproduction mode, the process proceeds to step S16.

ステップS18において、制御回路102は、記録媒体110に記録されている画像ファイルの一覧を表示素子106に表示させる。一覧の表示は、例えば画像ファイルの内容を表すサムネイルを表示させることで行われる。ステップS19において、制御回路102は、ユーザによって画像ファイルが選択されたか否かを判定する。ステップS19において、画像ファイルが選択されたと判定されたとき、処理はステップS20に移行する。ステップS19において、画像ファイルが選択されていないと判定されたとき、処理はステップS29に移行する。 In step S<b>18 , the control circuit 102 causes the display element 106 to display a list of image files recorded on the recording medium 110 . The display of the list is performed, for example, by displaying thumbnails representing the contents of the image files. At step S19, the control circuit 102 determines whether or not the user has selected an image file. When it is determined in step S19 that an image file has been selected, the process proceeds to step S20. When it is determined in step S19 that no image file has been selected, the process proceeds to step S29.

ステップS20において、制御回路102は、ユーザによって選択された画像ファイルを記録媒体110から読み出し、読み出した画像ファイルを表示素子106に再生する。 In step S<b>20 , the control circuit 102 reads the image file selected by the user from the recording medium 110 and reproduces the read image file on the display element 106 .

ステップS21において、制御回路102は、アシスト制御を行うか否かを判定する。アシスト制御を行うか否かは、例えばユーザによって選択された画像内の対象物に基づいて判定される。例えば、選択された画像内の対象物が、過去の分析の結果として抽出された対象物と類似の対象物であるときには、アシスト制御を行うと判定される。ステップS21において、アシスト制御を行うと判定されたときには、処理はステップS22に移行する。ステップS21において、アシスト制御を行わないと判定されたときには、処理はステップS23に移行する。 In step S21, the control circuit 102 determines whether or not to perform assist control. Whether or not to perform assist control is determined, for example, based on the object in the image selected by the user. For example, when an object in the selected image is similar to an object extracted as a result of past analysis, it is determined that assist control should be performed. When it is determined in step S21 that the assist control should be performed, the process proceeds to step S22. When it is determined in step S21 that the assist control should not be performed, the process proceeds to step S23.

ステップS22において、制御回路102は、再生時のアシスト制御を行う。アシスト制御の詳細については後で説明する。アシスト制御の後、処理はステップS23に移行する。 In step S22, the control circuit 102 performs assist control during reproduction. Details of the assist control will be described later. After assist control, the process proceeds to step S23.

ステップS23において、制御回路102は、ユーザによる再生時の操作がされたか否かを判定する。この再生時の操作は、前述した対象物の拡大、トリミング等の編集といった操作である。ステップS23において、ユーザによる操作がされたと判定されたときには、処理はステップS24に移行する。ステップS23において、ユーザによる操作がされていないと判定されたときには、処理はステップS26に移行する。 In step S23, the control circuit 102 determines whether or not the user has performed an operation for reproduction. The operations during this playback are operations such as editing such as enlargement and trimming of the object described above. When it is determined in step S23 that the user has performed an operation, the process proceeds to step S24. When it is determined in step S23 that no user operation has been performed, the process proceeds to step S26.

ステップS24において、制御回路102は、ユーザによる操作に応じた処理を実行する。例えば拡大表示の指示がされた場合には、制御回路102は、ユーザによって指定された領域を拡大して表示素子106に表示させる。 At step S24, the control circuit 102 executes a process according to the user's operation. For example, when an enlarged display is instructed, the control circuit 102 causes the display element 106 to display an enlarged area specified by the user.

ステップS25において、制御回路102は、ユーザの操作に応じた操作履歴を、例えばメモリ108に記憶させる。その後、処理はステップS26に移行する。 In step S25, the control circuit 102 causes the memory 108, for example, to store an operation history corresponding to the user's operation. After that, the process moves to step S26.

ステップS26において、制御回路102は、再生を終了するか否かを判定する。例えば、ユーザによって再生終了の操作がされたときに再生を終了すると判定される。再生終了の操作は、例えば操作部112の特定のボタンの操作、タッチパネルへのタッチ操作といった操作を含む。ステップS26において、再生を終了すると判定されたときには、処理はステップS27に移行する。ステップS26において、再生を終了しないと判定されたときには、処理はステップS20に戻る。 At step S26, the control circuit 102 determines whether or not to end the reproduction. For example, it is determined to end the reproduction when the user performs an operation to end the reproduction. The operation for ending reproduction includes, for example, an operation of a specific button on the operation unit 112 and a touch operation on the touch panel. When it is determined in step S26 that the reproduction should be terminated, the process proceeds to step S27. When it is determined in step S26 not to end the reproduction, the process returns to step S20.

ステップS27において、制御回路102は、ステップS25においてメモリ108に記憶させておいた操作履歴を画像ファイルに関連付ける。その後、処理はステップS28に移行する。操作履歴は、画像ファイルに記録されることで関連付けされてもよいし、画像ファイルとは別のファイルとして関連付けされてもよい。 In step S27, control circuit 102 associates the operation history stored in memory 108 in step S25 with the image file. After that, the process moves to step S28. The operation history may be associated by being recorded in the image file, or may be associated as a file separate from the image file.

ステップS28において、制御回路102は、記録した操作履歴を分析する。操作履歴の分析についての詳細は後で説明する。分析の後、処理はステップS29に移行する。
In step S28, control circuit 102 analyzes the recorded operation history. Details of the operation history analysis will be described later. After analysis, the process moves to step S29.

ステップS29において、制御回路102は、再生モードを終了するか否かを判定する。例えば、ユーザによって動作モードの変更の操作がされたときに再生モードを終了すると判定される。ステップS29において、再生モードを終了すると判定されたときには、処理はステップS16に移行する。ステップS29において、再生モードを終了しないと判定されたときには、処理はステップS18に戻る。 In step S29, the control circuit 102 determines whether or not to end the reproduction mode. For example, it is determined that the reproduction mode should be ended when the user performs an operation to change the operation mode. When it is determined in step S29 that the reproduction mode should be terminated, the process proceeds to step S16. When it is determined in step S29 not to end the reproduction mode, the process returns to step S18.

図6は、操作履歴を含む画像ファイルの例を示す図である。図6に示すように、一例の画像ファイルは、画像と、撮影情報と、撮影時の操作履歴と、再生時の操作履歴とを含む。前述したように、撮影時の操作履歴と、再生時の操作履歴とは、画像ファイルとは別のファイルに記録されていてもよい。この場合、操作履歴のファイルは対応する画像ファイルを識別するための情報を含む。または、画像ファイルは対応する操作履歴のファイルを識別するための情報を含む。また、撮影時の操作履歴と再生時の操作履歴とは必ずしも同じファイルに記録されなくてもよい。 FIG. 6 is a diagram showing an example of an image file containing an operation history. As shown in FIG. 6, an example image file includes an image, shooting information, an operation history during shooting, and an operation history during playback. As described above, the operation history during shooting and the operation history during playback may be recorded in a file separate from the image file. In this case, the operation history file includes information for identifying the corresponding image file. Alternatively, the image file includes information for identifying the corresponding operation history file. Further, the operation history at the time of shooting and the operation history at the time of playback do not necessarily have to be recorded in the same file.

画像は、撮影により得られた画像である。この画像は、例えば圧縮された状態で記録される。静止画撮影のときの画像は、JPEG方式等の静止画圧縮方式を用いて圧縮され得る。動画撮影のときの画像は、MPEG方式等の動画圧縮方式を用いて圧縮され得る。 An image is an image obtained by photographing. This image is recorded, for example, in a compressed state. An image during still image shooting can be compressed using a still image compression method such as the JPEG method. Images during moving image shooting can be compressed using a moving image compression method such as the MPEG method.

撮影情報は、画像ファイルの撮影時の情報である。撮影情報は、画像ファイル名、撮影機種名、撮影日時、露出条件といった情報を含む。露出条件は、撮影時の絞り値及びシャッタ速度を含む。 The shooting information is information when the image file was shot. The shooting information includes information such as an image file name, shooting model name, shooting date and time, and exposure conditions. Exposure conditions include aperture value and shutter speed at the time of shooting.

撮影時の操作履歴は、例えば撮影の対象物、ライブビュー表示中のモードの操作履歴、拡大表示の操作履歴、ズーミングの操作履歴、ピント合わせの操作履歴、露出合わせの操作履歴、外部機器/アクセサリの使用履歴を含む。動画撮影のときには、撮影中の、すなわち動画のコマ毎のモードの操作履歴、拡大表示の操作履歴、ズーミングの操作履歴、ピント合わせの操作履歴、露出合わせの操作履歴、外部機器/アクセサリの使用履歴を含んでいてもよい。 The operation history during shooting includes, for example, the object being photographed, the operation history of the live view display mode, the operation history of the enlarged display, the operation history of zooming, the operation history of focusing, the operation history of exposure adjustment, and external devices/accessories. including the usage history of During movie shooting, the operation history of each frame of the movie, that is, the operation history of the movie frame, the operation history of the enlarged display, the operation history of zooming, the operation history of focusing, the operation history of exposure adjustment, and the use history of external devices/accessories may contain

撮影の対象物は、撮影された画像に写っている対象物を特定するための情報、例えば対象物の名称を含む。また、撮影の対象物は、撮影された画像に写っている対象物の画像上での構造的な特徴を表す情報、例えばエッジの形状、明るさ、色といった情報を含んでいてもよい。 The photographed object includes information for specifying the object appearing in the photographed image, such as the name of the object. In addition, the object to be photographed may include information representing structural features on the image of the object in the photographed image, such as edge shape, brightness, and color.

モードの操作履歴は、撮影中にユーザによって設定されたモードの名称の情報を含む。モードの操作履歴は、撮影開始時点で設定されていたモードの名称の情報に限らない。モードの操作履歴は、撮影前のライブビュー表示中に設定されたモードの名称の情報を含んでいてもよい。 The mode operation history includes information on mode names set by the user during shooting. The mode operation history is not limited to the information of the name of the mode set at the start of shooting. The mode operation history may include information on the name of the mode set during live view display before shooting.

拡大表示の操作履歴は、ライブビュー及び動画撮影中にユーザによって拡大された画像内の領域の位置及び拡大率を含む。拡大表示の操作履歴は、拡大表示がされた領域における対象物の構造的な特徴を表す情報を含んでいてもよい。 The enlarged display operation history includes the position and enlargement ratio of the area in the image that was enlarged by the user during live view and video shooting. The magnified display operation history may include information representing the structural features of the object in the magnified display area.

ズーミングの操作履歴は、光学ズームの操作履歴と電子ズームの操作履歴とを含む。光学ズームの操作履歴は、ユーザの光学ズームの操作に伴う、例えばズーム光学系の焦点距離を含む。電子ズームの操作履歴は、ユーザの電子ズームの操作に伴う、例えば電子ズームがされた画像内の領域の位置及びズームの倍率を含む。対象物を特定できるときには、ズーミングの操作履歴は、ズーミングの対象となった対象物の情報を含んでいてもよい。 The zooming operation history includes an optical zoom operation history and an electronic zoom operation history. The optical zoom operation history includes, for example, the focal length of the zoom optical system associated with the user's optical zoom operation. The electronic zoom operation history includes, for example, the position of the area within the electronically zoomed image and the magnification of the zoom, which accompanies the user's electronic zoom operation. When the object can be identified, the zooming operation history may include information on the object that has been zoomed.

ピント合わせの操作履歴は、ピント合わせが自動で行われたか否かを示す情報、フォーカス光学系の位置及びピント合わせの対象となった画像内の領域の位置を含む。対象物を特定できるときには、ピント合わせの操作履歴は、ピント合わせの対象となった対象物の情報を含んでいてもよい。 The focusing operation history includes information indicating whether or not focusing was performed automatically, the position of the focusing optical system, and the position of the area in the image that was the focus. When the target can be specified, the focusing operation history may include information on the target for focusing.

露出合わせの操作履歴は、露出合わせが自動で行われたか否かを示す情報、露出合わせの対象となった画像内の領域の位置を含む。対象物を特定できるときには、露出ト合わせの操作履歴は、露出合わせの対象となった対象物の情報を含んでいてもよい。 The operation history of exposure adjustment includes information indicating whether or not exposure adjustment was performed automatically, and the position of the area within the image that was the target of exposure adjustment. When the target can be specified, the exposure adjustment operation history may include information on the target for exposure adjustment.

外部機器/アクセサリの使用履歴は、撮影に際して外部機器又はアクセサリの使用があったか否かを示す情報と、使用があったときにはその外部機器又はアクセサリを特定するための情報を含む。外部機器又はアクセサリを特定するための情報は、外部機器又はアクセサリの名称、ID等でよい。このほか、外部機器/アクセサリの使用履歴は、使用時の外部機器又はアクセサリの設定を含んでいてもよい。例えば、外部機器がフラッシュであれば、設定は、フラッシュの向き及び強度等を含んでいてもよい。 The history of use of external devices/accessories includes information indicating whether or not an external device or accessory was used during shooting, and information for identifying the external device or accessory if used. The information for specifying the external device or accessory may be the name, ID, or the like of the external device or accessory. In addition, the usage history of the external device/accessory may include settings of the external device or accessory at the time of use. For example, if the external device is a flash, the settings may include the orientation and strength of the flash, and so on.

再生時の操作履歴は、例えば拡大表示の操作履歴、編集の操作履歴、公開の操作履歴を含む。 The operation history during playback includes, for example, an enlarged display operation history, an editing operation history, and a public operation history.

拡大表示の操作履歴は、画像の再生中にユーザによって拡大された画像内の領域の位置を含む。拡大表示の操作履歴は、拡大表示がされた領域における対象物の構造的な特徴を表す情報を含んでいてもよい。 The enlarged display operation history includes the positions of areas within the image that were enlarged by the user during image playback. The magnified display operation history may include information representing the structural features of the object in the magnified display area.

編集の操作履歴は、編集の操作の内容を示す情報を含む。編集は、トリミング、明るさ調整、色調整、ガンマの調整等を含む。また、トリミング等のように画像内の特定の領域に対してされる編集については、編集の操作履歴は、編集の対象となった画像内の領域の位置を含む。さらに、動画の場合には、編集の操作履歴は、ユーザによって選択されたコマを特定するための情報を含んでいてよい。 The editing operation history includes information indicating the content of the editing operation. Editing includes trimming, brightness adjustment, color adjustment, gamma adjustment, and the like. For editing such as trimming, which is performed on a specific region within an image, the editing operation history includes the position of the region within the image that is the target of editing. Furthermore, in the case of moving images, the editing operation history may include information for specifying frames selected by the user.

公開の操作履歴は、公開の操作の有無の情報を含む。 The disclosure operation history includes information on whether or not there has been a disclosure operation.

また、動画ファイルの場合には、再生時の操作履歴は、重視コマを特定するための情報を含んでいてもよい。重視コマを特定するための情報は、例えばコマの番号である。 Further, in the case of a moving image file, the operation history at the time of reproduction may include information for specifying important frames. The information for specifying the important frame is, for example, the frame number.

次に、分析処理について説明する。図7は、図5のステップS15における静止画又は動画撮影後に行われる分析処理の一例を示すフローチャートである。ステップS101において、制御回路102は、撮影によって記録媒体110に記録された画像ファイルを読み出し、画像ファイルに記録されている画像から撮影の対象物を抽出する。前述したように、対象物の抽出は、エッジ抽出及び画像マッチング等の手法で行われ得る。撮影された画像内に複数の対象物が含まれているときには、制御回路102は、例えば画像の最も中央に近い場所に存在している対象物、最も近距離に存在している対象物、ライブビューに写っている時間の長い、すなわちユーザによるフレーミングによって最も画角に収められている時間の長い対象物を抽出する。 Next, analysis processing will be described. FIG. 7 is a flowchart showing an example of analysis processing that is performed after still image or moving image shooting in step S15 of FIG. In step S101, the control circuit 102 reads an image file recorded in the recording medium 110 by photographing, and extracts an object to be photographed from the image recorded in the image file. As described above, object extraction can be performed by techniques such as edge extraction and image matching. When a plurality of objects are included in the photographed image, the control circuit 102 selects, for example, the object that exists closest to the center of the image, the object that exists at the shortest distance, and the live image. An object that has been in the view for a long time, that is, an object that has been captured in the angle of view for the longest time by framing by the user is extracted.

ステップS102において、制御回路102は、複数の画像ファイルを参照して、撮影の際に設定されたモードを対象物毎に分類する。例えば、制御回路102は、対象物毎のモードの設定回数を算出する。 In step S102, the control circuit 102 refers to a plurality of image files and classifies the mode set at the time of shooting for each object. For example, the control circuit 102 calculates the number of mode settings for each object.

ステップS103において、制御回路102は、複数の画像ファイルを参照して、拡大表示、ピント合わせ、露出合わせされた領域を対象物毎に分類する。例えば、制御回路102は、対象物毎の目の領域に対して拡大表示、ピント合わせ、露出合わせされた回数を算出する。同様に、制御回路102は、対象物の他の特徴を有する領域に対して拡大表示、ピント合わせ、露出合わせされた回数を算出する。 In step S103, the control circuit 102 refers to a plurality of image files and classifies the enlarged display, focused, and exposed areas for each object. For example, the control circuit 102 calculates the number of times the eye region of each object has been enlarged, focused, and exposed. Similarly, the control circuit 102 calculates the number of times an area having other characteristics of the object has been enlarged, focused, and exposed.

ステップS104において、制御回路102は、複数の画像ファイルを参照して、照明の使用の仕方を対象物毎に分類する。例えば、制御回路102は、対象物毎の照明の使用回数を算出する。また、制御回路102は、照明が使用されているときには、照明が使用されている位置を算出する。 In step S104, the control circuit 102 refers to a plurality of image files and classifies how to use lighting for each object. For example, the control circuit 102 calculates the number of times illumination is used for each object. Also, the control circuit 102 calculates the position where the illumination is used when the illumination is used.

ステップS105において、制御回路102は、対象物と分類結果とを関連付けて例えば記録媒体110に記録する。その後、図7の処理は終了する。分類結果は、例えば画像ファイルとは別のファイルに記録される。 In step S<b>105 , the control circuit 102 associates the object with the classification result and records them in the recording medium 110 , for example. After that, the process of FIG. 7 ends. The classification result is recorded in a file different from the image file, for example.

図8は、図5のステップS22における静止画の再生後に行われる分析処理の一例を示すフローチャートである。ステップS201において、制御回路102は、再生された画像ファイルを読み出し、画像ファイルに記録されている画像における拡大表示又は編集された領域から対象物を抽出する。対象物の抽出は、撮影時における分析処理と同様にエッジ抽出及び画像マッチング等の手法で行われ得る。 FIG. 8 is a flowchart showing an example of analysis processing performed after the still image is reproduced in step S22 of FIG. In step S201, the control circuit 102 reads the reproduced image file and extracts the object from the enlarged display or edited area in the image recorded in the image file. The extraction of the target object can be performed by techniques such as edge extraction and image matching in the same manner as analysis processing at the time of photographing.

ステップS202において、制御回路102は、複数の画像ファイルを参照して、拡大表示、編集された領域を対象物毎に分類する。例えば、制御回路102は、対象物毎の目の領域に対して拡大表示された回数を算出する。同様に、制御回路102は、対象物の他の特徴を有する領域に対して拡大表示された回数を表示する。また、例えば、制御回路102は、対象物におけるトリミングがされた回数の多い領域を算出する。 In step S202, the control circuit 102 refers to a plurality of image files, and classifies the enlarged display and edited area for each object. For example, the control circuit 102 calculates the number of times the eye region of each object has been enlarged and displayed. Similarly, the control circuit 102 displays the number of times that other feature areas of the object have been magnified. Also, for example, the control circuit 102 calculates areas of the object that have been trimmed a large number of times.

ステップS203において、制御回路102は、対象物と分類結果とを関連付けて例えば記録媒体110に記録する。その後、図8の処理は終了する。分類結果は、例えば画像ファイルとは別のファイルに記録される。 In step S<b>203 , the control circuit 102 associates the object with the classification result and records them in the recording medium 110 , for example. After that, the process of FIG. 8 ends. The classification result is recorded in a file different from the image file, for example.

図9は、図5のステップS22における動画の再生後に行われる分析処理の一例を示すフローチャートである。ステップS301において、制御回路102は、再生された画像ファイルを読み出し、再生された動画のファイルのうちの何れかのコマがユーザによって選択されていたか否かを判定する。ステップS301において、コマが選択されていたと判定されたときには、処理はステップS302に移行する。ステップS301において、コマが選択されていないと判定されたときには、処理はステップS305に移行する。 FIG. 9 is a flowchart showing an example of analysis processing that is performed after the moving image is reproduced in step S22 of FIG. In step S301, the control circuit 102 reads the reproduced image file and determines whether or not any frame in the reproduced moving image file has been selected by the user. When it is determined in step S301 that a frame has been selected, the process proceeds to step S302. When it is determined in step S301 that no frame has been selected, the process proceeds to step S305.

ステップS302において、制御回路102は、選択されたコマの画像における拡大表示又は編集された領域から対象物を抽出する。 In step S302, the control circuit 102 extracts an object from the enlarged display or edited area in the selected frame image.

ステップS303において、制御回路102は、選択されたコマと類似する複数のコマを参照して、拡大表示、編集された領域を対象物毎に分類する。 In step S303, the control circuit 102 refers to a plurality of frames similar to the selected frame, and classifies the enlarged display and edited area for each object.

ステップS304において、制御回路102は、選択されたコマの情報と、対象物と、分類結果とを関連付けて例えば記録媒体110に記録する。その後、図9の処理は終了する。分類結果は、例えば画像ファイルとは別のファイルに記録される。 In step S304, the control circuit 102 associates the information of the selected frame, the object, and the classification result, and records them in the recording medium 110, for example. After that, the process of FIG. 9 ends. The classification result is recorded in a file different from the image file, for example.

ステップS305において、制御回路102は、各コマの画像における拡大表示又は編集された領域から対象物を抽出する。 In step S305, the control circuit 102 extracts the object from the enlarged display or edited area in the image of each frame.

ステップS306において、制御回路102は、複数の画像ファイルを参照して、拡大表示、編集された領域を対象物毎に分類する。 In step S306, the control circuit 102 refers to a plurality of image files, and classifies the enlarged display and edited area for each object.

ステップS307において、制御回路102は、選択されたコマの情報と、対象物と、分類結果とを関連付けて例えば記録媒体110に記録する。その後、図9の処理は終了する。分類結果は、例えば画像ファイルとは別のファイルに記録される。 In step S307, the control circuit 102 associates the information of the selected frame, the object, and the classification result, and records them in the recording medium 110, for example. After that, the process of FIG. 9 ends. The classification result is recorded in a file different from the image file, for example.

図10は、図5のステップS4における撮影時のアシスト制御について示すフローチャートである。例えば、ユーザは、図11に示すように、撮像装置100を用いて対象物Oである鳥を撮影しようとしているものとする。このとき、撮像装置100には、ユーザによって過去に鳥が撮影されていたときの操作履歴及びその分析結果が記憶されているものとする。 FIG. 10 is a flow chart showing assist control at the time of photographing in step S4 of FIG. For example, as shown in FIG. 11, it is assumed that the user intends to photograph a bird, which is an object O, using the imaging device 100. FIG. At this time, it is assumed that the imaging device 100 stores an operation history and an analysis result when the user has photographed birds in the past.

ステップS401において、制御回路102は、ライブビュー内の対象物を強調表示する。強調表示は、例えば図2Bに示すように、対象物の近傍に矢印マークAを表示させることで行われる。勿論、強調表示は、矢印マークの表示に限るものではない。例えば、強調表示は、対象物を囲む枠を表示させることで行われてもよい。強調表示の後、処理はステップS402に移行する。 In step S401, the control circuit 102 highlights an object within the live view. The highlighting is performed by displaying an arrow mark A near the object, as shown in FIG. 2B, for example. Of course, the highlighting is not limited to displaying arrow marks. For example, highlighting may be performed by displaying a frame surrounding the object. After highlighting, the process moves to step S402.

ステップS402において、制御回路102は、撮影の対象物の特定の領域の拡大表示されている回数が多いか否かを判定する。ステップS402においては、制御回路102は、拡大表示されている回数を目の部位、尾の部位といった領域毎に所定値(例えば10回)と比較する。図6で示したように、拡大表示の操作履歴は、撮影時と再生時の両方で記録される。したがって、拡大表示についても分析結果も撮影時と再生時とで個別に得られる。制御回路102は、撮影時において拡大表示された回数と再生時において拡大表示された回数とを個別に所定値と比較する。そして、撮影時と再生時の何れかで拡大表示されている回数が所定値以上であるときには、拡大表示されている回数が多いと判定される。ステップS402において、特定の領域の拡大表示されている回数が多いと判定されたときには、処理はステップS403に移行する。ステップS402において、特定の領域の拡大表示されている回数が多くないと判定されたときには、処理はステップS404に移行する。 In step S402, the control circuit 102 determines whether or not the specific area of the object to be photographed has been enlarged and displayed many times. In step S402, the control circuit 102 compares the number of times of enlarged display with a predetermined value (for example, 10 times) for each region such as the region of the eyes and the region of the tail. As shown in FIG. 6, the operation history of enlarged display is recorded both during shooting and playback. Therefore, the enlarged display and analysis results can be separately obtained at the time of shooting and at the time of playback. The control circuit 102 individually compares the number of times the image has been displayed enlarged during shooting and the number of times the image has been displayed enlarged during reproduction with a predetermined value. Then, when the number of times of enlarged display during either shooting or playback is equal to or greater than a predetermined value, it is determined that the number of times of enlarged display is large. When it is determined in step S402 that the number of times the specific area is enlarged and displayed is large, the process proceeds to step S403. When it is determined in step S402 that the number of times the specific area is enlarged and displayed is not many, the process proceeds to step S404.

ステップS403において、制御回路102は、拡大表示についてのアシスト制御を行う。その後、処理はステップS404に移行する。図12は、拡大表示についてのアシスト制御の例を示す図である。例えば、過去の鳥Oの撮影又は確認時において、鳥Oの目の領域及び尾の領域が拡大表示された回数が多かったとする。このとき、制御回路102は、図12に示すようにして、鳥Oの目の領域が拡大されていたことを示すガイドG1及び鳥Oの尾の領域が拡大されていたことを示すガイドG2を表示させる。このガイドG1及びG2の表示位置は、鳥Oの動きに追従させる。つまり、ライブビューL内での鳥Oの位置又は向きが変わったときには、制御回路102は、その位置又は向きの変更に応じてガイドG1及びG2の表示位置を変更する。なお、ガイドG1の形状とガイドG2の形状とは、同じ形状であってもよいし、異なる形状であってもよい。前述したように、過去のユーザによる拡大表示の操作に明確な順序がある場合には、順序に応じてガイドG1の形状とガイドG2の形状とを異ならせてもよい。 In step S403, the control circuit 102 performs assist control for enlarged display. After that, the process moves to step S404. FIG. 12 is a diagram showing an example of assist control for enlarged display. For example, assume that the eye area and the tail area of the bird O have been enlarged and displayed many times in the past when the bird O was photographed or confirmed. At this time, as shown in FIG. 12, the control circuit 102 generates a guide G1 indicating that the eye area of the bird O has been enlarged and a guide G2 indicating that the tail area of the bird O has been enlarged. display. The display positions of the guides G1 and G2 follow the movement of the bird O. That is, when the position or orientation of the bird O within the live view L changes, the control circuit 102 changes the display positions of the guides G1 and G2 according to the change in the position or orientation. The shape of the guide G1 and the shape of the guide G2 may be the same shape or different shapes. As described above, if there is a clear order in the enlargement display operations by the user in the past, the shape of the guide G1 and the shape of the guide G2 may be changed according to the order.

拡大表示についてのアシスト制御は、ガイドの表示に限るものではない。例えば拡大表示についてのアシスト制御は、現在のライブビューに表示されている対象物における特定の領域の拡大表示の操作をユーザに対して促すメッセージを表示させる処理が含まれてよい。このほか、拡大表示についてのアシスト制御は、ユーザの操作なしで特定の領域を拡大表示する処理が含まれてよい。 Assist control for enlarged display is not limited to guide display. For example, the assist control for enlarged display may include processing for displaying a message prompting the user to operate enlarged display of a specific area of the object displayed in the current live view. In addition, the assist control for enlarged display may include a process of enlarging and displaying a specific area without user's operation.

ステップS404において、制御回路102は、撮影の対象物が特定のモードで撮影されている回数が多いか否かを判定する。ステップS404において、特定のモードで撮影されている回数が多いと判定されたときには、処理はステップS405に移行する。ステップS404において、特定のモードで撮影されている回数が多くないと判定されたときには、処理はステップS406に移行する。 In step S404, the control circuit 102 determines whether or not the number of times the object to be photographed has been photographed in a specific mode is high. When it is determined in step S404 that the number of shots taken in the specific mode is large, the process proceeds to step S405. When it is determined in step S404 that the number of shots taken in the specific mode is not many, the process proceeds to step S406.

ステップS405において、制御回路102は、モード設定についてのアシスト制御を行う。その後、処理はステップS406に移行する。例えば、制御回路102は、モード設定についてのアシスト制御として、例えば図2Bのように特定のモードで撮影することをユーザに促すメッセージを表示させる。また、制御回路102は、ユーザの操作を待たずにモードを設定してもよい。また、制御回路102は、ユーザの操作を待たずにモードを設定し、対象物を自動で撮影してもよい。この自動撮影により得られた画像は、ユーザの撮影開始の操作の後でユーザに提示されてよい。 In step S405, the control circuit 102 performs assist control for mode setting. After that, the process moves to step S406. For example, the control circuit 102 displays a message prompting the user to shoot in a specific mode as shown in FIG. 2B as assist control for mode setting. Also, the control circuit 102 may set the mode without waiting for the user's operation. Alternatively, the control circuit 102 may set the mode without waiting for the user's operation, and automatically photograph the object. The image obtained by this automatic shooting may be presented to the user after the user's operation to start shooting.

ステップS406において、撮影の対象物における特定の領域がピント合わせ又は露出合わせの対象になっている回数が多いか否かを判定する。ステップS406において、特定の領域がピント合わせ又は露出合わせの対象になっている回数が多いと判定されたときには、処理はステップS407に移行する。ステップS406において、特定の領域がピント合わせ又は露出合わせの対象になっている回数が多くないと判定されたときには、処理はステップS408に移行する。 In step S406, it is determined whether or not a specific area of the object to be photographed is frequently targeted for focusing or exposure. When it is determined in step S406 that the number of times the specific area has been targeted for focusing or exposure adjustment is high, the process proceeds to step S407. When it is determined in step S406 that the number of times the specific area is the target of focusing or exposure is not large, the process proceeds to step S408.

ステップS407において、制御回路102は、ピント合わせ及び露出合わせについてのアシスト制御を行う。その後、処理はステップS408に移行する。例えば、制御回路102は、ピント合わせ及び露出合わせについてのアシスト制御として、例えば対象物の特定の領域にピント合わせ又は露出合わせすることをユーザに促すメッセージを表示させる。このとき、制御回路102は、対象物の特定の領域が視認できるような矢印等のガイドを合わせて表示させてもよい。また、制御回路102は、ユーザの操作を待たずにピント合わせ又は露出合わせをしてもよい。また、制御回路102は、ユーザの操作を待たずにピント合わせ及び露出合わせを行って対象物を自動で撮影してもよい。この自動撮影により得られた画像は、ユーザの撮影開始の操作の後でユーザに提示されてよい。 In step S407, the control circuit 102 performs assist control for focusing and exposure. After that, the process moves to step S408. For example, the control circuit 102 displays a message prompting the user to focus or expose a specific region of the object, for example, as assist control for focusing and exposure. At this time, the control circuit 102 may also display a guide such as an arrow so that a specific area of the object can be visually recognized. Also, the control circuit 102 may adjust the focus or the exposure without waiting for the user's operation. Further, the control circuit 102 may automatically photograph an object by performing focusing and exposure without waiting for user's operation. The image obtained by this automatic shooting may be presented to the user after the user's operation to start shooting.

ステップS408において、制御回路102は、撮影の対象物と類似の対象物を含む画像の撮影後の編集の回数が多いか否かを判定する。ステップS408において、編集の回数が多いと判定されたときには、処理はステップS409に移行する。ステップS408において、編集の回数が多くないと判定されたときには、図10の処理は終了する。 In step S408, the control circuit 102 determines whether or not the number of post-shooting edits of an image containing an object similar to the object to be shot is large. When it is determined in step S408 that the number of edits is large, the process proceeds to step S409. When it is determined in step S408 that the number of times of editing is not large, the processing of FIG. 10 ends.

ステップS409において、制御回路は、編集と同様の効果を撮影によって再現できるか否かを判定する。例えば、編集の内容が明るさの調整であったり、色の調整であったり、特殊効果の追加であったりすれば、撮影時の露出合わせ及び画像処理等によって編集と同様の効果を再現することができる。このほか、編集の内容がピント位置の調整であれば、撮影時のピント合わせによって編集と同様の効果を再現することができる。例えば、メモリ108には、予め編集の内容と編集と同等の効果を再現できるか否かを示す情報を格納しておくことで、制御回路102は、ステップS409の判定を行うことができる。ステップS409において、編集と同様の効果を撮影によって再現できると判定されたときには、処理はステップS410に移行する。ステップS409において、編集と同様の効果を撮影によって再現できないと判定されたときには、図10の処理は終了する。 In step S409, the control circuit determines whether or not an effect similar to editing can be reproduced by shooting. For example, if the content of editing is brightness adjustment, color adjustment, or addition of special effects, the same effect as editing can be reproduced by exposure adjustment and image processing at the time of shooting. can be done. In addition, if the content of editing is adjustment of the focus position, the same effect as editing can be reproduced by adjusting the focus at the time of shooting. For example, the control circuit 102 can make the determination in step S409 by storing in advance in the memory 108 the content of editing and information indicating whether or not an effect equivalent to the editing can be reproduced. When it is determined in step S409 that the same effect as editing can be reproduced by photographing, the process proceeds to step S410. When it is determined in step S409 that the same effect as editing cannot be reproduced by photographing, the processing in FIG. 10 ends.

ステップS410において、制御回路102は、編集と同様の効果を撮影によって再現するために必要な制御を行うように設定する。その後、図10の処理は終了する。例えば、編集時に露出補正がされることが多いのであれば、制御回路102は、ユーザによってなされる露出補正量を加えて露出合わせを行う。また、露出合わせだけでは所望の露出を得ることできない場合には、制御回路102は、照明の使用をユーザに対して促すためのメッセージを表示させてもよい。また、例えば、編集時に同じような色調整がされるのであれば、制御回路102は、ユーザによってなされる色調整量に合わせてホワイトバランス等を調整する。 In step S410, the control circuit 102 is set to perform control necessary to reproduce the same effect as editing by photographing. After that, the process of FIG. 10 ends. For example, if the exposure is often corrected during editing, the control circuit 102 adjusts the exposure by adding the amount of exposure correction made by the user. Further, when the desired exposure cannot be obtained only by adjusting the exposure, the control circuit 102 may display a message for prompting the user to use the lighting. Also, for example, if similar color adjustments are made during editing, the control circuit 102 adjusts the white balance and the like in accordance with the amount of color adjustment made by the user.

図13は、図5のステップS22における再生時のアシスト制御について示すフローチャートである。例えば、ユーザは、撮像装置100を用いて撮影された鳥の動画を確認しようとしているものとする。このとき、撮像装置100には、ユーザによって過去に鳥が撮影されていたときの操作履歴及びその分析結果が記憶されている。 FIG. 13 is a flow chart showing assist control during reproduction in step S22 of FIG. For example, it is assumed that the user is trying to check a moving image of a bird captured using the imaging device 100 . At this time, the imaging device 100 stores the operation history and the analysis results of when the user has photographed birds in the past.

ステップS501において、制御回路102は、再生された動画と類似の対象物を含む動画において特定の構図のコマが選択されている回数が多いか否かを判定する。ステップS501において、特定の構図のコマが選択されている回数が多いと判定されたときには、処理はステップS502に移行する。ステップS501において、再生された画像が静止画であるとき又は特定の構図のコマが選択されている回数が多くないと判定されたときには、処理はステップS503に移行する。 In step S<b>501 , the control circuit 102 determines whether or not a frame with a specific composition is selected frequently in a moving image including an object similar to the reproduced moving image. When it is determined in step S501 that the number of times that a frame with a specific composition is selected is large, the process proceeds to step S502. If it is determined in step S501 that the reproduced image is a still image, or if it is determined that the frame with the specific composition has not been selected many times, the process proceeds to step S503.

ステップS502において、制御回路102は、コマ選択についてのアシスト制御を行う。その後、処理はステップS503に移行する。図14は、コマ選択についてのアシスト制御の例を示す図である。コマ選択についてのアシスト制御として、制御回路102は、例えば図14に示すように、重視コマと類似のコマを強調するための枠S1を表示させる。また、コマ選択についてのアシスト制御として、制御回路102は、重視コマ以外の選択されている回数の多いコマを強調するための枠S2を表示させる。 In step S502, the control circuit 102 performs assist control for frame selection. After that, the process moves to step S503. FIG. 14 is a diagram showing an example of assist control for frame selection. As assist control for frame selection, the control circuit 102 displays a frame S1 for emphasizing frames similar to the priority frame, as shown in FIG. 14, for example. In addition, as assist control for frame selection, the control circuit 102 displays a frame S2 for emphasizing frames that have been selected many times other than the important frames.

ステップS503において、制御回路102は、再生された画像に含まれる対象物の特定の領域の拡大表示されている回数が多いか否かを判定する。ステップS503において、特定の領域の拡大表示されている回数が多いと判定されたときには、処理はステップS504に移行する。ステップS503において、特定の領域の拡大表示されている回数が多くないと判定されたときには、処理はステップS505に移行する。 In step S503, the control circuit 102 determines whether or not the specific area of the object included in the reproduced image is enlarged and displayed many times. When it is determined in step S503 that the number of times the specific area is enlarged and displayed is large, the process proceeds to step S504. When it is determined in step S503 that the number of times the specific area is enlarged and displayed is not many, the process proceeds to step S505.

ステップS504において、制御回路102は、拡大表示についてのアシスト制御を行う。その後、処理はステップS505に移行する。再生時のときの拡大表示についてのアシスト制御は、撮影時のときのアシスト制御と同様でよい。 In step S504, the control circuit 102 performs assist control for enlarged display. After that, the process moves to step S505. The assist control for enlarged display during playback may be the same as the assist control during shooting.

ステップS505において、制御回路102は、類似の対象物の画像において特定の編集がされている回数が多いか否かを判定する。例えば、類似の対象物の画像において、類似の領域のトリミングがされている回数が多いときには、ステップS505において、特定の編集がされている回数が多いと判定されたときには、処理はステップS506に移行する。ステップS505において、特定の編集がされている回数が多くないと判定されたときには、図13の処理は終了する。 In step S<b>505 , the control circuit 102 determines whether or not the number of times a specific edit has been performed on images of similar objects is high. For example, when it is determined in step S505 that the number of times that a similar region is trimmed is large in an image of a similar object, and it is determined that the number of times that a specific edit is made is large, the process proceeds to step S506. do. When it is determined in step S505 that the number of times that the specific editing has been performed is not many, the processing of FIG. 13 ends.

ステップS506において、制御回路102は、編集についてのアシスト制御を行う。その後、図13の処理は終了する。例えば、制御回路102は、編集についてのアシスト制御は、トリミング等をすることをユーザに促すメッセージを表示させる。このとき、制御回路102は、トリミングする領域が視認できるような枠等のガイドを合わせて表示させてもよい。また、制御回路102は、ユーザの操作を待たずに編集処理をしてもよい。 In step S506, the control circuit 102 performs assist control for editing. After that, the process of FIG. 13 ends. For example, the control circuit 102 displays a message prompting the user to perform trimming or the like in assist control for editing. At this time, the control circuit 102 may also display a guide such as a frame so that the region to be trimmed can be visually recognized. Also, the control circuit 102 may perform the editing process without waiting for the user's operation.

以上説明したように本実施形態によれば、撮影又は再生時におけるユーザの操作の履歴を操作の対象となった画像と関連付けておき、画像の対象物毎に操作を分類しておくことで、次回以降の同様の対象物を含む画像の撮影時又は再生時においてユーザに対する操作のアシスト制御をしている。 As described above, according to the present embodiment, the user's operation history at the time of shooting or playback is associated with the image that is the target of the operation, and the operation is classified for each target object of the image. At the time of capturing or playing back an image including the same object from the next time onward, the assist control of the user's operation is performed.

例えば、撮影中又は再生中においては、ユーザは対象物を確認するための種々の操作をすることが多い。このような確認のための操作等から、ユーザの関心を持っている対象物を推定することができる。また、類似の対象物については類似の操作が行われることが多いと考えられる。したがって、対象物毎に操作を分類することで対象物毎のユーザの好みの操作をするためのアシスト制御が行われ得る。 For example, during shooting or playback, the user often performs various operations to check the target object. An object that the user is interested in can be estimated from such confirmation operations. In addition, it is considered that similar operations are often performed on similar objects. Therefore, by classifying the operations for each object, assist control can be performed for the user's favorite operation for each object.

また、アシスト制御では、例えば対象物を強調するガイドが表示される。また、アシスト制御では、例えばユーザに対して操作を促すためのメッセージが表示される。これらのアシスト制御により、ユーザは、過去の自身の操作を思い出したり、過去の自身が気にしていた対象物を思い出したりしながら、撮影又は再生の操作をすることができる。また、ユーザが意図に従った処理が自動で行われれば、ユーザの操作の手間が省かれる。 Also, in the assist control, for example, a guide that emphasizes the target object is displayed. Also, in the assist control, for example, a message is displayed to prompt the user to perform an operation. With these assist controls, the user can operate shooting or playback while remembering his/her own past operations or objects that he/she was concerned about in the past. In addition, if the processing according to the user's intention is automatically performed, the user's operation can be saved.

また、アシスト制御では、ユーザによって過去に行われた編集と同様の効果を撮影によって再現できるときには、撮影時の画像処理等によって編集と同様の効果が再現される。この場合もユーザの手間は省かれる。逆に、ユーザによって過去に行われた編集と同様の効果を撮影によって再現できるときには、撮影時の画像処理等を省略することによって画像記録までの時間を短縮するように制御することもできる。 Further, in the assist control, when an effect similar to editing performed by the user in the past can be reproduced by shooting, the same effect as editing is reproduced by image processing or the like at the time of shooting. In this case as well, the user's trouble is saved. Conversely, when the same effect as editing performed by the user in the past can be reproduced by photographing, control can be performed to shorten the time until image recording by omitting image processing at the time of photographing.

ここで、第1の実施形態では、撮像装置100が、操作履歴の記録、操作履歴の分析、アシスト制御を行うものとして説明されている。しかしながら、これらの処理は必ずしもすべて撮像装置100において行われなくてもよい。例えば、操作履歴の分析、アシスト制御のための対象物の特定の処理は、撮像装置100の外部のサーバで行われてもよいし、クラウドコンピューティングを利用して行われてもよい。つまり、第1の実施形態の処理は、撮像装置とサーバ等とを有するシステムで行われてもよい。 Here, in the first embodiment, the imaging device 100 is described as recording an operation history, analyzing the operation history, and performing assist control. However, all of these processes do not necessarily have to be performed in the imaging device 100 . For example, the analysis of the operation history and the process of specifying the object for assist control may be performed by a server outside the imaging device 100, or may be performed using cloud computing. In other words, the processing of the first embodiment may be performed by a system having an imaging device, a server, and the like.

[第2の実施形態]
次に、第2の実施形態について説明する。図15は、第2の実施形態に係る撮像装置の一例の構成を示す図である。図15において、図1と対応する構成については図1と同一の参照符号を付すことで説明を省略する。
[Second embodiment]
Next, a second embodiment will be described. FIG. 15 is a diagram illustrating an example configuration of an imaging device according to the second embodiment. In FIG. 15, the same reference numerals as in FIG. 1 are assigned to the configurations corresponding to those in FIG. 1, and the description thereof is omitted.

第2の実施形態における撮像装置100は、記録媒体116を有している。記録媒体116は、2つの推論エンジン、すなわち静止画用の推論エンジン116aと、動画用の推論エンジン116bとを有している。図15では、推論エンジンを記録する記録媒体116は、画像ファイル等を記録するための記録媒体110と別に設けられている。記録媒体110と記録媒体116とは、1つの記録媒体で構成されていてもよい。 An imaging device 100 according to the second embodiment has a recording medium 116 . The recording medium 116 has two inference engines, namely an inference engine 116a for still images and an inference engine 116b for moving images. In FIG. 15, a recording medium 116 for recording the inference engine is provided separately from the recording medium 110 for recording image files and the like. The recording medium 110 and the recording medium 116 may be composed of one recording medium.

推論エンジン116aは、入力された静止画から対象物を推論し、推論した対象物に応じてアシスト制御を決定するように構成された学習済みモデルである。推論エンジン116aは、例えばニューラルネットワークを有している。ニューラルネットワークは、入力層と、中間層と、出力層とを有する。中間層の構成によって、ニューラルネットワークの構成を変えることができる。 The inference engine 116a is a trained model configured to infer an object from an input still image and determine assist control according to the inferred object. The inference engine 116a has, for example, a neural network. A neural network has an input layer, an intermediate layer, and an output layer. Depending on the configuration of the hidden layer, the configuration of the neural network can be changed.

図16Aは、推論エンジン116aを作成するための深層学習の概念を示す図である。例えば、学習用のプログラムに対して、教師データT1、T2が入力される。教師データT1は、例えば静止画T11と、静止画T11と関連するアシスト制御T12との組のデータである。また、教師データT2は、静止画T21と、静止画T21と関連するアシスト制御T22との組のデータである。このアシスト制御は、例えば静止画における特定の領域の拡大表示である。ここで、教師データは2つだけ例示している。教師データはある母集団の中から選択されるものであって2つに限るものではない。 FIG. 16A is a diagram illustrating deep learning concepts for creating an inference engine 116a. For example, teacher data T1 and T2 are input to a learning program. The teacher data T1 is, for example, data of a set of a still image T11 and an assist control T12 related to the still image T11. Also, the teacher data T2 is data of a set of a still image T21 and an assist control T22 related to the still image T21. This assist control is, for example, enlarged display of a specific area in a still image. Here, only two examples of teacher data are shown. The training data is selected from a certain population and is not limited to two.

学習済みモデルである推論エンジン116aは、入力された静止画が静止画T11と類似しているときには、アシスト制御T12を出力し、入力された静止画が静止画T21と類似しているときには、アシスト制御T22を出力するように学習プログラムにおける学習がされることで生成される。このようにして生成された推論エンジン116aに対して入力INとして静止画T11と類似する静止画が入力されたときには、出力OUTとしてアシスト制御T12が出力される。同様に、入力INとして静止画T21と類似する静止画が入力されたときには、出力OUTとしてアシスト制御T22が出力される。 The inference engine 116a, which is a learned model, outputs an assist control T12 when the input still image is similar to the still image T11, and outputs an assist control T12 when the input still image is similar to the still image T21. It is generated by learning in the learning program so as to output control T22. When a still image similar to the still image T11 is input as the input IN to the inference engine 116a generated in this way, the assist control T12 is output as the output OUT. Similarly, when a still image similar to still image T21 is input as input IN, assist control T22 is output as output OUT.

推論エンジン116bは、入力された動画の各コマにおける対象物を推論し、推論した対象物に応じたアシスト制御を決定するように構成された学習済みモデルである。推論エンジン116bは、例えばニューラルネットワークを有している。 The inference engine 116b is a trained model configured to infer an object in each frame of the input moving image and determine assist control according to the inferred object. The inference engine 116b has, for example, a neural network.

図16Bは、推論エンジン116bを作成するための深層学習の概念を示す図である。例えば、学習用のプログラムに対して、教師データT3、T4が入力される。教師データT3は、動画T31と、動画T31と関連するアシスト制御T32との組のデータである。また、教師データT4は、動画T41と、動画T41と関連するアシスト制御T42との組のデータである。例えば、このアシスト制御は、例えば動画コマから重視コマを選択する制御である。ここで、教師データを2つだけ例示しているが、教師データは2つに限るものではない。 FIG. 16B is a diagram illustrating deep learning concepts for creating the inference engine 116b. For example, teacher data T3 and T4 are input to a learning program. The teacher data T3 is data of a set of a moving image T31 and an assist control T32 related to the moving image T31. Also, the teacher data T4 is data of a set of a moving image T41 and an assist control T42 related to the moving image T41. For example, this assist control is, for example, control for selecting an important frame from moving image frames. Although only two pieces of teacher data are illustrated here, the number of teacher data is not limited to two.

学習済みモデルである推論エンジン116bは、入力された動画が動画T31と類似しているときには、アシスト制御T32を出力し、入力された動画が動画T41と類似しているときには、アシスト制御T42を出力するように学習プログラムにおける学習がされることで生成される。このようにして生成された推論エンジン116bに対して入力INとして動画T31と類似する静止画が入力されたときには、出力OUTとしてアシスト制御T32が出力される。同様に、入力INとして動画T41と類似する動画が入力されたときには、出力OUTとしてアシスト制御T42が出力される。 The inference engine 116b, which is a trained model, outputs assist control T32 when the input moving image is similar to the moving image T31, and outputs assist control T42 when the input moving image is similar to the moving image T41. It is generated by learning in the learning program so as to do. When a still image similar to the moving image T31 is input as the input IN to the inference engine 116b generated in this way, the assist control T32 is output as the output OUT. Similarly, when a moving image similar to the moving image T41 is input as the input IN, the assist control T42 is output as the output OUT.

図17は、推論エンジンを作成するための処理の一例を示したフローチャートである。図17の処理は、撮像装置100において行われてもよい。また、図17の処理は、撮像装置100とは別のサーバ等で行われてもよい。以下では、図17の処理を撮像装置100の制御回路102が行うものとして説明する。 FIG. 17 is a flow chart showing an example of processing for creating an inference engine. The processing in FIG. 17 may be performed in the imaging device 100 . Also, the processing in FIG. 17 may be performed by a server or the like that is separate from the imaging device 100 . In the following description, it is assumed that the control circuit 102 of the imaging apparatus 100 performs the processing in FIG. 17 .

ステップS601において、制御回路102は、ユーザによって撮影された画像又は再生された画像とそれらに関連づけられたアシスト制御とを教師データに加工する。この加工は、画像とアシスト制御とを教師用プログラムにおける使用に適した形式に加工する処理である。あるいは、この加工は、各画像と確認操作の関係を教師データとする処理である。このような加工により、特定の対象物やシーン毎にそれらを含む画像が確認される時の操作の関係を推論することが可能な推論モデルが得られる。 In step S<b>601 , the control circuit 102 processes an image captured or played back by the user and assist control associated with them into teacher data. This processing is processing for processing the image and the assist control into a form suitable for use in the teacher's program. Alternatively, this processing is processing using the relationship between each image and the confirmation operation as teacher data. Through such processing, an inference model is obtained that enables inference of the relationship of operations when an image including specific objects or scenes is confirmed for each specific object or scene.

ステップS602において、制御回路102は、学習用プログラムと教師データとから推論モデルを生成する。 In step S602, control circuit 102 generates an inference model from the learning program and teacher data.

ステップS603において、制御回路102は、画像とアシスト制御の信頼性が所定値以上か否かを判定する。つまり、入力データである画像に対して出力されるアシスト制御との関係が教師データとして入力される画像とアシスト制御との関係と略等しいときには信頼性が所定値以上であると判定される。ステップS603において、信頼性が所定値以上であると判定されたときには、処理はステップS604に移行する。ステップS603において、信頼性が所定値以上でないと判定されたときには、処理はステップS605に移行する。これは、画像毎に、そのユーザが行うであろうこだわり確認操作の関係が正しく推論されたかどうかを確認している処理である。このような処理によって、特定の対象物又はシーン毎に、それらを含む画像が確認される時の操作の関係が正しく推論されるようになる。 In step S603, the control circuit 102 determines whether or not the reliability of the image and the assist control is equal to or higher than a predetermined value. In other words, when the relationship between the image that is input data and the assist control that is output is substantially equal to the relationship between the image that is input as teacher data and the assist control, it is determined that the reliability is equal to or greater than the predetermined value. When it is determined in step S603 that the reliability is equal to or higher than the predetermined value, the process proceeds to step S604. When it is determined in step S603 that the reliability is not equal to or greater than the predetermined value, the process proceeds to step S605. This is a process for confirming whether or not the relationship of the particular confirmation operation that the user is likely to perform has been correctly inferred for each image. Such processing allows the correct inference of the operational relationship for each particular object or scene when an image containing them is viewed.

ステップS604において、制御回路102は、学習済みモデルを推論エンジンとして記録媒体116に記録する。その後、図17の処理は終了する。 In step S604, control circuit 102 records the learned model in recording medium 116 as an inference engine. After that, the process of FIG. 17 ends.

ステップS605において、制御回路102は、学習用の母集団の再設定をする。その後、処理はステップS601に移行する。つまり、学習結果の信頼性が低いということは、画像とその画像を撮影したユーザが行うであろうこだわり確認操作との関係が正しく推論されていないということで、正しい補助ができずに、最初の教師データの選択が適切でない可能性がある。このため、母集団の設定又は教師データの選択からやり直される。これによって、各対象物、あるいは各シーンにおいて、ユーザが確認したくなるこだわり部分が、ユーザの操作なく判定でき、この判定結果を撮影制御時に用いることができる。単純な例では、夕日のシーンでは、必ず長めの確認再生時間が設定されたり、野鳥の撮影であれば、必ず鳥の姿勢や表情を拡大確認できたりするような補助が可能となる。拡大確認がされる部分は重要な部分であるから、ピントや露出や色再現などが重点的に制御されるといったパラメータ制御や画像処理制御への反映がなされてもよい。 In step S605, the control circuit 102 resets the population for learning. After that, the process moves to step S601. In other words, if the reliability of the learning result is low, it means that the relationship between the image and the obsessive confirmation operation that the user who took the image is likely to perform is not correctly inferred. selection of training data may not be appropriate. Therefore, the setting of the population or the selection of teacher data must be redone. As a result, in each object or in each scene, a particular part that the user wants to confirm can be determined without user's operation, and the result of this determination can be used during shooting control. In a simple example, a longer confirmation playback time is always set for a sunset scene, and assistance can be provided so that the bird's posture and facial expression can always be enlarged and confirmed when photographing a wild bird. Since the portion to be enlarged and confirmed is an important portion, it may be reflected in parameter control and image processing control, such as focus, exposure, color reproduction, and the like, being heavily controlled.

以上説明したように本実施形態によれば、画像とアシスト制御との関係を人工知能によって分類することにより、よりユーザの好みに即したアシスト制御が行われ得る。 As described above, according to the present embodiment, by classifying the relationship between the image and the assist control using artificial intelligence, the assist control can be performed more in line with the user's preference.

ここで、学習済みモデルの作成は撮像装置100で行われる必要はない。学習済みモデルの作成は、例えば特定のサーバで行われてもよいし、クラウドコンピューティングを利用して行われてもよい。サーバ等であれば大容量のデータを取り扱うことができる。したがって、サーバ等で学習済みモデルの作成が行われる場合は、教師データとして用いられる画像及びアシスト制御は、必ずしも撮像装置100のユーザの撮影又は再生した画像とそれに関連するアシスト制御でなくてもよい。例えば、教師データとしてカメラマン等の撮影した画像及びアシスト制御が用いられてもよい。また、不特定多数の人の撮影した画像及びアシスト制御が用いられてもよい。教師データとしてカメラマン等の撮影した画像及びアシスト制御が用いられれば、例えばユーザに対してカメラマンと同等の画像を撮影できるようにするためのアシスト制御が行われ得る。つまり、カメラマンと同様の部位を確認できるようにするためのガイドを出したり、各種の撮影の設定を制御したりできる。また、不特定多数の人の撮影した画像及びアシスト制御が用いられれば、例えば現時点の流行の画像の撮影を撮影できるようにするためのアシスト制御が行われ得る。 Here, it is not necessary for the imaging apparatus 100 to create the learned model. A trained model may be created, for example, by a specific server or by using cloud computing. A server or the like can handle a large amount of data. Therefore, when a learned model is created by a server or the like, the images and assist controls used as teacher data may not necessarily be the images captured or played back by the user of the imaging device 100 and the assist controls associated therewith. . For example, an image taken by a cameraman or the like and assist control may be used as training data. Images shot by an unspecified number of people and assist control may also be used. If an image taken by a cameraman or the like and assist control are used as training data, for example, assist control can be performed so that the user can take an image equivalent to that of the cameraman. In other words, it is possible to issue guides for confirming the same parts as the cameraman and control various shooting settings. In addition, if images shot by an unspecified number of people and assist control are used, assist control can be performed so that, for example, images in fashion at the moment can be shot.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。 Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are of course possible within the scope of the present invention.

また、前述の各動作フローチャートの説明において、便宜上「まず」、「次に」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。 In addition, in the explanation of each of the operation flowcharts described above, the operations are described using "first", "next", etc. for the sake of convenience, but it does not mean that it is essential to perform the operations in this order. do not have.

また、上述した実施形態による各処理は、コンピュータである制御回路102に実行させることができるプログラムとして記憶させておくこともできる。この他、磁気ディスク、光ディスク、半導体メモリ等の外部記憶装置の記憶媒体に格納して配布することができる。そして、制御回路102は、この外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。 Further, each process according to the above-described embodiment can also be stored as a program that can be executed by the control circuit 102, which is a computer. In addition, it can be distributed by being stored in a storage medium of an external storage device such as a magnetic disk, an optical disk, or a semiconductor memory. The control circuit 102 reads the program stored in the storage medium of the external storage device, and the operation is controlled by the read program, thereby executing the above-described processing.

なお、実施形態において、「部」(セクションやユニット)として記載した部分は、専用の回路や、複数の汎用の回路を組み合わせて構成してもよく、必要に応じて、予めプログラムされたソフトウェアに従って動作を行うマイコン、CPU等のプロセッサ、又はFPGA等のシーケンサを組み合わせて構成されてもよい。また、その制御の一部又は全部を外部の装置が引き受けるような設計も可能で、この場合、有線又は無線の通信回路が介在する。通信は、Bluetooth通信、Wi-Fi通信、電話回線等で行われればよく、USB等で行われてもよい。専用の回路、汎用の回路や制御部を一体としてASICとして構成してもよい。 In the embodiments, parts described as "parts" (sections or units) may be configured by combining a dedicated circuit or a plurality of general-purpose circuits, and if necessary, according to pre-programmed software It may be configured by combining a microcomputer that operates, a processor such as a CPU, or a sequencer such as an FPGA. Also, it is possible to design such that part or all of the control is taken over by an external device, in which case a wired or wireless communication circuit intervenes. Communication may be performed by Bluetooth communication, Wi-Fi communication, telephone line, or the like, and may be performed by USB or the like. A dedicated circuit, a general-purpose circuit, and a control unit may be integrated into an ASIC.

100 撮像装置、102 制御回路、104 撮像部、104a 光学系、104b 撮像素子、106 表示素子、108 メモリ、110 記録媒体、 112 操作部、114 通信回路、116 記録媒体。 100 imaging device, 102 control circuit, 104 imaging unit, 104a optical system, 104b imaging device, 106 display device, 108 memory, 110 recording medium, 112 operation unit, 114 communication circuit, 116 recording medium.

Claims (9)

表示素子に再生された第1の画像に対するユーザの操作を取得し、
取得された前記操作の履歴に従って前記第1の画像における第1の対象物を特定し、
第2の画像の撮影時における対象物が前記第1の対象物と類似した第2の対象物であるか否かを判定し、
前記第2の画像の撮影時における前記対象物が前記第2の対象物であるときに、前記操作の履歴に従って前記第2の画像の撮影をアシストするための制御をする、
ように構成された少なくとも1つの制御回路、
を具備し、
前記表示素子に再生された第1の画像は、前記ユーザが撮影した画像であり、
前記制御回路は、前記第1の画像の中で前記ユーザによって確認された領域に含まれる対象物を前記第1の対象物として抽出し、前記第2の画像の撮影時において、前記表示素子に再生された第1の画像に対して行われた編集の操作と対応する制御を行うことができるか否かを判定し、行うことができると判定したときに、前記第1の画像に対して行われた編集の操作と対応する制御を行う撮像装置。
Acquiring a user's operation on the first image reproduced on the display element;
Identifying a first object in the first image according to the acquired history of the operation;
Determining whether the target at the time of capturing the second image is a second target similar to the first target,
performing control for assisting shooting of the second image according to the history of the operation when the object is the second object at the time of shooting the second image;
at least one control circuit configured to
and
the first image reproduced on the display element is an image captured by the user;
The control circuit extracts, as the first object, an object included in the region confirmed by the user in the first image, and displays the It is determined whether or not control corresponding to the editing operation performed on the reproduced first image can be performed, and when it is determined that it can be performed, the control is performed on the first image. An imaging device that performs the editing operations performed and the corresponding controls .
前記ユーザによって確認された領域は、前記ユーザによって拡大表示の操作がされた領域、前記ユーザによって編集の操作がされた領域の少なくとも何れかを含む請求項に記載の撮像装置。 2. The imaging apparatus according to claim 1 , wherein the area confirmed by the user includes at least one of an area for which the user has performed an operation for enlarged display and an area for which the user has performed an editing operation. 前記制御回路は、前記第2の画像の撮影時において、前記第2の対象物を強調するガイドを前記表示素子に表示するように制御する請求項1又は2に記載の撮像装置。 3. The imaging apparatus according to claim 1, wherein the control circuit controls to display a guide for emphasizing the second object on the display element when the second image is captured. 前記制御回路は、前記ガイドを前記第2の対象物の部位毎に表示するように制御する請求項3に記載の撮像装置。 4. The imaging apparatus according to claim 3, wherein said control circuit controls to display said guide for each part of said second object. 前記制御回路は、前記第2の画像の撮影時において、前記第2の対象物を拡大表示するように制御する請求項1又は2に記載の撮像装置。 3. The imaging apparatus according to claim 1, wherein the control circuit performs control to enlarge and display the second object when the second image is captured. 前記制御回路は、前記第2の画像の撮影時において、前記第2の対象物に対するピント合わせ又は露出合わせをするように制御する請求項1又は2に記載の撮像装置。 3. The imaging apparatus according to claim 1, wherein the control circuit performs control so as to focus or expose the second object when the second image is captured. 前記制御回路は、人工知能によって前記第2の画像から、前記第2の画像の撮影をアシストするための制御を決定する請求項1乃至の何れか1項に記載の撮像装置。 7. The imaging apparatus according to any one of claims 1 to 6 , wherein the control circuit determines control for assisting shooting of the second image from the second image by artificial intelligence. 前記制御回路は、前記第1の画像と前記第2の画像の撮影をアシストするための制御とを関連付けて前記人工知能の学習のための教師データとする請求項に記載の撮像装置。 8. The imaging apparatus according to claim 7 , wherein said control circuit associates said first image with control for assisting photographing of said second image, and uses said control as teacher data for learning of said artificial intelligence. ユーザが撮影し、表示素子に再生された第1の画像に対する前記ユーザの操作を取得することと、
取得された前記操作の履歴に従って前記第1の画像における第1の対象物を特定することと、
第2の画像の撮影時における対象物が前記第1の対象物と類似した第2の対象物であるか否かを判定することと、
前記第2の画像の撮影時における前記対象物が前記第2の対象物であるときに、前記操作の履歴に従って前記第2の画像の撮影をアシストするための制御をすることと、
前記第1の画像の中で前記ユーザによって確認された領域に含まれる対象物を前記第1の対象物として抽出し、前記第2の画像の撮影時において、前記表示素子に再生された第1の画像に対して行われた編集の操作と対応する制御を行うことができるか否かを判定し、行うことができると判定したときに、前記第1の画像に対して行われた編集の操作と対応する制御を行うことと、
を具備する撮像方法。
Acquiring a user's operation on a first image captured by a user and reproduced on a display device;
identifying a first object in the first image according to the acquired history of the operation;
Determining whether an object at the time of capturing the second image is a second object similar to the first object;
performing control for assisting the photographing of the second image according to the operation history when the object is the second object at the time of photographing the second image;
An object included in the region confirmed by the user in the first image is extracted as the first object, and the first object reproduced on the display element when the second image is captured. It is determined whether or not control corresponding to the editing operation performed on the image can be performed, and when it is determined that it can be performed, the editing performed on the first image performing an operation and corresponding control;
An imaging method comprising:
JP2019000640A 2019-01-07 2019-01-07 Imaging device and imaging method Active JP7175772B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019000640A JP7175772B2 (en) 2019-01-07 2019-01-07 Imaging device and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019000640A JP7175772B2 (en) 2019-01-07 2019-01-07 Imaging device and imaging method

Publications (2)

Publication Number Publication Date
JP2020109915A JP2020109915A (en) 2020-07-16
JP7175772B2 true JP7175772B2 (en) 2022-11-21

Family

ID=71570193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019000640A Active JP7175772B2 (en) 2019-01-07 2019-01-07 Imaging device and imaging method

Country Status (1)

Country Link
JP (1) JP7175772B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010147951A (en) 2008-12-20 2010-07-01 Sanyo Electric Co Ltd Image capturing apparatus and electronic device
JP2012085223A (en) 2010-10-14 2012-04-26 Nikon Corp Photographing condition generation device, imaging device, and photographing condition generation program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010147951A (en) 2008-12-20 2010-07-01 Sanyo Electric Co Ltd Image capturing apparatus and electronic device
JP2012085223A (en) 2010-10-14 2012-04-26 Nikon Corp Photographing condition generation device, imaging device, and photographing condition generation program

Also Published As

Publication number Publication date
JP2020109915A (en) 2020-07-16

Similar Documents

Publication Publication Date Title
JP4640456B2 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
US8446479B2 (en) Photographing apparatus
JP2006033241A (en) Image pickup device and image acquiring means
JP5533053B2 (en) Camera, camera control program, and shooting teaching method
JP2009058834A (en) Imaging apparatus
JP4621992B2 (en) Imaging apparatus and imaging method
JP5206422B2 (en) Composition selection device and program
US9866796B2 (en) Imaging apparatus, imaging method, and computer-readable recording medium
JP7175772B2 (en) Imaging device and imaging method
JP5854235B2 (en) Imaging apparatus, imaging method, and program
JP6242428B2 (en) Imaging apparatus and imaging method
JP4887840B2 (en) Imaging apparatus and program
JP5675922B2 (en) Shooting display device
JP5368165B2 (en) Imaging display device and imaging display method
JP4911287B2 (en) Image reproducing apparatus and program thereof
JP7428143B2 (en) Photography equipment, photography method, and program
JP4968389B2 (en) Imaging apparatus and program
JP5370577B2 (en) Composition selection device and program
JP5967422B2 (en) Imaging apparatus, imaging processing method, and program
JP6013574B2 (en) Imaging apparatus and imaging method
JP5722399B2 (en) Image processing apparatus, image processing method, and photographing method
JP5925275B2 (en) Imaging apparatus and imaging method
JP5816732B2 (en) Imaging apparatus and imaging method
JP2006067357A (en) Image processor and image processing method
JP2018026838A (en) Camera and image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221109

R151 Written notification of patent or utility model registration

Ref document number: 7175772

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151