JP2018101979A - Display device, display method, and display program - Google Patents

Display device, display method, and display program Download PDF

Info

Publication number
JP2018101979A
JP2018101979A JP2017249746A JP2017249746A JP2018101979A JP 2018101979 A JP2018101979 A JP 2018101979A JP 2017249746 A JP2017249746 A JP 2017249746A JP 2017249746 A JP2017249746 A JP 2017249746A JP 2018101979 A JP2018101979 A JP 2018101979A
Authority
JP
Japan
Prior art keywords
display
unit
display device
image
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017249746A
Other languages
Japanese (ja)
Inventor
佐藤 明伸
Akinobu Sato
明伸 佐藤
宏樹 網野
Hiroki Amino
宏樹 網野
敬 濱田
Takashi Hamada
敬 濱田
由貴 佐藤
Yuki Sato
由貴 佐藤
野中 修
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2017249746A priority Critical patent/JP2018101979A/en
Publication of JP2018101979A publication Critical patent/JP2018101979A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a display device capable of improving convenience.SOLUTION: A display device 3 comprises: a display side communication control unit 391 for receiving, through a display side communication unit 38, first image data imaged by an imaging device 2 from the imaging device 2; a display control unit 392 for making a display unit 32 display a first image corresponding to the first image data received from the imaging device 2 through the display side communication unit 38; an input unit 31 for accepting a user operation; a region information creation unit 394 for creating region information related to a partial region when the input unit 31 accepts, in a state in which the first image is being displayed on the display unit 32, a first user operation that is performed by an imaging person using the imaging device 2 and designates the partial region of the first image; and a relation determination unit 395 for determining positional relation between the display device 3 and the imaging person. The display control unit 392 makes the display unit 32 enlarge and display the designated image of the partial region on the basis of the region information in the first image, when the relation determination unit 395 determines that the positional relation has changed.SELECTED DRAWING: Figure 2

Description

本発明は、表示装置、撮像装置、撮像システム、表示方法、撮像方法、表示プログラム、及び撮像プログラムに関する。   The present invention relates to a display device, an imaging device, an imaging system, a display method, an imaging method, a display program, and an imaging program.

近年、携帯電話等の表示装置において、デジタルカメラ等の撮像装置にて撮像された画像データを、通信技術を用いて、順次、取得する技術が知られている(例えば、特許文献1参照)。
特許文献1に記載の技術は、表示装置により撮像装置を遠隔操作する技術である。
具体的に、特許文献1に記載の技術では、表示装置は、撮像装置から送信された画像データを順次、受信し、当該画像データに対応するライブビュー画像を順次、表示する。表示装置のユーザは、表示装置に表示されたライブビュー画像を確認しながら、撮像装置に撮影を実行させたいタイミングで表示装置に対して撮影操作を実行する。この撮影操作により表示装置から撮影指示が撮像装置に送信される。撮像装置は、当該撮影指示を受信した後、被写体を撮像して撮影画像データを生成し、当該撮影画像データを表示装置に送信する。
2. Description of the Related Art In recent years, a technique for sequentially acquiring image data captured by an imaging device such as a digital camera using a communication technology in a display device such as a mobile phone is known (for example, see Patent Document 1).
The technique described in Patent Document 1 is a technique for remotely operating an imaging apparatus using a display device.
Specifically, in the technique described in Patent Literature 1, the display device sequentially receives the image data transmitted from the imaging device, and sequentially displays the live view images corresponding to the image data. The user of the display device performs a shooting operation on the display device at a timing at which the imaging device wants to perform shooting while checking the live view image displayed on the display device. By this photographing operation, a photographing instruction is transmitted from the display device to the imaging device. After receiving the shooting instruction, the imaging device captures a subject, generates captured image data, and transmits the captured image data to the display device.

特開2003−250079号公報JP 2003-250079 A

しかしながら、特許文献1に記載の技術では、表示装置のユーザが撮像装置を利用して自身を被写体に含めて撮影を行う場合には、以下に示す問題がある。
例えば、表示装置のユーザは、当該撮影により得られる撮影画像に表示装置が映り込むことが嫌な場合には、撮影画像に表示装置が映り込まないように、当該撮影画像に映り込む自身の顔(目)から離れた位置に表示装置を位置付ける。このように自身の顔から離れた位置に表示装置を位置付けた場合には、表示装置に表示されたライブビュー画像の見え方が小さくなる。このため、表示装置のユーザは、当該ライブビュー画像を確認し難いものとなり、最適なタイミングで表示装置に対して撮影操作を実行することができない。すなわち、利便性の向上が図れない、という問題がある。
However, the technique described in Patent Document 1 has the following problems when the user of the display device performs shooting while including himself / herself in the subject using the imaging device.
For example, when the user of the display device does not want the display device to appear in the captured image obtained by the image capturing, the user's face reflected in the captured image is prevented from being reflected in the captured image. Position the display device away from the eye. In this way, when the display device is positioned at a position away from its own face, the appearance of the live view image displayed on the display device is reduced. For this reason, it becomes difficult for the user of the display device to confirm the live view image, and it is not possible to execute a photographing operation on the display device at an optimal timing. That is, there is a problem that convenience cannot be improved.

本発明は、上記に鑑みてなされたものであって、利便性の向上が図れる表示装置、撮像装置、撮像システム、表示方法、撮像方法、表示プログラム、及び撮像プログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object thereof is to provide a display device, an imaging device, an imaging system, a display method, an imaging method, a display program, and an imaging program that can improve convenience. .

上述した課題を解決し、目的を達成するために、本発明に係る表示装置は、画像を表示する表示装置において、外部の撮像装置との間で通信を行う表示側通信部と、前記表示側通信部を介して、前記撮像装置にて撮像された第1画像データを前記撮像装置から受信する表示側通信制御部と、画像を表示する表示部と、前記表示側通信部を介して前記撮像装置から受信した前記第1画像データに対応する第1画像を前記表示部に表示させる表示制御部と、ユーザ操作を受け付ける操作受付部と、前記第1画像が前記表示部に表示されている状態で、前記操作受付部が前記撮像装置の撮影者による前記第1画像の一部の領域を指定する第1のユーザ操作を受け付けた場合に、当該一部の領域に関する領域情報を生成する領域情報生成部と、当該表示装置と前記撮影者との位置関係を判定する関係判定部とを備え、前記表示制御部は、前記関係判定部にて前記位置関係が変化したと判定された場合に、前記第1画像における前記領域情報に基づく一部の領域の指定画像を前記表示部に拡大表示させることを特徴とする。   In order to solve the above-described problems and achieve the object, a display device according to the present invention includes a display-side communication unit that performs communication with an external imaging device in the display device that displays an image, and the display side. A display-side communication control unit that receives first image data captured by the imaging device from the imaging device via a communication unit, a display unit that displays an image, and the imaging via the display-side communication unit A display control unit that displays a first image corresponding to the first image data received from the apparatus on the display unit, an operation reception unit that receives a user operation, and a state in which the first image is displayed on the display unit Thus, when the operation accepting unit accepts a first user operation for designating a partial area of the first image by a photographer of the imaging device, area information for generating area information regarding the partial area Generator and the table A relationship determination unit that determines a positional relationship between the apparatus and the photographer, and the display control unit determines the positional relationship in the first image when the relationship determination unit determines that the positional relationship has changed. A specified image of a part of the region based on the region information is enlarged and displayed on the display unit.

また、本発明に係る撮像システムは、上述した表示装置と、前記表示装置との間で通信を行う撮像装置とを備えることを特徴とする。   An imaging system according to the present invention includes the above-described display device and an imaging device that communicates with the display device.

また、本発明に係る撮像装置は、被写体を撮像する撮像装置において、被写体を撮像して第1画像データを生成する本体側撮像部と、外部の表示装置との間で通信を行う本体側通信部と、前記本体側通信部を介して、前記第1画像データを前記表示装置に送信するとともに、前記第1画像データに対応する第1画像の一部の領域に関する領域情報を前記表示装置から受信する本体側通信制御部と、前記表示装置と当該撮像装置の撮影者との位置関係を判定する関係判定部と、前記関係判定部にて前記位置関係が変化したと判定された場合に、前記第1画像データに対応する前記第1画像から前記領域情報に基づく一部の領域の指定画像を抽出し、前記指定画像に対応する指定画像データを生成する画像抽出部とを備え、前記本体側通信制御部は、前記本体側通信部を介して、前記指定画像データを前記表示装置に送信することを特徴とする。   In addition, the imaging apparatus according to the present invention is an imaging apparatus that captures a subject, and communication between the main body side imaging unit that captures the subject and generates the first image data and the external display device. And the first image data is transmitted to the display device via the main body side communication unit, and region information regarding a partial region of the first image corresponding to the first image data is transmitted from the display device. When it is determined that the positional relationship has changed by the main body side communication control unit, the relationship determination unit that determines the positional relationship between the display device and the photographer of the imaging device, and the relationship determination unit, An image extraction unit that extracts a designated image of a part of a region based on the region information from the first image corresponding to the first image data and generates designated image data corresponding to the designated image; Side communication control unit Via the main body side communication unit, and transmits the specified image data to the display device.

また、本発明に係る撮像システムは、上述した撮像装置と、前記撮像装置との間で通信を行う表示装置とを備えることを特徴とする。   An imaging system according to the present invention includes the above-described imaging device and a display device that communicates with the imaging device.

また、本発明に係る表示方法は、画像を表示する表示装置が行う表示方法において、外部の撮像装置から受信した第1画像データに対応する第1画像を表示する第1表示ステップと、前記第1画像を表示している状態で、前記撮像装置の撮影者による前記第1画像の一部の領域を指定する第1のユーザ操作を受け付けた場合に、当該一部の領域に関する領域情報を生成する領域情報生成ステップと、前記表示装置と前記撮影者との位置関係を判定する関係判定ステップと、前記関係判定ステップにて前記位置関係が変化したと判定した場合に、前記第1画像における前記領域情報に基づく一部の領域の指定画像を拡大表示する第2表示ステップとを含むことを特徴とする。   The display method according to the present invention includes a first display step of displaying a first image corresponding to first image data received from an external imaging device in a display method performed by a display device that displays an image; When a first user operation for designating a partial area of the first image by the photographer of the imaging device is received in a state where one image is displayed, area information relating to the partial area is generated. A region information generation step, a relationship determination step for determining a positional relationship between the display device and the photographer, and a determination in the relationship determination step that the positional relationship has changed. A second display step of enlarging and displaying a specified image of a part of the region based on the region information.

また、本発明に係る表示プログラムは、上述した表示方法を表示装置に実行させることを特徴とする。   A display program according to the present invention causes a display device to execute the display method described above.

また、本発明に係る撮像方法は、被写体を撮像する撮像装置が行う撮像方法において、被写体を撮像して第1画像データを生成する撮像ステップと、前記第1画像データを外部の表示装置に送信するとともに、前記第1画像データに対応する第1画像の一部の領域に関する領域情報を前記表示装置から受信する第1通信ステップと、前記表示装置と前記撮像装置の撮影者との位置関係を判定する関係判定ステップと、前記関係判定ステップにて前記位置関係が変化したと判定した場合に、前記第1画像データに対応する前記第1画像から前記領域情報に基づく一部の領域の指定画像を抽出し、前記指定画像に対応する指定画像データを生成する画像抽出ステップと、前記指定画像データを前記表示装置に送信する第2通信ステップとを含むことを特徴とする。   The imaging method according to the present invention is an imaging method performed by an imaging device that images a subject, an imaging step of imaging the subject and generating first image data, and transmitting the first image data to an external display device. And a first communication step of receiving region information about a partial region of the first image corresponding to the first image data from the display device, and a positional relationship between the display device and a photographer of the imaging device. A determination image of a part of a region based on the region information from the first image corresponding to the first image data when it is determined that the positional relationship has changed in the relationship determination step and the relationship determination step An image extracting step of generating specified image data corresponding to the specified image, and a second communication step of transmitting the specified image data to the display device. The features.

また、本発明に係る撮像プログラムは、上述した撮像方法を撮像装置に実行させることを特徴とする。   An imaging program according to the present invention causes the imaging apparatus to execute the imaging method described above.

本発明に係る表示装置は、ライブビュー画像等の第1画像を表示している状態で、撮影者による第1のユーザ操作を受け付けた場合に、当該第1のユーザ操作に応じて指定された第1画像の一部の領域に関する領域情報を生成する。また、表示装置は、当該表示装置と撮影者との位置関係を判定する。例えば、表示装置は、撮像装置の撮影者が当該表示装置に表示された第1画像を確認しながら第1のユーザ操作を行った後、自身の顔から離れた位置に当該表示装置を位置付けると、当該表示装置と撮影者との位置関係が変化したと判定する。そして、表示装置は、第1画像における領域情報に基づく一部の領域の指定画像を拡大表示する。
このため、撮影者が撮像装置及び表示装置を利用して自身を被写体に含めて撮影を行う際、撮影画像に表示装置が映り込まないように自身の顔から離れた位置に表示装置を位置付けた場合であっても、自身で指定した領域の指定画像が表示装置に拡大表示される。すなわち、撮影者は、当該指定画像を確認しながら最適なタイミングで表示装置に対して撮影操作を実行することが可能となる。したがって、本発明に係る表示装置によれば、利便性の向上が図れる、という効果を奏する。
The display device according to the present invention is designated according to the first user operation when the first user operation by the photographer is received in a state where the first image such as the live view image is displayed. Region information relating to a partial region of the first image is generated. Further, the display device determines the positional relationship between the display device and the photographer. For example, when a photographer of an imaging device performs a first user operation while confirming a first image displayed on the display device, the display device positions the display device at a position away from its face. It is determined that the positional relationship between the display device and the photographer has changed. Then, the display device enlarges and displays the designated image of a part of the area based on the area information in the first image.
For this reason, when the photographer uses the imaging device and the display device to shoot with the subject included in the subject, the display device is positioned away from his / her face so that the display device does not appear in the captured image. Even in this case, the designated image of the area designated by itself is enlarged and displayed on the display device. That is, the photographer can execute a photographing operation on the display device at an optimal timing while confirming the designated image. Therefore, according to the display device of the present invention, there is an effect that the convenience can be improved.

本発明に係る撮像装置は、上述した表示装置とともに利用される撮像装置であるため、上述した表示装置と同様の効果を奏する。
本発明に係る撮像システムは、上述した表示装置や、上述した撮像装置を備えるため、上述した表示装置及び撮像装置と同様の効果を奏する。
本発明に係る表示方法は、上述した表示装置が行う方法であるため、上述した表示装置と同様の効果を奏する。
本発明に係る表示プログラムは、上述した表示装置にて実行されるプログラムであるため、上述した表示装置と同様の効果を奏する。
本発明に係る撮像方法は、上述した撮像装置が行う方法であるため、上述した撮像装置と同様の効果を奏する。
本発明に係る撮像プログラムは、上述した撮像装置にて実行されるプログラムであるため、上述した撮像装置と同様の効果を奏する。
Since the imaging device according to the present invention is an imaging device that is used together with the above-described display device, the same effect as the above-described display device can be obtained.
Since the imaging system according to the present invention includes the above-described display device and the above-described imaging device, the same effect as the above-described display device and imaging device can be obtained.
Since the display method according to the present invention is a method performed by the above-described display device, the same effects as those of the above-described display device can be obtained.
Since the display program according to the present invention is a program executed by the above-described display device, the same effect as the above-described display device can be obtained.
Since the imaging method according to the present invention is a method performed by the above-described imaging device, the same effect as the above-described imaging device is achieved.
Since the imaging program according to the present invention is a program executed by the above-described imaging apparatus, the same effect as the above-described imaging apparatus is achieved.

図1は、本発明の実施の形態1に係る撮像システムの構成を模式的に示す図である。FIG. 1 is a diagram schematically showing a configuration of an imaging system according to Embodiment 1 of the present invention. 図2は、図1に示した撮像システムの構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of the imaging system shown in FIG. 図3は、図1に示した撮像システムの使用態様の一例を示す図である。FIG. 3 is a diagram illustrating an example of a usage mode of the imaging system illustrated in FIG. 1. 図4は、図1に示した撮像システムの使用態様の一例を示す図である。FIG. 4 is a diagram illustrating an example of a usage mode of the imaging system illustrated in FIG. 1. 図5は、図1及び図2に示した撮像装置の動作を示すフローチャートである。FIG. 5 is a flowchart illustrating the operation of the imaging apparatus illustrated in FIGS. 1 and 2. 図6は、図1及び図2に示した表示装置の動作を示すフローチャートである。FIG. 6 is a flowchart showing the operation of the display device shown in FIGS. 図7は、図6に示した位置関係判定処理(ステップS214)を示すフローチャートである。FIG. 7 is a flowchart showing the positional relationship determination processing (step S214) shown in FIG. 図8は、図6に示した撮影操作判定処理(ステップS219)を示すフローチャートである。FIG. 8 is a flowchart showing the photographing operation determination process (step S219) shown in FIG. 図9は、本発明の実施の形態2に係る撮像システムの構成を示すブロック図である。FIG. 9 is a block diagram showing a configuration of an imaging system according to Embodiment 2 of the present invention. 図10は、図9に示した撮像装置の動作を示すフローチャートである。FIG. 10 is a flowchart showing the operation of the imaging apparatus shown in FIG. 図11は、図9に示した表示装置の動作を示すフローチャートである。FIG. 11 is a flowchart showing the operation of the display device shown in FIG. 図12は、本発明の実施の形態3に係る撮像システムの構成を示すブロック図である。FIG. 12 is a block diagram illustrating a configuration of an imaging system according to Embodiment 3 of the present invention. 図13は、図12に示した撮像装置の動作を示すフローチャートである。FIG. 13 is a flowchart showing the operation of the imaging apparatus shown in FIG. 図14は、図12に示した表示装置の動作を示すフローチャートである。FIG. 14 is a flowchart showing the operation of the display device shown in FIG. 図15は、本発明の実施の形態4に係る撮像システムの構成を示すブロック図である。FIG. 15 is a block diagram showing a configuration of an imaging system according to Embodiment 4 of the present invention. 図16は、図15に示した撮像システムの使用態様の一例を示す図である。16 is a diagram illustrating an example of a usage mode of the imaging system illustrated in FIG. 15. 図17は、図15に示した撮像システムの使用態様の一例を示す図である。FIG. 17 is a diagram illustrating an example of a usage mode of the imaging system illustrated in FIG. 15. 図18は、図15に示した表示装置の動作を示すフローチャートである。FIG. 18 is a flowchart showing the operation of the display device shown in FIG. 図19は、図15に示した表示装置の動作を示すフローチャートである。FIG. 19 is a flowchart showing the operation of the display device shown in FIG. 図20は、本発明の実施の形態1〜4の変形例を示す図である。FIG. 20 is a diagram showing a modification of the first to fourth embodiments of the present invention. 図21は、本発明の実施の形態1〜4の変形例を示す図である。FIG. 21 is a diagram showing a modification of the first to fourth embodiments of the present invention.

以下に、図面を参照して、本発明を実施するための形態(以下、実施の形態)について説明する。なお、以下に説明する実施の形態によって本発明が限定されるものではない。さらに、図面の記載において、同一の部分には同一の符号を付している。   DESCRIPTION OF EMBODIMENTS Hereinafter, modes for carrying out the present invention (hereinafter, embodiments) will be described with reference to the drawings. The present invention is not limited to the embodiments described below. Furthermore, the same code | symbol is attached | subjected to the same part in description of drawing.

(実施の形態1)
〔撮像システムの概略構成〕
図1は、本発明の実施の形態1に係る撮像システム1の構成を模式的に示す図である。図2は、撮像システム1の構成を示すブロック図である。
撮像システム1は、図1または図2に示すように、無線通信により互いに情報の送受信を可能に接続する撮像装置2及び表示装置3と、アタッチメント4(図1)とを備え、表示装置3により撮像装置2を遠隔操作するシステムである。
なお、撮像システム1としては、無線通信に限られず、有線通信により互いに情報の送受信を可能に撮像装置2及び表示装置3を接続した構成としても構わない。
(Embodiment 1)
[Schematic configuration of imaging system]
FIG. 1 is a diagram schematically showing a configuration of an imaging system 1 according to Embodiment 1 of the present invention. FIG. 2 is a block diagram illustrating a configuration of the imaging system 1.
As shown in FIG. 1 or FIG. 2, the imaging system 1 includes an imaging device 2 and a display device 3 that are connected so as to be able to transmit and receive information by wireless communication, and an attachment 4 (FIG. 1). This is a system for remotely operating the imaging device 2.
Note that the imaging system 1 is not limited to wireless communication, and may have a configuration in which the imaging device 2 and the display device 3 are connected so as to be able to transmit and receive information to each other through wired communication.

アタッチメント4は、撮像装置2及び表示装置3を機械的に接続する部材である。
より具体的に、アタッチメント4は、図1に示すように、表示装置3の背面に装着される。また、アタッチメント4には、平面視で円形状を有し、撮像装置2が嵌め込まれる取付用孔4Aが設けられている。
そして、アタッチメント4を介して撮像装置2及び表示装置3が機械的に接続された状態では、撮像システム1の全体形状は、デジタルカメラをイメージする形状となる。
なお、撮像システム1としては、アタッチメント4を備えた構成に限られず、アタッチメント4を省略した構成としても構わない。
The attachment 4 is a member that mechanically connects the imaging device 2 and the display device 3.
More specifically, the attachment 4 is attached to the back surface of the display device 3 as shown in FIG. The attachment 4 is provided with a mounting hole 4A that has a circular shape in a plan view and into which the imaging device 2 is fitted.
In a state where the imaging device 2 and the display device 3 are mechanically connected via the attachment 4, the overall shape of the imaging system 1 is a shape that images a digital camera.
Note that the imaging system 1 is not limited to the configuration including the attachment 4 and may be configured to omit the attachment 4.

〔撮像装置の構成〕
以下では、撮像装置2の構成として、本発明の要部を主に説明する。
撮像装置2は、図2に示すように、光学系21と、駆動部22と、位置検出部23と、操作部24と、本体側時計部25と、本体側撮像部26と、本体側メモリ部27と、本体側記録部28と、本体側通信部29と、本体側制御部30とを備える。そして、これら各部材21〜30は、全体略円筒形状を有するレンズ鏡筒20(図1)内部に収納される。すなわち、撮像装置2の全体形状は、図1に示すように、所謂交換レンズの全体形状と略同様の形状を有する。
[Configuration of imaging device]
In the following, the main part of the present invention will be mainly described as the configuration of the imaging device 2.
As shown in FIG. 2, the imaging device 2 includes an optical system 21, a drive unit 22, a position detection unit 23, an operation unit 24, a main body side clock unit 25, a main body side imaging unit 26, and a main body side memory. Unit 27, main body side recording unit 28, main body side communication unit 29, and main body side control unit 30. These members 21 to 30 are housed inside the lens barrel 20 (FIG. 1) having a generally cylindrical shape as a whole. That is, the overall shape of the imaging device 2 is substantially the same as the overall shape of a so-called interchangeable lens, as shown in FIG.

光学系21は、所定の視野領域から光を集光し、この集光した光を、本体側撮像部26を構成する撮像素子(図示略)の撮像面に結像する。この光学系21は、図2に示すように、ズームレンズ211と、フォーカスレンズ212とを備える。
ズームレンズ211は、一または複数のレンズを用いて構成され、図2に破線で示した光軸に沿って移動することにより、光学系21のズーム倍率を変更する。
フォーカスレンズ212は、一または複数のレンズを用いて構成され、図2に破線で示した光軸に沿って移動することにより、光学系21のピント位置及び焦点距離を変更する。
The optical system 21 condenses light from a predetermined visual field region and forms an image of the collected light on an image pickup surface of an image pickup element (not shown) constituting the main body side image pickup unit 26. As shown in FIG. 2, the optical system 21 includes a zoom lens 211 and a focus lens 212.
The zoom lens 211 is configured using one or a plurality of lenses, and changes the zoom magnification of the optical system 21 by moving along the optical axis indicated by the broken line in FIG.
The focus lens 212 is configured using one or a plurality of lenses, and changes the focus position and focal length of the optical system 21 by moving along the optical axis indicated by the broken line in FIG.

駆動部22は、本体側制御部30による制御の下、光学系21を構成する各レンズ211,212を光軸に沿って移動させる。この駆動部22は、図2に示すように、ズーム駆動部221と、フォーカス駆動部222とを備える。
ズーム駆動部221は、ステッピングモータやDCモータ等を用いて構成され、ズームレンズ211を光軸に沿って移動させる。
フォーカス駆動部222は、ステッピングモータやDCモータ等を用いて構成され、フォーカスレンズ212を光軸に沿って移動させる。
The drive unit 22 moves the lenses 211 and 212 constituting the optical system 21 along the optical axis under the control of the main body control unit 30. As shown in FIG. 2, the drive unit 22 includes a zoom drive unit 221 and a focus drive unit 222.
The zoom drive unit 221 is configured using a stepping motor, a DC motor, or the like, and moves the zoom lens 211 along the optical axis.
The focus driving unit 222 is configured using a stepping motor, a DC motor, or the like, and moves the focus lens 212 along the optical axis.

位置検出部23は、光学系21を構成する各レンズ211,212の光軸上の位置を検出する。この位置検出部23は、図2に示すように、ズーム位置検出部231と、フォーカス位置検出部232とを備える。
ズーム位置検出部231は、フォトインタラプタ等を用いて構成され、ズーム駆動部221にて駆動されたズームレンズ211の光軸上の位置を検出する。
具体的には、ズーム位置検出部231は、ズーム駆動部221に含まれる駆動用モータの回転量をパルス数に変換し、変換したパルス数に基づいて、無限遠を基準とする基準位置からのズームレンズ211の光軸上の位置を検出する。
フォーカス位置検出部232は、フォトインタラプタ等を用いて構成され、ズーム位置検出部231と同様の方法により、フォーカス駆動部222にて駆動されたフォーカスレンズ212の光軸上の位置を検出する。
The position detector 23 detects the position on the optical axis of each of the lenses 211 and 212 constituting the optical system 21. As shown in FIG. 2, the position detection unit 23 includes a zoom position detection unit 231 and a focus position detection unit 232.
The zoom position detection unit 231 is configured using a photo interrupter or the like, and detects the position on the optical axis of the zoom lens 211 driven by the zoom drive unit 221.
Specifically, the zoom position detection unit 231 converts the rotation amount of the drive motor included in the zoom drive unit 221 into the number of pulses, and based on the converted number of pulses, from the reference position with infinity as a reference. The position of the zoom lens 211 on the optical axis is detected.
The focus position detection unit 232 is configured using a photo interrupter or the like, and detects the position on the optical axis of the focus lens 212 driven by the focus drive unit 222 by the same method as the zoom position detection unit 231.

操作部24は、レンズ鏡筒20の周囲に設けられる操作リング、レンズ鏡筒20の外面に設けられるボタンやスイッチ等であり、光学系21内のズームレンズ211やフォーカスレンズ212の光軸上の位置の変更操作や、被写体の撮像を指示する撮影操作等のユーザ操作を受け付ける。そして、操作部24は、当該ユーザ操作に応じた指示信号を本体側制御部30に出力する。   The operation unit 24 includes an operation ring provided around the lens barrel 20, buttons and switches provided on the outer surface of the lens barrel 20, and is on the optical axis of the zoom lens 211 and the focus lens 212 in the optical system 21. User operations such as a position changing operation and a shooting operation for instructing imaging of a subject are accepted. Then, the operation unit 24 outputs an instruction signal corresponding to the user operation to the main body side control unit 30.

本体側時計部25は、計時機能の他、本体側撮像部26にて撮像された日時に関する日時情報(以下、第1タイムスタンプと記載)を生成する機能を有する。そして、本体側時計部25にて生成された第1タイムスタンプは、本体側制御部30に出力される。
なお、タイムスタンプの生成については、機器で厳密な時刻合わせをする必要があるとは限らず、撮影時に他の機器と通信して取得するような応用が可能であることは言うまでもない。以下で記載するタイムスタンプについても同様である。
The main body side clock unit 25 has a function of generating date and time information (hereinafter referred to as a first time stamp) related to the date and time captured by the main body side imaging unit 26, in addition to the time measuring function. The first time stamp generated by the main body side clock unit 25 is output to the main body side control unit 30.
Needless to say, the time stamp is not necessarily required to be precisely timed by the device, and can be applied to obtain the time stamp by communicating with another device at the time of shooting. The same applies to the time stamps described below.

本体側撮像部26は、本体側制御部30による制御の下、被写体を撮像して画像データを生成する。この本体側撮像部26は、光学系21が結像した被写体像を受光して電気信号に変換するCCD(Charge Coupled Device)等の撮像素子、当該撮像素子からの電気信号(アナログ信号)に対して信号処理(A/D変換等)を行うことによりデジタルの画像データを生成する信号処理部等を用いて構成される。そして、本体側撮像部26にて順次、生成された画像データ(以下、ライブビュー画像データと記載)は、本体側制御部30による制御の下、当該ライブビュー画像データが生成された日時に関する第1タイムスタンプが付加されて、順次、本体側メモリ部27に記憶される。また、カメラユーザによる撮像装置2(操作部24)や表示装置3への撮影操作に応じて本体側撮像部26にて生成された画像データ(以下、撮影画像データと記載)は、当該撮影画像データが生成された日時に関する第1タイムスタンプが付加されて、本体側記録部28に記録される。
そして、ライブビュー画像データ及び撮影画像データは、本発明に係る第1画像データに相当する。
The main body side imaging unit 26 images a subject and generates image data under the control of the main body side control unit 30. The main body side imaging unit 26 receives an object image formed by the optical system 21 and converts it into an electric signal, such as a CCD (Charge Coupled Device), and an electric signal (analog signal) from the imaging element. And a signal processing unit that generates digital image data by performing signal processing (A / D conversion or the like). Then, the image data (hereinafter referred to as live view image data) sequentially generated by the main body side imaging unit 26 is controlled by the main body side control unit 30 and the date and time when the live view image data is generated. One time stamp is added and sequentially stored in the main body side memory unit 27. In addition, image data (hereinafter referred to as “captured image data”) generated by the main body-side image capturing unit 26 in response to a photographing operation on the image capturing device 2 (operation unit 24) or the display device 3 by the camera user is the captured image. A first time stamp related to the date and time when the data is generated is added and recorded in the main body recording unit 28.
The live view image data and the captured image data correspond to the first image data according to the present invention.

本体側メモリ部27は、本体側撮像部26にて生成されたライブビュー画像データ(第1タイムスタンプを含む)を順次、記憶する。
本体側記録部28は、本体側制御部30が実行する各種プログラム(撮像プログラムを含む)や、光学系21の倍率、焦点距離、画角、収差及びF値(明るさ)等の光学系21の特性に関する特性情報等を記録する。また、本体側記録部28は、カメラユーザによる撮像装置2(操作部24)や表示装置3への撮影操作に応じて、本体側制御部30による制御の下、本体側撮像部26にて生成された撮影画像データ(第1タイムスタンプを含む)を記録する。
The main body side memory unit 27 sequentially stores the live view image data (including the first time stamp) generated by the main body side imaging unit 26.
The main body side recording unit 28 includes various programs (including an imaging program) executed by the main body side control unit 30, and the optical system 21 such as the magnification, focal length, angle of view, aberration, and F value (brightness) of the optical system 21. Record characteristic information related to the characteristics of Further, the main body side recording unit 28 is generated by the main body side imaging unit 26 under the control of the main body side control unit 30 in accordance with the photographing operation on the imaging device 2 (operation unit 24) or the display device 3 by the camera user. The captured image data (including the first time stamp) is recorded.

本体側通信部29は、本体側制御部30による制御の下、表示装置3との間で通信に必要な信号を含む各種データの無線通信を行うための通信インターフェースである。
本実施の形態1では、当該無線通信の通信方式として、Wi−Fi(Wireless Fidelity)(登録商標)を採用している。なお、当該無線通信の通信方式としては、Wi−Fi(登録商標)の他、WiMAX(Worldwide Interoperability for Microwave Access)(登録商標)等、他の通信方式を採用しても構わない。
例えば、Wi−Fi(登録商標)の場合、ローカルネットワークを想定し、機器の役割として、アクセスポイント、ステーションの関係があり、概略の接続処理としては、アクセスポイントが構築している無線ネットワークに、ステーションが接続する関係となる。
大まかな接続シーケンスとしては、(Step1)アクセスポイントは、無線ネットワークを構築し、自分のネットワーク識別子(SSID)を報知する、(Step2)ステーションは、報知されているネットワーク識別子(SSID)を検索し、所望のネットワーク(アクセスポイント)に接続する、というStep1,2を踏み、多くの機器とのネットワークを想定するので、カバー範囲が広く、干渉の問題を考慮しながら厳密な識別ステップを踏むことになる。このため、接続確立に時間が掛かることがある。ただし、データ通信は、アクセスポイント、ステーションそれぞれのタイミングでデータの送受信が可能である。ここでは、撮像装置2をアクセスポイント、表示装置3をステーションと考えればよい。なお、この関係は逆でもよい。10メガビット/秒以上という速度で通信することができるので画像も高速で送信することができる。
The main body side communication unit 29 is a communication interface for performing wireless communication of various data including signals necessary for communication with the display device 3 under the control of the main body side control unit 30.
In the first embodiment, Wi-Fi (Wireless Fidelity) (registered trademark) is adopted as the communication method of the wireless communication. In addition, as a communication method for the wireless communication, other communication methods such as WiMAX (Worldwide Interoperability for Microwave Access) (registered trademark) may be adopted in addition to Wi-Fi (registered trademark).
For example, in the case of Wi-Fi (registered trademark), assuming a local network, there is a relationship between an access point and a station as the role of a device. As a rough connection process, a wireless network constructed by an access point is The station is connected.
As a rough connection sequence, (Step 1) the access point constructs a wireless network and reports its own network identifier (SSID). (Step 2) The station searches for the broadcasted network identifier (SSID). Steps 1 and 2 for connecting to a desired network (access point) are assumed, and a network with many devices is assumed. Therefore, the coverage is wide and a strict identification step is taken while considering the problem of interference. . For this reason, it may take time to establish a connection. However, in data communication, data can be transmitted and received at the timing of each access point and station. Here, the imaging device 2 may be considered as an access point, and the display device 3 may be considered as a station. This relationship may be reversed. Since communication can be performed at a speed of 10 megabits / second or more, images can also be transmitted at high speed.

本体側制御部30は、CPU(Central Processing Unit)等を用いて構成され、操作部24からの指示信号や、本体側通信部29を介して入力される表示装置3からの指示信号に応じて撮像装置2全体の動作を制御する。この本体側制御部30は、図2に示すように、本体側通信制御部301と、本体側撮像制御部302と、画像抽出部303とを備える。
本体側通信制御部301は、本体側通信部29を介して、表示装置3との間でWi−Fi(登録商標)等の通信方式による通信接続を確立する。そして、本体側通信制御部301は、本体側記録部28に記録された特性情報、位置検出部23が検出したズームレンズ211及びフォーカスレンズ212の各位置に関するレンズ位置情報、本体側メモリ部27に記憶された最新のライブビュー画像データ(第1タイムスタンプを含む)及び最新の指定画像データ(第1タイムスタンプを含む)、本体側記録部28に記録された最新の撮影画像データ(第1タイムスタンプを含む)を表示装置3に送信する。ここで、「最新」とは、タイムスタンプに基づく日時上、最新という意味である(以下、同様)。また、本体側通信制御部301は、本体側通信部29を介して、表示装置3から、撮影指示、光学系21の動作指示、ライブビュー画像データに対応するライブビュー画像内の一部の領域に関する領域情報、当該ライブビュー画像内の一部の領域に相当する指定画像の送信を要求する指定画像送信指示を受信する。
The main body side control unit 30 is configured using a CPU (Central Processing Unit) or the like, and responds to an instruction signal from the operation unit 24 or an instruction signal from the display device 3 input via the main body side communication unit 29. The operation of the entire imaging apparatus 2 is controlled. As shown in FIG. 2, the main body side control unit 30 includes a main body side communication control unit 301, a main body side imaging control unit 302, and an image extraction unit 303.
The main body side communication control unit 301 establishes communication connection with the display device 3 through the main body side communication unit 29 by a communication method such as Wi-Fi (registered trademark). Then, the main body side communication control unit 301 stores the characteristic information recorded in the main body side recording unit 28, the lens position information regarding each position of the zoom lens 211 and the focus lens 212 detected by the position detection unit 23, and the main body side memory unit 27. The latest live view image data stored (including the first time stamp), the latest specified image data (including the first time stamp), and the latest captured image data (first time) recorded in the main body side recording unit 28. (Including a stamp) is transmitted to the display device 3. Here, “latest” means latest on the date and time based on the time stamp (hereinafter the same). In addition, the main body side communication control unit 301 receives, from the display device 3 via the main body side communication unit 29, a part of a region in the live view image corresponding to the shooting instruction, the operation instruction of the optical system 21, and the live view image data. Area information and a designated image transmission instruction for requesting transmission of a designated image corresponding to a part of the area in the live view image.

本体側撮像制御部302は、本体側撮像部26に被写体を撮像させ、本体側撮像部26にて生成されたライブビュー画像データに当該ライブビュー画像データが生成された日時に関する第1タイムスタンプを付加して、順次、本体側メモリ部27に記憶する。また、本体側撮像制御部302は、カメラユーザによる操作部24や表示装置3への撮影操作に応じて、本体側撮像部26に被写体を撮像させ、本体側撮像部26にて生成された撮影画像データに当該撮影画像データが生成された日時に関する第1タイムスタンプを付加して、本体側記録部28に記録する。   The main body side imaging control unit 302 causes the main body side imaging unit 26 to image a subject, and the live view image data generated by the main body side imaging unit 26 includes a first time stamp related to the date and time when the live view image data was generated. In addition, the data is stored in the main body side memory unit 27 sequentially. Further, the main body side imaging control unit 302 causes the main body side imaging unit 26 to image a subject in accordance with a photographing operation on the operation unit 24 or the display device 3 by the camera user, and the photographing generated by the main body side imaging unit 26. A first time stamp related to the date and time when the captured image data was generated is added to the image data, and the image data is recorded in the main body side recording unit 28.

画像抽出部303は、本体側通信部29を介して領域情報及び指定画像送信指示を受信した場合に、本体側メモリ部27に記憶された最新のライブビュー画像データを順次、読み出す。また、画像抽出部303は、当該ライブビュー画像データに対応するライブビュー画像から、領域情報に基づく一部の領域に相当する指定画像を順次、抽出する。そして、画像抽出部303は、当該抽出した指定画像に対応する指定画像データに当該指定画像の抽出に用いたライブビュー画像データの第1タイムスタンプを付加して、順次、本体側メモリ部27に記憶する。   The image extraction unit 303 sequentially reads the latest live view image data stored in the main body side memory unit 27 when receiving the area information and the designated image transmission instruction via the main body side communication unit 29. Further, the image extraction unit 303 sequentially extracts designated images corresponding to some areas based on the area information from the live view images corresponding to the live view image data. Then, the image extraction unit 303 adds the first time stamp of the live view image data used for extraction of the designated image to the designated image data corresponding to the extracted designated image, and sequentially stores it in the main body side memory unit 27. Remember.

〔表示装置の構成〕
以下では、表示装置3の構成として、本発明の要部を主に説明する。
表示装置3は、例えば、デジタルカメラ、デジタルビデオカメラ、または携帯電話やタブレット型携帯機器等として構成される。この表示装置3は、図2に示すように、入力部31と、表示部32と、表示側時計部33と、表示側撮像部34と、音声データ生成部35と、表示側メモリ部36と、表示側記録部37と、表示側通信部38と、表示側制御部39とを備える。
[Configuration of display device]
In the following, the main part of the present invention will be mainly described as the configuration of the display device 3.
The display device 3 is configured as, for example, a digital camera, a digital video camera, or a mobile phone or a tablet portable device. As shown in FIG. 2, the display device 3 includes an input unit 31, a display unit 32, a display side clock unit 33, a display side imaging unit 34, an audio data generation unit 35, and a display side memory unit 36. A display-side recording unit 37, a display-side communication unit 38, and a display-side control unit 39.

入力部31は、ユーザ操作を受け付けるボタン、スイッチ、タッチパネル等を用いて構成され、当該ユーザ操作に応じた指示信号を表示側制御部39に出力する。
そして、入力部31は、本発明に係る操作受付部としての機能を有する。
表示部32は、液晶または有機EL(Electro Luminescence)等からなる表示パネルを用いて構成され、表示装置3の前面(図3参照)に設けられる。そして、表示部32は、表示側制御部39による制御の下、所定の画像を表示する。
The input unit 31 is configured by using a button, a switch, a touch panel, or the like that receives a user operation, and outputs an instruction signal corresponding to the user operation to the display side control unit 39.
And the input part 31 has a function as an operation reception part which concerns on this invention.
The display unit 32 is configured using a display panel made of liquid crystal, organic EL (Electro Luminescence), or the like, and is provided on the front surface of the display device 3 (see FIG. 3). The display unit 32 displays a predetermined image under the control of the display side control unit 39.

表示側時計部33は、計時機能の他、表示側撮像部34にて撮像された日時や、音声データ生成部35にて音声が取得された日時に関する日時情報(以下、第2タイムスタンプと記載)を生成する機能を有する。そして、表示側時計部33にて生成された第2タイムスタンプは、表示側制御部39に出力される。
表示側撮像部34は、表示装置3の前面(図3参照)に設けられる。そして、表示側撮像部34は、表示側制御部39による制御の下、被写体を撮像して画像データ(以下、インカメラ画像データと記載)を生成する。この表示側撮像部34は、被写体像を結像する光学系341(図3参照)、光学系341が結像した被写体像を受光して電気信号に変換するCCD等の撮像素子(図示略)、当該撮像素子からの電気信号(アナログ信号)に対して信号処理(A/D変換等)を行うことによりデジタルの画像データを生成する信号処理部等を用いて構成される。そして、表示側撮像部34にて生成されたインカメラ画像データは、表示側制御部39による制御の下、当該インカメラ画像データが生成された日時に関する第2タイムスタンプが付加されて、表示側メモリ部36または表示側記録部37に記憶または記録される。
In addition to the timekeeping function, the display-side clock unit 33 includes date and time information (hereinafter referred to as a second time stamp) related to the date and time when the image was captured by the display-side imaging unit 34 and the date and time when the audio data generation unit 35 acquired audio. ). Then, the second time stamp generated by the display side clock unit 33 is output to the display side control unit 39.
The display-side imaging unit 34 is provided on the front surface of the display device 3 (see FIG. 3). Then, the display-side imaging unit 34 images the subject under the control of the display-side control unit 39 and generates image data (hereinafter referred to as in-camera image data). The display-side imaging unit 34 includes an optical system 341 that forms a subject image (see FIG. 3), and an imaging device (not shown) such as a CCD that receives the subject image formed by the optical system 341 and converts it into an electrical signal. A signal processing unit that generates digital image data by performing signal processing (A / D conversion or the like) on an electric signal (analog signal) from the imaging element is configured. The in-camera image data generated by the display-side imaging unit 34 is added with a second time stamp related to the date and time when the in-camera image data is generated under the control of the display-side control unit 39, It is stored or recorded in the memory unit 36 or the display side recording unit 37.

音声データ生成部35は、図2に示すように、音声入力部351と、音声処理部352とを備える。
音声入力部351は、音声を入力して電気信号に変換するマイクロフォンを用いて構成され、表示装置3の前面(図3参照)に設けられる。
音声処理部352は、表示側制御部39による制御の下、音声入力部351にて変換された電気信号に標本化及び量子化を施してA/D変換を行うことにより音声データを生成する。そして、音声処理部352にて生成された音声データは、表示側制御部39による制御の下、当該音声データが生成された日時に関する第2タイムスタンプが付加されて、表示側メモリ部36に記憶される。
As shown in FIG. 2, the audio data generation unit 35 includes an audio input unit 351 and an audio processing unit 352.
The voice input unit 351 is configured using a microphone that inputs voice and converts it into an electrical signal, and is provided on the front surface of the display device 3 (see FIG. 3).
The audio processing unit 352 generates audio data by performing sampling and quantization on the electrical signal converted by the audio input unit 351 and performing A / D conversion under the control of the display-side control unit 39. Then, the audio data generated by the audio processing unit 352 is stored in the display-side memory unit 36 with a second time stamp related to the date and time when the audio data was generated under the control of the display-side control unit 39. Is done.

表示側メモリ部36は、表示側撮像部34にて撮像されたインカメラ画像データ(第2タイムスタンプを含む)、音声データ生成部35にて生成された音声データ(第2タイムスタンプを含む)、及び表示側通信部38を介して撮像装置2から受信した情報を記憶する。
表示側記録部37は、図2に示すように、プログラム記録部371と、画像データ記録部372とを備える。
プログラム記録部371は、表示側制御部39が実行する各種プログラム(表示プログラムを含む)、及びプログラムの実行中に使用される各種データ等を記録する。
画像データ記録部372は、撮像装置2にて生成された撮影画像データ(第1タイムスタンプを含む)、及び表示側撮像部34にて生成されたインカメラ画像データ(第2タイムスタンプを含む)を記録する。
また、表示側記録部37には、撮像装置2と通信を行うために必要な撮像装置2の通信仕様情報が記録されている。
The display-side memory unit 36 includes in-camera image data (including the second time stamp) imaged by the display-side imaging unit 34, and audio data (including the second time stamp) generated by the audio data generation unit 35. And the information received from the imaging device 2 via the display side communication part 38 is memorize | stored.
As shown in FIG. 2, the display side recording unit 37 includes a program recording unit 371 and an image data recording unit 372.
The program recording unit 371 records various programs (including a display program) executed by the display-side control unit 39, various data used during the execution of the program, and the like.
The image data recording unit 372 includes captured image data (including the first time stamp) generated by the imaging device 2 and in-camera image data (including the second time stamp) generated by the display side imaging unit 34. Record.
The display-side recording unit 37 records communication specification information of the imaging device 2 necessary for communicating with the imaging device 2.

表示側通信部38は、表示側制御部39による制御の下、撮像装置2との間で通信に必要な信号を含む各種データの無線通信をWi−Fi(登録商標)等の通信方式により行うための通信インターフェースである。   The display side communication unit 38 performs wireless communication of various data including signals necessary for communication with the imaging device 2 under the control of the display side control unit 39 by a communication method such as Wi-Fi (registered trademark). It is a communication interface for.

表示側制御部39は、CPU等を用いて構成され、入力部31からの指示信号等に応じて表示装置3を構成する各部に対応する指示やデータの転送等を行って表示装置3の動作を統括的に制御する。この表示側制御部39は、図2に示すように、表示側通信制御部391と、表示制御部392と、表示側撮像制御部393と、領域情報生成部394と、関係判定部395とを備える。   The display-side control unit 39 is configured using a CPU or the like, and performs an instruction, data transfer, or the like corresponding to each unit constituting the display device 3 in accordance with an instruction signal or the like from the input unit 31. Overall control. As shown in FIG. 2, the display-side control unit 39 includes a display-side communication control unit 391, a display control unit 392, a display-side imaging control unit 393, a region information generation unit 394, and a relationship determination unit 395. Prepare.

表示側通信制御部391は、カメラユーザによる入力部31への操作により表示装置3がカメラ通信モード(撮像装置2を利用して被写体像を撮影するモード)に設定されている場合に、以下の処理を実行する。
具体的に、表示側通信制御部391は、表示側記録部37に記録された撮像装置2の通信仕様情報に基づいて、表示側通信部38を介して、撮像装置2との間でWi−Fi(登録商標)等の通信方式による通信接続を確立する。そして、表示側通信制御部391は、表示側通信部38を介して、撮像装置2から特性情報、レンズ位置情報、ライブビュー画像データ(第1タイムスタンプを含む)、撮影画像データ(第1タイムスタンプを含む)、及び指定画像データ(第1タイムスタンプを含む)等を受信する。また、表示側通信制御部391は、表示部32にライブビュー画像が表示されている状態で、カメラユーザにより入力部31に対してライブビュー画像の一部の領域を指定する領域指定操作(第1のユーザ操作)がなされた場合に、表示側通信部38を介して、領域情報生成部394にて生成された領域情報を撮像装置2に送信する。さらに、表示側通信制御部391は、関係判定部395にて表示装置3とカメラユーザとの位置関係が変化したと判定された場合に、表示側通信部38を介して、ライブビュー画像内における領域情報に基づく一部の領域に相当する指定画像の送信を要求する指定画像送信指示を撮像装置2に送信する。そして、表示側通信制御部391は、撮像装置2から指定画像データ(第1タイムスタンプを含む)が転送された場合に、当該指定画像データを表示側メモリ部36に記憶させる。
The display-side communication control unit 391 performs the following when the display device 3 is set to the camera communication mode (a mode in which a subject image is captured using the imaging device 2) by an operation on the input unit 31 by a camera user. Execute the process.
Specifically, the display-side communication control unit 391 communicates with the imaging device 2 via the display-side communication unit 38 based on the communication specification information of the imaging device 2 recorded in the display-side recording unit 37. A communication connection is established by a communication method such as Fi (registered trademark). Then, the display-side communication control unit 391 receives characteristic information, lens position information, live view image data (including the first time stamp), and captured image data (first time) from the imaging device 2 via the display-side communication unit 38. And the designated image data (including the first time stamp). The display-side communication control unit 391 also performs a region designation operation (first operation) for designating a partial region of the live view image on the input unit 31 by the camera user while the live view image is displayed on the display unit 32. Area information generated by the area information generation unit 394 is transmitted to the imaging apparatus 2 via the display-side communication unit 38. Furthermore, when the relationship determination unit 395 determines that the positional relationship between the display device 3 and the camera user has changed, the display-side communication control unit 391 passes through the display-side communication unit 38 in the live view image. A designated image transmission instruction for requesting transmission of a designated image corresponding to a part of the region based on the region information is transmitted to the imaging apparatus 2. When the designated image data (including the first time stamp) is transferred from the imaging device 2, the display side communication control unit 391 stores the designated image data in the display side memory unit 36.

表示制御部392は、表示部32の動作を制御し、表示側メモリ部36に記憶されたライブビュー画像データや指定画像データに対応する各画像(ライブビュー画像(第1画像)、指定画像)、画像データ記録部372に記録された撮影画像データに対応する撮影画像、及び各種モードの選択を促す初期画面等を表示部32に表示させる。   The display control unit 392 controls the operation of the display unit 32, and each image (live view image (first image), designated image) corresponding to the live view image data or the designated image data stored in the display side memory unit 36. Then, the display unit 32 displays a captured image corresponding to the captured image data recorded in the image data recording unit 372, an initial screen for prompting selection of various modes, and the like.

表示側撮像制御部393は、表示装置3が「カメラ通信モード」に設定されている場合には、以下の処理を実行する。
具体的に、表示側撮像制御部393は、カメラユーザにより撮影操作が行われたか否かを判定する「撮影操作判定処理」を実行する。そして、表示側撮像制御部393は、撮影操作が行われたと判定した場合に、表示側通信部38を介して、撮影を行う旨の撮影指示(当該撮影により得られた撮影画像データの転送要求も含む)を撮像装置2に送信する。また、表示側撮像制御部393は、撮像装置2から撮影画像データ(第1タイムスタンプを含む)が転送された場合に、当該撮影画像データを画像データ記録部372に記録する。
なお、「撮影操作判定処理」の詳細については、後述する表示装置3の動作を説明する際に説明する。
また、表示側撮像制御部393は、カメラユーザによる入力部3への光学系21を動作(ズームレンズ211、フォーカスレンズ212の光軸上の位置を変更)させる操作に応じて、表示側通信部38を介して、光学系21の動作指示を撮像装置2に送信する。
When the display device 3 is set to “camera communication mode”, the display-side imaging control unit 393 performs the following processing.
Specifically, the display-side imaging control unit 393 executes “imaging operation determination processing” for determining whether or not an imaging operation has been performed by the camera user. When the display-side imaging control unit 393 determines that the shooting operation has been performed, the display-side communication unit 38 receives a shooting instruction to perform shooting (a request to transfer the shot image data obtained by the shooting). Are also transmitted to the imaging apparatus 2. The display-side imaging control unit 393 records the captured image data in the image data recording unit 372 when the captured image data (including the first time stamp) is transferred from the imaging device 2.
The details of the “photographing operation determination process” will be described when an operation of the display device 3 described later is described.
In addition, the display-side imaging control unit 393 performs a display-side communication unit in response to an operation by the camera user to operate the optical system 21 to the input unit 3 (change the positions of the zoom lens 211 and the focus lens 212 on the optical axis). An operation instruction for the optical system 21 is transmitted to the imaging apparatus 2 via the control unit 38.

一方、表示側撮像制御部393は、カメラユーザによる入力部31への操作により表示装置3が通常撮影モード(表示側撮像部34を利用して被写体を撮影するモード)に設定されている場合には、以下の処理を実行する。
具体的に、表示側撮像制御部393は、表示装置3のユーザによる入力部31への撮影操作に応じて、表示側撮像部34に被写体を撮像させ、表示側撮像部34にて生成されたインカメラ画像データに当該インカメラ画像データが生成された日時に関する第2タイムスタンプを付加して、画像データ記録部372に記録する。
On the other hand, the display-side imaging control unit 393 is configured when the display device 3 is set to a normal shooting mode (a mode for shooting a subject using the display-side imaging unit 34) by an operation on the input unit 31 by a camera user. Performs the following processing.
Specifically, the display-side imaging control unit 393 causes the display-side imaging unit 34 to image a subject in response to a shooting operation on the input unit 31 by the user of the display device 3, and is generated by the display-side imaging unit 34. A second time stamp related to the date and time when the in-camera image data is generated is added to the in-camera image data and recorded in the image data recording unit 372.

領域情報生成部394は、表示装置3が「カメラ通信モード」に設定されている場合に、以下の処理を実行する。
具体的に、領域情報生成部394は、表示部32にライブビュー画像が表示されている状態で、カメラユーザによる入力部31への領域指定操作に応じて、当該指定された領域に関する領域情報(ライブビュー画像内での領域の位置を示す座標(画素位置)等)を生成する。そして、領域情報生成部394は、当該生成した領域情報を表示側メモリ部36に記憶する。
The area information generation unit 394 executes the following processing when the display device 3 is set to “camera communication mode”.
Specifically, the area information generation unit 394 displays area information about the designated area (in accordance with the area designation operation to the input unit 31 by the camera user in a state where the live view image is displayed on the display unit 32. Coordinate (pixel position) indicating the position of the region in the live view image is generated. Then, the region information generation unit 394 stores the generated region information in the display side memory unit 36.

関係判定部395は、表示側撮像部34にて生成されたインカメラ画像データや、音声データ生成部35にて生成された音声データ等に基づいて、表示装置3とカメラユーザとの位置関係が変化したか否かを判定する「位置関係判定処理」を実行する。
なお、「位置関係判定処理」の詳細については、後述する表示装置3の動作を説明する際に説明する。
The relationship determination unit 395 determines the positional relationship between the display device 3 and the camera user based on the in-camera image data generated by the display-side imaging unit 34, the audio data generated by the audio data generation unit 35, and the like. A “positional relationship determination process” is performed to determine whether or not there has been a change.
Details of the “positional relationship determination process” will be described when an operation of the display device 3 described later is described.

〔撮像システムの動作〕
次に、上述した撮像システム1の動作について説明する。
図3及び図4は、撮像システム1の使用態様の一例を示す図である。具体的に、図3は、カメラユーザXが撮像システム1を利用して被写体Y,Zを撮影する前に、撮像装置2を三脚5で固定し、表示装置3に表示されている画像を見ながら構図を設定している状況を示している。図4は、カメラユーザXが構図を設定(図3)した後、表示装置3を持って被写体Y,Zの側に行き、自身も被写体に含めて撮影を行う状況を示している。ここで、表示装置3は、撮像装置2の撮影範囲外に置かれている。
以下、撮像システム1の動作として、撮像装置2の動作、及び表示装置3の動作を順に説明する。
[Operation of imaging system]
Next, the operation of the imaging system 1 described above will be described.
3 and 4 are diagrams illustrating an example of usage modes of the imaging system 1. Specifically, FIG. 3 shows that the image pickup device 2 is fixed with the tripod 5 and the image displayed on the display device 3 is viewed before the camera user X uses the image pickup system 1 to photograph the subjects Y and Z. However, the situation where the composition is set is shown. FIG. 4 shows a situation where the camera user X sets the composition (FIG. 3), then goes to the subjects Y and Z side with the display device 3 and shoots by including himself in the subject. Here, the display device 3 is placed outside the imaging range of the imaging device 2.
Hereinafter, as the operation of the imaging system 1, the operation of the imaging device 2 and the operation of the display device 3 will be described in order.

〔撮像装置の動作〕
図5は、撮像装置2の動作を示すフローチャートである。
カメラユーザによる操作部24への操作によって撮像装置2の電源がオンになる(ステップS101:Yes)と、本体側撮像制御部302は、本体側撮像部26に撮像を開始させる(ステップS102)。本体側撮像部26にて生成されたライブビュー画像データ(第1タイムスタンプを含む)は、順次、本体側メモリ部27に記憶される。
[Operation of imaging device]
FIG. 5 is a flowchart showing the operation of the imaging apparatus 2.
When the power of the imaging device 2 is turned on by the operation of the operation unit 24 by the camera user (step S101: Yes), the main body side imaging control unit 302 causes the main body side imaging unit 26 to start imaging (step S102). The live view image data (including the first time stamp) generated by the main body imaging unit 26 is sequentially stored in the main body memory unit 27.

続いて、本体側通信制御部301は、本体側通信部29を介して表示装置3との間でWi−Fi(登録商標)等の通信方式による通信接続を確立しているか否かを判断する(ステップS103)。
表示装置3との間で通信接続を確立していないと判断された場合(ステップS103:No)には、撮像装置2は、ステップS112に移行する。
一方、表示装置3との間で通信接続を確立していると判断した場合(ステップS103:Yes)には、本体側通信制御部301は、本体側通信部29を介して、表示装置3から指定画像送信指示を受信したか否かを判断する(ステップS104)。
Subsequently, the main body side communication control unit 301 determines whether or not a communication connection by a communication method such as Wi-Fi (registered trademark) is established with the display device 3 via the main body side communication unit 29. (Step S103).
When it is determined that a communication connection is not established with the display device 3 (step S103: No), the imaging device 2 proceeds to step S112.
On the other hand, when it is determined that a communication connection is established with the display device 3 (step S103: Yes), the main body side communication control unit 301 starts from the display device 3 via the main body side communication unit 29. It is determined whether a designated image transmission instruction has been received (step S104).

指定画像送信指示を受信していないと判断した場合(ステップS104:No)には、本体側通信制御部301は、本体側通信部29を介して、本体側メモリ部27に記憶された最新のライブビュー画像データ(第1タイムスタンプを含む)を表示装置3に送信する(ステップS105)。
続いて、本体側通信制御部301は、本体側通信部29を介して、表示装置3から領域情報を受信したか否かを判断する(ステップS106)。
領域情報を受信していないと判断された場合(ステップS106:No)には、撮像装置2は、ステップS111に移行する。
一方、領域情報を受信したと判断した場合(ステップS106:Yes)には、本体側通信制御部301は、当該領域情報を本体側メモリ部27に記憶する(ステップS107)。ここで、本体側メモリ部27に既に従前の領域情報が記憶されている場合には、当該領域情報は、ステップS106で受信した最新の領域情報に更新される。
When it is determined that the designated image transmission instruction has not been received (step S104: No), the main body side communication control unit 301 transmits the latest stored in the main body side memory unit 27 via the main body side communication unit 29. Live view image data (including the first time stamp) is transmitted to the display device 3 (step S105).
Subsequently, the main body side communication control unit 301 determines whether or not region information has been received from the display device 3 via the main body side communication unit 29 (step S106).
If it is determined that the area information has not been received (step S106: No), the imaging device 2 proceeds to step S111.
On the other hand, when it is determined that the region information has been received (step S106: Yes), the main body side communication control unit 301 stores the region information in the main body side memory unit 27 (step S107). If the previous area information is already stored in the main body memory unit 27, the area information is updated to the latest area information received in step S106.

ステップS104で指定画像送信指示を受信したと判断した場合(ステップS104:Yes)には、本体側通信制御部301は、本体側通信部29を介して表示装置3から領域情報を受信済であるか否か(本体側メモリ部27に領域情報が記憶されているか否か)を判断する(ステップS108)。
領域情報を未だ受信していないと判断された場合(ステップS108:No)には、撮像装置2は、ステップS111に移行する。
一方、領域情報を既に受信していると判断された場合(ステップS108:Yes)には、画像抽出部303は、本体側メモリ部27に記憶された最新のライブビュー画像データ及び領域情報を読み出す。そして、画像抽出部303は、当該読み出した最新のライブビュー画像データに対応するライブビュー画像から、当該読み出した領域情報に基づく一部の領域に相当する指定画像を抽出する(ステップS109)。当該抽出された指定画像に対応する指定画像データは、当該指定画像の抽出に用いられたライブビュー画像データの第1タイムスタンプが付加されて本体側メモリ部27に記憶される。
続いて、本体側通信制御部301は、本体側通信部29を介して、本体側メモリ部27に記憶された最新の指定画像データ(第1タイムスタンプを含む)を表示装置3に送信する(ステップS110)。
If it is determined in step S104 that the designated image transmission instruction has been received (step S104: Yes), the main body side communication control unit 301 has received the area information from the display device 3 via the main body side communication unit 29. Whether or not (region information is stored in the main body side memory unit 27) is determined (step S108).
If it is determined that the area information has not yet been received (step S108: No), the imaging apparatus 2 proceeds to step S111.
On the other hand, when it is determined that the area information has already been received (step S108: Yes), the image extraction unit 303 reads the latest live view image data and area information stored in the main body side memory unit 27. . Then, the image extraction unit 303 extracts a designated image corresponding to a partial area based on the read area information from the live view image corresponding to the read latest live view image data (step S109). The designated image data corresponding to the extracted designated image is stored in the main body memory unit 27 with the first time stamp of the live view image data used for the extraction of the designated image.
Subsequently, the main body side communication control unit 301 transmits the latest designated image data (including the first time stamp) stored in the main body side memory unit 27 to the display device 3 via the main body side communication unit 29 ( Step S110).

ステップS110の後、本体側通信制御部301は、本体側通信部29を介して、表示装置3から撮影指示を受信したか否かを判断する(ステップS111)。なお、ステップS106で領域情報を受信していないと判断された場合(ステップS106:No)、ステップS107の後、及びステップS108で領域情報を未だ受信していないと判断された場合(ステップS108:No)でも同様のステップS111が実行される。
撮影指示を受信していないと判断された場合(ステップS111:No)には、本体側撮像制御部302は、カメラユーザによる操作部24への撮影操作があったか否かを判断する(ステップS112)。なお、ステップS103で表示装置3との間で通信接続を確立していないと判断された場合(ステップS103:No)でも同様のステップS112が実行される。
一方、撮影指示を受信したと判断された場合(ステップS111:Yes)には、本体側撮像制御部302は、本体側撮像部26に撮像を行わせる(ステップS113)。なお、ステップS112で撮影操作があったと判断された場合(ステップS112:Yes)でも同様のステップS113が実行される。また、ステップS112で撮影操作がないと判断された場合(ステップS112:No)には、撮像装置2は、ステップS101に戻る。
After step S110, the main body side communication control unit 301 determines whether a photographing instruction is received from the display device 3 via the main body side communication unit 29 (step S111). When it is determined in step S106 that the area information has not been received (step S106: No), after step S107 and when it is determined in step S108 that the area information has not yet been received (step S108: No), the same step S111 is executed.
If it is determined that the shooting instruction has not been received (step S111: No), the main body side imaging control unit 302 determines whether or not the camera user has performed a shooting operation on the operation unit 24 (step S112). . Even when it is determined in step S103 that a communication connection is not established with the display device 3 (step S103: No), the same step S112 is executed.
On the other hand, when it is determined that the imaging instruction has been received (step S111: Yes), the main body side imaging control unit 302 causes the main body side imaging unit 26 to perform imaging (step S113). Note that the same step S113 is executed even when it is determined in step S112 that a photographing operation has been performed (step S112: Yes). If it is determined in step S112 that there is no shooting operation (step S112: No), the imaging apparatus 2 returns to step S101.

ステップS113の後、本体側撮像制御部302は、当該ステップS113での撮像により生成された撮影画像データを本体側記録部28に記録する(ステップS114)。
続いて、本体側通信制御部301は、ステップS103と同様に、表示装置3との間で通信接続を確立しているか否かを判断する(ステップS115)。
表示装置3との間で通信接続を確立していると判断した場合(ステップS115:Yes)には、本体側通信制御部301は、本体側通信部29を介して、本体側記録部28に記録された最新の撮影画像データ(第1タイムスタンプを含む)を表示装置3に送信する(ステップS116)。この後、撮像装置2は、ステップS101に戻る。
一方、表示装置3との間で通信接続を確立していないと判断された場合(ステップS115:No)には、撮像装置2は、ステップS101に戻る。そして、図5では図示を省略したが、本体側通信制御部301は、ステップS116で送信する予定であった撮影画像データ(第1タイムスタンプを含む)を、表示装置3との間で通信接続を確立した段階で、表示装置3に送信する。
After step S113, the main body side imaging control unit 302 records the captured image data generated by the imaging in step S113 in the main body side recording unit 28 (step S114).
Subsequently, the main body side communication control unit 301 determines whether or not a communication connection is established with the display device 3 as in step S103 (step S115).
When it is determined that a communication connection has been established with the display device 3 (step S115: Yes), the main body side communication control unit 301 communicates with the main body side recording unit 28 via the main body side communication unit 29. The latest recorded image data (including the first time stamp) recorded is transmitted to the display device 3 (step S116). Thereafter, the imaging apparatus 2 returns to step S101.
On the other hand, when it is determined that a communication connection is not established with the display device 3 (step S115: No), the imaging device 2 returns to step S101. Although not shown in FIG. 5, the main body side communication control unit 301 establishes communication connection with the display device 3 for the captured image data (including the first time stamp) that was scheduled to be transmitted in step S <b> 116. Is transmitted to the display device 3.

〔表示装置の動作〕
図6は、表示装置3の動作を示すフローチャートである。
なお、以下では、表示装置3は、「カメラ通信モード」に設定されているものとする。
カメラユーザによる入力部31への操作によって表示装置3の電源がオンになる(ステップS201:Yes)と、表示側通信制御部391は、表示側通信部38を介して、撮像装置2との間で通信接続を開始する(ステップS202)。
続いて、表示側通信制御部391は、表示側通信部38を介して撮像装置2との間で通信接続を確立したか否かを判断する(ステップS203)。
撮像装置2との間で通信接続を確立していないと判断された場合(ステップS203:No)には、表示装置3は、ステップS201に戻る。
一方、撮像装置2との間で通信接続を確立したと判断した場合(ステップS203:Yes)には、表示側通信制御部391は、表示側通信部38を介して、撮像装置2からライブビュー画像データ(第1タイムスタンプを含む)を受信したか否かを判断する(ステップS204)。
[Operation of display device]
FIG. 6 is a flowchart showing the operation of the display device 3.
In the following, it is assumed that the display device 3 is set to the “camera communication mode”.
When the power of the display device 3 is turned on by the operation of the input unit 31 by the camera user (step S201: Yes), the display side communication control unit 391 communicates with the imaging device 2 via the display side communication unit 38. The communication connection is started (step S202).
Subsequently, the display-side communication control unit 391 determines whether a communication connection has been established with the imaging device 2 via the display-side communication unit 38 (step S203).
When it is determined that a communication connection has not been established with the imaging device 2 (step S203: No), the display device 3 returns to step S201.
On the other hand, if it is determined that a communication connection has been established with the imaging device 2 (step S203: Yes), the display-side communication control unit 391 performs live view from the imaging device 2 via the display-side communication unit 38. It is determined whether image data (including the first time stamp) has been received (step S204).

ライブビュー画像データを受信していないと判断された場合(ステップS204:No)には、表示装置3は、ステップS217に移行する。
一方、ライブビュー画像データを受信したと判断した場合(ステップS204:Yes)には、表示側通信制御部391は、当該受信したライブビュー画像データ(第1タイムスタンプを含む)を表示側メモリ部36に記憶する。そして、表示制御部392は、表示側メモリ部36に記憶された最新のライブビュー画像データに対応するライブビュー画像を表示部32に表示させる(ステップS205:第1表示ステップ)。
When it is determined that the live view image data is not received (step S204: No), the display device 3 proceeds to step S217.
On the other hand, when it is determined that the live view image data has been received (step S204: Yes), the display side communication control unit 391 displays the received live view image data (including the first time stamp) on the display side memory unit. 36. Then, the display control unit 392 causes the display unit 32 to display a live view image corresponding to the latest live view image data stored in the display side memory unit 36 (step S205: first display step).

例えば、表示制御部392は、ステップS205において、図3に示す画面W1を表示部32に表示させる。
この画面W1には、図3に示すように、最新のライブビュー画像データに対応するライブビュー画像W100と、指定画像の送信を要求する操作を受け付ける操作アイコンA1とが表示されている。
そして、カメラユーザXは、図3に示すように、当該画面W1のライブビュー画像W100を確認しながら、撮影する際の構図を設定することとなる。
For example, the display control unit 392 causes the display unit 32 to display the screen W1 illustrated in FIG.
On this screen W1, as shown in FIG. 3, a live view image W100 corresponding to the latest live view image data and an operation icon A1 for accepting an operation for requesting transmission of a designated image are displayed.
Then, as shown in FIG. 3, the camera user X sets the composition for shooting while confirming the live view image W100 on the screen W1.

続いて、表示側制御部39は、カメラユーザによる入力部31への領域指定操作があったか否かを判断する(ステップS206)。
領域指定操作がないと判断された場合(ステップS206:No)には、表示装置3は、ステップS214(位置関係判定処理)に移行する。
一方、領域指定操作があったと判断した場合(ステップS206:Yes)には、表示側制御部39は、以下の処理(ステップS207〜S213)を実行する。
Subsequently, the display-side control unit 39 determines whether or not an area designation operation has been performed on the input unit 31 by the camera user (step S206).
When it is determined that there is no area designation operation (step S206: No), the display device 3 proceeds to step S214 (positional relationship determination process).
On the other hand, when it is determined that there has been an area designation operation (step S206: Yes), the display-side control unit 39 executes the following processing (steps S207 to S213).

ここで、ステップS207〜S213を説明する前に、図3を例に、カメラユーザが行う領域指定操作について説明する。
カメラユーザXは、ライブビュー画像W100を確認しながら撮影する際の構図を設定した後、撮影する際に重要となる領域をタッチパネル(入力部31)へのピンチ操作(領域指定操作)により指定する(図3の例では、ライブビュー画像W100中、被写体Yの顔に相当する領域Ar1と、被写体Zの顔に相当する領域Ar2が指定)。また、図3の例では、カメラユーザXは、領域指定操作を行いながら、言葉(「ここが重要」という言葉)を発している。
以上のような領域指定操作が行われることで、表示側制御部39は、ステップS206において、領域指定操作があったと判断する。
Here, before describing steps S207 to S213, an area specifying operation performed by the camera user will be described with reference to FIG.
The camera user X sets a composition for shooting while confirming the live view image W100, and then designates an area important for shooting by a pinch operation (area specifying operation) on the touch panel (input unit 31). (In the example of FIG. 3, the area Ar1 corresponding to the face of the subject Y and the area Ar2 corresponding to the face of the subject Z are specified in the live view image W100). In the example of FIG. 3, the camera user X utters a word (the word “here is important”) while performing an area designation operation.
By performing the region specifying operation as described above, the display-side control unit 39 determines in step S206 that the region specifying operation has been performed.

ステップS206で領域指定操作があったと判断された場合(ステップS206:Yes)には、関係判定部395は、後述する「位置関係判定処理(ステップS214)」を行うために必要な情報を取得する(ステップS207〜S210)。
具体的に、関係判定部395は、表示側撮像部34に被写体(図3の例では、カメラユーザX)を撮像(インカメラ撮像)させる(ステップS207)。そして、関係判定部395は、表示側撮像部34にて生成されたインカメラ画像データ(以下、第1インカメラ画像データと記載)を表示側メモリ部36に記憶する(ステップS208)。ここで、表示側メモリ部36に既に従前の第1インカメラ画像データが記憶されている場合には、当該第1インカメラ画像データは、ステップS208で記憶された最新の第1インカメラ画像データに更新される。
続いて、関係判定部395は、音声処理部352を一定期間、動作させ、音声データ(以下、第1音声データと記載)を生成させる(ステップS209)。そして、関係判定部395は、音声処理部352にて生成された第1音声データ(図3の例では、カメラユーザXにより発せられた言葉「ここが重要」に応じた音声データ)を表示側メモリ部36に記憶する(ステップS210)。
If it is determined in step S206 that an area designation operation has been performed (step S206: Yes), the relationship determination unit 395 acquires information necessary for performing “positional relationship determination processing (step S214)” described later. (Steps S207 to S210).
Specifically, the relationship determination unit 395 causes the display side imaging unit 34 to image (in-camera imaging) the subject (camera user X in the example of FIG. 3) (step S207). Then, the relationship determining unit 395 stores the in-camera image data (hereinafter referred to as first in-camera image data) generated by the display-side imaging unit 34 in the display-side memory unit 36 (step S208). Here, when the previous first in-camera image data is already stored in the display-side memory unit 36, the first in-camera image data is the latest first in-camera image data stored in step S208. Updated to
Subsequently, the relationship determining unit 395 operates the audio processing unit 352 for a certain period to generate audio data (hereinafter referred to as first audio data) (step S209). Then, the relationship determination unit 395 displays the first audio data generated by the audio processing unit 352 (in the example of FIG. 3, audio data according to the word “here is important” issued by the camera user X). It memorize | stores in the memory part 36 (step S210).

続いて、領域情報生成部394は、ステップS206で領域指定操作により指定された領域に関する領域情報(ライブビュー画像内での領域の位置を示す座標(画素位置)等)を生成し(ステップS211:領域情報生成ステップ)、当該生成した領域情報を表示側メモリ部36に記憶する(ステップS212)。ここで、表示側メモリ部36に既に従前の領域情報が記憶されている場合には、当該領域情報は、ステップS212で記憶した最新の領域情報に更新される。そして、表示側通信制御部391は、表示側通信部38を介して、表示側メモリ部36に記憶された領域情報を撮像装置2に送信する(ステップS213)。
なお、図6では、説明の便宜上、ステップS207,S208の後にステップS209,S210を実行し、ステップS209,S210の後にステップS211〜S213を実行する手順で図示しているが、実際には、ステップS207,S208と、ステップS209,S210と、ステップS211〜S213とは、並行して略同時に行われるものである。
Subsequently, the region information generation unit 394 generates region information (such as coordinates (pixel position) indicating the position of the region in the live view image) regarding the region specified by the region specifying operation in step S206 (step S211: (Region information generation step), the generated region information is stored in the display-side memory unit 36 (step S212). Here, if the previous area information is already stored in the display-side memory unit 36, the area information is updated to the latest area information stored in step S212. Then, the display-side communication control unit 391 transmits the area information stored in the display-side memory unit 36 to the imaging device 2 via the display-side communication unit 38 (Step S213).
In FIG. 6, for convenience of explanation, steps S209 and S210 are executed after steps S207 and S208, and steps S211 to S213 are executed after steps S209 and S210. Steps S207 and S208, steps S209 and S210, and steps S211 to S213 are performed substantially simultaneously.

続いて、関係判定部395は、以下に示す「位置関係判定処理」を実行する(ステップS214:関係判定ステップ)。なお、ステップS206で領域指定操作がないと判断された場合(ステップS206:No)でも同様のステップS214が実行される。
図7は、位置関係判定処理(ステップS214)を示すフローチャートである。
関係判定部395は、カメラユーザによる入力部31への手動操作(図3の例では、タッチパネル(入力部31)への操作により、操作アイコンA1がタッチ)があったか否かを判断する(ステップS214A)。
手動操作があったと判断した場合(ステップS214A:Yes)には、関係判定部395は、表示装置3とカメラユーザとの位置関係が変化したと判定する(ステップS214B)。この後、表示装置3は、図6に示したメインルーチンに戻る。
Subsequently, the relationship determination unit 395 executes the “positional relationship determination process” shown below (step S214: relationship determination step). Even if it is determined in step S206 that there is no region designation operation (step S206: No), the same step S214 is executed.
FIG. 7 is a flowchart showing the positional relationship determination process (step S214).
The relationship determination unit 395 determines whether or not there is a manual operation on the input unit 31 by the camera user (in the example of FIG. 3, the operation icon A1 is touched by an operation on the touch panel (input unit 31)) (step S214A). ).
When it is determined that a manual operation has been performed (step S214A: Yes), the relationship determination unit 395 determines that the positional relationship between the display device 3 and the camera user has changed (step S214B). Thereafter, the display device 3 returns to the main routine shown in FIG.

一方、手動操作がないと判断した場合(ステップS214A:No)には、関係判定部395は、表示側メモリ部36に記憶された第1インカメラ画像データ及び最新のライブビュー画像データを読み出す。そして、関係判定部395は、ライブビュー画像データに、第1インカメラ画像データに含まれる被写体像(図3の例では、カメラユーザXに相当する被写体像)と同一の被写体像が含まれているか否か(撮影者に相当する被写体像が含まれているか否か)を判断する(ステップS214C)。   On the other hand, when it is determined that there is no manual operation (step S214A: No), the relationship determination unit 395 reads the first in-camera image data and the latest live view image data stored in the display-side memory unit 36. Then, the relationship determining unit 395 includes the same subject image as the subject image (subject image corresponding to the camera user X in the example of FIG. 3) included in the first in-camera image data in the live view image data. It is determined whether or not a subject image corresponding to the photographer is included (step S214C).

例えば、図4では、カメラユーザXは、構図を設定(図3)した後、被写体Y,Zの側(撮像装置2の撮影範囲内)に移動している。すなわち、撮像装置2にて生成されたライブビュー画像データには、カメラユーザX(撮影者)に相当する被写体像が含まれることとなる。このため、関係判定部395は、撮影者に相当する被写体像が含まれていると判断し(ステップS214C:Yes)、ステップS214Bで表示装置3とカメラユーザとの位置関係が変化したと判定する。   For example, in FIG. 4, after setting the composition (FIG. 3), the camera user X moves to the subject Y, Z side (within the shooting range of the imaging device 2). That is, the live view image data generated by the imaging device 2 includes a subject image corresponding to the camera user X (photographer). For this reason, the relationship determination unit 395 determines that a subject image corresponding to the photographer is included (step S214C: Yes), and determines that the positional relationship between the display device 3 and the camera user has changed in step S214B. .

一方、撮影者に相当する被写体像が含まれていないと判断した場合(ステップS214C:No)には、関係判定部395は、表示側撮像部34に被写体を撮像(インカメラ撮像)させる(ステップS214D)。そして、関係判定部395は、表示側撮像部34にて生成されたインカメラ画像データ(以下、第2インカメラ画像データと記載)を表示側メモリ部36に記憶する。
続いて、関係判定部395は、表示側メモリ部36に記憶された第1,第2インカメラ画像データにそれぞれ対応する第1,第2インカメラ画像を比較し、被写体像に変化があったか否か(インカメラ画像に変化があったか否か)を判断する(ステップS214E)。
On the other hand, when it is determined that the subject image corresponding to the photographer is not included (step S214C: No), the relationship determination unit 395 causes the display-side imaging unit 34 to image the subject (in-camera imaging) (step S214C). S214D). Then, the relationship determination unit 395 stores the in-camera image data (hereinafter referred to as second in-camera image data) generated by the display-side imaging unit 34 in the display-side memory unit 36.
Subsequently, the relationship determination unit 395 compares the first and second in-camera images respectively corresponding to the first and second in-camera image data stored in the display-side memory unit 36, and whether or not the subject image has changed. (Whether there has been a change in the in-camera image) or not (step S214E).

例えば、図4では、カメラユーザXは、構図を設定(図3)した後、表示装置3を持って被写体Y,Zの側に移動し、当該表示装置3の前面(表示側撮像部34の光学系341が設けられた面)を自身に向けて当該表示装置3を地面に置いている。すなわち、表示装置3にて生成された第2インカメラ画像データには、カメラユーザXの他、被写体Y,Zに相当する被写体像が含まれ、カメラユーザXに相当する被写体像のみが含まれた第1インカメラ画像データとは異なるものとなる。このため、関係判定部395は、インカメラ画像に変化があったと判断し(ステップS214E:Yes)、ステップS214Bで表示装置3とカメラユーザとの位置関係が変化したと判定する。   For example, in FIG. 4, after setting the composition (FIG. 3), the camera user X moves to the subject Y, Z side with the display device 3, and moves to the front of the display device 3 (the display side imaging unit 34. The display device 3 is placed on the ground with the surface on which the optical system 341 is provided facing itself. That is, the second in-camera image data generated by the display device 3 includes subject images corresponding to subjects Y and Z in addition to the camera user X, and includes only subject images corresponding to the camera user X. It differs from the first in-camera image data. Therefore, the relationship determination unit 395 determines that the in-camera image has changed (step S214E: Yes), and determines that the positional relationship between the display device 3 and the camera user has changed in step S214B.

一方、インカメラ画像に変化がないと判断した場合(ステップS214E:No)には、関係判定部395は、音声処理部352を一定期間、動作させ、音声データ(以下、第2音声データと記載)を生成させる(ステップS214F)。そして、関係判定部395は、音声処理部352にて生成された第2音声データを表示側メモリ部36に記憶する。
続いて、関係判定部395は、表示側メモリ部36に記憶された第1,第2音声データに基づく各音声(カメラユーザが発した音声)の信号レベルを比較し、第2音声データに基づく音声の信号レベルが第1音声データに基づく音声の信号レベルに対して低下したか否かを判断する(ステップS214G)。
On the other hand, when it is determined that there is no change in the in-camera image (step S214E: No), the relationship determination unit 395 operates the audio processing unit 352 for a certain period of time, and audio data (hereinafter referred to as second audio data). ) Is generated (step S214F). Then, the relationship determining unit 395 stores the second audio data generated by the audio processing unit 352 in the display side memory unit 36.
Subsequently, the relationship determination unit 395 compares the signal level of each sound (sound emitted by the camera user) based on the first and second sound data stored in the display-side memory unit 36, and based on the second sound data. It is determined whether or not the audio signal level is lower than the audio signal level based on the first audio data (step S214G).

例えば、図4では、カメラユーザXは、構図を設定(図3)した後、表示装置3を持って被写体Y,Zの側に移動し、自身から離れた位置に当該表示装置3を置いている。一方で、カメラユーザXは、構図を設定している際には、図3に示すように、表示装置3を手に持っており、当該表示装置3に近接した状態である。すなわち、図4の状態で表示装置3にて生成された第2音声データに基づく音声(カメラユーザXが発した音声)の信号レベルは、図3の状態で表示装置3にて生成された第1音声データに基づく音声(カメラユーザXが発した音声「ここが重要」)の信号レベルよりも低下したものとなる。このため、関係判定部395は、音声の信号レベルが低下したと判断し(ステップS214G:Yes)、ステップS214Bで表示装置3とカメラユーザとの位置関係が変化したと判定する。   For example, in FIG. 4, after setting the composition (FIG. 3), the camera user X moves to the subjects Y and Z side with the display device 3, and places the display device 3 at a position away from himself / herself. Yes. On the other hand, when setting the composition, the camera user X holds the display device 3 in his / her hand as shown in FIG. That is, the signal level of the sound based on the second sound data generated by the display device 3 in the state of FIG. 4 (the sound emitted by the camera user X) is the first level generated by the display device 3 in the state of FIG. This is lower than the signal level of the voice based on one voice data (the voice “camera is important” uttered by the camera user X). For this reason, the relationship determination unit 395 determines that the audio signal level has decreased (step S214G: Yes), and determines that the positional relationship between the display device 3 and the camera user has changed in step S214B.

一方、音声の信号レベルが低下していないと判断した場合(ステップS214G:No)には、表示装置3とカメラユーザとの位置関係が変化していないと判定する(ステップS214H)。この後、表示装置3は、図6に示したメインルーチンに戻る。   On the other hand, if it is determined that the audio signal level has not decreased (step S214G: No), it is determined that the positional relationship between the display device 3 and the camera user has not changed (step S214H). Thereafter, the display device 3 returns to the main routine shown in FIG.

図6に戻って、「位置関係判定処理(ステップS214)」で表示装置3とカメラユーザとの位置関係が変化していないと判定された場合(ステップS214:No(ステップS214H))には、表示装置3は、ステップS219(撮影操作判定処理)に移行する。
一方、「位置関係判定処理(ステップS214)」で表示装置3とカメラユーザとの位置関係が変化したと判定された場合(ステップS214:Yes(ステップS214B))には、表示側撮像制御部393は、カメラユーザにより入力部31に対して領域指定操作が既に実施されたか否か(表示側メモリ部36に領域情報が記憶されているか否か)を判断する(ステップS215)。
Returning to FIG. 6, when it is determined in the “positional relationship determination process (step S214)” that the positional relationship between the display device 3 and the camera user has not changed (step S214: No (step S214H)), The display device 3 proceeds to step S219 (shooting operation determination process).
On the other hand, if it is determined in the “positional relationship determination process (step S214)” that the positional relationship between the display device 3 and the camera user has changed (step S214: Yes (step S214B)), the display-side imaging control unit 393. Determines whether the camera user has already performed an area designating operation on the input unit 31 (whether or not area information is stored in the display-side memory unit 36) (step S215).

領域指定操作が未だ実施されていないと判断された場合(ステップS215:No)には、表示装置3は、ステップS219(撮影操作判定処理)に移行する。
一方、領域指定操作が既に実施されたと判断した場合(ステップS215:Yes)には、表示側通信制御部391は、表示側通信部38を介して、撮像装置2に指定画像送信指示を送信する(ステップS216)。この後、表示装置3は、ステップS219(撮影操作判定処理)に移行する。
If it is determined that the area designation operation has not been performed yet (step S215: No), the display device 3 proceeds to step S219 (imaging operation determination process).
On the other hand, if it is determined that the region specifying operation has already been performed (step S215: Yes), the display side communication control unit 391 transmits a specified image transmission instruction to the imaging device 2 via the display side communication unit 38. (Step S216). Thereafter, the display device 3 proceeds to step S219 (shooting operation determination process).

ステップS204でライブビュー画像データを受信していないと判断した場合(ステップS204:No)には、表示側通信制御部391は、表示側通信部38を介して、撮像装置2から指定画像データ(第1タイムスタンプを含む)を受信したか否かを判断する(ステップS217)。
指定画像データを受信していないと判断された場合(ステップS217:No)には、表示装置3は、ステップS219(撮影操作判定処理)に移行する。
一方、指定画像データを受信したと判断した場合(ステップS217:Yes)には、表示側通信制御部391は、当該受信した指定画像データ(第1タイムスタンプを含む)を表示側メモリ部36に記憶する。そして、表示制御部392は、表示側メモリ部36に記憶された最新の指定画像データに対応する指定画像を表示部32に拡大表示させる(ステップS218:第2表示ステップ)。この後、表示装置3は、ステップS219(撮影操作判定処理)に移行する。
If it is determined in step S204 that live view image data has not been received (step S204: No), the display-side communication control unit 391 receives designated image data (from the imaging device 2 via the display-side communication unit 38). It is determined whether or not a first time stamp is included (step S217).
If it is determined that the designated image data has not been received (step S217: No), the display device 3 proceeds to step S219 (shooting operation determination process).
On the other hand, if it is determined that the designated image data has been received (step S217: Yes), the display-side communication control unit 391 stores the received designated image data (including the first time stamp) in the display-side memory unit 36. Remember. Then, the display control unit 392 enlarges and displays the designated image corresponding to the latest designated image data stored in the display-side memory unit 36 on the display unit 32 (step S218: second display step). Thereafter, the display device 3 proceeds to step S219 (shooting operation determination process).

例えば、表示制御部392は、ステップS218において、図4に示す画面W2を表示部32に表示させる。
この画面W2には、図4に示すように、領域指定操作で指定された第1領域Ar1(図3)に相当する第1指定画像W101と、領域指定操作で指定された第2領域Ar2(図3)に相当する第2指定画像W102とが表示されている。
そして、カメラユーザXは、図4に示すように、第1,第2指定画像W101,W102により、被写体Y,Zの各顔を確認しながら、撮影操作を行うこととなる。
For example, the display control unit 392 causes the display unit 32 to display the screen W2 illustrated in FIG. 4 in step S218.
On this screen W2, as shown in FIG. 4, the first designated image W101 corresponding to the first area Ar1 (FIG. 3) designated by the area designation operation and the second area Ar2 ( A second designated image W102 corresponding to FIG. 3) is displayed.
Then, as shown in FIG. 4, the camera user X performs a shooting operation while confirming each face of the subjects Y and Z from the first and second designated images W101 and W102.

ステップS218の後、表示側撮像制御部393は、以下に示す「撮影操作判定処理」を実行する(ステップS219)。なお、ステップS214で表示装置3とカメラユーザとの位置関係が変化していないと判定された場合(ステップS214:No(ステップS214H)、ステップS215で領域指定操作が未だ実施されていないと判断された場合(ステップS215:No)、ステップS216の後、及びステップS217で指定画像データを受信していないと判断された場合(ステップS217:No)でも同様のステップS219が実行される。
図8は、撮影操作判定処理(ステップS219)を示すフローチャートである。
表示側撮像制御部393は、カメラユーザによる入力部31への撮影を指示する手動操作(例えば、ボタンやスイッチの押下、タッチパネルへのタッチ等)があったか否かを判断する(ステップS219A)。
After step S218, the display-side imaging control unit 393 executes the following “imaging operation determination process” (step S219). When it is determined in step S214 that the positional relationship between the display device 3 and the camera user has not changed (step S214: No (step S214H), it is determined in step S215 that the region designation operation has not yet been performed. If it is determined that the designated image data has not been received after step S216 or in step S217 (step S217: No), the same step S219 is executed.
FIG. 8 is a flowchart showing the shooting operation determination process (step S219).
The display-side imaging control unit 393 determines whether or not there has been a manual operation (for example, pressing a button or switch, touching the touch panel, or the like) that instructs the camera user to perform shooting on the input unit 31 (step S219A).

手動操作があったと判断した場合(ステップS219A:Yes)には、表示側撮像制御部393は、撮影操作があったと判定する(ステップS219B)。この後、表示装置3は、図6に示したメインルーチンに戻る。
一方、手動操作がないと判断した場合(ステップS219A:No)には、表示側撮像制御部393は、表示側メモリ部36に記憶された第1インカメラ画像データ及び最新のライブビュー画像データを読み出す。そして、表示側撮像制御部393は、ライブビュー画像データに、第1インカメラ画像データに含まれる被写体像(図3の例では、カメラユーザXに相当する被写体像)と同一の被写体像が含まれているか否か(撮影者に相当する被写体像が含まれているか否か)を判断する(ステップS219C)。
撮影者に相当する被写体像が含まれていないと判断された場合(ステップS219C:No)には、表示装置3は、ステップS219Eに移行する。
If it is determined that there is a manual operation (step S219A: Yes), the display-side imaging control unit 393 determines that there is a shooting operation (step S219B). Thereafter, the display device 3 returns to the main routine shown in FIG.
On the other hand, when it is determined that there is no manual operation (step S219A: No), the display-side imaging control unit 393 stores the first in-camera image data and the latest live view image data stored in the display-side memory unit 36. read out. Then, the display-side imaging control unit 393 includes the same subject image as the subject image (subject image corresponding to the camera user X in the example of FIG. 3) included in the first in-camera image data in the live view image data. Is determined (whether or not a subject image corresponding to the photographer is included) (step S219C).
When it is determined that the subject image corresponding to the photographer is not included (step S219C: No), the display device 3 proceeds to step S219E.

例えば、図4では、上述したように、撮像装置2にて生成されたライブビュー画像データには、カメラユーザX(撮影者)に相当する被写体像が含まれている。このため、表示側撮像制御部393は、撮影者に相当する被写体像が含まれていると判断し(ステップS219C:Yes)、ライブビュー画像データに含まれる撮影者に相当する被写体像が特定のジェスチャー(例えば、手の指で行うOKサインやピースサイン等のジェスチャー)を行っているか否かを判断する(ステップS219D)。
特定のジェスチャーを行っていると判断した場合(ステップS219D:Yes)には、表示側撮像制御部393は、ステップS219Bで撮影操作があったと判定する。
For example, in FIG. 4, as described above, the live view image data generated by the imaging device 2 includes a subject image corresponding to the camera user X (photographer). Therefore, the display-side imaging control unit 393 determines that the subject image corresponding to the photographer is included (step S219C: Yes), and the subject image corresponding to the photographer included in the live view image data is specified. It is determined whether or not a gesture (for example, a gesture such as an OK sign or a peace sign performed with a finger of a hand) is being performed (step S219D).
If it is determined that a specific gesture is being performed (step S219D: Yes), the display-side imaging control unit 393 determines that a shooting operation has been performed in step S219B.

一方、特定のジェスチャーを行っていないと判断した場合(ステップS219D:No)には、表示側撮像制御部393は、音声処理部352を一定期間、動作させ、音声データを生成させる(ステップS219E)。そして、表示側撮像制御部393は、音声処理部352にて生成された音声データを表示側メモリ部36に記憶する。
続いて、表示側撮像制御部393は、表示側メモリ部36に記憶された音声データに特定の音声(例えば、「撮影」や「チーズ」等の音声)が含まれているか否かを判断する(ステップS219F)。
On the other hand, when it is determined that a specific gesture is not performed (step S219D: No), the display-side imaging control unit 393 operates the audio processing unit 352 for a certain period to generate audio data (step S219E). . Then, the display-side imaging control unit 393 stores the audio data generated by the audio processing unit 352 in the display-side memory unit 36.
Subsequently, the display-side imaging control unit 393 determines whether or not specific sound (for example, sound such as “photographing” or “cheese”) is included in the sound data stored in the display-side memory unit 36. (Step S219F).

特定の音声が含まれていると判断した場合(ステップS219F:Yes)には、表示側撮像制御部393は、ステップS219Bで撮影操作があったと判定する。
一方、特定の音声が含まれていないと判断した場合(ステップS219F:No)には、表示側撮像制御部393は、撮影操作がないと判定する(ステップS219G)。この後、表示装置3は、図6に示したメインルーチンに戻る。
If it is determined that a specific sound is included (step S219F: Yes), the display-side imaging control unit 393 determines that a shooting operation has been performed in step S219B.
On the other hand, when it is determined that the specific sound is not included (step S219F: No), the display-side imaging control unit 393 determines that there is no shooting operation (step S219G). Thereafter, the display device 3 returns to the main routine shown in FIG.

図6に戻って、ステップS219で撮影操作がないと判定された場合(ステップS219:No(ステップS219G))には、表示装置3は、ステップS201に戻る。
一方、ステップS219で撮影操作があったと判定した場合(ステップS219:Yes(ステップS219B))には、表示側撮像制御部393は、表示側通信部38を介して撮影指示(撮影により得られた撮影画像データの転送要求を含む)を撮像装置2に送信するとともに、撮像装置2から転送された撮影画像データ(第1タイムスタンプを含む)を画像データ記録部372に記録する(ステップS220)。
続いて、表示制御部392は、画像データ記録部372に記録された最新の撮影画像データに対応する撮影画像を表示部32に表示させる(ステップS221)。この後、表示装置3は、ステップS201に戻る。
以上説明した図6〜図8に示したフローが本発明に係る表示方法に相当する。
Returning to FIG. 6, when it is determined in step S219 that there is no shooting operation (step S219: No (step S219G)), the display device 3 returns to step S201.
On the other hand, if it is determined in step S219 that there has been a shooting operation (step S219: Yes (step S219B)), the display-side imaging control unit 393 receives a shooting instruction (obtained by shooting) via the display-side communication unit 38. (Including a transfer request for captured image data) is transmitted to the imaging apparatus 2 and the captured image data (including the first time stamp) transferred from the imaging apparatus 2 is recorded in the image data recording unit 372 (step S220).
Subsequently, the display control unit 392 causes the display unit 32 to display a captured image corresponding to the latest captured image data recorded in the image data recording unit 372 (step S221). Thereafter, the display device 3 returns to step S201.
The flow shown in FIGS. 6 to 8 described above corresponds to the display method according to the present invention.

以上説明した本実施の形態1に係る撮像システム1では、表示装置3は、ライブビュー画像を表示している状態で、撮影者(カメラユーザ)による領域指定操作(第1のユーザ操作)を受け付けた場合に、当該領域指定操作に応じて指定されたライブビュー画像の一部の領域に関する領域情報を生成する。また、表示装置3は、カメラユーザが表示装置3に対して領域指定操作を行い、自身の顔から離れた位置に当該表示装置3を位置付けると、当該表示装置3とカメラユーザとの位置関係が変化したと判定する。そして、表示装置3は、ライブビュー画像における領域情報に基づく一部の領域の指定画像(図4の例では、被写体Y,Zの顔が拡大表示された第1,第2指定画像W101,W102)を拡大表示する。
このため、カメラユーザが撮像装置2及び表示装置3を利用して自身を被写体に含めて撮影を行う際、撮影画像に表示装置3が映り込まないように自身の顔から離れた位置に表示装置3を位置付けた場合であっても、自身で指定した領域の指定画像が表示装置3に拡大表示される。すなわち、カメラユーザは、当該指定画像を確認しながら最適なタイミング(図4の例では、被写体Y,Zが撮像装置2を向いているタイミングや、被写体Y,Zが目を閉じていないタイミング等)で表示装置3に対して撮影操作を実行することが可能となる。したがって、本実施の形態1に係る撮像システム1によれば、利便性の向上が図れる、という効果を奏する。
特に、カメラユーザは、表示装置3を確認しながら撮影操作を実行するため、撮影画像中のカメラユーザ(被写体像)がカメラ目線(撮像装置2への目線)となることがない。
In the imaging system 1 according to the first embodiment described above, the display device 3 accepts an area designation operation (first user operation) by a photographer (camera user) while displaying a live view image. In the case, the region information related to a partial region of the live view image designated in accordance with the region designation operation is generated. In addition, when the camera user performs an area specifying operation on the display device 3 and positions the display device 3 at a position away from his / her face, the display device 3 has a positional relationship between the display device 3 and the camera user. Judge that it has changed. The display device 3 then designates a part of the designated image based on the region information in the live view image (first and second designated images W101 and W102 in which the faces of the subjects Y and Z are enlarged in the example of FIG. 4). ) Is enlarged.
For this reason, when the camera user uses the imaging device 2 and the display device 3 to take a picture of himself / herself as a subject, the display device is positioned away from his / her face so that the display device 3 does not appear in the photographed image. Even when 3 is positioned, the designated image of the area designated by itself is enlarged and displayed on the display device 3. That is, the camera user confirms the designated image at the optimum timing (in the example of FIG. 4, the timing when the subjects Y and Z are facing the imaging device 2, the timing when the subjects Y and Z are not closing their eyes, etc. ), It is possible to execute a photographing operation on the display device 3. Therefore, according to the imaging system 1 according to the first embodiment, there is an effect that convenience can be improved.
In particular, since the camera user performs a photographing operation while checking the display device 3, the camera user (subject image) in the photographed image does not become a camera line of sight (a line of sight to the imaging apparatus 2).

また、本実施の形態1に係る表示装置3は、第1インカメラ画像データに含まれる被写体像と同一の被写体像がライブビュー画像データに含まれている場合、インカメラ画像に変化があった場合、及びカメラユーザが発した音声の信号レベルが低下した場合に、当該表示装置3とカメラユーザとの位置関係が変化したと判定する。
このため、画像データや音声データを利用して、表示装置3とカメラユーザとの位置関係の変化を効果的に判定することができる。
Further, in the display device 3 according to the first embodiment, when the same subject image as the subject image included in the first in-camera image data is included in the live view image data, the in-camera image has changed. In this case, and when the signal level of the voice uttered by the camera user decreases, it is determined that the positional relationship between the display device 3 and the camera user has changed.
For this reason, it is possible to effectively determine the change in the positional relationship between the display device 3 and the camera user using the image data and the sound data.

(実施の形態1の変形例)
上述した実施の形態1では、「位置関係判定処理(ステップS214)」として、第1インカメラ画像データに含まれる被写体像と同一の被写体像がライブビュー画像データに含まれているか否かの判定(ステップS214C)、インカメラ画像に変化があったか否かの判定(ステップS214D,S214E)、及びカメラユーザが発した音声の信号レベルが低下したか否かの判定(ステップS214F,S214G)の3つの判定を実行していたが、これに限られない。例えば、「位置関係判定処理」としては、当該3つの判定のうちいずれかの判定のみを実行する処理としても構わない。
(Modification of Embodiment 1)
In the first embodiment described above, as the “positional relationship determination process (step S214)”, it is determined whether or not the same subject image as the subject image included in the first in-camera image data is included in the live view image data. (Step S214C), determination of whether or not the in-camera image has changed (Steps S214D and S214E), and determination of whether or not the signal level of the sound emitted by the camera user has decreased (Steps S214F and S214G) Although determination was performed, it is not restricted to this. For example, the “positional relationship determination process” may be a process that executes only one of the three determinations.

上述した実施の形態1において、第1インカメラ画像データ及び第1音声データについては、上述した実施の形態1で説明したタイミング(ステップS207,S209)で取得する構成に限られず、予め取得しておく、すなわち、表示側記録部37に予め記録しておくように構成しても構わない。   In the above-described first embodiment, the first in-camera image data and the first audio data are not limited to the configuration acquired at the timing (steps S207 and S209) described in the first embodiment, and are acquired in advance. In other words, the recording side 37 may be recorded in advance.

(実施の形態2)
次に、本発明の実施の形態2について説明する。
以下の説明では、上述した実施の形態1と同様の構成及びステップには同一符号を付し、その詳細な説明は省略または簡略化する。
本実施の形態2に係る撮像システムでは、上述した実施の形態1で説明した撮像システム1に対して、表示装置3が実行していた「位置関係判定処理」を撮像装置2が実行するように構成されている。
(Embodiment 2)
Next, a second embodiment of the present invention will be described.
In the following description, the same reference numerals are given to the same configurations and steps as those in the above-described first embodiment, and the detailed description thereof is omitted or simplified.
In the imaging system according to the second embodiment, the imaging device 2 executes the “positional relationship determination process” that has been executed by the display device 3 with respect to the imaging system 1 described in the first embodiment. It is configured.

〔撮像システムの構成〕
図9は、本実施の形態2に係る撮像システム1Aを示すブロック図である。
以下、本実施の形態2に係る撮像システム1Aを構成する撮像装置2A及び表示装置3Aの構成を順に説明する。
[Configuration of imaging system]
FIG. 9 is a block diagram showing an imaging system 1A according to the second embodiment.
Hereinafter, the configurations of the imaging device 2A and the display device 3A constituting the imaging system 1A according to the second embodiment will be described in order.

〔撮像装置の構成〕
本実施の形態2に係る撮像装置2Aは、上述した実施の形態1で説明した撮像装置2(図2)に対して、本体側制御部30の一部の機能が変更されている。
具体的に、本実施の形態2に係る撮像装置2Aを構成する本体側制御部30Aは、図9に示すように、上述した実施の形態1で説明した本体側制御部30に対して、本体側撮像制御部302及び画像抽出部303を備える他、本体側通信制御部301の一部の機能を変更した本体側通信制御部301Aと、関係判定部304とを備える。
[Configuration of imaging device]
In the imaging apparatus 2A according to the second embodiment, a part of the function of the main body side control unit 30 is changed with respect to the imaging apparatus 2 (FIG. 2) described in the first embodiment.
Specifically, the main body side control unit 30A constituting the imaging device 2A according to the second embodiment is different from the main body side control unit 30 described in the first embodiment as shown in FIG. In addition to the side imaging control unit 302 and the image extraction unit 303, a body side communication control unit 301 </ b> A in which some functions of the body side communication control unit 301 are changed, and a relationship determination unit 304 are provided.

本体側通信制御部301Aは、上述した実施の形態1で説明した本体側通信制御部301と同様の機能の他、本体側通信部29を介して、表示装置3Aから第1インカメラ画像データを受信する機能を有する。
関係判定部304は、上述した実施の形態1で説明した関係判定部395と略同様の機能を有する。
The main body side communication control unit 301A receives the first in-camera image data from the display device 3A via the main body side communication unit 29 in addition to the same function as the main body side communication control unit 301 described in the first embodiment. It has a function to receive.
The relationship determination unit 304 has substantially the same function as the relationship determination unit 395 described in the first embodiment.

〔表示装置の構成〕
本実施の形態2に係る表示装置3Aは、上述した実施の形態1で説明した表示装置3(図2)に対して、音声データ生成部35が省略されているとともに(図9)、表示側制御部39の一部の機能が変更されている。
具体的に、本実施の形態2に係る表示装置3Aを構成する表示側制御部39Aは、図9に示すように、上述した実施の形態1で説明した表示側制御部39に対して、関係判定部395が省略され、表示制御部392、表示側撮像制御部393、及び領域情報生成部394を備える他、表示側通信制御部391の一部の機能を変更した表示側通信制御部391Aを備える。
[Configuration of display device]
The display device 3A according to the second embodiment is different from the display device 3 (FIG. 2) described in the first embodiment in that the audio data generation unit 35 is omitted (FIG. 9) and the display side Some functions of the control unit 39 are changed.
Specifically, the display-side control unit 39A configuring the display device 3A according to the second embodiment is related to the display-side control unit 39 described in the first embodiment as shown in FIG. The determination unit 395 is omitted, and the display control unit 391A includes a display control unit 392, a display side imaging control unit 393, and an area information generation unit 394. Prepare.

表示側通信制御部391Aは、上述した実施の形態1で説明した表示側通信制御部391に対して、表示側通信部38を介して、指定画像送信指示を撮像装置2に送信する機能が省略されているとともに、表示側メモリ部36に記憶された第1インカメラ画像データを撮像装置2Aに送信する機能が追加されている。   The display-side communication control unit 391A omits the function of transmitting a designated image transmission instruction to the imaging device 2 via the display-side communication unit 38 with respect to the display-side communication control unit 391 described in the first embodiment. In addition, a function of transmitting the first in-camera image data stored in the display-side memory unit 36 to the imaging device 2A is added.

〔撮像システムの動作〕
次に、本実施の形態2に係る撮像システム1Aの動作について説明する。
以下、本実施の形態2に係る撮像システム1Aを構成する撮像装置2A及び表示装置3Aの各動作を順に説明する。
[Operation of imaging system]
Next, the operation of the imaging system 1A according to the second embodiment will be described.
Hereinafter, each operation of the imaging device 2A and the display device 3A configuring the imaging system 1A according to the second embodiment will be described in order.

〔撮像装置の動作〕
図10は、撮像装置2Aの動作を示すフローチャートである。
本実施の形態2に係る撮像装置2Aの動作は、図10に示すように、上述した実施の形態1で説明した撮像装置2の動作(図5)に対して、ステップS104を省略し、ステップS117〜S119を追加した点が異なるのみである。このため、以下では、ステップS117〜S119のみを説明する。
[Operation of imaging device]
FIG. 10 is a flowchart showing the operation of the image pickup apparatus 2A.
As shown in FIG. 10, the operation of the imaging apparatus 2A according to the second embodiment is the same as the operation of the imaging apparatus 2 described in the first embodiment (FIG. 5) except that step S104 is omitted. The only difference is that S117 to S119 are added. For this reason, only steps S117 to S119 will be described below.

ステップS117は、ステップS103で表示装置3Aとの間で通信接続を確立していると判断された場合(ステップS103:Yes)に実行される。
具体的に、関係判定部304は、ステップS117において、以下に示す「位置関係判定処理」を実行する。
すなわち、関係判定部304は、後述するステップS118,S119にて撮像装置2Aから受信し表示側メモリ部36に記憶された第1インカメラ画像データを読み出すとともに、表示側メモリ部36に記憶された最新のライブビュー画像データを読み出す。また、関係判定部304は、上述した実施の形態1で説明したステップS214Cと同様に、ライブビュー画像データに、第1インカメラ画像データに含まれる被写体像と同一の被写体像が含まれているか否か(撮影者に相当する被写体像が含まれているか否か)を判断する。
Step S117 is executed when it is determined in step S103 that a communication connection has been established with the display device 3A (step S103: Yes).
Specifically, the relationship determination unit 304 executes “positional relationship determination processing” shown below in step S117.
That is, the relationship determination unit 304 reads the first in-camera image data received from the imaging device 2A and stored in the display-side memory unit 36 in steps S118 and S119 described later, and stored in the display-side memory unit 36. Read the latest live view image data. In addition, as in step S214C described in the first embodiment, the relationship determination unit 304 includes the same subject image as the subject image included in the first in-camera image data in the live view image data. It is determined whether or not (a subject image corresponding to the photographer is included).

そして、関係判定部304は、撮影者に相当する被写体像が含まれていると判断した場合には、表示装置3Aとカメラユーザとの位置関係が変化したと判定する(ステップS117:Yes)。この後、表示装置3Aは、ステップS108に移行する。
一方、関係判定部304は、撮影者に相当する被写体像が含まれていないと判断した場合には、表示装置3Aとカメラユーザとの位置関係が変化していないと判定する(ステップS117:No)。この後、表示装置3Aは、ステップS105に移行する。
If the relationship determination unit 304 determines that a subject image corresponding to the photographer is included, the relationship determination unit 304 determines that the positional relationship between the display device 3A and the camera user has changed (step S117: Yes). Thereafter, the display device 3A proceeds to step S108.
On the other hand, if the relationship determination unit 304 determines that the subject image corresponding to the photographer is not included, it determines that the positional relationship between the display device 3A and the camera user has not changed (step S117: No). ). Thereafter, the display device 3A proceeds to step S105.

ステップS118は、ステップS107の後に実行される。
具体的に、本体側通信制御部301Aは、ステップS118において、本体側通信部29を介して、表示装置3Aから第1インカメラ画像データを受信したか否かを判断する。
第1インカメラ画像データを受信していないと判断された場合(ステップS118:No)には、撮像装置2Aは、ステップS111に移行する。
一方、第1インカメラ画像データを受信したと判断した場合(ステップS118:Yes)には、本体側通信制御部301Aは、当該第1インカメラ画像データを本体側メモリ部27に記憶する(ステップS119)。ここで、本体側メモリ部27に既に従前の第1インカメラ画像データが記憶されている場合には、当該第1インカメラ画像データは、ステップS119で受信した最新の第1インカメラ画像データに更新される。この後、撮像装置2Aは、ステップS111に移行する。
以上説明した図10に示したフローが本発明に係る撮像方法に相当する。すなわち、ステップS102は、本発明に係る撮像ステップに相当する。ステップS105〜S107は、本発明に係る第1通信ステップに相当する。ステップS117は、本発明に係る関係判定ステップに相当する。ステップS109は、本発明に係る画像抽出ステップに相当する。ステップS110は、本発明に係る第2通信ステップに相当する。
Step S118 is executed after step S107.
Specifically, the main body side communication control unit 301A determines whether or not the first in-camera image data is received from the display device 3A via the main body side communication unit 29 in step S118.
When it is determined that the first in-camera image data is not received (step S118: No), the imaging device 2A proceeds to step S111.
On the other hand, when it is determined that the first in-camera image data has been received (step S118: Yes), the main body side communication control unit 301A stores the first in-camera image data in the main body side memory unit 27 (step S118). S119). Here, when the previous first in-camera image data is already stored in the main body side memory unit 27, the first in-camera image data is added to the latest first in-camera image data received in step S119. Updated. Thereafter, the imaging device 2A proceeds to step S111.
The flow shown in FIG. 10 described above corresponds to the imaging method according to the present invention. That is, step S102 corresponds to an imaging step according to the present invention. Steps S105 to S107 correspond to the first communication step according to the present invention. Step S117 corresponds to a relationship determination step according to the present invention. Step S109 corresponds to an image extraction step according to the present invention. Step S110 corresponds to a second communication step according to the present invention.

〔表示装置の動作〕
図11は、表示装置3Aの動作を示すフローチャートである。
本実施の形態2に係る表示装置3Aの動作は、図11に示すように、上述した実施の形態1で説明した表示装置3の動作(図6)に対して、ステップS209,S210,S214〜S216を省略し、ステップS222を追加した点が異なるのみである。このため、以下では、ステップS222のみを説明する。
[Operation of display device]
FIG. 11 is a flowchart showing the operation of the display device 3A.
As shown in FIG. 11, the operation of the display device 3A according to the second embodiment is different from the operation of the display device 3 described in the first embodiment (FIG. 6) in steps S209, S210, and S214. The only difference is that S216 is omitted and step S222 is added. Therefore, only step S222 will be described below.

ステップS222は、表示側制御部39AにてステップS207,S208が実行された後に、実行される。
具体的に、表示側通信制御部391Aは、ステップS222において、表示側通信部38を介して、表示側メモリ部36に記憶された第1インカメラ画像データを撮像装置2Aに送信する。この後、表示装置3Aは、ステップS211に移行する。
Step S222 is executed after steps S207 and S208 are executed by the display-side control unit 39A.
Specifically, the display-side communication control unit 391A transmits the first in-camera image data stored in the display-side memory unit 36 to the imaging device 2A via the display-side communication unit 38 in step S222. Thereafter, the display device 3A proceeds to step S211.

以上説明した本実施の形態2に係る撮像システム1Aのように「位置関係判定処理」を撮像装置2Aが実行するように構成した場合であっても、上述した実施の形態1と同様の効果を奏する。   Even when the imaging apparatus 2A is configured to execute the “positional relationship determination process” as in the imaging system 1A according to the second embodiment described above, the same effects as those of the first embodiment described above can be obtained. Play.

(実施の形態2の変形例)
上述した実施の形態2では、「位置関係判定処理(ステップS117)」として、第1インカメラ画像データに含まれる被写体像と同一の被写体像がライブビュー画像データに含まれているか否かの判定のみを実行していたが、これに限られない。例えば、「位置関係判定処理」として、上述した実施の形態1で説明したように、インカメラ画像に変化があったか否かの判定や、カメラユーザが発した音声の信号レベルが低下したか否かの判定を実行しても構わない。
(Modification of Embodiment 2)
In the second embodiment described above, as the “positional relationship determination process (step S117)”, it is determined whether or not the same subject image as the subject image included in the first in-camera image data is included in the live view image data. Was running only, but is not limited to this. For example, as described in the first embodiment, as the “positional relationship determination process”, it is determined whether there is a change in the in-camera image, and whether the signal level of the sound emitted by the camera user has decreased. This determination may be executed.

(実施の形態3)
次に、本発明の実施の形態3について説明する。
以下の説明では、上述した実施の形態1と同様の構成及びステップには同一符号を付し、その詳細な説明は省略または簡略化する。
本実施の形態3に係る撮像システムでは、上述した実施の形態1で説明した撮像システム1に対して、撮像装置2が実行していた指定画像を抽出する機能を表示装置3が実行するように構成されている。
(Embodiment 3)
Next, a third embodiment of the present invention will be described.
In the following description, the same reference numerals are given to the same configurations and steps as those in the above-described first embodiment, and the detailed description thereof is omitted or simplified.
In the imaging system according to the third embodiment, the display device 3 executes the function of extracting the designated image that has been executed by the imaging device 2 with respect to the imaging system 1 described in the first embodiment. It is configured.

〔撮像システムの構成〕
図12は、本実施の形態3に係る撮像システム1Bを示すブロック図である。
以下、本実施の形態3に係る撮像システム1Bを構成する撮像装置2B及び表示装置3Bの構成を順に説明する。
[Configuration of imaging system]
FIG. 12 is a block diagram showing an imaging system 1B according to the third embodiment.
Hereinafter, the configurations of the imaging device 2B and the display device 3B constituting the imaging system 1B according to the third embodiment will be described in order.

〔撮像装置の構成〕
本実施の形態3に係る撮像装置2Bは、上述した実施の形態1で説明した撮像装置2(図2)に対して、本体側制御部30の一部の機能が変更されている。
具体的に、本実施の形態3に係る撮像装置2Bを構成する本体側制御部30Bは、図12に示すように、上述した実施の形態1で説明した本体側制御部30に対して、画像抽出部303が省略され、本体側撮像制御部302を備える他、本体側通信制御部301の一部の機能を変更した本体側通信制御部301Bを備える。
[Configuration of imaging device]
In the imaging apparatus 2B according to the third embodiment, a part of the function of the main body side control unit 30 is changed with respect to the imaging apparatus 2 (FIG. 2) described in the first embodiment.
Specifically, as shown in FIG. 12, the main body side control unit 30B constituting the imaging device 2B according to the third embodiment has an image compared to the main body side control unit 30 described in the first embodiment. The extraction unit 303 is omitted, and the main body side imaging control unit 302 is provided. In addition, the main body side communication control unit 301B in which some functions of the main body side communication control unit 301 are changed is provided.

本体側通信制御部301Bは、上述した実施の形態1で説明した本体側通信制御部301に対して、本体側通信部29を介して、指定画像データを撮像装置2に送信する機能、領域情報及び指定画像送信指示を撮像装置2から受信する機能が省略されている。   The main body side communication control unit 301B transmits the designated image data to the imaging device 2 via the main body side communication unit 29 with respect to the main body side communication control unit 301 described in the first embodiment. The function of receiving the designated image transmission instruction from the imaging device 2 is omitted.

〔表示装置の構成〕
本実施の形態3に係る表示装置3Bは、上述した実施の形態1で説明した表示装置3(図2)に対して、表示側制御部39Bの一部の機能が変更されている。
具体的に、本実施の形態3に係る表示装置3Bを構成する表示側制御部39Bは、図12に示すように、上述した実施の形態1で説明した表示側制御部39Bに対して、表示制御部392、表示側撮像制御部393、領域情報生成部394、及び関係判定部395を備える他、画像抽出部396と、表示側通信制御部391の一部の機能を変更した表示側通信制御部391Bを備える。
[Configuration of display device]
In the display device 3B according to the third embodiment, a part of the function of the display-side control unit 39B is changed from the display device 3 (FIG. 2) described in the first embodiment.
Specifically, as shown in FIG. 12, the display-side control unit 39B that configures the display device 3B according to the third embodiment displays the display on the display-side control unit 39B described in the first embodiment. In addition to including a control unit 392, a display-side imaging control unit 393, an area information generation unit 394, and a relationship determination unit 395, display-side communication control in which some functions of the image extraction unit 396 and the display-side communication control unit 391 are changed. A portion 391B is provided.

表示側通信制御部391Bは、上述した実施の形態1で説明した表示側通信制御部391に対して、表示側通信部38を介して、指定画像データを撮像装置2Bから受信する機能、並びに、撮像装置2Bに領域情報及び指定画像送信要求を送信する機能が省略されている。
画像抽出部396は、上述した実施の形態1で説明した画像抽出部303と略同様の機能を有する。
The display-side communication control unit 391B receives the designated image data from the imaging device 2B via the display-side communication unit 38 with respect to the display-side communication control unit 391 described in the first embodiment, and The function of transmitting the area information and the designated image transmission request to the imaging device 2B is omitted.
The image extraction unit 396 has substantially the same function as the image extraction unit 303 described in the first embodiment.

〔撮像システムの動作〕
次に、本実施の形態3に係る撮像システム1Bの動作について説明する。
以下、本実施の形態3に係る撮像システム1Bを構成する撮像装置2B及び表示装置3Bの各動作を順に説明する。
[Operation of imaging system]
Next, the operation of the imaging system 1B according to the third embodiment will be described.
Hereinafter, each operation of the imaging device 2B and the display device 3B configuring the imaging system 1B according to the third embodiment will be described in order.

〔撮像装置の動作〕
図13は、撮像装置2Bの動作を示すフローチャートである。
本実施の形態3に係る撮像装置2Bの動作は、図13に示すように、上述した実施の形態1で説明した撮像装置2の動作(図5)に対して、ステップS104,S106〜S110を省略した点が異なるのみである。
なお、ステップS104,S106〜S110の省略に伴い、ステップS103で表示装置3Aとの間で通信接続が確立していると判断された場合(ステップS103:Yes)には、撮像装置2Aは、ステップS105に移行する。そして、ステップS105の後、撮像装置2Aは、ステップS111に移行する。
また、ステップS103で表示装置3Aとの間で通信接続が確立していないと判断された場合(ステップS103:No)には、撮像装置2Aは、ステップS112に移行する。
[Operation of imaging device]
FIG. 13 is a flowchart showing the operation of the imaging apparatus 2B.
As shown in FIG. 13, the operation of the imaging apparatus 2B according to the third embodiment includes steps S104 and S106 to S110 with respect to the operation of the imaging apparatus 2 described in the first embodiment (FIG. 5). Only the points that are omitted are different.
If it is determined in step S103 that a communication connection has been established with the display device 3A in accordance with omission of steps S104 and S106 to S110 (step S103: Yes), the imaging device 2A The process proceeds to S105. After step S105, the imaging device 2A proceeds to step S111.
If it is determined in step S103 that a communication connection has not been established with the display device 3A (step S103: No), the imaging device 2A proceeds to step S112.

〔表示装置の動作〕
図14は、表示装置3Bの動作を示すフローチャートである。
本実施の形態4に係る表示装置3Bの動作は、図14に示すように、上述した実施の形態1で説明した表示装置3の動作(図6)に対して、ステップS213,S216,S217を省略し、ステップS223を追加した点が異なるのみである。このため、以下では、ステップS223のみを説明する。
なお、ステップS213,S216,S217の省略に伴い、ステップS204でライブビュー画像データを受信していないと判断された場合(ステップS204:No)には、表示装置3Bは、ステップS214に移行する。なお、表示装置3Bは、ステップS212の後にも、ステップS214に移行する。
[Operation of display device]
FIG. 14 is a flowchart showing the operation of the display device 3B.
As shown in FIG. 14, the operation of the display device 3B according to the fourth embodiment includes steps S213, S216, and S217 compared to the operation of the display device 3 described in the first embodiment (FIG. 6). The only difference is that step S223 is omitted. For this reason, only step S223 will be described below.
If it is determined in step S204 that live view image data has not been received in accordance with omission of steps S213, S216, and S217 (step S204: No), the display device 3B proceeds to step S214. Note that the display device 3B proceeds to step S214 also after step S212.

ステップS223は、ステップS215で領域指定操作が既に実施されたと判断された場合(ステップS215:Yes)に実行される。
具体的に、画像抽出部396は、ステップS223において、表示側メモリ部36に記憶された最新のライブビュー画像データ及び領域情報を読み出す。そして、画像抽出部396は、当該読み出した最新のライブビュー画像データに対応するライブビュー画像から、当該読み出した領域情報に基づく一部の領域に相当する指定画像を抽出する。当該抽出された指定画像に対応する指定画像データは、当該指定画像の抽出に用いられたライブビュー画像データの第1タイムスタンプが付加されて表示側メモリ部36に記憶される。この後、表示装置3Bは、ステップS218に移行する。
Step S223 is executed when it is determined in step S215 that the area designating operation has already been performed (step S215: Yes).
Specifically, the image extraction unit 396 reads the latest live view image data and region information stored in the display-side memory unit 36 in step S223. Then, the image extraction unit 396 extracts a designated image corresponding to a part of the area based on the read area information, from the live view image corresponding to the read latest live view image data. The designated image data corresponding to the extracted designated image is stored in the display-side memory unit 36 with the first time stamp of the live view image data used for extracting the designated image. Thereafter, the display device 3B proceeds to step S218.

以上説明した本実施の形態3に係る撮像システム1Bのように表示装置3Bが指定画像を抽出するように構成した場合であっても、上述した実施の形態1と同様の効果を奏する。   Even when the display device 3B is configured to extract the designated image as in the imaging system 1B according to the third embodiment described above, the same effects as those of the first embodiment described above are obtained.

(実施の形態4)
次に、本発明の実施の形態4について説明する。
以下の説明では、上述した実施の形態1,3と同様の構成及びステップには同一符号を付し、その詳細な説明は省略または簡略化する。
本実施の形態4に係る撮像システムでは、上述した実施の形態1で説明した撮像システム1に対して、表示装置が互いに通信可能に複数、設けられ、いずれかの表示装置にて指定画像を表示するように構成されている。
(Embodiment 4)
Next, a fourth embodiment of the present invention will be described.
In the following description, the same reference numerals are given to the same configurations and steps as those in the first and third embodiments described above, and the detailed description thereof will be omitted or simplified.
In the imaging system according to the fourth embodiment, a plurality of display devices are provided to be able to communicate with each other with respect to the imaging system 1 described in the first embodiment, and a specified image is displayed on any one of the display devices. Is configured to do.

〔撮像システムの構成〕
図15は、本実施の形態4に係る撮像システム1Cを示すブロック図である。
以下、本実施の形態4に係る撮像システム1Cを構成する撮像装置2C及び複数(本実施の形態4では、2つ)の表示装置3C1,3C2の構成を順に説明する。
[Configuration of imaging system]
FIG. 15 is a block diagram showing an imaging system 1C according to the fourth embodiment.
Hereinafter, the configurations of the imaging device 2C and the plurality of (two in the fourth embodiment) display devices 3C1 and 3C2 constituting the imaging system 1C according to the fourth embodiment will be described in order.

〔撮像装置の構成〕
本実施の形態4に係る撮像装置2Cは、上述した実施の形態3で説明した撮像装置2B(図12)に対して、本体側制御部30Bの一部の機能が変更されている。
具体的に、本実施の形態3に係る撮像装置2Cを構成する本体側制御部30Cは、図15に示すように、上述した実施の形態1で説明した本体側制御部30Bに対して、本体側撮像制御部302を備える他、本体側通信制御部301Bの一部の機能を変更した本体側通信制御部301Cを備える。
[Configuration of imaging device]
In the imaging apparatus 2C according to the fourth embodiment, a part of the function of the main body side control unit 30B is changed with respect to the imaging apparatus 2B (FIG. 12) described in the third embodiment.
Specifically, the main body side control unit 30C constituting the imaging device 2C according to the third embodiment is different from the main body side control unit 30B described in the first embodiment as shown in FIG. In addition to the side imaging control unit 302, a body side communication control unit 301C in which some functions of the body side communication control unit 301B are changed is provided.

本体側通信制御部301Cは、上述した実施の形態3で説明した本体側通信制御部301Bと同様の機能の他、本体側通信部29を介して、全ての表示装置3C1,3C2とそれぞれ通信接続を確立する機能を有する。そして、本体側通信制御部301Cは、全ての表示装置3C1,3C2とそれぞれ通信接続を確立した場合には、当該全ての表示装置3C1,3C2に対して、ライブビュー画像データをそれぞれ送信する。また、本体側通信制御部301Cは、撮影画像データについては、当該全ての表示装置3C1,3C2のうち、撮影指示を送信した送信元の表示装置に送信する。   The main body side communication control unit 301C is connected to all the display devices 3C1 and 3C2 via the main body side communication unit 29 in addition to the same function as the main body side communication control unit 301B described in the third embodiment. It has the function to establish. When the communication connection is established with all the display devices 3C1 and 3C2, the main body side communication control unit 301C transmits the live view image data to all the display devices 3C1 and 3C2, respectively. Further, the main body side communication control unit 301C transmits the captured image data to the transmission source display device that has transmitted the imaging instruction among all the display devices 3C1 and 3C2.

〔表示装置の構成〕
本実施の形態4に係る表示装置3C1,3C2は、同一の構成を有する。このため、以下では、表示装置3C1の構成について説明する。
本実施の形態4に係る表示装置3C1は、上述した実施の形態3で説明した表示装置3B(図12)に対して、表示側制御部39Bの一部の機能が変更されている。
具体的に、本実施の形態4に係る表示装置3C1を構成する表示側制御部39Cは、図15に示すように、上述した実施の形態3で説明した表示側制御部39Bに対して、表示側通信制御部391B、表示制御部392、表示側撮像制御部393、領域情報生成部394、関係判定部395、及び画像抽出部396の一部の機能を変更した表示側通信制御部391C、表示制御部392C、表示側撮像制御部393C、領域情報生成部394C、関係判定部395C、及び画像抽出部396Cを備える。
[Configuration of display device]
Display devices 3C1 and 3C2 according to the fourth embodiment have the same configuration. Therefore, hereinafter, the configuration of the display device 3C1 will be described.
In the display device 3C1 according to the fourth embodiment, a part of the function of the display-side control unit 39B is changed with respect to the display device 3B (FIG. 12) described in the third embodiment.
Specifically, as shown in FIG. 15, the display-side control unit 39C constituting the display device 3C1 according to the fourth embodiment displays the display on the display-side control unit 39B described in the third embodiment. Side communication control unit 391B, display control unit 392, display side imaging control unit 393, region information generation unit 394, relationship determination unit 395, and display side communication control unit 391C, which has changed some functions of the image extraction unit 396, display A control unit 392C, a display-side imaging control unit 393C, an area information generation unit 394C, a relationship determination unit 395C, and an image extraction unit 396C are provided.

表示側通信制御部391Cは、カメラユーザによる入力部31への操作により自身の表示装置3C1が通常通信モード(撮像装置2及び1つの表示装置3C1を利用して被写体像を撮影するモード)に設定されている場合には、上述した実施の形態3で説明した表示側通信制御部391Bがカメラ通信モード時に実行する処理と同様の処理を実行する。
一方、表示側通信制御部391Cは、カメラユーザによる入力部31への操作により自身の表示装置3C1が別機器使用モード(撮像装置2及び2つの表示装置3C1,3C2を利用して被写体像を撮影するモード)に設定されている場合には、上述した通常通信モード時に実行する処理と同様の処理を実行する他、以下の処理を実行する。
すなわち、表示側通信制御部391Cは、表示側記録部37に記録された他の表示装置3C2の通信仕様情報に基づいて、表示側通信部38を介して、他の表示装置3C2との間でWi−Fi(登録商標)等の通信方式による通信接続を確立する。そして、表示側通信制御部391Cは、カメラユーザによる入力部31への操作により自身の表示装置3C1が指定画像を表示する機器(指定画像表示機器)に設定されている場合に、表示側通信部38を介して、他の表示装置3C2にて生成された領域情報を当該他の表示装置3C2から受信する。一方、表示側通信制御部391Cは、カメラユーザによる入力部31への操作により自身の表示装置3C1が指定画像表示機器に設定されていない(以下、指定画像非表示機器と記載)場合に、表示側通信部38を介して、領域情報生成部394にて生成された領域情報を他の表示装置3C2に送信する。
The display-side communication control unit 391C sets the display device 3C1 of the display-side communication control unit 391C to a normal communication mode (a mode in which a subject image is captured using the imaging device 2 and one display device 3C1) by an operation on the input unit 31 by the camera user. If it is, the display-side communication control unit 391B described in the third embodiment performs the same process as the process executed in the camera communication mode.
On the other hand, the display-side communication control unit 391C shoots a subject image using the separate device usage mode (the imaging device 2 and the two display devices 3C1 and 3C2) when the display user 3C1 operates the input unit 31 by the camera user. Mode), the following processing is executed in addition to the processing similar to the processing executed in the normal communication mode described above.
That is, the display-side communication control unit 391C communicates with the other display device 3C2 via the display-side communication unit 38 based on the communication specification information of the other display device 3C2 recorded in the display-side recording unit 37. A communication connection by a communication method such as Wi-Fi (registered trademark) is established. The display-side communication control unit 391C displays the display-side communication unit when the display device 3C1 of the display-side communication control unit 391C is set as a device (designated image display device) that displays the designated image by an operation on the input unit 31 by the camera user. The area information generated by the other display device 3C2 is received from the other display device 3C2 via the display 38. On the other hand, the display-side communication control unit 391C displays when its own display device 3C1 is not set as a designated image display device (hereinafter referred to as a designated image non-display device) by an operation on the input unit 31 by a camera user. The area information generated by the area information generation unit 394 is transmitted to the other display device 3C2 via the side communication unit 38.

表示制御部392Cは、自身の表示装置3C1が「通常通信モード」に設定されている場合には、上述した実施の形態3で説明した表示制御部392がカメラ通信モード時に実行する処理と同様の処理を実行する。
また、表示制御部392Cは、自身の表示装置3C1が「別機器使用モード」で「指定画像表示機器」に設定されている場合には、上述した通常通信モード時に実行する処理のうち、ライブビュー画像及び撮影画像の表示処理を実行せずに、指定画像及び初期画面の表示処理を実行する。一方、表示制御部392Cは、自身の表示装置3C1が「別機器使用モード」で「指定画像非表示機器」に設定されている場合には、上述した通常通信モード時に実行する処理のうち、指定画像の表示処理を実行せずに、ライブビュー画像、撮影画像、及び初期画面の表示処理を実行する。
When the display device 3C1 of the display control unit 392C is set to the “normal communication mode”, the display control unit 392C is similar to the process executed by the display control unit 392 described in the third embodiment in the camera communication mode. Execute the process.
In addition, when the display device 3C1 of the display control unit 392C is set to the “designated image display device” in the “different device use mode”, the live view among the processes executed in the normal communication mode described above. The display process of the designated image and the initial screen is executed without executing the display process of the image and the captured image. On the other hand, when the display device 3C1 of the display control unit 392C is set to “designated image non-display device” in the “different device use mode”, the display control unit 392C designates among the processes executed in the normal communication mode described above. The display process of the live view image, the captured image, and the initial screen is executed without executing the image display process.

表示側撮像制御部393C、領域情報生成部394C、及び関係判定部395Cは、自身の表示装置3C1が「通常通信モード」に設定されている場合、及び自身の表示装置3C1が「別機器使用モード」で「指定画像非表示機器」に設定されている場合に、上述した実施の形態3で説明した表示側撮像制御部393B、領域情報生成部394、及び関係判定部395がカメラ通信モード時に実行する各処理とそれぞれ同様の処理を実行する。すなわち、表示側撮像制御部393C、領域情報生成部394C、及び関係判定部395Cは、自身の表示装置3C1が「別機器使用モード」で「指定画像表示機器」に設定されている場合には、当該処理を実行しない。   The display-side imaging control unit 393C, the region information generation unit 394C, and the relationship determination unit 395C have their own display device 3C1 set to “normal communication mode” and their own display device 3C1 is set to “another device use mode”. ”Is set to“ designated image non-display device ”, the display side imaging control unit 393B, the region information generation unit 394, and the relationship determination unit 395 described in the third embodiment are executed in the camera communication mode. The same processing as each processing is executed. That is, the display-side imaging control unit 393C, the region information generation unit 394C, and the relationship determination unit 395C have their own display device 3C1 set to “designated image display device” in the “different device use mode”. The process is not executed.

画像抽出部396Cは、自身の表示装置3C1が「通常通信モード」に設定されている場合、及び自身の表示装置3C1が「別機器使用モード」で「指定画像表示機器」に設定されている場合に、上述した実施の形態3で説明した画像抽出部396がカメラ通信モード時に実行する処理と同様の処理を実行する。すなわち、画像抽出部396Cは、自身の表示装置3C1が「別機器使用モード」で「指定画像非表示機器」に設定されている場合には、当該処理を実行しない。   When the display device 3C1 of the image extraction unit 396C is set to the “normal communication mode” and the display device 3C1 of the image extraction unit 396C is set to “designated image display device” in the “different device use mode” In addition, the image extraction unit 396 described in the third embodiment described above performs the same processing as that executed in the camera communication mode. That is, the image extraction unit 396C does not execute the process when its display device 3C1 is set to “designated image non-display device” in the “different device use mode”.

〔撮像システムの動作〕
次に、本実施の形態4に係る撮像システム1Cの動作について説明する。
図16及び図17は、撮像システム1Cの使用態様の一例を示す図である。具体的に、図16は、図3に対応し、カメラユーザXが撮像システム1Cを利用して被写体Y,Zを撮影する前に、撮像装置2C及び表示装置3C1を三脚5で固定し、表示装置3C1に表示されている画像を見ながら構図を設定している状況を示している。図17は、図4に対応し、カメラユーザXが構図を設定(図16)した後、表示装置3C2に表示された指定画像を確認しながら、カメラユーザX、被写体Y,Zを被写体として撮影を行う状況を示している。ここで、表示装置3C2は、撮像装置2Cの撮影範囲外に置かれている。また、図16及び図17において、表示装置3C1は「別機器使用モード」で「指定画像非表示機器」に設定され、表示装置3C2は「別機器使用モード」で「指定画像表示機器」に設定されている。
なお、撮像装置2Cの動作は、上述した実施の形態3で説明した撮像装置2Bの動作と略同様である。また、2つの表示装置3C1,3C2の各動作は、同一である。このため、以下では、表示装置3C1の動作のみを説明する。
[Operation of imaging system]
Next, the operation of the imaging system 1C according to the fourth embodiment will be described.
16 and 17 are diagrams illustrating examples of usage modes of the imaging system 1C. Specifically, FIG. 16 corresponds to FIG. 3, and before the camera user X uses the imaging system 1C to photograph the subjects Y and Z, the imaging device 2C and the display device 3C1 are fixed with the tripod 5 and displayed. A situation is shown in which the composition is set while viewing the image displayed on the device 3C1. FIG. 17 corresponds to FIG. 4, and after the camera user X sets the composition (FIG. 16), the camera user X and the subjects Y and Z are photographed as subjects while confirming the designated image displayed on the display device 3C2. Shows the situation to do. Here, the display device 3C2 is placed outside the imaging range of the imaging device 2C. 16 and 17, the display device 3C1 is set to “designated image non-display device” in the “separate device use mode”, and the display device 3C2 is set to “designated image display device” in the “separate device use mode”. Has been.
Note that the operation of the imaging apparatus 2C is substantially the same as the operation of the imaging apparatus 2B described in the third embodiment. The operations of the two display devices 3C1 and 3C2 are the same. Therefore, only the operation of the display device 3C1 will be described below.

〔表示装置の動作〕
図18及び図19は、表示装置3C1の動作を示すフローチャートである。
本実施の形態4に係る表示装置3C1の動作は、図18及び図19に示すように、上述した実施の形態3で説明した表示装置3Bの動作(図14)に対して、ステップS224〜S256を追加した点が異なるのみである。このため、以下では、ステップS224〜S256のみを説明する。
[Operation of display device]
18 and 19 are flowcharts showing the operation of the display device 3C1.
As shown in FIGS. 18 and 19, the operation of the display device 3C1 according to the fourth embodiment is the same as the operation of the display device 3B described in the third embodiment (FIG. 14) in steps S224 to S256. The only difference is the addition of. For this reason, only steps S224 to S256 will be described below.

ステップS224は、ステップS201で表示装置3の電源がオンになった場合(ステップS201:Yes)に実行される。
具体的に、表示制御部392Cは、ステップS224において、各種モード(通常通信モード及び別機器使用モード)の選択を促す初期画面を表示部32に表示させる。
続いて、表示側制御部39Cは、カメラユーザによる入力部31への操作により、「通常通信モード」が選択されたか否かを判断する(ステップS225)。
「通常通信モード」が選択されたと判断された場合(ステップS225:Yes)には、表示装置3C1は、ステップS202に移行する。
一方、「通常通信モード」が選択されていないと判断された場合(ステップS225:No)には、表示装置3C1は、ステップS227に移行する。
Step S224 is executed when the power of the display device 3 is turned on in Step S201 (Step S201: Yes).
Specifically, in step S224, the display control unit 392C causes the display unit 32 to display an initial screen that prompts selection of various modes (the normal communication mode and the different device use mode).
Subsequently, the display-side control unit 39C determines whether or not the “normal communication mode” is selected by an operation on the input unit 31 by the camera user (step S225).
If it is determined that “normal communication mode” has been selected (step S225: Yes), the display device 3C1 proceeds to step S202.
On the other hand, when it is determined that the “normal communication mode” is not selected (step S225: No), the display device 3C1 proceeds to step S227.

ステップS226は、ステップS221の後、または、ステップS219で撮影操作がないと判定された場合(ステップS219:No(ステップS219G))に実行される。
具体的に、表示側制御部39Cは、ステップS226において、カメラユーザによる入力部31への初期画面の表示操作があったか否かを判断する。
初期画面の表示操作があったと判断された場合(ステップS226:Yes)には、表示装置3C1は、ステップS201に戻り、ステップS224で初期画面を表示する。
一方、初期画面の表示操作がないと判断された場合(ステップS226:No)には、表示装置3C1は、ステップS202に戻り、既に設定されたモード(通常通信モード)を継続する。なお、ステップS203で撮像装置2Cとの間で通信接続が確立していないと判断された場合(ステップS203:No)も同様に、表示装置3C1は、ステップS202に戻る。
Step S226 is executed after step S221 or when it is determined in step S219 that there is no shooting operation (step S219: No (step S219G)).
Specifically, the display-side control unit 39C determines whether or not the camera user has performed an initial screen display operation on the input unit 31 in step S226.
If it is determined that the initial screen display operation has been performed (step S226: Yes), the display device 3C1 returns to step S201 and displays the initial screen in step S224.
On the other hand, if it is determined that there is no initial screen display operation (step S226: No), the display device 3C1 returns to step S202 and continues the already set mode (normal communication mode). Note that the display device 3C1 returns to step S202 in the same manner when it is determined in step S203 that a communication connection has not been established with the imaging device 2C (step S203: No).

ステップS227は、ステップS225で「通常通信モード」が選択されていないと判断された場合(ステップS225:No)に実行される。
具体的に、表示側制御部39Cは、ステップS227において、カメラユーザによる入力部31への操作により、「別機器使用モード」が選択されたか否かを判断する。
「別機器使用モード」が選択されていないと判断された場合(ステップS227:No)には、表示装置3C1は、ステップS201に戻る。
一方、「別機器使用モード」が選択されたと判断された場合(ステップS227:Yes)には、表示側制御部39Cは、カメラユーザによる入力部31への操作により、表示装置3C1が「指定画像表示機器」に設定されたか否かを判断する(ステップS228)。
Step S227 is executed when it is determined in step S225 that the “normal communication mode” is not selected (step S225: No).
Specifically, in step S227, the display-side control unit 39C determines whether or not “another device use mode” has been selected by an operation on the input unit 31 by the camera user.
When it is determined that “another device use mode” is not selected (step S227: No), the display device 3C1 returns to step S201.
On the other hand, when it is determined that “another device use mode” has been selected (step S227: Yes), the display-side control unit 39C causes the display device 3C1 to display “designated image” by an operation on the input unit 31 by the camera user. It is determined whether or not “display device” is set (step S228).

「指定画像非表示機器」に設定されたと判断された場合(ステップS228:No)には、表示装置3C1は、通常通信モード時でのステップS202〜S212,S214,S215と同様のステップS229〜S241を実行する。
ステップS241で領域指定操作が未だ実施されていないと判断された場合(ステップS241:No)には、表示装置3C1は、ステップS244に移行する。
一方、ステップS241で領域指定操作が既に実施されたと判断された場合(ステップS241:Yes)には、表示側通信制御部391Cは、表示側通信部38を介して、他の表示装置3C2との間で通信接続を開始し、当該通信接続を確立する(ステップS242)。
続いて、表示側通信制御部391Cは、表示側通信部38を介して、表示側メモリ部36に記憶された領域情報を撮像装置2Cに送信する(ステップS243)。
When it is determined that the “designated image non-display device” is set (step S228: No), the display device 3C1 performs steps S229 to S241 similar to steps S202 to S212, S214, and S215 in the normal communication mode. Execute.
If it is determined in step S241 that the area designation operation has not been performed yet (step S241: No), the display device 3C1 proceeds to step S244.
On the other hand, if it is determined in step S241 that the area specifying operation has already been performed (step S241: Yes), the display side communication control unit 391C communicates with the other display device 3C2 via the display side communication unit 38. The communication connection is started, and the communication connection is established (step S242).
Subsequently, the display-side communication control unit 391C transmits the area information stored in the display-side memory unit 36 to the imaging device 2C via the display-side communication unit 38 (Step S243).

続いて、表示装置3C1は、通常通信モード時でのステップS219〜S221,S226と同様のステップS244〜S246,S247を実行する。
初期画面の表示操作があったと判断された場合(ステップS247:Yes)には、表示装置3C1は、ステップS201に戻り、ステップS224で初期画面を表示する。
一方、初期画面の表示操作がないと判断された場合(ステップS247:No)には、表示装置3C1は、ステップS229に戻り、既に設定されたモード(別機器使用モード)を継続する。なお、ステップS230で撮像装置2Cとの間で通信接続が確立していないと判断された場合(ステップS230:No)も同様に、表示装置3C1は、ステップS229に戻る。
Subsequently, the display device 3C1 executes steps S244 to S246 and S247 similar to steps S219 to S221 and S226 in the normal communication mode.
If it is determined that the initial screen display operation has been performed (step S247: Yes), the display device 3C1 returns to step S201 and displays the initial screen in step S224.
On the other hand, if it is determined that there is no initial screen display operation (step S247: No), the display device 3C1 returns to step S229 and continues the already set mode (separate device use mode). Note that when it is determined in step S230 that a communication connection has not been established with the imaging device 2C (step S230: No), the display device 3C1 returns to step S229.

ステップS248は、ステップS228で「指定画像表示機器」に設定されたと判断された場合(ステップS228:Yes)に実行される。
具体的に、表示側通信制御部391Cは、ステップS248において、表示側通信部38を介して、撮像装置2C及び他の表示装置3C2との間で通信接続を開始する。
続いて、表示側通信制御部391Cは、表示側通信部38を介して撮像装置2Cとの間で通信接続を確立したか否かを判断する(ステップS249)。
撮像装置2Cとの間で通信接続を確立していないと判断された場合(ステップS249:No)には、表示装置3C1は、ステップS248に戻る。
一方、撮像装置2Cとの間で通信接続を確立したと判断した場合(ステップS249:Yes)には、表示側通信制御部391Cは、表示側通信部38を介して、撮像装置2Cからライブビュー画像データ(第1タイムスタンプを含む)を受信したか否かを判断する(ステップS250)。
Step S248 is executed when it is determined in step S228 that the “designated image display device” has been set (step S228: Yes).
Specifically, the display-side communication control unit 391C starts communication connection between the imaging device 2C and the other display device 3C2 via the display-side communication unit 38 in step S248.
Subsequently, the display-side communication control unit 391C determines whether a communication connection has been established with the imaging device 2C via the display-side communication unit 38 (step S249).
If it is determined that a communication connection has not been established with the imaging device 2C (step S249: No), the display device 3C1 returns to step S248.
On the other hand, when it is determined that a communication connection has been established with the imaging device 2C (step S249: Yes), the display-side communication control unit 391C performs live view from the imaging device 2C via the display-side communication unit 38. It is determined whether image data (including the first time stamp) has been received (step S250).

ライブビュー画像データを受信していないと判断された場合(ステップS250:No)には、表示装置3C1は、ステップS248に戻る。
一方、ライブビュー画像データを受信したと判断した場合(ステップS250:Yes)には、表示側通信制御部391Cは、表示側通信部38を介して他の表示装置3C2との間で通信接続を確立したか否かを判断する(ステップS251)。
If it is determined that the live view image data has not been received (step S250: No), the display device 3C1 returns to step S248.
On the other hand, if it is determined that the live view image data has been received (step S250: Yes), the display-side communication control unit 391C establishes communication connection with the other display device 3C2 via the display-side communication unit 38. It is determined whether it has been established (step S251).

他の表示装置3C2との間で通信接続を確立していないと判断された場合(ステップS251:No)には、表示装置3C1は、ステップS248に戻る。
一方、他の表示装置3C2との間で通信接続を確立したと判断した場合(ステップS251:Yes)には、表示側通信制御部391Cは、表示側通信部38を介して、他の表示装置3C2から領域情報を受信したか否かを判断する(ステップS252)。
If it is determined that a communication connection has not been established with another display device 3C2 (step S251: No), the display device 3C1 returns to step S248.
On the other hand, when it is determined that a communication connection has been established with the other display device 3C2 (step S251: Yes), the display-side communication control unit 391C passes the other display device via the display-side communication unit 38. It is determined whether or not region information has been received from 3C2 (step S252).

領域情報を受信していないと判断された場合(ステップS252:No)には、表示装置2C1は、ステップS248に戻る。
一方、領域情報を受信したと判断した場合(ステップS252:Yes)には、表示側通信制御部391Cは、当該領域情報を表示側メモリ部36に記憶する(ステップS253)。ここで、表示側メモリ部36に既に従前の領域情報が記憶されている場合には、当該領域情報は、ステップS253で受信した最新の領域情報に更新される。
If it is determined that the area information has not been received (step S252: No), the display device 2C1 returns to step S248.
On the other hand, if it is determined that the area information has been received (step S252: Yes), the display-side communication control unit 391C stores the area information in the display-side memory unit 36 (step S253). Here, if the previous area information is already stored in the display side memory unit 36, the area information is updated to the latest area information received in step S253.

続いて、表示装置3C1は、通常通信モード時でのステップS223,S218と同様のステップS254,S255を実行する。
続いて、表示側制御部39Cは、カメラユーザによる入力部31への初期画面の表示操作があったか否かを判断する(ステップS256)。
初期画面の表示操作があったと判断された場合(ステップS256:Yes)には、表示装置3C1は、ステップS201に戻り、ステップS224で初期画面を表示する。
一方、初期画面の表示操作がないと判断された場合(ステップS256:No)には、表示装置3C1は、ステップS248に戻り、既に設定されたモード(別機器使用モード)を継続する。
Subsequently, the display device 3C1 executes steps S254 and S255 similar to steps S223 and S218 in the normal communication mode.
Subsequently, the display-side control unit 39C determines whether or not the camera user has performed an initial screen display operation on the input unit 31 (step S256).
If it is determined that the initial screen display operation has been performed (step S256: Yes), the display device 3C1 returns to step S201 and displays the initial screen in step S224.
On the other hand, when it is determined that there is no display operation of the initial screen (step S256: No), the display device 3C1 returns to step S248 and continues the already set mode (separate device use mode).

図16及び図17の例では、表示装置3C1は、「別機器使用モード」で「指定画像非表示機器」に設定されている。このため、表示装置3C1は、図17に示すように、当該表示装置3C1とカメラユーザXとの位置関係が変化した場合(図16に示した状況から図17に示した状況への変化)であっても、指定画像を表示することはない。
一方、表示装置3C2は、「別機器使用モード」で「指定画像表示機器」に設定されている。このため、表示装置3C2は、図17に示すように、表示装置3C1とカメラユーザXとの位置関係が変化した場合には、カメラユーザXによる表示装置3C1への領域指定操作に応じた一部の領域Ar1,Ar2(図16)に相当する指定画像W101,W102を表示することとなる。
In the example of FIGS. 16 and 17, the display device 3C1 is set to “designated image non-display device” in the “different device use mode”. Therefore, as shown in FIG. 17, the display device 3C1 changes when the positional relationship between the display device 3C1 and the camera user X changes (change from the situation shown in FIG. 16 to the situation shown in FIG. 17). Even if it exists, the designated image is not displayed.
On the other hand, the display device 3C2 is set to “designated image display device” in the “different device use mode”. For this reason, as shown in FIG. 17, when the positional relationship between the display device 3C1 and the camera user X changes, the display device 3C2 is partially responsive to an area designation operation on the display device 3C1 by the camera user X. The designated images W101 and W102 corresponding to the areas Ar1 and Ar2 (FIG. 16) are displayed.

上述した本実施の形態4に係る撮像システム1Cによれば、上述した実施の形態1,3と同様の効果の他、以下の効果を奏する。
すなわち、本実施の形態4に係る撮像システム1Cでは、表示装置3C1,3C2が互いに通信可能に複数、設けられ、いずれかの表示装置にて指定画像を表示する。
このため、カメラユーザは、アタッチメント4を利用して撮像装置2Cと表示装置3C1を一体化した状態で構図を設定(例えば、図16に示した状態)した後、自身を被写体に含めて撮影を行う際、表示装置3C2から指定画像を確認すればよく、アタッチメント4から表示装置3C1を取り外す必要がない。このため、利便性の向上がさらに図れる。
The imaging system 1C according to the fourth embodiment described above has the following effects in addition to the same effects as those of the first and third embodiments described above.
That is, in the imaging system 1C according to the fourth embodiment, a plurality of display devices 3C1 and 3C2 are provided so as to communicate with each other, and a designated image is displayed on any one of the display devices.
For this reason, the camera user uses the attachment 4 to set the composition in a state where the imaging device 2C and the display device 3C1 are integrated (for example, the state shown in FIG. 16), and then shoots with himself included in the subject. When performing, it is only necessary to confirm the designated image from the display device 3C2, and there is no need to remove the display device 3C1 from the attachment 4. For this reason, the convenience can be further improved.

(その他の実施の形態)
ここまで、本発明を実施するための形態を説明してきたが、本発明は上述した実施の形態1〜4によってのみ限定されるべきものではない。
図20及び図21は、本実施の形態1〜4の変形例を示す図である。
上述した実施の形態1〜4では、表示装置3,3A,3B,3C1,3C2は、指定画像を拡大表示する際、当該指定画像のみを画面内に表示(図4の例では、指定画像W101,W102のみを画面W2に表示)していたが、これに限られない。例えば、図20及び図21に示す表示装置3D(撮像システム1D)のように、領域指定操作により指定された領域Ar1(図20)に相当する指定画像W101(図21)をライブビュー画像W100に重畳した画面W3(図21)を表示するように構成しても構わない。
このように構成すると、カメラユーザXとは異なる別の撮影者Vに撮影を任せた場合であっても、当該撮影者Vは、画面W3により構図を確認しながら、カメラユーザXが重要と判断した領域の指定画像W101も確認することができる。したがって、撮影者Vは、最適なタイミングで撮影操作を行うことができる。すなわち、別の撮影者Vに撮影を任せた場合であっても、カメラユーザXは、自身の望む撮影画像を得ることができる。
(Other embodiments)
Up to this point, the mode for carrying out the present invention has been described. However, the present invention should not be limited only by the above-described first to fourth embodiments.
20 and 21 are diagrams showing modifications of the first to fourth embodiments.
In the first to fourth embodiments described above, the display devices 3, 3A, 3B, 3C1, and 3C2 display only the designated image on the screen when the designated image is enlarged (in the example of FIG. 4, the designated image W101 is displayed). , W102 are displayed on the screen W2), but is not limited to this. For example, like the display device 3D (imaging system 1D) shown in FIGS. 20 and 21, the designated image W101 (FIG. 21) corresponding to the area Ar1 (FIG. 20) designated by the area designation operation is displayed as the live view image W100. You may comprise so that the superimposed screen W3 (FIG. 21) may be displayed.
With such a configuration, even when another photographer V different from the camera user X is in charge of shooting, the photographer V determines that the camera user X is important while checking the composition on the screen W3. The designated image W101 in the area can also be confirmed. Therefore, the photographer V can perform a photographing operation at an optimal timing. That is, even when another photographer V is entrusted with photographing, the camera user X can obtain a desired photographed image.

また、処理フローは、上述した実施の形態1〜4で説明したフローチャートにおける処理の順序に限られず、矛盾のない範囲で変更しても構わない。
さらに、本明細書においてフローチャートを用いて説明した処理のアルゴリズムは、プログラムとして記述することが可能である。このようなプログラムは、コンピュータ内部の記録部に記録してもよいし、コンピュータ読み取り可能な記録媒体に記録してもよい。プログラムの記録部または記録媒体への記録は、コンピュータまたは記録媒体を製品として出荷する際に行ってもよいし、通信ネットワークを介したダウンロードにより行ってもよい。
The processing flow is not limited to the processing order in the flowcharts described in the first to fourth embodiments, and may be changed within a consistent range.
Furthermore, the processing algorithm described using the flowcharts in this specification can be described as a program. Such a program may be recorded on a recording unit inside the computer, or may be recorded on a computer-readable recording medium. Recording of the program in the recording unit or recording medium may be performed when the computer or recording medium is shipped as a product, or may be performed by downloading via a communication network.

上述した実施の形態1〜4、図20及び図21に示した変形例では、撮像装置2,2A〜2Cと表示装置3,3A,3B,3C1,3Dとを別体で構成していたが、これに限られず、撮像装置2,2A〜2Cの機能と表示装置3,3A,3B,3C1,3Dの機能とを一体化した表示装置として構成しても構わない。また、上述した実施の形態1〜4、図20及び図21に示した変形例には、以下に示す付記項に記載の発明も含まれるものである。ここで、関係判定部395,395Cは、付記項3に記載のユーザ画像判定部としての機能を有する。また、領域情報生成部394,394Cは、付記項4に記載の判定部としての機能を有する。   In the first to fourth embodiments and the modifications shown in FIGS. 20 and 21, the imaging devices 2, 2 </ b> A to 2 </ b> C and the display devices 3, 3 </ b> A, 3 </ b> B, 3 </ b> C <b> 1, 3 </ b> D are configured separately. However, the present invention is not limited to this, and the functions of the imaging devices 2, 2A to 2C and the functions of the display devices 3, 3A, 3B, 3C1, and 3D may be integrated as a display device. In addition, the modifications described in the first to fourth embodiments and FIGS. 20 and 21 include the inventions described in the following supplementary items. Here, the relationship determination units 395 and 395C have a function as the user image determination unit described in the supplementary item 3. Further, the region information generation units 394 and 394C have a function as the determination unit described in the supplementary item 4.

[付記項1]
画像を表示する表示装置において、
撮像部と、
画像を表示する表示部と、
ユーザ操作を受け付ける操作受付部と、
前記撮像部にて撮像された第1画像データに対応する第1画像が前記表示部に表示されている状態で、前記操作受付部が前記第1画像の一部の領域を指定する第1のユーザ操作を受け付けた場合に、当該一部の領域に関する領域情報を生成する領域情報生成部と、
前記第1画像における前記領域情報に基づく一部の領域の指定画像を前記表示部に拡大表示させる表示制御部とを備える
ことを特徴とする表示装置。
[付記項2]
前記拡大表示は、
ユーザと当該表示装置との位置によって切り替わる
ことを特徴とする付記項1に記載の表示装置。
[付記項3]
画像を表示する表示装置において、
画像を表示する表示部と、
前記表示部を観察するユーザの画像をモニタ可能なユーザ画像判定部と、
前記ユーザ画像判定部による判定結果に基づいて、前記表示部の表示態様を変更可能な表示制御部とを備える
ことを特徴とする表示装置。
[付記項4]
前記ユーザによる前記表示部上の指定操作を判定する判定部を有し、
前記表示制御部は、
前記判定部による判定結果に基づいて、表示画像の一部を拡大表示可能な表示態様に変更する
ことを特徴とする付記項3に記載の表示装置。
[付記項5]
画像を表示する表示装置において、
撮像部と、
画像を表示する表示部と、
ユーザ操作を受け付ける操作受付部と、
前記撮像部にて撮像された第1画像データに対応する第1画像が前記表示部に表示されている状態で、前記操作受付部が前記第1画像の一部の領域を指定する第1のユーザ操作を受け付けた場合に、当該一部の領域に関する領域情報を生成する領域情報生成部と、
当該表示装置と撮影者との位置関係を判定する関係判定部と、
前記関係判定部にて前記位置関係が変化したと判定された場合に、前記第1画像における前記領域情報に基づく一部の領域の指定画像を前記表示部に拡大表示させる表示制御部とを備える
ことを特徴とする表示装置。
[Additional Item 1]
In a display device that displays an image,
An imaging unit;
A display for displaying an image;
An operation reception unit for receiving user operations;
In a state where the first image corresponding to the first image data imaged by the imaging unit is displayed on the display unit, the operation reception unit designates a partial region of the first image. A region information generation unit that generates region information regarding the partial region when a user operation is received;
A display device comprising: a display control unit configured to enlarge and display a specified image of a part of the region based on the region information in the first image on the display unit.
[Additional Item 2]
The enlarged display is
The display device according to appendix 1, wherein the display device is switched according to a position between the user and the display device.
[Additional Item 3]
In a display device that displays an image,
A display for displaying an image;
A user image determination unit capable of monitoring an image of a user observing the display unit;
A display device comprising: a display control unit capable of changing a display mode of the display unit based on a determination result by the user image determination unit.
[Additional Item 4]
A determination unit for determining a designation operation on the display unit by the user;
The display control unit
The display device according to claim 3, wherein a part of the display image is changed to a display mode capable of being enlarged based on a determination result by the determination unit.
[Additional Item 5]
In a display device that displays an image,
An imaging unit;
A display for displaying an image;
An operation reception unit for receiving user operations;
In a state where the first image corresponding to the first image data imaged by the imaging unit is displayed on the display unit, the operation reception unit designates a partial region of the first image. A region information generation unit that generates region information regarding the partial region when a user operation is received;
A relationship determination unit for determining a positional relationship between the display device and the photographer;
A display control unit that enlarges and displays a designated image of a part of the region based on the region information in the first image when the relationship determination unit determines that the positional relationship has changed. A display device characterized by that.

1,1A〜1D・・・撮像システム;2,2A〜2C・・・撮像装置;3,3A,3B,3C1,3C2,3D・・・表示装置;4・・・アタッチメント;4A・・・取付用孔;5・・・三脚;20・・・レンズ鏡筒;21・・・光学系;22・・・駆動部;23・・・位置検出部;24・・・操作部;25・・・本体側時計部;26・・・本体側撮像部;27・・・本体側メモリ部;28・・・本体側記録部;29・・・本体側通信部;30,30A〜30C・・・本体側制御部;31・・・入力部;32・・・表示部;33・・・表示側時計部;34・・・表示側撮像部;35・・・音声データ生成部;36・・・表示側メモリ部;37・・・表示側記録部;38・・・表示側通信部;39,39A〜39C・・・表示側制御部;211・・・ズームレンズ;212・・・フォーカスレンズ;221・・・ズーム駆動部;222・・・フォーカス駆動部;231・・・ズーム位置検出部;232・・・フォーカス位置検出部;301,301A〜301C・・・本体側通信制御部;302・・・本体側撮像制御部;303・・・画像抽出部;304・・・関係判定部;341・・・光学系;351・・・音声入力部;352・・・音声処理部;371・・・プログラム記録部;372・・・画像データ記録部;391,391A〜391C・・・表示側通信制御部;392,392C・・・表示制御部;393,393C・・・表示側撮像制御部;394,394C・・・領域情報生成部;395,395C・・・関係判定部;396,396C・・・画像抽出部;A1・・・操作アイコン;Ar1,Ar2・・・領域;V・・・別の撮影者;W1〜W3・・・画面;W100・・・ライブビュー画像;W101,W102・・・指定画像;X・・・カメラユーザ;Y,Z・・・被写体   DESCRIPTION OF SYMBOLS 1,1A-1D ... Imaging system; 2, 2A-2C ... Imaging device; 3, 3A, 3B, 3C1, 3C2, 3D ... Display apparatus; 4 ... Attachment; 4A ... Installation 5 ... Tripod; 20 ... Lens barrel; 21 ... Optical system; 22 ... Drive unit; 23 ... Position detection unit; 24 ... Operation unit; Main body side clock part; 26 ... Main body side imaging part; 27 ... Main body side memory part; 28 ... Main body side recording part; 29 ... Main body side communication part; 30, 30A-30C ... Main body Side control unit; 31 ... Input unit; 32 ... Display unit; 33 ... Display side clock unit; 34 ... Display side imaging unit; 35 ... Audio data generation unit; 37: Display side recording unit; 38 ... Display side communication unit; 39, 39A to 39C ... Display side control unit; Zoom lens; 212, focus lens; 221, zoom drive unit; 222, focus drive unit; 231, zoom position detection unit; 232, focus position detection unit; 301C... Main body side communication control unit; 302... Main body side imaging control unit; 303... Image extraction unit; 304. 352, audio processing unit, 371, program recording unit, 372, image data recording unit, 391, 391A to 391C, display-side communication control unit, 392, 392C, display control unit; 393, 393C ... display-side imaging control unit; 394, 394C ... area information generation unit; 395, 395C ... relationship determination unit; 396, 396C ... image extraction unit; Arrangement icon; Ar1, Ar2 ... area; V ... another photographer; W1-W3 ... screen; W100 ... live view image; W101, W102 ... designated image; X ... camera User; Y, Z ... Subject

Claims (6)

表示装置において、
画像を表示する表示部と、
ユーザ操作を受け付ける操作受付部と、
前記表示部で前記画像が表示されている状態で、前記操作受付部が前記画像の一部の領域を指定する第1のユーザ操作を受け付けた場合に、当該一部の領域に関する領域情報を生成する領域情報生成部と、
ユーザと当該表示装置との位置によって前記画像における前記領域情報に基づく一部の領域の指定画像を前記表示部に拡大表示させる表示制御部とを備える
ことを特徴とする表示装置。
In the display device,
A display for displaying an image;
An operation reception unit for receiving user operations;
When the operation accepting unit accepts a first user operation for designating a partial region of the image while the image is displayed on the display unit, region information about the partial region is generated. An area information generation unit to perform,
A display device, comprising: a display control unit configured to enlarge and display a specified image of a part of a region based on the region information in the image according to a position of a user and the display device.
前記表示部を観察するユーザの画像をモニタ可能なユーザ画像判定部と、
前記表示制御部は、前記ユーザ画像判定部による判定結果に基づいて、前記表示部の表示態様を変更する
ことを特徴とする請求項1に記載の表示装置。
A user image determination unit capable of monitoring an image of a user observing the display unit;
The display device according to claim 1, wherein the display control unit changes a display mode of the display unit based on a determination result by the user image determination unit.
前記ユーザによる前記表示部上の指定操作を判定する判定部を有し、
前記表示制御部は、
前記判定部による判定結果に基づいて、表示画像の一部を拡大表示可能な表示態様に変更する
ことを特徴とする請求項2に記載の表示装置。
A determination unit for determining a designation operation on the display unit by the user;
The display control unit
The display device according to claim 2, wherein a display mode in which a part of the display image is enlarged is displayed based on a determination result by the determination unit.
当該表示装置と前記ユーザとの位置関係を判定する関係判定部と、
前記表示制御部は、前記関係判定部にて前記位置関係が変化したと判定された場合に、前記拡大表示させる
ことを特徴とする表示装置。
A relationship determination unit for determining a positional relationship between the display device and the user;
The display device, wherein when the relationship determination unit determines that the positional relationship has changed, the display control unit displays the enlarged display.
表示装置が実行する表示方法であって、
画像を表示する表示ステップと、
ユーザ操作を受け付ける操作受付ステップと、
前記表示ステップで前記画像が表示されている状態で、前記操作受付ステップで前記画像の一部の領域を指定する第1のユーザ操作を受け付けた場合に、当該一部の領域に関する領域情報を生成する領域情報生成ステップと、
ユーザと当該表示装置との位置によって前記画像における前記領域情報に基づく一部の領域の指定画像を前記表示部に拡大表示させる表示制御ステップと、
を含むことを特徴とする表示方法。
A display method executed by a display device,
A display step for displaying an image;
An operation accepting step for accepting a user operation;
When the first user operation for designating a partial area of the image is accepted in the operation accepting step while the image is displayed in the display step, area information relating to the partial area is generated. Region information generation step to perform,
A display control step of causing the display unit to enlarge and display a specified image of a part of the region based on the region information in the image depending on the position of the user and the display device;
A display method comprising:
表示装置に、
画像を表示する表示ステップと、
ユーザ操作を受け付ける操作受付ステップと、
前記表示ステップで前記画像が表示されている状態で、前記操作受付ステップで前記画像の一部の領域を指定する第1のユーザ操作を受け付けた場合に、当該一部の領域に関する領域情報を生成する領域情報生成ステップと、
ユーザと当該表示装置との位置によって前記画像における前記領域情報に基づく一部の領域の指定画像を前記表示部に拡大表示させる表示制御ステップと、
を実行させることを特徴とする表示プログラム。
On the display device,
A display step for displaying an image;
An operation accepting step for accepting a user operation;
When the first user operation for designating a partial area of the image is accepted in the operation accepting step while the image is displayed in the display step, area information relating to the partial area is generated. Region information generation step to perform,
A display control step of causing the display unit to enlarge and display a specified image of a part of the region based on the region information in the image depending on the position of the user and the display device;
A display program characterized in that the program is executed.
JP2017249746A 2017-12-26 2017-12-26 Display device, display method, and display program Pending JP2018101979A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017249746A JP2018101979A (en) 2017-12-26 2017-12-26 Display device, display method, and display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017249746A JP2018101979A (en) 2017-12-26 2017-12-26 Display device, display method, and display program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014100480A Division JP6270619B2 (en) 2014-05-14 2014-05-14 Display device, imaging device, imaging system, display method, imaging method, display program, and imaging program

Publications (1)

Publication Number Publication Date
JP2018101979A true JP2018101979A (en) 2018-06-28

Family

ID=62715730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017249746A Pending JP2018101979A (en) 2017-12-26 2017-12-26 Display device, display method, and display program

Country Status (1)

Country Link
JP (1) JP2018101979A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003224756A (en) * 2002-01-30 2003-08-08 Nikon Gijutsu Kobo:Kk Image processing apparatus and image processing method
JP2009294728A (en) * 2008-06-02 2009-12-17 Sony Ericsson Mobilecommunications Japan Inc Display processor, display processing method, display processing program, and portable terminal device
JP2012022589A (en) * 2010-07-16 2012-02-02 Hitachi Ltd Method of supporting selection of commodity
JP2012150761A (en) * 2011-01-21 2012-08-09 Fujitsu Ltd Information processing device and information processing program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003224756A (en) * 2002-01-30 2003-08-08 Nikon Gijutsu Kobo:Kk Image processing apparatus and image processing method
JP2009294728A (en) * 2008-06-02 2009-12-17 Sony Ericsson Mobilecommunications Japan Inc Display processor, display processing method, display processing program, and portable terminal device
JP2012022589A (en) * 2010-07-16 2012-02-02 Hitachi Ltd Method of supporting selection of commodity
JP2012150761A (en) * 2011-01-21 2012-08-09 Fujitsu Ltd Information processing device and information processing program

Similar Documents

Publication Publication Date Title
US10375296B2 (en) Methods apparatuses, and storage mediums for adjusting camera shooting angle
KR101712065B1 (en) Method for connecting appliance to network and device, program and recording medium for the same
KR101733582B1 (en) Method, apparatus, program and recording medium for displaying router setup interface
US20170091551A1 (en) Method and apparatus for controlling electronic device
US11329974B2 (en) Device network configuration method and apparatus, and storage medium
EP2991336A1 (en) Image capturing method and apparatus
CN105744133B (en) Video light compensation method and device
CN107959795B (en) Information acquisition method, information acquisition equipment and computer readable storage medium
TWI656794B (en) Focusing method, device, computer readable storage medium, and terminal
US20170063758A1 (en) Method, device, terminal, and router for sending message
EP3125152B1 (en) Method and device for collecting sounds corresponding to surveillance images
EP3113071A1 (en) Method and device for acquiring iris image
JP6351356B2 (en) Portable device, image supply device, image display device, imaging system, image display system, image acquisition method, image supply method, image display method, image acquisition program, image supply program, and image display program
EP3026876A1 (en) Method for acquiring recommending information, terminal and server
CN114009003A (en) Image acquisition method, device, equipment and storage medium
CN106341602A (en) Panoramic image generation method and apparatus
JP2016158109A (en) Information terminal device, information acquisition device, information support method, and information support program
US20170339513A1 (en) Detecting method and apparatus, and storage medium
CN105959594A (en) Metering method and device for photographic equipment
RU2635873C2 (en) Method and device for displaying framing information
JP2017069618A (en) Electronic apparatus and imaging method
CN110868561A (en) Video call method, video call device and computer readable storage medium
EP3211879A1 (en) Method and device for automatically capturing photograph, electronic device
JP2018152787A (en) Imaging device, external device, imaging system, imaging method, operation method, and program
US20170034347A1 (en) Method and device for state notification and computer-readable storage medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181001

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190115