JP2015162822A - Electronic apparatus, imaging apparatus, and communication apparatus - Google Patents

Electronic apparatus, imaging apparatus, and communication apparatus Download PDF

Info

Publication number
JP2015162822A
JP2015162822A JP2014037377A JP2014037377A JP2015162822A JP 2015162822 A JP2015162822 A JP 2015162822A JP 2014037377 A JP2014037377 A JP 2014037377A JP 2014037377 A JP2014037377 A JP 2014037377A JP 2015162822 A JP2015162822 A JP 2015162822A
Authority
JP
Japan
Prior art keywords
user
unit
imaging
information
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014037377A
Other languages
Japanese (ja)
Inventor
宏美 冨井
Hiromi Tomii
宏美 冨井
学 小野里
Manabu Onozato
学 小野里
寿 田井
Hisashi Tai
寿 田井
亮 羽曾部
Ryo Hasobe
亮 羽曾部
政一 関口
Masaichi Sekiguchi
政一 関口
誠 今水
Makoto Imamizu
誠 今水
隆之 大江
Takayuki Oe
隆之 大江
博 亀原
Hiroshi Kamehara
博 亀原
大作 小宮
Daisaku Komiya
大作 小宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2014037377A priority Critical patent/JP2015162822A/en
Priority to PCT/JP2015/051133 priority patent/WO2015108161A1/en
Publication of JP2015162822A publication Critical patent/JP2015162822A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus capable of contributing to improvement of easiness to use.SOLUTION: The electronic apparatus comprises: a display (102) capable of displaying an image captured by an external apparatus (20), in the vicinity of user's eyes; a visual line detector (108) which detects the visual lines of the user; and a transmitter (111, 110) which transmits information according to a result of detection by the visual line detector, to the external apparatus.

Description

本発明は、電子機器、撮像装置及び通信装置に関する。   The present invention relates to an electronic device, an imaging device, and a communication device.

従来より、各種の携帯端末が提案されており、最近では顔の近傍に装着する携帯端末も提案されている(例えば、特許文献1参照)。   Conventionally, various portable terminals have been proposed, and recently, a portable terminal to be worn near the face has also been proposed (see, for example, Patent Document 1).

米国特許出願公開第2013/0044042号明細書US Patent Application Publication No. 2013/0044042

しかしながら、従来においては、顔の近傍に装着する端末とその他の機器との連携についてはほとんど考慮されていなかった。   However, conventionally, little consideration has been given to cooperation between a terminal worn near the face and other devices.

本発明は上記の課題に鑑みてなされたものであり、ユーザの使い勝手の向上に寄与することが可能な電子機器、撮像装置及び通信装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide an electronic device, an imaging device, and a communication device that can contribute to improvement of user-friendliness.

本発明の電子機器(10)は、外部機器(20)が撮像した画像をユーザの目の近傍に表示可能な表示部(102)と、前記ユーザの視線を検出する視線検出部(108)と、前記視線検出部の検出結果に応じた情報を前記外部機器に送信する送信部(111,110)と、を備えている。   The electronic device (10) of the present invention includes a display unit (102) that can display an image captured by the external device (20) in the vicinity of the user's eyes, and a line-of-sight detection unit (108) that detects the user's line of sight. And a transmission unit (111, 110) for transmitting information according to the detection result of the visual line detection unit to the external device.

この場合において、前記送信部は、前記外部機器の焦点検出に関する情報を送信することとしてもよい。   In this case, the transmission unit may transmit information related to focus detection of the external device.

本発明の電子機器は、外部機器(20)が撮像した画像をユーザの目の近傍に表示可能な表示部(102)と、前記ユーザの特定の動作を検出する検出部(111,107)と、前記検出部が前記ユーザの特定の動作を検出したタイミングに応じた情報を前記外部機器に送信する送信部(111,110)と、を備えている。   The electronic device of the present invention includes a display unit (102) that can display an image captured by the external device (20) in the vicinity of the user's eyes, and a detection unit (111, 107) that detects the specific operation of the user. And a transmission unit (111, 110) that transmits information according to the timing at which the detection unit detects a specific operation of the user to the external device.

この場合において、前記送信部は、前記外部機器が画像を撮像する姿勢を特定するための情報を送信することとしてもよい。また、前記検出部は、前記ユーザの目の特定の動作を検出することとしてもよい。   In this case, the transmission unit may transmit information for specifying a posture in which the external device captures an image. The detection unit may detect a specific action of the user's eyes.

本発明の電子機器は、外部機器(20)の撮像領域の情報を入力する第1入力部(111)と、ユーザの視線に関する情報を入力する第2入力部(111)と、前記外部機器の撮像領域の情報と、前記ユーザの視線に関する情報とを前記ユーザの目の近傍に表示する表示部(102)と、を備えている。   The electronic device according to the present invention includes a first input unit (111) for inputting information about an imaging region of the external device (20), a second input unit (111) for inputting information relating to the user's line of sight, and the external device. A display unit (102) for displaying information on an imaging region and information on the user's line of sight in the vicinity of the user's eyes;

この場合において、前記外部機器の撮像領域の情報と、前記ユーザの視線に関する情報とに基づいて、前記外部機器を制御する情報を前記外部機器に送信する送信部(111,110)を備えていてもよい。また、前記表示部は、前記外部機器が撮像した画像に前記外部機器の撮像領域の情報と、前記ユーザの視線に関する情報とを合成した画像を表示することとしてもよい。   In this case, a transmission unit (111, 110) is provided that transmits information for controlling the external device to the external device based on information on the imaging area of the external device and information on the line of sight of the user. Also good. The display unit may display an image obtained by combining information on an imaging area of the external device and information on the user's line of sight with an image captured by the external device.

また、電子機器は、前記ユーザを認証する認証部(109)を備えていてもよい。この場合、前記外部機器の認証結果と、前記認証部の認証結果とが一致した場合に、前記外部機器との通信を許可する制御部(111)を備えていてもよい。また、前記表示部は、前記外部機器の認証結果に関する表示を行うこととしてもよい。   The electronic device may include an authentication unit (109) that authenticates the user. In this case, when the authentication result of the said external apparatus and the authentication result of the said authentication part correspond, you may provide the control part (111) which permits communication with the said external apparatus. In addition, the display unit may display information related to the authentication result of the external device.

本発明の撮像装置(20)は、本発明の電子機器と通信する通信部(207)と、ユーザを認証する認証部(210)と、画像を撮像する撮像部(201)と、を備えている。   The imaging device (20) of the present invention includes a communication unit (207) that communicates with the electronic device of the present invention, an authentication unit (210) that authenticates a user, and an imaging unit (201) that captures an image. Yes.

この場合において、前記認証部の認証結果と、前記電子機器の認証部の認証結果とが一致した場合に、前記通信部による通信を許可する制御部(211)を備えていてもよい。   In this case, a control unit (211) that permits communication by the communication unit when the authentication result of the authentication unit matches the authentication result of the authentication unit of the electronic device may be provided.

本発明の撮像装置は、本発明の電子機器と通信する通信部(207)と、画像を撮像する撮像部(201)と、を備え、前記撮像部は、前記電子機器の前記送信部から送信された情報に基づいた処理を実行する。   The imaging device of the present invention includes a communication unit (207) that communicates with the electronic device of the present invention, and an imaging unit (201) that captures an image, and the imaging unit transmits from the transmission unit of the electronic device. The processing based on the information that has been performed is executed.

本発明の通信装置(30)は、本発明の電子機器のユーザの認証結果を入力する第1認証結果入力部(32、34)と、撮像装置(20)のユーザの認証結果を入力する第2認証結果入力部(32、34)と、前記第1認証結果入力部が入力した認証結果と、前記第2認証結果入力部が入力した認証結果とが一致した場合に、前記電子機器と前記撮像装置との間の通信を許可する制御部(34)と、を備えている。   The communication device (30) of the present invention includes a first authentication result input unit (32, 34) for inputting a user authentication result of the electronic device of the present invention and a user authentication result of the imaging device (20). When the authentication result input by the second authentication result input unit (32, 34), the authentication result input by the first authentication result input unit, and the authentication result input by the second authentication result input unit coincide, And a control unit (34) that permits communication with the imaging device.

本発明の通信装置(30)は、電子機器から前記ユーザの視線に関する情報を入力する第1情報入力部(32、34)と、撮像装置の撮像領域の情報を入力する第2情報入力部(32、34)と、前記撮像装置の撮像領域の情報と、前記ユーザの視線に関する情報とを比較する比較部(34)と、を備えている。   The communication device (30) of the present invention includes a first information input unit (32, 34) for inputting information on the user's line of sight from an electronic device, and a second information input unit (32) for inputting information on an imaging region of the imaging device. 32, 34) and a comparison unit (34) for comparing information on the imaging region of the imaging device with information on the line of sight of the user.

なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。   In addition, in order to explain the present invention in an easy-to-understand manner, the above description has been made in association with the reference numerals of the drawings representing one embodiment. However, the present invention is not limited to this, and the configuration of an embodiment described later May be modified as appropriate, or at least a part thereof may be replaced with another component. Further, the configuration requirements that are not particularly limited with respect to the arrangement are not limited to the arrangement disclosed in the embodiment, and can be arranged at a position where the function can be achieved.

本発明の電子機器、撮像装置及び通信装置は、ユーザの使い勝手の向上に寄与することができるという効果を奏する。   The electronic device, the imaging device, and the communication device according to the present invention have an effect of being able to contribute to improvement of user convenience.

第1の実施形態に係る撮像システムの構成を示す図である。1 is a diagram illustrating a configuration of an imaging system according to a first embodiment. 装着装置の斜視図である。It is a perspective view of a mounting apparatus. 図3(a)は、撮像装置の正面図であり、図3(b)は、撮像装置の背面図である。3A is a front view of the imaging apparatus, and FIG. 3B is a rear view of the imaging apparatus. 装着装置において実行される準備処理を示すフローチャートである。It is a flowchart which shows the preparation process performed in a mounting apparatus. 撮像装置において実行される準備処理を示すフローチャートである。It is a flowchart which shows the preparatory process performed in an imaging device. 第1の実施形態の連携撮影処理を示すフローチャートである。It is a flowchart which shows the cooperation imaging | photography process of 1st Embodiment. 第1の実施形態におけるユーザの状態を示す図である。It is a figure which shows the state of the user in 1st Embodiment. ユーザの実視界と、表示部の表示可能範囲内に表示されているライブビュー画像の、ユーザによる見え方を示す図である。It is a figure which shows how a user sees a user's real view and the live view image currently displayed in the displayable range of a display part. ユーザの注視箇所の検出について示す図である。It is a figure shown about detection of a user's gaze location. 撮像素子において設定されている焦点検出を行う矩形エリアを示す図である。It is a figure which shows the rectangular area which performs the focus detection set in the image pick-up element. 矩形エリアの情報(合焦箇所)をライブビュー画像に重ねて表示した状態を示す図である。It is a figure which shows the state which displayed the information (focused location) of the rectangular area on the live view image in a superimposed manner. 変形例(その1)において、ユーザの実視界に犬が存在しており、装着装置の表示部の表示可能範囲にライブビュー画像として犬の画像が表示された状態を示す図である。In a modification (the 1), it is a figure which shows the state in which the dog exists in a user's real field of view, and the image of the dog is displayed as a live view image in the displayable range of the display part of a mounting apparatus. 図13(a)は、ユーザの注視している箇所が犬の顔の範囲外にある場合を示す図であり、図13(b)は、ユーザの注視している箇所が犬の顔の範囲内にある場合を示す図である。FIG. 13A is a diagram illustrating a case where the user's gaze is outside the range of the dog's face, and FIG. 13B is a diagram where the user's gaze is the range of the dog's face. It is a figure which shows the case where it exists in. 図14(a)は、犬の顔の拡大画像を表示した状態を示す図であり、図14(b)は、視線検出後、ライブビュー画像を表示した状態を示す図である。FIG. 14A is a diagram illustrating a state in which an enlarged image of the dog's face is displayed, and FIG. 14B is a diagram illustrating a state in which a live view image is displayed after the line of sight is detected. 図15(a)は、変形例(その2)において、ユーザの実視界に複数の主要被写体が存在しており、装着装置の表示部の表示可能範囲にライブビュー画像が表示された状態を示す図であり、図15(b)は、装着装置の表示部の表示可能範囲に猫及び犬の顔部分が表示された状態を示す図である。FIG. 15A shows a state in which a plurality of main subjects are present in the user's actual field of view and a live view image is displayed in the displayable range of the display unit of the mounting apparatus in the modified example (part 2). FIG. 15B is a diagram illustrating a state in which the face portions of cats and dogs are displayed in the displayable range of the display unit of the mounting device. 第1の実施形態において、サーバを利用する例を示す図である。It is a figure which shows the example using a server in 1st Embodiment. 第2の実施形態に係る装着装置を示す斜視図である。It is a perspective view which shows the mounting apparatus which concerns on 2nd Embodiment. 図17の装着装置を装着したユーザによる見え方を示す図である。It is a figure which shows how a user who mounted | worn with the mounting apparatus of FIG. 第2の実施形態の連携撮影処理を示すフローチャートである。It is a flowchart which shows the cooperation imaging | photography process of 2nd Embodiment. 表示可能範囲内に撮像装置の撮影範囲が含まれる場合を示す図である。It is a figure which shows the case where the imaging | photography range of an imaging device is included in the displayable range. 図21(a)は、表示可能範囲内に撮像装置の撮影範囲が含まれない場合を示す図であり、図21(b)は、図21(a)の場合のライブビュー画像の表示例を示す図である。FIG. 21A is a diagram illustrating a case where the imaging range of the imaging apparatus is not included in the displayable range, and FIG. 21B is a display example of a live view image in the case of FIG. FIG. 図22(a)は、ライブビュー画像が所定大きさ以下である場合を示す図であり、図22(b)は、図22(a)の場合のライブビュー画像の表示例を示す図である。22A is a diagram illustrating a case where the live view image is equal to or smaller than a predetermined size, and FIG. 22B is a diagram illustrating a display example of the live view image in the case of FIG. 22A. . コンタクトレンズ型の表示装置をユーザが装着した場合の、表示例を示す図である。It is a figure which shows the example of a display when a user wears the contact lens type display apparatus. 第3の実施形態の連携撮影処理を示すフローチャートである。It is a flowchart which shows the cooperation imaging | photography process of 3rd Embodiment. 図25(a)は、第3の実施形態におけるユーザの状態を示す図であり、図25(b)は、第3の実施形態における撮像装置の動きを示す図である。FIG. 25A is a diagram illustrating the state of the user in the third embodiment, and FIG. 25B is a diagram illustrating the movement of the imaging apparatus in the third embodiment. 図26(a)、図26(b)は、図24の処理を説明するための図である。FIG. 26A and FIG. 26B are diagrams for explaining the processing of FIG. 第3の実施形態の変形例を示す図である。It is a figure which shows the modification of 3rd Embodiment. 第4の実施形態の連携撮影処理を示すフローチャートである。It is a flowchart which shows the cooperation imaging | photography process of 4th Embodiment. 図29(a)、図29(b)は、図28の処理を説明するための図(その1)である。FIGS. 29A and 29B are diagrams (part 1) for explaining the processing of FIG. 図30(a)、図30(b)は、図28の処理を説明するための図(その2)である。FIGS. 30A and 30B are diagrams (part 2) for explaining the processing of FIG.

《第1の実施形態》
以下、第1の実施形態について、図1〜図11に基づいて、詳細に説明する。図1には、第1の実施形態に係る撮像システム100の構成がブロック図にて示されている。
<< First Embodiment >>
Hereinafter, the first embodiment will be described in detail with reference to FIGS. FIG. 1 is a block diagram showing the configuration of the imaging system 100 according to the first embodiment.

図1に示すように、撮像システム100は、装着装置10と、撮像装置20と、を備える(利用する)。   As illustrated in FIG. 1, the imaging system 100 includes (uses) a mounting device 10 and an imaging device 20.

(装着装置10)
装着装置10は、ユーザが身体(顔)に装着する端末であり、一例として、眼鏡型の形状を有する。装着装置10は、図1に示すように、撮像部101と、表示部102と、操作部103と、マイク104と、スピーカ105と、方位センサ106と、瞳撮像部107と、視線検出部108と、人物認証部109と、通信部110と、制御部111と、記憶部112と、を備える。なお、図2には、装着装置10が斜視図にて示されている。図2に示すように、装着装置10は、眼鏡型のフレーム120を備えている。なお、図1において図示され、図2において図示されていない装着装置10の構成は、フレーム120の内部や、フレーム120の一部に設けられているものとする。
(Mounting device 10)
The wearing device 10 is a terminal that a user wears on the body (face), and has an eyeglass shape as an example. As shown in FIG. 1, the mounting apparatus 10 includes an imaging unit 101, a display unit 102, an operation unit 103, a microphone 104, a speaker 105, a direction sensor 106, a pupil imaging unit 107, and a line-of-sight detection unit 108. A person authentication unit 109, a communication unit 110, a control unit 111, and a storage unit 112. In FIG. 2, the mounting device 10 is shown in a perspective view. As shown in FIG. 2, the mounting apparatus 10 includes a glasses-type frame 120. The configuration of the mounting apparatus 10 illustrated in FIG. 1 and not illustrated in FIG. 2 is provided inside the frame 120 or a part of the frame 120.

撮像部101は、レンズ、撮像素子、画像処理部などを備え、静止画や動画を撮像するものである。撮像部101は、図2に示すようにフレーム120の端部近傍(ユーザの右目近傍)に設けられている。このため、ユーザが装着装置10を装着した状態では、ユーザが向いている(見ている)方向の画像を撮像することができる。   The imaging unit 101 includes a lens, an imaging element, an image processing unit, and the like, and captures still images and moving images. As shown in FIG. 2, the imaging unit 101 is provided near the end of the frame 120 (near the user's right eye). For this reason, in a state where the user wears the mounting device 10, it is possible to capture an image in a direction in which the user is facing (viewing).

表示部102は、フレーム120内部又はフレーム120近傍に設けられたプロジェクタと、プロジェクタからの投影像をユーザの目に導くためのプリズムとを有する。表示部102は、制御部111の制御の下、各種情報を表示する。なお、表示部102の表示可能範囲は、一例として、図8に示すような範囲(ユーザの実視界の右上の範囲)であるものとする。   The display unit 102 includes a projector provided in or near the frame 120 and a prism for guiding a projection image from the projector to the eyes of the user. The display unit 102 displays various information under the control of the control unit 111. Note that the displayable range of the display unit 102 is, for example, a range as shown in FIG. 8 (upper right range of the user's real field of view).

操作部103は、フレーム120に設けられたタッチパッドであり、ユーザの指の動きを検知して、ユーザからの操作を受け付け、受け付けた操作情報を制御部111に送信する。なお、撮像部101、表示部102、操作部103などについては、例えば米国公開特許2013/0044042号にもその詳細が開示されている。   The operation unit 103 is a touch pad provided on the frame 120, detects the movement of the user's finger, receives an operation from the user, and transmits the received operation information to the control unit 111. Details of the imaging unit 101, the display unit 102, the operation unit 103, and the like are also disclosed in, for example, US Published Patent No. 2013/0044042.

マイク104は、フレーム120に設けられ、ユーザが発した音声を収集する。マイク104が収集した音声は、不図示の音声認識部により音声認識され、音声認識結果は、制御部111に送信される。制御部111は、音声認識結果に基づく処理(例えば、コマンドの実行処理など)を実行する。なお、制御部111が音声認識を実行してもよい。   The microphone 104 is provided on the frame 120 and collects voices uttered by the user. The voice collected by the microphone 104 is voice-recognized by a voice recognition unit (not shown), and the voice recognition result is transmitted to the control unit 111. The control unit 111 executes processing based on the voice recognition result (for example, command execution processing). Note that the control unit 111 may perform voice recognition.

スピーカ105は、例えば、フレーム120に設けられ、制御部111の制御の下、音声を出力する音声出力装置である。なお、スピーカ105としては、イヤホンやヘッドホンのほか、指向性があり、主に装着装置10を装着するユーザの耳に向けて音声情報を提供することが可能なスピーカなどを採用することができる。   The speaker 105 is an audio output device that is provided in the frame 120 and outputs audio under the control of the control unit 111, for example. As the speaker 105, in addition to the earphone and the headphone, a speaker having directivity and capable of providing audio information mainly toward the ear of the user wearing the wearing device 10 can be employed.

方位センサ106は、たとえば地磁気に基づいて、装着装置10が向いている方向を検出する。本実施形態では、方位センサ106は、装着装置10の撮像部101が向いている方向(撮像方向)、すなわち、装着装置10を装着したユーザが向いている(見ている)方向を検出し、制御部111に出力する。   The direction sensor 106 detects the direction in which the mounting device 10 is directed, for example, based on geomagnetism. In the present embodiment, the orientation sensor 106 detects a direction (imaging direction) in which the imaging unit 101 of the mounting apparatus 10 is facing, that is, a direction in which the user wearing the mounting apparatus 10 is facing (looking), Output to the control unit 111.

瞳撮像部107は、図2に示すように、装着装置10を装着するユーザの右目近傍の位置に設けられ、制御部111の制御の下、ユーザの右目の瞳を撮像する。瞳撮像部107で撮像された画像は、制御部111に送信され、後述する虹彩認証や視線検出に用いられる。なお、瞳撮像部107は、ユーザの左目の瞳を撮像してもよい。   As shown in FIG. 2, the pupil imaging unit 107 is provided at a position near the right eye of the user wearing the mounting device 10, and images the pupil of the user's right eye under the control of the control unit 111. An image captured by the pupil imaging unit 107 is transmitted to the control unit 111 and used for iris authentication and line-of-sight detection described later. Note that the pupil imaging unit 107 may image the pupil of the user's left eye.

視線検出部108は、瞳撮像部107で撮像された画像に基づいて、装着装置10を装着したユーザの視線方向を検出する。なお、視線検出は、例えば、赤外線照射部と、赤外線受光部と、を有する装置を用いて行うこととしてもよい。この場合、赤外線照射部から眼球に対して赤外線を照射し、眼球にて反射した赤外線を赤外線受光部において受光した受光結果に基づいて、ユーザの視線方向を検出する。   The line-of-sight detection unit 108 detects the direction of the line of sight of the user wearing the mounting apparatus 10 based on the image captured by the pupil imaging unit 107. Note that the line-of-sight detection may be performed using, for example, a device having an infrared irradiation unit and an infrared light receiving unit. In this case, the user's line-of-sight direction is detected based on the light reception result of irradiating the eyeball with infrared rays from the infrared irradiation unit and receiving the infrared rays reflected by the eyeballs with the infrared light receiving unit.

人物認証部109は、瞳撮像部107で撮像された画像に基づいて、虹彩認証を行う。具体的には、人物認証部109は、ユーザの虹彩の画像とユーザの情報(ユーザID)とを関連付けて保持する虹彩認証DB(記憶部112に格納されている)と、撮像された虹彩の画像とを用いて認証を行う。なお、虹彩認証は、例えば特許第5360931号に開示されている。   The person authentication unit 109 performs iris authentication based on the image captured by the pupil imaging unit 107. Specifically, the person authentication unit 109 associates and stores an iris image of the user and user information (user ID) and stores the iris authentication DB (stored in the storage unit 112) and the captured iris. Authentication is performed using images. Note that iris authentication is disclosed in, for example, Japanese Patent No. 5360931.

通信部110は、他の機器と無線通信(携帯電話回線や無線LAN(Local Area Network)等を用いた通信)や近接通信(例えば、例えばBluetooth(登録商標)、RFID(Radio Frequency Identification)、TransferJet(登録商標))などを行う。本第1の実施形態では、通信部110は、撮像装置20との間で近接通信を行うものとする。なお、通信部110は、ユーザ(人体)を介して通信する人体通信を行ってもよい。この場合、フレーム120のユーザと接触する部分に人体通信用の電極を配置すればよい。なお、人体通信には、人体に微弱な電流を流して、その電流を変調して情報を伝達する電流方式や、人体の表面に誘起する電界を変調して情報を伝達する電界方式などがあり、いずれの方式を用いることも可能である。   The communication unit 110 wirelessly communicates with other devices (communication using a mobile phone line or a wireless local area network (LAN)) or proximity communication (for example, Bluetooth (registered trademark), RFID (Radio Frequency Identification), TransferJet, etc. (Registered trademark)). In the first embodiment, the communication unit 110 performs close proximity communication with the imaging device 20. In addition, the communication part 110 may perform human body communication which communicates via a user (human body). In this case, an electrode for human body communication may be disposed at a portion of the frame 120 that contacts the user. Human body communication includes a current method in which a weak current is passed through the human body and the current is modulated to transmit information, and an electric field method in which an electric field induced on the surface of the human body is modulated to transmit information. Any method can be used.

制御部111は、装着装置10全体を統括的に制御する。制御部111は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。制御部111が実行する処理の詳細については後述する。   The control unit 111 controls the entire mounting apparatus 10 in an integrated manner. The control unit 111 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. Details of the processing executed by the control unit 111 will be described later.

記憶部112は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、撮像部101が撮像した画像データや、表示部102に表示する表示データ、人物認証部109が利用する虹彩認証DBなどを記憶する。   The storage unit 112 is, for example, a nonvolatile semiconductor memory such as a flash memory, and stores image data captured by the imaging unit 101, display data displayed on the display unit 102, iris authentication DB used by the person authentication unit 109, and the like. Remember.

(撮像装置20)
撮像装置20は、例えば、カメラや、撮像機能を有する携帯電話、スマートフォン、タブレット型端末などである。本実施形態では、撮像装置20は、カメラであるものとして説明を行う。なお、図3(a)には、撮像装置20の正面図が、図3(b)には、撮像装置20の背面図が示されている。撮像装置20は、一眼レフカメラ、ミラーレスカメラ、およびコンパクトカメラのいずれであってもよいが、本実施形態では、図3(a)及び図3(b)に示すように、コンパクトカメラであるものとする。
(Imaging device 20)
The imaging device 20 is, for example, a camera, a mobile phone having an imaging function, a smartphone, a tablet terminal, or the like. In the present embodiment, the imaging device 20 will be described as a camera. 3A shows a front view of the imaging device 20, and FIG. 3B shows a rear view of the imaging device 20. As shown in FIG. The imaging device 20 may be any of a single-lens reflex camera, a mirrorless camera, and a compact camera, but in this embodiment, as shown in FIGS. 3A and 3B, it is a compact camera. Shall.

撮像装置20は、図1及び図3(a)、図3(b)に示すように、撮像部201、表示部202、操作部203、マイク204、スピーカ205、記憶部206、通信部207、方位センサ208、指紋センサ209、人物認証部210、レンズ駆動部212、焦点検出部213、及び制御部211を備える。   As shown in FIGS. 1, 3A, and 3B, the imaging device 20 includes an imaging unit 201, a display unit 202, an operation unit 203, a microphone 204, a speaker 205, a storage unit 206, a communication unit 207, An azimuth sensor 208, a fingerprint sensor 209, a person authentication unit 210, a lens driving unit 212, a focus detection unit 213, and a control unit 211 are provided.

撮像部201は、レンズ、撮像素子、画像処理部などを備え、静止画や動画を撮像するものである。   The image capturing unit 201 includes a lens, an image sensor, an image processing unit, and the like, and captures still images and moving images.

表示部202は、例えば、LCD(Liquid Crystal Display)であり、撮像部201のレンズと反対側の面に設けられる。表示部202は、撮像装置20に対する各種の設定情報や、撮像装置20を操作するための操作メニュー、アイコンなどを表示する。また、表示部202は、撮像部201が撮像するライブビュー画像(スルー画像)や、後述する記憶部206に記録されている静止画像や動画像を表示する。   The display unit 202 is, for example, an LCD (Liquid Crystal Display), and is provided on the surface of the imaging unit 201 opposite to the lens. The display unit 202 displays various setting information for the imaging device 20, an operation menu for operating the imaging device 20, icons, and the like. The display unit 202 displays a live view image (through image) captured by the imaging unit 201 and a still image or a moving image recorded in the storage unit 206 described later.

操作部203は、ユーザから撮像装置20に対する操作を受け付ける操作部材であって、図3(a)、図3(b)に示す、レリーズスイッチ203A、動画撮像スイッチ203B、メニュースイッチ203C、十字スイッチ(マルチセレクター)203D、削除スイッチ203E、及びズームレバー203F等を含む(図3(a),図3(b)参照)。レリーズスイッチ203Aは、上面に設けられており、例えば、静止画像の撮像を指示する場合にユーザによって操作される(押される)。動画撮像スイッチ203Bは、動画の撮像を指示する場合にユーザによって操作される(押される)。メニュースイッチ203Cは、表示部202に、撮像条件を設定するための操作メニュー等を表示させる場合にユーザによって操作される。十字スイッチ203Dは、中央部のOKスイッチと、周辺部の上下左右のスイッチとを有し、ユーザは、表示部202に表示された操作メニューから、十字スイッチ203Dを操作することによってあるメニューを選択し、撮像条件の設定を行う。削除スイッチ203Eは、撮像装置20が撮像した画像を再生する再生モードにある場合に、十字スイッチ203Dの操作により選択された画像を削除するためのスイッチである。ズームレバー203Fは、ズーム位置を変更するためのレバーであり、ユーザが、ズームレバー203Fを動かすと撮像部201内のレンズを駆動して、ズーム位置を変更する。   The operation unit 203 is an operation member that receives an operation on the imaging device 20 from a user. The operation unit 203 includes a release switch 203A, a moving image imaging switch 203B, a menu switch 203C, and a cross switch (shown in FIGS. 3A and 3B). A multi selector 203D, a deletion switch 203E, a zoom lever 203F, and the like (see FIGS. 3A and 3B). The release switch 203A is provided on the upper surface, and is operated (pressed) by the user when instructing to capture a still image, for example. The moving image capturing switch 203B is operated (pressed) by the user when instructing to capture moving images. The menu switch 203 </ b> C is operated by the user when displaying an operation menu or the like for setting imaging conditions on the display unit 202. The cross switch 203D has an OK switch at the center and up / down / left / right switches at the periphery, and the user selects a menu from the operation menu displayed on the display unit 202 by operating the cross switch 203D. Then, the imaging condition is set. The deletion switch 203E is a switch for deleting an image selected by operating the cross switch 203D when the image capturing apparatus 20 is in a reproduction mode for reproducing an image captured. The zoom lever 203F is a lever for changing the zoom position. When the user moves the zoom lever 203F, the lens in the imaging unit 201 is driven to change the zoom position.

なお、操作部203は、表示部202上に設けられ、又は表示部202内に組み込まれたタッチパネルを備えていてもよい。この場合、タッチパネルは、表示部202の表面に対するユーザの接触操作を検出し、種々の情報入力を受け付ける。すなわち、ユーザは、表示部202に表示された操作メニューやアイコンに触れる動作を行うことで、撮像装置20を操作することができる。   The operation unit 203 may include a touch panel provided on the display unit 202 or incorporated in the display unit 202. In this case, the touch panel detects a user's touch operation on the surface of the display unit 202 and receives various information inputs. That is, the user can operate the imaging device 20 by performing an operation of touching an operation menu or icon displayed on the display unit 202.

マイク204は、表示部202の反対側の面に設けられ、静止画や動画を撮影したときの音声を入力する音声入力装置である。スピーカ205は、静止画のデータや動画のデータに関連付けられている音声データに基づいて音声を出力する音声出力装置である。スピーカ205は、例えば、表示部202と同一の面に設けられる。   The microphone 204 is an audio input device that is provided on the opposite surface of the display unit 202 and inputs audio when a still image or a moving image is captured. The speaker 205 is an audio output device that outputs audio based on audio data associated with still image data or moving image data. The speaker 205 is provided on the same surface as the display unit 202, for example.

記憶部206は、例えば、撮像装置20に着脱可能な記憶媒体であるSDカードに接続するコネクタを有し、SDカードに静止画のデータや動画のデータを記憶させる。また、記憶部206は、内部メモリを有し、該内部メモリに後述する指紋認証DBを格納する。   The storage unit 206 includes, for example, a connector that is connected to an SD card that is a storage medium that can be attached to and detached from the imaging device 20, and stores still image data and moving image data in the SD card. The storage unit 206 has an internal memory, and stores a fingerprint authentication DB (to be described later) in the internal memory.

通信部207は、他の機器と無線通信(携帯電話回線や無線LAN(Local Area Network)等を用いた通信)や近接通信を行う。本実施形態では、通信部207は、装着装置10との間で近接通信を行うものとする。なお、通信部207は、他の機器との間で人体通信を行うこととしてもよい。   The communication unit 207 performs wireless communication (communication using a mobile phone line, a wireless local area network (LAN), or the like) and proximity communication with other devices. In the present embodiment, the communication unit 207 performs close proximity communication with the mounting apparatus 10. Note that the communication unit 207 may perform human body communication with other devices.

方位センサ208は、たとえば地磁気に基づいて、撮像部201が向いている方向を検出し、検出結果を制御部211に出力する。   The direction sensor 208 detects the direction in which the imaging unit 201 is directed based on, for example, geomagnetism, and outputs the detection result to the control unit 211.

指紋センサ209は、図3(a)、図3(b)に示すように、ユーザが撮像を行う際に指が触れるレリーズスイッチ203Aや動画撮像スイッチ203Bの表面に設けられる。指紋センサ209は、ユーザの指紋を検出し、検出結果を制御部211に送信する。   As shown in FIGS. 3A and 3B, the fingerprint sensor 209 is provided on the surface of the release switch 203A or the moving image pickup switch 203B that the user touches when taking an image. The fingerprint sensor 209 detects the user's fingerprint and transmits the detection result to the control unit 211.

人物認証部210は、指紋情報とユーザの情報(ユーザID)とを関連付けて記憶する指紋認証DB(記憶部206に記憶されている)と、指紋センサ209による検出結果とを用いて、ユーザ認証を行う。人物認証部210による認証結果は、制御部211に送信される。   The person authentication unit 210 performs user authentication using a fingerprint authentication DB (stored in the storage unit 206) that stores fingerprint information and user information (user ID) in association with each other and a detection result of the fingerprint sensor 209. I do. The authentication result by the person authentication unit 210 is transmitted to the control unit 211.

レンズ駆動部212は、例えばモータやアクチュエータ等を備え、フォーカシングを行うために撮像部201に含まれるレンズ(フォーカスレンズ)を駆動する。レンズ駆動部212は、制御部211により駆動制御される。   The lens driving unit 212 includes, for example, a motor and an actuator, and drives a lens (focus lens) included in the imaging unit 201 to perform focusing. The lens driving unit 212 is driven and controlled by the control unit 211.

焦点検出部213は、撮像部201に含まれる撮像素子から出力される画像信号のコントラスト値に基づいて合焦判定を行う。焦点検出部213の判定結果は、制御部211に送信される。制御部211は、例えば、図10に示す11箇所の矩形エリアの少なくとも1つを焦点検出する位置として決定し、決定した矩形エリアに対応する画像信号のコントラスト値に基づいて、オートフォーカスを実行する。なお、焦点検出部213は、コントラスト検出方式に限らず、位相差検出方式などのその他の方式を用いることとしてもよい。   The focus detection unit 213 performs in-focus determination based on the contrast value of the image signal output from the image sensor included in the imaging unit 201. The determination result of the focus detection unit 213 is transmitted to the control unit 211. For example, the control unit 211 determines at least one of 11 rectangular areas shown in FIG. 10 as a focus detection position, and executes autofocus based on the contrast value of the image signal corresponding to the determined rectangular area. . Note that the focus detection unit 213 is not limited to the contrast detection method, and other methods such as a phase difference detection method may be used.

制御部211は、撮像装置20全体を統括的に制御する。制御部211は、CPU、RAM、ROM等を備える。   The control unit 211 comprehensively controls the entire imaging apparatus 20. The control unit 211 includes a CPU, RAM, ROM, and the like.

(撮像システム100の処理)
次に、図4〜図6のフローチャートに沿って、その他図面を適宜参照しつつ、本第1の実施形態における撮像システム100の処理について詳細に説明する。
(Processing of imaging system 100)
Next, processing of the imaging system 100 in the first embodiment will be described in detail along the flowcharts of FIGS. 4 to 6 with reference to other drawings as appropriate.

図4は、装着装置10において実行される準備処理を示すフローチャートであり、図5は、撮像装置20において実行される準備処理を示すフローチャートである。図4、図5の準備処理は、装着装置10を装着したユーザによって撮像装置20が保持された場合に、連携撮影モードを実行するための通信を開始する処理である。   FIG. 4 is a flowchart showing a preparation process executed in the mounting apparatus 10, and FIG. 5 is a flowchart showing a preparation process executed in the imaging apparatus 20. The preparatory processes in FIGS. 4 and 5 are processes for starting communication for executing the cooperative shooting mode when the imaging apparatus 20 is held by the user wearing the mounting apparatus 10.

(装着装置10による準備処理)
まず、装着装置10による準備処理について、図4のフローチャートに沿って説明する。図4の処理では、装着装置10の制御部111は、ステップS10において、装着装置10がユーザによって装着されたか否かを判断する。なお、制御部111は、ユーザによって装着装置10が装着されたか否かを、例えば、フレーム120の内側に設けられた接触センサの検出結果から判断することとすればよい。ユーザが装着装置10を装着すると、制御部111は、ステップS12に移行する。
(Preparation processing by the mounting device 10)
First, the preparation process by the mounting apparatus 10 is demonstrated along the flowchart of FIG. In the process of FIG. 4, the control unit 111 of the mounting apparatus 10 determines whether or not the mounting apparatus 10 is mounted by the user in step S <b> 10. Note that the control unit 111 may determine whether or not the mounting device 10 is mounted by the user from, for example, a detection result of a contact sensor provided inside the frame 120. When the user wears the wearing device 10, the control unit 111 proceeds to step S12.

ステップS12に移行すると、制御部111は、瞳撮像部107に指示を出してユーザの瞳の画像を撮像し、撮像した画像から虹彩の画像を取得する。次いで、ステップS14では、制御部111は、人物認証部109に指示を出し、虹彩の画像を用いた認証を行わせ、該認証の結果、虹彩の画像が虹彩認証DBに含まれていたか否かを判断する。なお、虹彩認証DBは、前述したように記憶部112に格納されている、虹彩の画像とユーザの情報(ユーザID)とを関連付けて記憶するデータベースである。このステップS14の判断が否定された場合には、ステップS16に移行し、肯定された場合には、ステップS18に移行する。   In step S12, the control unit 111 instructs the pupil imaging unit 107 to capture an image of the user's pupil, and acquires an iris image from the captured image. Next, in step S14, the control unit 111 instructs the person authentication unit 109 to perform authentication using an iris image, and whether or not the iris image is included in the iris authentication DB as a result of the authentication. Judging. The iris authentication DB is a database that stores the iris image and user information (user ID) associated with each other and stored in the storage unit 112 as described above. If the determination in step S14 is negative, the process proceeds to step S16. If the determination is positive, the process proceeds to step S18.

ステップS16に移行した場合、すなわち、虹彩の画像が虹彩認証DBに含まれていなかった場合には、制御部111は、新規のユーザIDを発行し、虹彩の画像を虹彩認証DBに登録する。その後は、制御部111は、ステップS20に移行する。なお、新規のユーザIDは、ランダムに選択された英数字の組み合わせであるものとする。   When the process proceeds to step S16, that is, when the iris image is not included in the iris authentication DB, the control unit 111 issues a new user ID and registers the iris image in the iris authentication DB. Thereafter, the control unit 111 proceeds to step S20. Note that the new user ID is a combination of randomly selected alphanumeric characters.

一方、ステップS18に移行すると、制御部111は、虹彩認証DBから装着装置10を装着しているユーザのユーザIDを取得する。その後は、制御部111は、ステップS20に移行する。   On the other hand, if it transfers to step S18, the control part 111 will acquire the user ID of the user who has mounted | worn the mounting apparatus 10 from iris authentication DB. Thereafter, the control unit 111 proceeds to step S20.

ステップS16又はS18を経て、ステップS20に移行すると、制御部111は、撮像装置20からユーザIDを要求されるまで待機する。そして、撮像装置20からユーザIDを要求されたタイミングで、ステップS22に移行し、制御部111は、通信部110を介して、ユーザIDを撮像装置20に送信する。   When the process proceeds to step S20 through step S16 or S18, the control unit 111 stands by until a user ID is requested from the imaging device 20. Then, at a timing when the user ID is requested from the imaging device 20, the process proceeds to step S <b> 22, and the control unit 111 transmits the user ID to the imaging device 20 via the communication unit 110.

(撮像装置20による準備処理)
次に、撮像装置20による準備処理について、図5のフローチャートに沿って説明する。図5の処理では、撮像装置20の制御部211は、ステップS110において、指紋読み取り可能となるまで待機する。この場合、制御部211は、ユーザの指が指紋センサ209に触れるまで待機し、触れられた段階で、ステップS112に移行する。
(Preparation processing by the imaging device 20)
Next, the preparation process by the imaging device 20 will be described with reference to the flowchart of FIG. In the process of FIG. 5, the control unit 211 of the imaging device 20 waits until fingerprint reading becomes possible in step S <b> 110. In this case, the control unit 211 waits until the user's finger touches the fingerprint sensor 209, and proceeds to step S112 when the user's finger is touched.

ステップS112に移行すると、制御部211は、指紋センサ209を用いた指紋読み取りを実行する。次いで、ステップS114では、制御部211は、人物認証部210に指示を出し、指紋読み取り結果(指紋情報)が指紋認証DBに含まれていたか否かを判断する。なお、ステップS114で用いる指紋認証DBは、前述したように記憶部206に格納されている、指紋情報とユーザの情報(ユーザID)とを関連付けて記憶するデータベースである。このステップS114の判断が否定された場合には、ステップS116に移行し、肯定された場合には、ステップS118に移行する。   In step S112, the control unit 211 executes fingerprint reading using the fingerprint sensor 209. Next, in step S114, the control unit 211 issues an instruction to the person authentication unit 210, and determines whether the fingerprint reading result (fingerprint information) is included in the fingerprint authentication DB. The fingerprint authentication DB used in step S114 is a database that stores fingerprint information and user information (user ID) associated with each other and stored in the storage unit 206 as described above. If the determination in step S114 is negative, the process proceeds to step S116. If the determination is positive, the process proceeds to step S118.

ステップS116に移行した場合、すなわち、指紋情報が指紋認証DBに含まれていなかった場合には、制御部211は、仮のユーザIDを発行し、指紋情報を指紋認証DBに登録する。なお、仮のユーザIDは、ランダムに選択された英数字の組み合わせであり、前述した図4のステップS16で発行されるユーザIDとは異なるものである。その後は、制御部211は、ステップS120に移行する。   When the process proceeds to step S116, that is, when the fingerprint information is not included in the fingerprint authentication DB, the control unit 211 issues a temporary user ID and registers the fingerprint information in the fingerprint authentication DB. The temporary user ID is a combination of randomly selected alphanumeric characters and is different from the user ID issued in step S16 of FIG. 4 described above. Thereafter, the control unit 211 proceeds to step S120.

一方、ステップS118に移行すると、制御部211は、指紋認証DBから撮像装置20を装着しているユーザのユーザIDを取得する。その後は、制御部211は、ステップS120に移行する。   On the other hand, when the process proceeds to step S118, the control unit 211 acquires the user ID of the user wearing the imaging device 20 from the fingerprint authentication DB. Thereafter, the control unit 211 proceeds to step S120.

ステップS116又はS118を経て、ステップS120に移行すると、制御部211は、通信部207を介した近接通信により、装着装置10(制御部111)に対して図4のステップS16又はステップS18で取得されたユーザIDの送信を要求する。   When the process proceeds to step S120 via step S116 or S118, the control unit 211 is acquired in step S16 or step S18 of FIG. 4 from the mounting device 10 (control unit 111) by proximity communication via the communication unit 207. Request transmission of a user ID.

次いで、ステップS122では、制御部211は、装着装置10からユーザIDを受信するまで待機する。この場合、装着装置10において図4のステップS22が実行されたタイミングで、ステップS124に移行する。ステップS124に移行すると、制御部211は、装着装置10から受信したユーザIDと、ステップS116又はステップS118で受信したユーザIDとが一致するか否かを判断する。このステップS124の判断が肯定された場合、すなわち、装着装置10を装着し、撮像装置20を保持しているユーザが、登録されたユーザである場合には、ステップS126に移行する。ステップS126では、制御部211は、装着装置10との連携撮影モードを実行するための通信を開始する。なお、ステップS126では、制御部211は、通信が開始された旨を表示部202に表示してもよい。また、ステップS126では、制御部211は、制御部111を介して、通信が開始された旨を表示部102に表示してもよい。ステップS126の後は、図5の全処理を終了する。   Next, in step S <b> 122, the control unit 211 stands by until a user ID is received from the mounting apparatus 10. In this case, the process proceeds to step S124 at the timing when step S22 of FIG. If transfering it to step S124, the control part 211 will judge whether the user ID received from the mounting apparatus 10 and the user ID received by step S116 or step S118 correspond. If the determination in step S124 is affirmative, that is, if the user who wears the mounting apparatus 10 and holds the imaging apparatus 20 is a registered user, the process proceeds to step S126. In step S <b> 126, the control unit 211 starts communication for executing the cooperative shooting mode with the mounting apparatus 10. In step S126, the control unit 211 may display on the display unit 202 that communication has been started. In step S <b> 126, the control unit 211 may display on the display unit 102 that communication has been started via the control unit 111. After step S126, the entire process of FIG.

これに対し、ステップS124の判断が否定された場合、すなわち、ユーザIDが一致しなかった場合には、制御部211は、ステップS128に移行する。ステップS128に移行すると、制御部211は、装着装置10から受信したのは図4のステップS16で取得した新規のユーザIDであるか否かを判断する。ここでの判断が否定された場合、すなわち、装着装置10を装着しているユーザと撮像装置20とが異なる場合には、装着装置10との連携撮影モードを実行するための通信ができないとして、制御部211は、ステップ130において、表示部202にその旨のメッセージを表示する。なお、ステップS130では、制御部211は、制御部111を介して、メッセージを表示部102に表示してもよい。一方、ステップS128の判断が肯定された場合、すなわち、受信したユーザIDが図4のステップS16で取得した新規のユーザIDであった場合には、制御部211は、ステップS132に移行し、ステップS116で発行された仮のユーザIDを新規のユーザIDで書き換えるとともに、連携撮影モードを実行するための通信を開始する。なお、ステップS132では、制御部211は、新規のユーザIDが設定された旨や通信が開始された旨を表示部202(及び/又は表示部102)に表示してもよい。ステップS130又はS132の処理が行われた後は、図5の全処理を終了する。   On the other hand, if the determination in step S124 is negative, that is, if the user IDs do not match, the control unit 211 proceeds to step S128. In step S128, the control unit 211 determines whether or not what is received from the mounting apparatus 10 is the new user ID acquired in step S16 of FIG. If the determination here is negative, that is, if the user wearing the mounting device 10 and the imaging device 20 are different, communication for executing the cooperative shooting mode with the mounting device 10 cannot be performed. In step 130, the control unit 211 displays a message to that effect on the display unit 202. In step S <b> 130, the control unit 211 may display a message on the display unit 102 via the control unit 111. On the other hand, if the determination in step S128 is affirmative, that is, if the received user ID is the new user ID acquired in step S16 in FIG. 4, the control unit 211 proceeds to step S132, and step The temporary user ID issued in S116 is rewritten with a new user ID, and communication for executing the cooperative shooting mode is started. In step S132, the control unit 211 may display on the display unit 202 (and / or the display unit 102) that a new user ID has been set and communication has been started. After the process of step S130 or S132 is performed, the entire process of FIG.

以上のように、図4、図5の処理が行われることで、正規のユーザが装着装置10を装着し、撮像装置20を保持した場合に、連携撮影モードを実行するための通信が開始されることになる。また、新規のユーザが装着装置10を装着し、撮像装置20を保持した場合にも、新規のユーザIDを発行した後、連携撮影モードを実行するための通信が開始されることになる。   As described above, by performing the processes of FIGS. 4 and 5, when a legitimate user wears the mounting apparatus 10 and holds the imaging apparatus 20, communication for executing the cooperative shooting mode is started. Will be. Also, when a new user wears the mounting apparatus 10 and holds the imaging apparatus 20, communication for executing the cooperative shooting mode is started after issuing a new user ID.

なお、装着装置10と撮像装置20とが人体通信する場合には、図4、図5の処理を省略し、装着装置10と撮像装置20との間の人体通信が成立し、虹彩認証又は指紋認証に成功した段階で、連携撮影モードを実行するための通信を開始するようにしてもよい。なお、本実施形態では、図4、図5の処理に代えて、装着装置10と、撮像装置20との間でNFC(Near field communication:近距離無線通信)を用いたペアリングや人体通信を用いたペアリングを行った段階で、連携撮影モードを実行するための通信を開始するようにしてもよい。   Note that when the mounting device 10 and the imaging device 20 perform human body communication, the processes in FIGS. 4 and 5 are omitted, and human body communication between the mounting device 10 and the imaging device 20 is established, and iris authentication or fingerprint is performed. You may make it start the communication for performing cooperation imaging | photography mode in the step which succeeded in authentication. In this embodiment, instead of the processing of FIGS. 4 and 5, pairing or human body communication using NFC (Near field communication) is performed between the mounting apparatus 10 and the imaging apparatus 20. You may make it start the communication for performing cooperation photography mode in the stage which used the pairing.

(連携撮影処理)
次に、図6のフローチャートに沿って、本第1の実施形態の撮像システム100による連携撮影処理について説明する。なお、図6の処理の前提として、図4、図5の処理が実行されたことで、連携撮影モードを実行するための通信が開始されているものとする。また、ユーザによる操作部103又は203への入力により、装着装置10と撮像装置20とが連携撮影モードに設定されているものとする。そして、ユーザは、一例として、図7に示すように、撮像装置20を身体の前で構えているものとする。
(Cooperative shooting process)
Next, a cooperative shooting process performed by the imaging system 100 according to the first embodiment will be described with reference to the flowchart of FIG. As a premise of the processing in FIG. 6, it is assumed that communication for executing the cooperative shooting mode is started by executing the processing in FIGS. 4 and 5. Further, it is assumed that the mounting apparatus 10 and the imaging apparatus 20 are set to the cooperative shooting mode by an input to the operation unit 103 or 203 by the user. As an example, the user is assumed to hold the imaging device 20 in front of the body as shown in FIG.

図6の処理では、まず、撮像装置20の制御部211が、ステップS140において、ライブビュー画像の送信を開始する。その後は、ステップS142において、ユーザによってレリーズスイッチ203Aが半押しされるまで待機する。   In the process of FIG. 6, first, the control unit 211 of the imaging device 20 starts transmitting a live view image in step S <b> 140. Thereafter, in step S142, the process waits until the release switch 203A is half-pressed by the user.

一方、装着装置10では、制御部111は、ステップS40において、ライブビュー画像を受信するまで待機する。したがって、撮像装置20側においてステップS140の処理が行われたタイミングで、制御部111は、ステップS42に移行する。   On the other hand, in the mounting apparatus 10, the control unit 111 stands by until a live view image is received in step S40. Therefore, at the timing when the process of step S140 is performed on the imaging device 20 side, the control unit 111 proceeds to step S42.

ステップS42に移行すると、制御部111は、表示部102上にライブビュー画像を表示する。図8は、ユーザの実視界と、表示部102の表示可能範囲内に表示されているライブビュー画像の、ユーザによる見え方を示している。図8に示すように、ユーザの実視界の右上にライブビュー画像が表示される。   In step S <b> 42, the control unit 111 displays a live view image on the display unit 102. FIG. 8 shows the user's real view and how the user sees the live view image displayed within the displayable range of the display unit 102. As shown in FIG. 8, a live view image is displayed on the upper right of the user's real field of view.

次いで、ステップS44では、制御部111は、視線検出部108を介して、ユーザの視線検出を行う。この場合、視線検出部108は、ユーザが図8のライブビュー画像のどの位置を注視しているかを検出する。なお、ここでは、図9に示す円の領域をユーザが注視していたため、該円の領域をユーザが注視していた領域として検出する。   Next, in step S <b> 44, the control unit 111 detects the user's line of sight via the line-of-sight detection unit 108. In this case, the line-of-sight detection unit 108 detects which position of the live view image in FIG. 8 the user is gazing at. Here, since the user is gazing at the circle area shown in FIG. 9, the circle area is detected as the area the user is gazing at.

次いで、ステップS46では、制御部111は、撮像装置20側から半押し情報を受信したか否かを判断するが、ここでの判断が否定された場合には、ステップS44に戻り、再度ユーザの視線検出を行う。一方、ステップS46の判断が肯定された場合には、ステップS48に移行する。   Next, in step S46, the control unit 111 determines whether or not the half-press information has been received from the imaging device 20, but if the determination here is negative, the control unit 111 returns to step S44 and again the user's Perform eye gaze detection. On the other hand, if the determination in step S46 is affirmative, the process proceeds to step S48.

ところで、撮像装置20側では、ステップS140の後、ステップS142において、制御部211は、ユーザによりレリーズスイッチが半押しされるまで待機しているので、ユーザによりレリーズスイッチが半押しされると、ステップS144に移行する。   By the way, on the side of the imaging device 20, after step S140, in step S142, the control unit 211 waits until the release switch is half-pressed by the user. The process proceeds to S144.

ステップS144に移行すると、制御部211は、半押しがされたことを示す半押し情報を装着装置10の制御部111に対して送信する。このようにして、ステップS144の処理が行われると、装着装置10側では、ステップS46の判断が肯定されるので、制御部111はステップS48に移行する。ステップS48に移行すると、制御部111は、ライブビュー画像のうちユーザが注視している箇所の情報を送信する。ここでは、制御部111は、図9の円の領域の位置情報(ライブビュー画像内での座標情報)を撮像装置20の制御部211に対して送信する。なお、制御部111は、ステップS48の後は、ステップS44に戻る。   When the process proceeds to step S144, the control unit 211 transmits half-press information indicating that the press is half-pressed to the control unit 111 of the mounting apparatus 10. Thus, when the process of step S144 is performed, the determination of step S46 is affirmed on the mounting device 10 side, and the control unit 111 proceeds to step S48. If transfering it to step S48, the control part 111 will transmit the information of the location which the user is gazing in among the live view images. Here, the control unit 111 transmits position information (coordinate information in the live view image) of the circle area in FIG. 9 to the control unit 211 of the imaging device 20. Note that the control unit 111 returns to step S44 after step S48.

一方、撮像装置20側では、ステップS144の後、ステップS146において、ユーザが注視している箇所の情報を受信するまで待機しているので、装着装置10においてステップS48の処理が行われたタイミングで、制御部211はステップS148に移行する。   On the other hand, on the imaging device 20 side, after step S144, in step S146, it waits until it receives information on the location where the user is gazing, so at the timing when the processing of step S48 is performed in the mounting device 10. The control unit 211 proceeds to step S148.

ステップS148に移行すると、制御部211は、レンズ駆動部212及び焦点検出部213を制御して、ユーザが注視している箇所の情報に基づいて、合焦動作を行う。この場合、制御部211は、注視している箇所を示す円の領域に基づいて、撮像画像のどの位置にフォーカスをあわせるかを決定する。撮像部101に含まれる撮像素子においては、図10に示すように、複数(11箇所)の焦点検出を行う矩形エリアが設定されているものとする。図10において、制御部211は、例えば、注視している箇所(破線円の領域)と重なる範囲が最も大きい矩形エリア(図10において太線にて示す領域)をフォーカスを合わせる位置として決定する。なお、これに限らず、例えば、注視している箇所(円の領域)と重なる全ての矩形エリアをフォーカスを合わせる位置として決定したり、注視している箇所の中心(円の領域の中心)が含まれる矩形エリアをフォーカスを合わせる位置として決定することもできる。制御部211は、レンズ駆動部212を介してフォーカスレンズを駆動し、決定した矩形エリアに対応する画像信号のコントラスト値に基づいて、オートフォーカスを実行する。   In step S148, the control unit 211 controls the lens driving unit 212 and the focus detection unit 213, and performs a focusing operation based on the information on the location where the user is gazing. In this case, the control unit 211 determines which position of the captured image is to be focused based on a circle area indicating a gaze point. In the imaging device included in the imaging unit 101, it is assumed that a plurality of (11 places) rectangular areas for performing focus detection are set as shown in FIG. In FIG. 10, the control unit 211 determines, for example, a rectangular area (area indicated by a thick line in FIG. 10) having the largest overlapping area with a spot (dashed circle area) as a focus position. However, the present invention is not limited to this. For example, all the rectangular areas that overlap the spot (circle area) that is being watched are determined as the focus position, or the center (the center of the circle area) that is being watched is determined. The included rectangular area can also be determined as the position to be focused. The control unit 211 drives the focus lens via the lens driving unit 212 and executes autofocus based on the contrast value of the image signal corresponding to the determined rectangular area.

なお、制御部211は、決定した矩形エリアの情報(ライブビュー画像内における合焦箇所の座標情報)を装着装置10の制御部111に送信してもよい。この場合、制御部111は、図11に示すように、受信した矩形エリアの情報(合焦箇所)をライブビュー画像に重ねて表示部102に表示してもよい。このようにすることで、ユーザは、フォーカスを合わせる位置を確認した上で、画像を撮像することができるようになる。なお、図9のユーザの注視箇所の表示と図11の矩形エリア(フォーカスを合わせる位置)の表示においては、表示色などの表示形態を異ならせてもよい。   Note that the control unit 211 may transmit information on the determined rectangular area (coordinate information on the in-focus position in the live view image) to the control unit 111 of the mounting apparatus 10. In this case, as illustrated in FIG. 11, the control unit 111 may display the received rectangular area information (in-focus location) on the live view image on the display unit 102. In this way, the user can capture an image after confirming the position to be focused. Note that the display form such as the display color may be different between the display of the gaze location of the user in FIG. 9 and the display of the rectangular area (position to be focused) in FIG.

次いで、ステップS150では、制御部211は、ユーザによってレリーズスイッチ203Aが全押しされたか否かを判断する。ここでの判断が肯定された場合には、ステップS154において、制御部211は、撮像部201を用いた撮像動作を実行する。これにより、ユーザが注視していた箇所にフォーカスが合った状態で画像を撮像することができる。その後は、ステップS142に戻る。   Next, in step S150, the control unit 211 determines whether or not the release switch 203A is fully pressed by the user. If the determination here is affirmed, in step S154, the control unit 211 performs an imaging operation using the imaging unit 201. Thereby, an image can be picked up in a state in which the portion focused by the user is in focus. Thereafter, the process returns to step S142.

一方、ステップS150の判断が否定された場合には、ステップS152に移行し、制御部211は、レリーズスイッチ203Aの半押しが解除されたか否かを判断する。ここでの判断が否定された場合、すなわち、レリーズスイッチ203Aの半押しが維持されている場合には、ステップS150に戻るが、肯定された場合、すなわち、半押しが解除された場合には、ステップS142に戻る。   On the other hand, if the determination in step S150 is negative, the process proceeds to step S152, and the control unit 211 determines whether the half-press of the release switch 203A is released. If the determination here is negative, that is, if the release switch 203A is half-pressed, the process returns to step S150. If the determination is affirmative, that is, if the half-press is released, The process returns to step S142.

その後は、連携撮影モードが解除されるまで、装着装置10の制御部111は、ステップS44〜S48の処理・判断を繰り返し、撮像装置20の制御部211は、ステップS142〜S154の処理・判断を繰り返す。   Thereafter, the control unit 111 of the mounting apparatus 10 repeats the processes and determinations of steps S44 to S48 until the cooperative shooting mode is canceled, and the control unit 211 of the imaging apparatus 20 performs the processes and determinations of steps S142 to S154. repeat.

以上、詳細に説明したように、本第1の実施形態によると、表示部102は、撮像装置20が撮像したライブビュー画像をユーザの目の近傍に表示し、視線検出部108は、ライブビュー画像を表示したときのユーザの視線を検出する。そして、制御部111は、通信部110を介して視線検出部108の検出結果に応じた情報(ユーザが注視している箇所の情報)を撮像装置20に送信する。これにより、撮像装置20では、ユーザが注視している箇所の情報に基づいた合焦動作を行うことで、ユーザが注視している箇所にフォーカスを合わせた状態で画像を撮像することが可能となる。   As described above in detail, according to the first embodiment, the display unit 102 displays the live view image captured by the imaging device 20 in the vicinity of the user's eyes, and the line-of-sight detection unit 108 displays the live view. The line of sight of the user when the image is displayed is detected. Then, the control unit 111 transmits information corresponding to the detection result of the line-of-sight detection unit 108 (information on a portion being watched by the user) to the imaging device 20 via the communication unit 110. Thereby, in the imaging device 20, it is possible to capture an image in a state in which the focus is set on the location where the user is gazing by performing the focusing operation based on the information on the location where the user is gazing. Become.

また、本第1の実施形態の撮像装置20は、装着装置10から送信されてきたユーザの視線の情報に基づいて撮像を行うことで、ユーザが所望する画像を撮像することができる。   In addition, the imaging device 20 of the first embodiment can capture an image desired by the user by performing imaging based on the user's line-of-sight information transmitted from the mounting device 10.

また、本第1の実施形態では、装着装置10は、ユーザを認証する人物認証部109を備えており、撮像装置20の制御部211は、撮像装置20の人物認証部210の認証結果と、人物認証部109の認証結果が一致した場合に、連携撮影モードを実行するための通信を開始する。これにより、適切なユーザが装着装置10を装着し、撮像装置20を保持した場合に、連携撮影モードを実行することが可能となる。   In the first embodiment, the mounting apparatus 10 includes a person authentication unit 109 that authenticates a user, and the control unit 211 of the imaging apparatus 20 includes an authentication result of the person authentication unit 210 of the imaging apparatus 20, and When the authentication results of the person authentication unit 109 match, communication for executing the cooperative shooting mode is started. Accordingly, when an appropriate user wears the mounting apparatus 10 and holds the imaging apparatus 20, the cooperative shooting mode can be executed.

また、本第1の実施形態では、通信ができない場合に、表示部102又は202に、通信不可のメッセージを表示する(S130)ので、ユーザは、表示部102又は202を参照することで、連携撮影モードを実行できないことを認識することが可能となる。   In the first embodiment, when communication is not possible, a message indicating that communication is not possible is displayed on the display unit 102 or 202 (S130), so that the user can cooperate by referring to the display unit 102 or 202. It becomes possible to recognize that the shooting mode cannot be executed.

また、本第1の実施形態では、ライブビュー画像が装着装置10の表示部102に表示されるので、撮像装置20に表示部202を設けなくてもよくなる。これにより、撮像装置20の製造コストや部品点数の削減、使用電力の低減などを図ることが可能となる。   In the first embodiment, since the live view image is displayed on the display unit 102 of the mounting apparatus 10, it is not necessary to provide the display unit 202 in the imaging apparatus 20. As a result, it is possible to reduce the manufacturing cost, the number of parts, the power consumption, and the like of the imaging device 20.

なお、上記第1の実施形態では、図5のステップS124〜S132の処理・判断(装着装置10の認証結果と撮像装置20の認証結果の照合処理)を撮像装置20の制御部211が実行する場合について説明したが、これに限らず、装着装置10の制御部111が実行することとしてもよい。   In the first embodiment, the control unit 211 of the imaging device 20 executes the processing / judgment of steps S124 to S132 in FIG. 5 (the verification process of the authentication result of the mounting device 10 and the authentication result of the imaging device 20). Although the case has been described, the present invention is not limited to this, and may be executed by the control unit 111 of the mounting apparatus 10.

(変形例(その1))
ここで、上記第1の実施形態の変形例(その1)について、図12〜図14に基づいて、説明する。本変形例(その1)においては、撮像装置20の制御部211は、画像認識技術を用いて、ライブビュー画像内の主要被写体を検出する。例えば、図12に示すように、ユーザの実視界に犬が存在しており、装着装置10の表示部102の表示可能範囲にライブビュー画像として犬の画像が表示されていたとする(図6のS42)。この場合、制御部211は、画像認識技術を用いて、ライブビュー画像の中から犬の顔の範囲を検出しておく。
(Modification (Part 1))
Here, the modification (the 1) of the said 1st Embodiment is demonstrated based on FIGS. 12-14. In the present modification (No. 1), the control unit 211 of the imaging device 20 detects the main subject in the live view image using an image recognition technique. For example, as shown in FIG. 12, it is assumed that a dog exists in the user's real field of view, and a dog image is displayed as a live view image in the displayable range of the display unit 102 of the mounting apparatus 10 (FIG. 6). S42). In this case, the control unit 211 detects the range of the dog's face from the live view image using image recognition technology.

そして、ユーザがレリーズスイッチを半押しし(図6のステップS142:肯定)、装着装置10の制御部111が、ライブビュー画像のうち、ユーザが注視している箇所の情報(座標情報)を撮像装置20の制御部211に送信すると(図6のS48)、制御部211は、ユーザが注視している箇所が犬の顔の範囲内であるか否かを判断する。ここで、図13(a)に示すようにユーザが注視している箇所が犬(主要被写体)の顔の範囲内になかった場合には、ライブビュー画像を変更せずに、第1の実施形態と同様、制御部211は、合焦動作(図6のS148)や撮像動作(図6のS148)を実行する。   Then, the user presses the release switch halfway (step S142 in FIG. 6: affirmative), and the control unit 111 of the mounting apparatus 10 captures information (coordinate information) of the portion of the live view image that the user is gazing at. When transmitted to the control unit 211 of the apparatus 20 (S48 in FIG. 6), the control unit 211 determines whether or not the portion that the user is gazing is within the range of the dog's face. Here, as shown in FIG. 13 (a), when the location where the user is gazing is not within the range of the face of the dog (main subject), the first implementation is performed without changing the live view image. Similar to the embodiment, the control unit 211 performs a focusing operation (S148 in FIG. 6) and an imaging operation (S148 in FIG. 6).

一方、図13(b)に示すように、ユーザが注視している箇所が犬(主要被写体)の顔の範囲内にあった場合には、制御部211は、犬の顔を含む所定大きさ範囲をライブビュー画像から切り出し、装着装置10の制御部111に対して送信する。すなわち、制御部211は、犬の顔の拡大画像を制御部111に送信する。制御部111は、図14(a)に示すように、表示部102に表示するライブビュー画像を拡大画像に切り替え、再度、視線検出を実行する。この場合、拡大画像上で視線検出を行うため、ユーザの視線が犬の目に向けられているのか、鼻に向けられているのかなどを細かく検出することができる。したがって、撮像装置20の制御部211は、ユーザの好みに合わせて、適切なフォーカス合わせを行うことが可能となる。   On the other hand, as shown in FIG. 13B, when the portion being watched by the user is within the face range of the dog (main subject), the control unit 211 has a predetermined size including the face of the dog. The range is cut out from the live view image and transmitted to the control unit 111 of the mounting apparatus 10. That is, the control unit 211 transmits an enlarged image of the dog's face to the control unit 111. As illustrated in FIG. 14A, the control unit 111 switches the live view image displayed on the display unit 102 to an enlarged image, and executes line-of-sight detection again. In this case, since the line of sight is detected on the enlarged image, it is possible to detect in detail whether the user's line of sight is directed to the eyes of the dog or the nose. Therefore, the control unit 211 of the imaging device 20 can perform appropriate focusing according to the user's preference.

制御部211は、フォーカス合わせを行ったタイミングで、図14(b)に示すようなライブビュー画像を再度装着装置10の制御部111に送信する。この場合、制御部111は、表示部102の表示を図14(a)から図14(b)に切り替える。これにより、ユーザは、撮像装置20の撮像範囲(構図)及び合焦箇所を確認したうえで、撮像を行うことが可能となる。   The control unit 211 transmits a live view image as shown in FIG. 14B to the control unit 111 of the mounting apparatus 10 again at the timing when the focus is adjusted. In this case, the control unit 111 switches the display on the display unit 102 from FIG. 14A to FIG. 14B. Accordingly, the user can perform imaging after confirming the imaging range (composition) and the in-focus position of the imaging device 20.

なお、上記変形例(その1)では、ライブビュー画像として、最初に図12に示す画像を表示する場合について説明したが、これに限らず、最初から図14(a)に示す画像を表示するようにしてもよい。   In the modification (part 1), the case where the image shown in FIG. 12 is first displayed as the live view image has been described. However, the present invention is not limited to this, and the image shown in FIG. You may do it.

なお、ライブビュー画像から犬(主要被写体)の顔を含む所定大きさ範囲を切り出す処理は、ライブビュー画像を受信した装着装置10の制御部111が行うこととしてもよい。   The process of cutting out a predetermined size range including the face of the dog (main subject) from the live view image may be performed by the control unit 111 of the mounting apparatus 10 that has received the live view image.

(変形例(その2))
次に、上記第1の実施形態の変形例(その2)について図15に基づいて説明する。本変形例(その2)では、ライブビュー画像内に主要被写体が複数含まれている場合について説明する。
(Modification (Part 2))
Next, a modification (No. 2) of the first embodiment will be described with reference to FIG. In this modification (part 2), a case where a plurality of main subjects are included in the live view image will be described.

本変形例(その2)においては、撮像装置20の制御部211は、画像認識技術を用いて、ライブビュー画像内の複数の主要被写体を検出する。例えば、図15(a)に示すように、ユーザの実視界に犬及び猫が存在しており、装着装置10の表示部102の表示可能範囲にライブビュー画像として犬及び猫の画像が表示されていたとする(図6のS42)。この場合、制御部211は、画像認識技術を用いて、ライブビュー画像の中から犬の顔の範囲及び猫の顔の範囲を検出する。   In the second modification (part 2), the control unit 211 of the imaging device 20 detects a plurality of main subjects in the live view image by using an image recognition technique. For example, as shown in FIG. 15A, dogs and cats exist in the user's actual field of view, and images of dogs and cats are displayed as live view images in the displayable range of the display unit 102 of the wearing apparatus 10. Suppose that it was (S42 of FIG. 6). In this case, the control unit 211 detects the range of the dog's face and the range of the cat's face from the live view image using image recognition technology.

そして、ユーザがレリーズスイッチを半押した場合には、撮像装置20の制御部211は、犬の顔を含む所定大きさ範囲及び猫の顔を含む所定大きさ範囲をライブビュー画像から切り出し、装着装置10の制御部111に対して送信する。制御部111は、図15(b)に示すように、表示部102に表示するライブビュー画像を犬の顔部分の画像及び猫の顔部分の画像に切り替え、視線検出部108を介して視線検出し、視線検出結果を制御部211に送信する。この場合、制御部211は、ユーザの視線が犬の目に向けられているのか、犬の鼻に向けられているのか、猫の目に向けられているのか、猫の鼻に向けられているのか、等を細かく検出することができる。したがって、撮像装置20の制御部211は、ユーザの好みに合わせて、適切なフォーカス合わせを行うことが可能となる。   When the user presses the release switch halfway, the control unit 211 of the imaging device 20 cuts out the predetermined size range including the dog's face and the predetermined size range including the cat's face from the live view image and attaches them. It transmits to the control part 111 of the apparatus 10. As shown in FIG. 15B, the control unit 111 switches the live view image displayed on the display unit 102 to the image of the dog face and the image of the cat face, and detects the line of sight via the line of sight detection unit 108. Then, the line-of-sight detection result is transmitted to the control unit 211. In this case, the control unit 211 is directed to the cat's nose, whether the user's line of sight is directed to the dog's eyes, the dog's nose, the cat's eyes, or the like. Or the like can be detected in detail. Therefore, the control unit 211 of the imaging device 20 can perform appropriate focusing according to the user's preference.

制御部211は、フォーカス合わせを行ったタイミングで、図15(a)に示すようなライブビュー画像を再度装着装置10の制御部111に送信する。この場合、制御部111は、表示部102の表示を図15(b)から図15(a)に切り替える。これにより、ユーザは、撮像装置20の撮像範囲(構図)を確認したうえで、撮像を行うことが可能となる。   The control unit 211 transmits a live view image as illustrated in FIG. 15A to the control unit 111 of the mounting apparatus 10 again at the timing when the focus is adjusted. In this case, the control unit 111 switches the display on the display unit 102 from FIG. 15B to FIG. As a result, the user can perform imaging after confirming the imaging range (composition) of the imaging device 20.

なお、上記変形例(その2)においても、図15(a)のライブビュー画像上でユーザの視線検出を行い、ユーザの視線が、主要被写体(犬や猫の顔)に向いている場合に、図15(b)に示すような表示を行うようにしてもよい。   Note that, in the second modification as well, when the user's line of sight is detected on the live view image of FIG. 15A and the user's line of sight faces the main subject (the face of a dog or cat). The display as shown in FIG. 15B may be performed.

なお、上記第1の実施形態及び変形例では、装着装置10と撮像装置20が直接通信する場合について説明したが、これに限らず、図16に示すように、装着装置10と撮像装置20は、サーバ30を介して通信することとしてもよい。サーバ30は、制御部34と通信部32とを有する。図16のようにサーバ30を利用する場合には、例えば、図5のステップS124〜S132の処理・判断(装着装置10の認証結果と撮像装置20の認証結果の照合処理)などをサーバ30の制御部34が行うこととしてもよい。この場合、制御部34は、通信部32を介して各装置の認証結果を取得するようにすればよい。また、図16のようにサーバ30を利用する場合には、例えば、図6の処理において、ユーザが注視している箇所に基づいてフォーカス合わせを行う位置を決定する処理などをサーバ30の制御部34が行うこととしてもよい。   In the first embodiment and the modification, the case where the mounting apparatus 10 and the imaging apparatus 20 communicate directly has been described. However, the present invention is not limited thereto, and as illustrated in FIG. Communicating via the server 30 is also possible. The server 30 includes a control unit 34 and a communication unit 32. When the server 30 is used as shown in FIG. 16, for example, the processing / judgment of steps S <b> 124 to S <b> 132 (verification processing of the authentication result of the mounting device 10 and the authentication result of the imaging device 20) of FIG. It is good also as what the control part 34 performs. In this case, the control unit 34 may acquire the authentication result of each device via the communication unit 32. Further, when the server 30 is used as shown in FIG. 16, for example, in the process of FIG. 6, a process for determining a position to perform focusing based on a location where the user is gazing is performed. 34 may be performed.

なお、上記第1の実施形態では、装着装置10における人物認証においては、虹彩情報(虹彩の画像)を用いる場合について説明したが、これに限らず、その他の生体情報(例えば、網膜情報など)を用いることとしてもよい。なお、撮像装置20における人物認証においては、指紋情報を用いる場合について説明したが、これに限らず、その他の生体情報(静脈パターン)などを用いることとしてもよい。   In the first embodiment, the case where the iris information (iris image) is used in the person authentication in the mounting device 10 has been described. However, the present invention is not limited thereto, and other biological information (for example, retinal information). It is good also as using. In addition, although the case where fingerprint information is used in person authentication in the imaging device 20 has been described, the present invention is not limited thereto, and other biological information (vein pattern) may be used.

《第2の実施形態》
次に、第2の実施形態について、図17〜図23に基づいて、詳細に説明する。本第2の実施形態では、装着装置10が、図2に代えて、図17に示すような構成を有している。装着装置10を装着したユーザは、図18に示す表示可能範囲において、表示部102が投影した画像を視認できるとともに、外界像をシースルーで視認することができるようになっている。表示部102は、プロジェクタ、及びプロジェクタからの投影像をユーザの目に導くためのプリズムを有する。
<< Second Embodiment >>
Next, a second embodiment will be described in detail with reference to FIGS. In the second embodiment, the mounting apparatus 10 has a configuration as shown in FIG. 17 instead of FIG. The user wearing the mounting apparatus 10 can visually recognize the image projected by the display unit 102 and can see the external image through the see-through within the displayable range shown in FIG. The display unit 102 includes a projector and a prism for guiding a projection image from the projector to the user's eyes.

なお、本第2の実施形態では、表示部102の表示可能範囲(図18の矩形範囲)は、一例として、35mm判換算で焦点距離85mmのレンズが装着された撮像装置で撮像可能な範囲であるものとする。なお、本第2の実施形態の装着装置と同様の構成については、例えば、特開2013−200553号公報に開示されている。   In the second embodiment, the displayable range (rectangular range in FIG. 18) of the display unit 102 is, for example, a range that can be imaged by an imaging device equipped with a lens having a focal length of 85 mm in 35 mm format conversion. It shall be. In addition, about the structure similar to the mounting apparatus of the 2nd Embodiment, it is disclosed by Unexamined-Japanese-Patent No. 2013-200553, for example.

その他の装着装置10の構成及び、撮像装置20の構成等については、上述した第1の実施形態と同様となっている。   Other configurations of the mounting device 10 and the configuration of the imaging device 20 are the same as those in the first embodiment described above.

次に、図19のフローチャートに沿って、その他図面を適宜参照しつつ、本第2の実施形態における連携撮影モードでの装着装置10及び撮像装置20の処理について、詳細に説明する。なお、図19のフローチャートでは、図6の処理と異なる処理を太線枠にて示している。以下においては、図6の処理と異なる処理を中心に説明する。なお、本第2の実施形態においても、ユーザは、一例として、図7に示すように、撮像装置20を身体の前で構えているものとする。   Next, processing of the mounting apparatus 10 and the imaging apparatus 20 in the cooperative imaging mode according to the second embodiment will be described in detail along the flowchart of FIG. 19 with reference to other drawings as appropriate. In the flowchart of FIG. 19, processing different from the processing of FIG. 6 is indicated by a bold frame. In the following, a description will be given focusing on processing different from the processing in FIG. In the second embodiment, as an example, it is assumed that the user holds the imaging device 20 in front of the body as shown in FIG.

本第2の実施形態の連携撮影処理(図19)では、まず、撮像装置20の制御部211が、ライブビュー画像の送信を開始すると(ステップS140)、装着装置10の制御部111は、ステップS43Aにおいて、撮像装置20の撮影範囲を特定する。具体的には、制御部111は、装着装置10の撮像部101で撮像されている画像と、ライブビュー画像とを比較し、撮像装置20の撮影範囲がユーザの実視界のどの範囲に相当するのかを特定する。   In the cooperative shooting process (FIG. 19) of the second embodiment, first, when the control unit 211 of the imaging apparatus 20 starts transmitting a live view image (step S140), the control unit 111 of the mounting apparatus 10 performs step. In S43A, the imaging range of the imaging device 20 is specified. Specifically, the control unit 111 compares the image captured by the imaging unit 101 of the mounting apparatus 10 with a live view image, and the imaging range of the imaging apparatus 20 corresponds to which range of the user's real field of view. To identify.

次いで、ステップS43Bでは、制御部111は、撮像装置20の撮影範囲を表示部102上に表示することが可能か否かを判断する。例えば、図20に示すように、表示可能範囲内に撮像装置20の撮影範囲が含まれる場合(撮影範囲が、例えば35mm判換算で焦点距離100mmのレンズが装着された撮像装置で撮影可能な範囲である場合)には、表示部102に撮像装置20の撮影範囲を表示できるので、ステップS43Bの判断は肯定される。一方、図21(a)に示すように、表示可能範囲内に撮像装置20の撮影範囲が含まれない場合(撮影範囲が、例えば35mm判換算で焦点距離50mmのレンズが装着された撮像装置で撮影可能な範囲である場合)には、ステップS43Bの判断は否定される。なお、撮像装置20の撮影範囲の一部が表示可能範囲から外れる場合にも、ステップS43Bの判断は否定される。   Next, in step S43B, the control unit 111 determines whether or not the imaging range of the imaging device 20 can be displayed on the display unit 102. For example, as shown in FIG. 20, when the imaging range of the imaging device 20 is included in the displayable range (the imaging range is, for example, a range in which imaging can be performed with an imaging device equipped with a lens having a focal length of 100 mm in 35 mm format conversion) ), The imaging range of the imaging device 20 can be displayed on the display unit 102, so that the determination in step S43B is affirmed. On the other hand, as shown in FIG. 21A, when the imaging range of the imaging device 20 is not included in the displayable range (the imaging range is, for example, an imaging device equipped with a lens having a focal length of 50 mm in terms of 35 mm format). If it is within the range that allows photographing, the determination in step S43B is negative. Note that the determination in step S43B is also negative when part of the shooting range of the imaging device 20 is out of the displayable range.

ステップS43Bの判断が肯定され、ステップS43Cに移行すると、制御部111は、撮像装置20の撮影範囲が所定大きさよりも小さいか否かを判断する。なお、所定大きさとは、例えば、面積にして、表示部102の表示可能範囲の半分又は1/3程度の大きさであるものとする。ここでの判断が否定された場合、すなわち、撮像装置20の撮影範囲が所定大きさ以上である場合には、ステップS43Dに移行し、制御部111は、撮像装置20の撮影範囲を表示部102上に表示する。例えば、表示部102の表示可能範囲内には、図20に示すように、撮像装置20の撮影範囲が表示される。   When the determination in step S43B is affirmed and the process proceeds to step S43C, the control unit 111 determines whether or not the shooting range of the imaging device 20 is smaller than a predetermined size. Note that the predetermined size is, for example, an area, which is about half or 1/3 of the displayable range of the display unit 102. If the determination here is negative, that is, if the imaging range of the imaging device 20 is greater than or equal to a predetermined size, the process proceeds to step S43D, and the control unit 111 displays the imaging range of the imaging device 20 on the display unit 102. Display above. For example, within the displayable range of the display unit 102, the shooting range of the imaging device 20 is displayed as shown in FIG.

次いで、ステップS44では、制御部111は、視線検出部108を介して、ユーザの視線検出を行う。この場合、視線検出部108は、ユーザが図20の撮像装置20の撮影範囲内のどの位置を注視しているかを検出する。なお、ここでは、図20に示す円の領域をユーザが注視していたため、該円の領域をユーザが注視していた箇所として検出する。そして、次のステップS46では、制御部111は、撮像装置20側から半押し情報を受信したか否かを判断するが、ここでの判断が否定された場合には、ステップS43Bに戻る。   Next, in step S <b> 44, the control unit 111 detects the user's line of sight via the line-of-sight detection unit 108. In this case, the line-of-sight detection unit 108 detects which position in the imaging range of the imaging device 20 in FIG. Here, since the user is gazing at the circle area shown in FIG. 20, the circle area is detected as a place where the user is gazing. Then, in the next step S46, the control unit 111 determines whether or not half-press information has been received from the imaging device 20 side. If the determination here is negative, the control unit 111 returns to step S43B.

一方、図21(a)に示すように、撮像装置20の撮影範囲を表示できず、ステップS43Bの判断が否定された場合には、ステップS43Eに移行する。ステップS43Eでは、制御部111は、図21(b)に示すようにライブビュー画像を表示部102上に表示する。そして、ステップS44では、制御部111は、視線検出部108を介して、ユーザの視線検出を行う。この場合、視線検出部108は、ユーザが図21(b)のライブビュー画像のどの位置を注視しているかを検出する。なお、ここでは、図21(b)に示す円の領域をユーザが注視していたため、該円の領域をユーザが注視していた箇所として検出する。   On the other hand, as shown to Fig.21 (a), when the imaging | photography range of the imaging device 20 cannot be displayed and determination of step S43B is denied, it transfers to step S43E. In step S43E, the control unit 111 displays a live view image on the display unit 102 as shown in FIG. In step S <b> 44, the control unit 111 detects the user's line of sight via the line-of-sight detection unit 108. In this case, the line-of-sight detection unit 108 detects which position of the live view image in FIG. Here, since the user is gazing at the circle area shown in FIG. 21B, the circle area is detected as a place where the user is gazing.

また、図22(a)に示すように、撮像装置20の撮影範囲が所定大きさよりも小さく、ステップS43Cの判断が肯定された場合にも、制御部111は、ステップS43Eに移行する。ステップS43Eでは、制御部111は、図22(b)に示すようにライブビュー画像を表示部102上に表示する。この場合、ライブビュー画像が拡大表示された状態となる。そして、ステップS44では、制御部111は、視線検出部108を介して、ユーザの視線検出を行う。この場合、視線検出部108は、ユーザが図22(b)のライブビュー画像のどの位置を注視しているかを検出する。なお、ここでは、図22(b)に示す円の領域をユーザが注視していたため、該円の領域をユーザが注視していた箇所として検出する。   In addition, as illustrated in FIG. 22A, also when the shooting range of the imaging device 20 is smaller than the predetermined size and the determination in step S43C is affirmed, the control unit 111 proceeds to step S43E. In step S43E, the control unit 111 displays the live view image on the display unit 102 as shown in FIG. In this case, the live view image is in an enlarged display state. In step S <b> 44, the control unit 111 detects the user's line of sight via the line-of-sight detection unit 108. In this case, the line-of-sight detection unit 108 detects which position of the live view image in FIG. Here, since the user is gazing at the circle area shown in FIG. 22B, the circle area is detected as a place where the user is gazing.

図19のその他の処理は、第1の実施形態(図6)と同様となっている。   Other processes in FIG. 19 are the same as those in the first embodiment (FIG. 6).

以上、詳細に説明したように、本第2の実施形態によると、図17に示すような装着装置10を用いた場合でも、第1の実施形態と同様の効果を得ることができる。また、本第2の実施形態では、撮像装置20の撮影範囲を見やすく表示することができるため、ユーザは、撮影範囲を容易に認識することができる。また、ライブビュー画像を大きく表示することで、視線検出の精度を向上することも可能である。   As described above in detail, according to the second embodiment, even when the mounting apparatus 10 as shown in FIG. 17 is used, the same effect as that of the first embodiment can be obtained. In the second embodiment, since the shooting range of the imaging device 20 can be displayed in an easily viewable manner, the user can easily recognize the shooting range. In addition, it is possible to improve the accuracy of line-of-sight detection by displaying a large live view image.

なお、上記第2の実施形態では、図22(a)のように撮像装置20の撮影範囲が所定大きさよりも小さい場合に、図22(b)に示すようにライブビュー画像を表示部102上に拡大表示する場合について説明したが、これに限られるものではない。例えば、図22(a)のように、撮像装置20の撮影範囲を表示部102上に表示するようにしてもよい。   In the second embodiment, when the shooting range of the imaging apparatus 20 is smaller than a predetermined size as shown in FIG. 22A, the live view image is displayed on the display unit 102 as shown in FIG. Although the case of enlarging the display has been described, the present invention is not limited to this. For example, as shown in FIG. 22A, the shooting range of the imaging device 20 may be displayed on the display unit 102.

なお、上記第1、第2の実施形態では、装着装置10に表示部102が設けられている場合について説明したが、これに限らず、例えば、表示部102に代えて、コンタクトレンズ型の表示装置をユーザが装着するようにしてもよい。この場合、表示装置の表示範囲は、ユーザの実視野をほぼカバーすることができるので、図23に示すように、撮像装置20の撮影範囲が広い場合(撮影範囲が、例えば35mm判換算で焦点距離21mmのレンズが装着された撮像装置で撮影可能な範囲である場合)でも、撮像装置20の撮影範囲を表示することが可能となる。なお、図23の場合でも、撮像装置20の撮影範囲が所定大きさよりも小さい場合には、図22(a)と同様、ライブビュー画像を拡大表示し、視線検出を行うようにしてもよい。   In the first and second embodiments, the case where the display unit 102 is provided in the mounting apparatus 10 has been described. However, the present invention is not limited to this. For example, instead of the display unit 102, a contact lens type display is provided. The device may be worn by the user. In this case, the display range of the display device can almost cover the real field of view of the user. Therefore, as shown in FIG. 23, when the imaging range of the imaging device 20 is wide (the imaging range is, for example, a focal point in 35 mm format conversion). Even in the case where the image is captured by an imaging device equipped with a lens having a distance of 21 mm, the imaging range of the imaging device 20 can be displayed. Even in the case of FIG. 23, when the shooting range of the imaging device 20 is smaller than the predetermined size, the live view image may be enlarged and the line of sight may be detected as in FIG.

なお、上記第1、第2の実施形態では、例えば、装着装置10の撮像部101により撮像された画像を表示部102に表示し、表示部102に表示された画像のうちユーザがどの位置を注視したかを検出することとしてよい。   In the first and second embodiments, for example, an image captured by the imaging unit 101 of the mounting apparatus 10 is displayed on the display unit 102, and the position of the user among the images displayed on the display unit 102 is displayed. It may be detected whether or not the user is gazing.

なお、上記第1、第2の実施形態の装着装置10において、表示部102を右目及び左目に対応して2つ設け、一方に撮像装置20のライブビュー画像、他方に装着装置10の撮像部101で撮像された画像を表示させることとしてもよい。そして、視線検出(S44)の際には、ユーザがいずれか一方の目で(片目をつぶった状態で)画像のどの位置を注視したかを検出するようにしてもよい。   In the mounting device 10 of the first and second embodiments, two display units 102 are provided corresponding to the right eye and the left eye, one of which is a live view image of the imaging device 20, and the other is an imaging unit of the mounting device 10. The image captured at 101 may be displayed. Then, at the time of line-of-sight detection (S44), it may be detected which position of the image the user gazes with either one eye (with one eye closed).

なお、上記第2の実施形態では、撮像装置20のライブビュー画像を装着装置10に送信し、装着装置10がライブビュー画像に基づいて撮像装置20の撮影範囲を特定し、表示する場合について説明したが、これに限られるものではない。例えば、撮像装置20の焦点距離の情報を装着装置10に送信し、装着装置10が受信した焦点距離の情報に基づいて撮像装置20の撮影範囲を特定し、表示することとしてもよい。   In the second embodiment, the case where the live view image of the imaging device 20 is transmitted to the mounting device 10 and the mounting device 10 specifies and displays the shooting range of the imaging device 20 based on the live view image will be described. However, it is not limited to this. For example, information on the focal length of the imaging device 20 may be transmitted to the mounting device 10, and the shooting range of the imaging device 20 may be specified and displayed based on the focal length information received by the mounting device 10.

≪第3の実施形態≫
次に、第3の実施形態に係る撮像システムについて、図24〜図26に基づいて説明する。なお、本第3の実施形態の撮像システムの構成は、第1,2の実施形態(図1)と同様であるので、説明は省略するものとする。
<< Third Embodiment >>
Next, an imaging system according to a third embodiment will be described with reference to FIGS. Note that the configuration of the imaging system of the third embodiment is the same as that of the first and second embodiments (FIG. 1), and the description thereof will be omitted.

(連携撮影処理)
以下、本第3の実施形態の撮像システムにより実行される連携撮影処理について、図24のフローチャートに沿って説明する。なお、本実施形態では、第2の実施形態と同様の装着装置10を装着したユーザは、図25(a)に示すように、身体の前で撮像装置20を構えた状態で、図25(b)に示すように撮像装置20の姿勢(撮像方向)を変更するものとする。なお、図24の処理が行われる前提として、図4、図5の準備処理が行われ、装着装置10と撮像装置20との間における連携撮影モードを実行するための通信が開始されているものとする。なお、表示部102に代えて、コンタクトレンズ型の表示装置をユーザが装着することとしてもよい。
(Cooperative shooting process)
Hereinafter, the cooperative shooting process executed by the imaging system of the third embodiment will be described with reference to the flowchart of FIG. In this embodiment, a user wearing the same mounting apparatus 10 as in the second embodiment holds the imaging apparatus 20 in front of the body as shown in FIG. Assume that the posture (imaging direction) of the imaging device 20 is changed as shown in b). As a premise for performing the processing of FIG. 24, the preparation processing of FIGS. 4 and 5 is performed, and communication for executing the cooperative shooting mode between the mounting device 10 and the imaging device 20 is started. And Note that instead of the display unit 102, a user may wear a contact lens type display device.

図24の処理では、撮像装置20の制御部211は、ステップS160において、ユーザから連携撮影モードの設定要求があるまで待機する。同様に、装着装置10の制御部111は、ステップS60において、ユーザから連携撮影モードの設定要求があるまで待機する。この場合、ユーザから連携撮影モードの設定要求が操作部103や203から入力されると、ステップS162及びS62に移行する。   In the process of FIG. 24, the control unit 211 of the imaging device 20 stands by in step S <b> 160 until there is a request for setting the cooperative shooting mode from the user. Similarly, in step S60, the control unit 111 of the mounting apparatus 10 stands by until a user requests to set the cooperative shooting mode. In this case, when a setting request for the cooperative shooting mode is input from the operation unit 103 or 203 by the user, the process proceeds to steps S162 and S62.

ステップS162では、制御部211は、装着装置10の制御部111に対するライブビュー画像の送信を開始する。一方、装着装置10では、制御部111は、ステップS62において撮像装置20側からライブビュー画像を受信するまで待機しているので、撮像装置20側においてステップS162が実行されたタイミングで、ステップS64に移行する。   In step S <b> 162, the control unit 211 starts transmitting a live view image to the control unit 111 of the mounting apparatus 10. On the other hand, in the mounting device 10, the control unit 111 stands by until a live view image is received from the imaging device 20 side in step S 62, so that the process proceeds to step S 64 at the timing when step S 162 is executed on the imaging device 20 side. Transition.

ステップS64に移行すると、制御部111は、表示部102にライブビュー画像の表示を開始し、次のステップS66において、連携撮影モード開始メッセージを表示部102に表示する。なお、ステップS64とステップS66の順番は逆であってもよい。ここで、連携撮影モード開始メッセージを見たユーザは、図25(b)に示すように、撮像装置20の撮像方向を変更する動作(往復動作)を開始するものとする。なお、ライブビュー画像は、撮像装置20側から送信され続けるため、ユーザが撮像装置20の撮像方向を変更している間も、表示部102のライブビュー画像は更新され続ける。図26(a)、図26(b)には、ユーザが撮像方向を変更している間に表示部102に表示されるライブビュー画像の一例が示されている。   In step S64, the control unit 111 starts displaying the live view image on the display unit 102, and displays a cooperative shooting mode start message on the display unit 102 in the next step S66. Note that the order of step S64 and step S66 may be reversed. Here, it is assumed that the user who sees the cooperative shooting mode start message starts an operation (reciprocating operation) of changing the imaging direction of the imaging device 20 as illustrated in FIG. Since the live view image is continuously transmitted from the imaging device 20 side, the live view image on the display unit 102 is continuously updated while the user changes the imaging direction of the imaging device 20. FIG. 26A and FIG. 26B show an example of a live view image displayed on the display unit 102 while the user changes the imaging direction.

次いで、ステップS68では、制御部111は、ユーザによる所定の動作を検出するまで待機する。ここでの所定の動作とは、ユーザが撮像を実行すべきと判断した場合に行う予め定めた動作であり、例えば、所定回数のまばたきなどであるものとする。ユーザは、ライブビュー画像を見て、撮像したい構図になったタイミング(例えば、図26(b)に示すような構図になったタイミング)で、所定回数のまばたきを実行するものとする。   Next, in step S68, the control unit 111 stands by until a predetermined operation by the user is detected. The predetermined operation here is a predetermined operation performed when the user determines to perform imaging, and is assumed to be a predetermined number of blinks, for example. It is assumed that the user sees the live view image and performs blinking a predetermined number of times at the timing when the composition is desired to be captured (for example, when the composition is as shown in FIG. 26B).

制御部111は、瞳撮像部107の撮像画像からユーザが所定回数まばたきをしたことを検出した場合に、ステップS70に移行する。そして、ステップS70では、制御部111は、通信部110を介して、撮像装置20の制御部211に対して撮像指示を送信する。以上により、制御部111による図24の処理は終了する。   When the control unit 111 detects that the user has blinked a predetermined number of times from the captured image of the pupil imaging unit 107, the control unit 111 proceeds to step S70. In step S <b> 70, the control unit 111 transmits an imaging instruction to the control unit 211 of the imaging device 20 via the communication unit 110. Thus, the process of FIG. 24 by the control unit 111 ends.

一方、撮像装置20においては、ステップS162の後、ステップS164において、装着装置10側から撮像指示を受信するまで待機している。したがって、装着装置10側において前述したステップS70の処理が実行されたタイミングで、制御部211は、ステップS166に移行する。   On the other hand, in step S162, the imaging device 20 stands by until an imaging instruction is received from the mounting device 10 side in step S164. Accordingly, the control unit 211 proceeds to step S166 at the timing when the process of step S70 described above is executed on the mounting device 10 side.

ステップS166に移行すると、制御部211は、撮像指示を受信したタイミングにおける撮像装置20の撮像方向を、方位センサ208から取得する。次いで、ステップS168では、方位センサ208から検出結果(撮像方向)を取得し、現在の撮像方向がステップS166で撮像した撮像方向となるまで待機する。なお、ステップS166とステップS168の間の時間が短い場合には、ステップS166の直後にステップS168の判断は肯定されるが、ステップS166とステップS168の間の時間が長い、又はユーザが撮像装置20を動かす速度が速い場合には、ステップS166の後、撮像装置20の撮像方向がステップS166で取得した撮像方向と再度一致した段階で、ステップS168の判断は肯定されることになる。   In step S166, the control unit 211 acquires from the direction sensor 208 the imaging direction of the imaging device 20 at the timing when the imaging instruction is received. Next, in step S168, the detection result (imaging direction) is acquired from the direction sensor 208, and the process waits until the current imaging direction becomes the imaging direction imaged in step S166. If the time between step S166 and step S168 is short, the determination of step S168 is affirmed immediately after step S166, but the time between step S166 and step S168 is long, or the user takes the imaging device 20. If the speed at which the camera is moved is fast, the determination in step S168 is affirmed after step S166, when the imaging direction of the imaging device 20 again matches the imaging direction acquired in step S166.

ステップS168の判断が肯定された場合、ステップS170に移行し、制御部211は、撮像部201に指示を出し、画像を撮像する。これにより、撮像部201は、図26(b)のようなユーザが撮像したい画像を撮像することができる。以上により、制御部211による図24の全処理が終了する。   When determination of step S168 is affirmed, it transfers to step S170 and the control part 211 gives an instruction | indication to the imaging part 201, and images. Accordingly, the imaging unit 201 can capture an image that the user wants to capture as illustrated in FIG. Thus, the entire process of FIG. 24 by the control unit 211 is completed.

その後は、制御部111,211は、図24の処理を繰り返してもよいし、連携撮影モードが解除されるまで、ステップS64以降及びステップS164以降の処理を繰り返してもよい。   Thereafter, the control units 111 and 211 may repeat the processing of FIG. 24, or may repeat the processing after step S64 and the processing after step S164 until the cooperative shooting mode is canceled.

以上、詳細に説明したように、本第3の実施形態によると、表示部102が、撮像装置20の撮像部201が撮像したライブビュー画像をユーザの目の近傍に表示し、制御部111は、瞳撮像部107の撮像結果に基づいて、ユーザの特定の動作(例えば所定回数のまばたき)を検出する。そして、制御部111は、通信部110を介して、ユーザの特定の動作を検出したタイミングに応じた情報(撮像指示)を撮像装置20に対して送信する。これにより、本実施形態では、ユーザがライブビュー画像を見て適切な撮像方向であると判断した場合に、特定の動作を行うことで、制御部111から撮像装置20に対して撮像指示が送信されるので、撮像装置20においては、適切な撮像方向の画像を撮像することが可能となる。これにより、ユーザは、撮像装置20の表示部202を見ながらレリーズスイッチ203Aを押すという動作を行わなくても、適切な撮像方向の画像撮像することができるため、表示部202を見づらい場合や、レリーズスイッチ203Aを押しづらい場合などにおいて、撮像装置20の使い勝手を向上することができる。   As described above in detail, according to the third embodiment, the display unit 102 displays the live view image captured by the imaging unit 201 of the imaging device 20 in the vicinity of the user's eyes, and the control unit 111 Based on the imaging result of the pupil imaging unit 107, the user's specific action (for example, a predetermined number of blinks) is detected. And the control part 111 transmits the information (imaging instruction | indication) according to the timing which detected a user's specific operation | movement via the communication part 110 with respect to the imaging device 20. FIG. Accordingly, in the present embodiment, when the user views the live view image and determines that the image capturing direction is appropriate, an image capturing instruction is transmitted from the control unit 111 to the image capturing device 20 by performing a specific operation. Therefore, the imaging device 20 can capture an image in an appropriate imaging direction. Accordingly, the user can take an image in an appropriate imaging direction without performing an operation of pressing the release switch 203A while looking at the display unit 202 of the imaging device 20, and thus it is difficult to see the display unit 202, When it is difficult to press the release switch 203A, the usability of the imaging device 20 can be improved.

また、本第3の実施形態の撮像装置20は、装着装置10から送信されてきたユーザの特定の動作を検出したタイミングに応じた情報に基づいて撮像を行うことで、ユーザが所望する画像を撮像することができる。   In addition, the imaging device 20 of the third embodiment captures an image desired by the user by performing imaging based on information according to the timing at which the user's specific operation transmitted from the mounting device 10 is detected. An image can be taken.

また、本第3の実施形態においては、撮像装置20に表示部202を設けなくてもよくなるため、撮像装置20の製造コストや部品点数の削減、使用電力の低減などを図ることが可能となる。   In the third embodiment, the display unit 202 does not have to be provided in the imaging apparatus 20, and therefore it is possible to reduce the manufacturing cost, the number of parts, and the power consumption of the imaging apparatus 20. .

なお、上記第3の実施形態では、制御部111は、撮像装置20の撮像方向を変化させるユーザの所定の動作を検出した場合に、撮像指示を制御部211に対して送信する場合について説明したが、これに限られるものではない。例えば、制御部111は、撮像装置20の撮像倍率をテレとワイドとの間で変化させているユーザが所定の動作を行ったことを検出した場合に、撮像指示を制御部211に対して送信するようにしてもよい。これにより、ユーザが表示部102においてライブビュー画像を見ながら、適切な撮像倍率になったと判断したときに所定の動作を行うことで、撮像装置20では、適切な撮像倍率での撮像が行われることになる。   In the third embodiment, the case where the control unit 111 transmits an imaging instruction to the control unit 211 when detecting a user's predetermined operation that changes the imaging direction of the imaging device 20 has been described. However, it is not limited to this. For example, the control unit 111 transmits an imaging instruction to the control unit 211 when detecting that a user who changes the imaging magnification of the imaging device 20 between tele and wide has performed a predetermined operation. You may make it do. Accordingly, when the user determines that the appropriate imaging magnification is obtained while viewing the live view image on the display unit 102, the imaging device 20 performs imaging at an appropriate imaging magnification. It will be.

なお、上記第3の実施形態では、制御部111は、ユーザの所定の動作として、所定回数のまばたきを検出する場合について説明したが、これに限らず、その他の目の動作を検出するようにしてもよい。その他の目の動作としては、瞳孔の変化等を採用することができる。また、制御部111は、目以外の動作(例えば、操作部103に対する入力動作)を検出してもよい。   In the third embodiment, the control unit 111 detects a predetermined number of blinks as the user's predetermined operation. However, the control unit 111 is not limited to this and detects other eye operations. May be. As other eye movements, changes in the pupil and the like can be employed. The control unit 111 may detect an operation other than the eyes (for example, an input operation to the operation unit 103).

なお、上記第3の実施形態では、ユーザが撮像装置20の撮像方向を変更する場合について説明したが、これに限られるものではない。例えば、図27に示すように、撮像装置20を保持し、撮像装置20の撮像方向を所定角度範囲で変更可能な駆動機構42を有する保持装置40(三脚や雲台など)を用いてもよい。この場合、ユーザが撮像装置20から離れた位置にいても、ユーザは、撮像装置20が所望の撮像方向を撮像したときに所定の動作を行うことで、所望の撮像方向の画像を簡易に撮像することが可能となる。   In the third embodiment, the case where the user changes the imaging direction of the imaging device 20 has been described. However, the present invention is not limited to this. For example, as shown in FIG. 27, a holding device 40 (such as a tripod or a pan head) that holds the imaging device 20 and has a drive mechanism 42 that can change the imaging direction of the imaging device 20 within a predetermined angle range may be used. . In this case, even when the user is away from the imaging device 20, the user can easily capture an image in the desired imaging direction by performing a predetermined operation when the imaging device 20 captures the desired imaging direction. It becomes possible to do.

なお、本第3の実施形態においても、第1の実施形態と同様、図16のようなサーバ30を含む構成を採用してもよい。この場合、図24の処理の一部をサーバ30の制御部34が行ってもよい。   Also in the third embodiment, a configuration including the server 30 as shown in FIG. 16 may be adopted as in the first embodiment. In this case, the control unit 34 of the server 30 may perform part of the processing of FIG.

≪第4の実施形態≫
次に、第4の実施形態に係る撮像システムについて、図28〜図30に基づいて説明する。なお、本第4の実施形態の撮像システムの構成は、第1の実施形態(図1)と同様であるので、説明は省略するものとする。
<< Fourth Embodiment >>
Next, an imaging system according to a fourth embodiment will be described with reference to FIGS. Note that the configuration of the imaging system of the fourth embodiment is the same as that of the first embodiment (FIG. 1), and the description thereof will be omitted.

(連携撮影処理)
以下、本第4の実施形態の撮像システムにより実行される連携撮影処理について、図28のフローチャートに沿って説明する。なお、本実施形態では、装着装置10を装着したユーザは、図7のように、身体の前で撮像装置20を構えるものとする。ただし、本第4の実施形態では、表示部102の表示可能範囲は、図23で説明したのと同様、ユーザの実視野の範囲とほぼ同一の範囲であるものとする。なお、表示部102に代えて、コンタクトレンズ型の表示装置をユーザが装着することとしてもよい。なお、図28の処理が行われる前提として、図4、図5の準備処理が行われ、装着装置10と撮像装置20との間における連携撮影モードを実行するための通信が開始されているものとする。
(Cooperative shooting process)
Hereinafter, the cooperative shooting process executed by the imaging system of the fourth embodiment will be described with reference to the flowchart of FIG. In the present embodiment, it is assumed that the user wearing the mounting device 10 holds the imaging device 20 in front of the body as shown in FIG. However, in the fourth embodiment, it is assumed that the displayable range of the display unit 102 is substantially the same as the range of the user's real visual field, as described with reference to FIG. Note that instead of the display unit 102, a user may wear a contact lens type display device. As a premise that the process of FIG. 28 is performed, the preparation process of FIGS. 4 and 5 is performed, and communication for executing the cooperative shooting mode between the mounting apparatus 10 and the imaging apparatus 20 is started. And

図28の処理では、撮像装置20の制御部211は、ステップS180において、ユーザから連携撮影モードの設定要求があるまで待機する。同様に、装着装置10の制御部111は、ステップS80において、ユーザから連携撮影モードの設定要求があるまで待機する。この場合、ユーザから連携撮影モードの設定要求が操作部103や203に入力されると、ステップS182及びS82に移行する。   In the process of FIG. 28, the control unit 211 of the imaging device 20 stands by in step S <b> 180 until there is a request for setting the cooperative shooting mode from the user. Similarly, in step S80, the control unit 111 of the mounting apparatus 10 stands by until a user requests to set the cooperative shooting mode. In this case, when a setting request for the cooperative shooting mode is input from the user to the operation unit 103 or 203, the process proceeds to steps S182 and S82.

装着装置10では、ステップS82において、制御部111は、撮影したい範囲の中心を見るよう表示部102上にメッセージを表示する。例えば、表示部102には、“撮影したい箇所を一定時間注視してください”などのメッセージを表示する。次いで、ステップS84では、制御部111は、瞳撮像部107の画像に基づいてユーザの視線が定まるまで待機する。ユーザの視線が定まると、ステップS86に移行し、制御部111は、瞳撮像部107、視線検出部108を介してユーザの視線検出を行う。   In the mounting apparatus 10, in step S <b> 82, the control unit 111 displays a message on the display unit 102 so as to see the center of the range to be photographed. For example, the display unit 102 displays a message such as “Please watch the part you want to shoot for a certain period of time”. Next, in step S84, the control unit 111 stands by until the user's line of sight is determined based on the image of the pupil imaging unit 107. When the user's line of sight is determined, the process proceeds to step S <b> 86, and the control unit 111 detects the user's line of sight via the pupil imaging unit 107 and the line of sight detection unit 108.

次いで、ステップS88では、制御部111は、ステップS86の視線検出結果に基づいて、ユーザが撮影したい範囲の中心を表示部102に表示する。具体的には、図29(a)に示すように、ユーザが撮影したい範囲の中心を十字印で表示する。なお、十字印は、ユーザが見ている風景の上に重なるように(重畳して)表示される。ここで、ユーザが顔を動かすと、風景と十字印との位置関係がズレてしまう。したがって、制御部111は、方位センサ106の検出結果からユーザの顔が所定以上動いたことを検出した場合には、ステップS82からやり直すようにしてもよい。   Next, in step S88, the control unit 111 displays the center of the range that the user wants to shoot on the display unit 102 based on the line-of-sight detection result in step S86. Specifically, as shown in FIG. 29A, the center of the range that the user wants to shoot is displayed with a cross mark. The cross mark is displayed so as to overlap (superimpose) on the scenery the user is viewing. Here, when the user moves his / her face, the positional relationship between the landscape and the cross mark shifts. Therefore, when it is detected from the detection result of the azimuth sensor 106 that the user's face has moved more than a predetermined amount, the control unit 111 may start over from step S82.

次いで、ステップS90では、制御部111は、撮像装置20に撮像可能範囲の送信を要求する。   Next, in step S90, the control unit 111 requests the imaging device 20 to transmit an imageable range.

一方、撮像装置20では、ステップS180が肯定された後、制御部211は、撮像可能範囲の送信要求が撮像装置20からあるまで(ステップS182が肯定されるまで)、あるいは撮像指示が撮像装置20から送信されてくるまで(ステップS186が肯定されるまで)待機している。したがって、装着装置10側においてステップS90の処理が行われたタイミングで、ステップS182の判断が肯定され、ステップS184に移行する。   On the other hand, in step S <b> 180 in the imaging device 20, the control unit 211 determines that an imaging request is transmitted from the imaging device 20 (until step S <b> 182 is affirmed) or an imaging instruction is received from the imaging device 20. Until it is transmitted (until step S186 is affirmed). Therefore, the determination of step S182 is affirmed at the timing when the process of step S90 is performed on the mounting device 10, and the process proceeds to step S184.

ステップS184に移行すると、制御部211は、撮像部201の撮像可能範囲を送信する。具体的には、撮像部201によって撮像されているライブビュー画像を装着装置10の制御部111に送信する。   In step S184, the control unit 211 transmits the imageable range of the imaging unit 201. Specifically, the live view image captured by the imaging unit 201 is transmitted to the control unit 111 of the mounting apparatus 10.

ところで、装着装置10側では、ステップS90の後、ステップS92において、撮像可能範囲を受信するまで待機している。したがって、撮像装置20側においてステップS184の処理が実行されたタイミングで、制御部111は、ステップS94に移行する。   By the way, on the mounting device 10 side, after step S90, in step S92, it is on standby until an imageable range is received. Accordingly, the control unit 111 proceeds to step S94 at the timing when the process of step S184 is executed on the imaging device 20 side.

ステップS94に移行すると、制御部111は、撮像可能範囲を表示する。具体的には、制御部111は、撮像部101で撮像されている画像(視野画像)を取得し、該画像と、ステップS92で受信した撮像可能範囲(ライブビュー画像)とを比較することで、撮像可能範囲がユーザの視界のどの範囲に相当するかを算出する。そして、制御部111は、算出した範囲の枠を、撮像可能範囲として表示部102に表示する。この場合、表示部102には、図29(b)に示すように、ステップS88で表示された撮影したい範囲の中心(十字印)と、撮像可能範囲を示す枠と、撮像可能範囲の中心(×印)とがユーザが見ている風景の上に重なるように(重畳して)表示される。   In step S94, the control unit 111 displays the imageable range. Specifically, the control unit 111 acquires an image (field-of-view image) captured by the imaging unit 101, and compares the image with the imageable range (live view image) received in step S92. Then, it is calculated which range of the user's field of view the imageable range corresponds to. Then, the control unit 111 displays the calculated range frame on the display unit 102 as an imageable range. In this case, as shown in FIG. 29B, the display unit 102 displays the center (cross mark) of the range desired to be captured displayed in step S88, a frame indicating the imageable range, and the center of the imageable range ( Are displayed so as to overlap (superimpose) on the scenery the user is viewing.

ユーザは、表示部102の表示(図29(b)の表示)を見ることで、撮影したい範囲の中心(十字印)と撮像可能範囲の中心(×印)とを合わせるように、撮像装置20の撮像方向を変更することができる。   The user looks at the display on the display unit 102 (the display in FIG. 29B), so that the center (cross mark) of the range to be photographed matches the center (× mark) of the imageable range. The imaging direction can be changed.

ステップS94の後は、制御部111は、ステップS96に移行し、撮影可能範囲と撮影したい範囲の中心とが一致したか、すなわち十字印と×印とが一致したか否かを判断する。ここでの判断が否定された場合には、ステップ90に戻り、ステップS96の判断が肯定されるまで、ステップS90〜S96の処理・判断を繰り返す。このステップS90〜S96の繰り返しの間、ユーザが撮像装置20の撮像方向を変更すれば、表示部102上で撮像可能範囲が移動する。また、ユーザが撮像装置20の撮像倍率を変更すれば、表示部102上で撮像可能範囲の大きさが変更される。   After step S94, the control unit 111 proceeds to step S96, and determines whether the shootable range matches the center of the range to be shot, that is, whether the cross mark and the x mark match. If the determination is negative, the process returns to step 90, and the processes and determinations of steps S90 to S96 are repeated until the determination of step S96 is affirmed. If the user changes the imaging direction of the imaging device 20 during the repetition of steps S90 to S96, the imageable range moves on the display unit 102. If the user changes the imaging magnification of the imaging device 20, the size of the imageable range on the display unit 102 is changed.

そして、ユーザによる撮像装置20の撮像方向の変更により、図30(a)に示すように、撮像可能範囲の中心と撮影したい範囲の中心とが一致した場合には、ステップS96の判断が肯定され、制御部111は、ステップS98に移行する。ステップS98に移行すると、制御部111は、撮像指示を撮像装置20の制御部211に対して送信し、図28の全処理を終了する。   If the user changes the imaging direction of the imaging device 20 and the center of the imageable range coincides with the center of the range to be photographed as shown in FIG. 30A, the determination in step S96 is affirmed. The control unit 111 proceeds to step S98. If transfering it to step S98, the control part 111 will transmit an imaging instruction | indication with respect to the control part 211 of the imaging device 20, and will complete | finish all the processes of FIG.

一方、撮像装置20では、装着装置10の制御部111から撮像指示を受信すると、ステップS186の判断が肯定されて、ステップS188に移行する。そして、ステップS188では、制御部111は、撮像部101を用いて撮像を実行する。これにより、撮像部101では、図30(b)に示すような、ユーザが撮影したい範囲の画像を撮像することが可能である。   On the other hand, when the imaging apparatus 20 receives an imaging instruction from the control unit 111 of the mounting apparatus 10, the determination in step S186 is affirmed and the process proceeds to step S188. In step S188, the control unit 111 performs imaging using the imaging unit 101. Thereby, the imaging unit 101 can capture an image in a range that the user wants to capture, as shown in FIG.

なお、図28の処理では、撮影したい範囲と撮像可能範囲とが一致した場合に撮像が行われる場合について説明したが、これに限らず、制御部211は、ユーザが所定の動作を行った場合、例えばレリーズスイッチ203Aを押した場合や、操作部103に対して操作を行った場合、所定回数まばたきをした場合などにおいて撮像を行うこととしてもよい。   In the processing of FIG. 28, the case where imaging is performed when the range to be captured and the imageable range match is described. However, the present invention is not limited thereto, and the control unit 211 performs a case where the user performs a predetermined operation. For example, imaging may be performed when the release switch 203A is pressed, when the operation unit 103 is operated, or when blinking a predetermined number of times.

以上詳細に説明したように、本第4の実施形態によると、制御部111は、撮像装置の撮像領域の情報(撮像可能範囲)と、ユーザの視線に関する情報(撮影したい範囲)を取得し、表示部102を介して取得した情報をユーザの目の近傍に表示する。これにより、ユーザは、撮像可能範囲や撮影したい範囲を確認し、必要に応じて撮像装置20の撮像方向を変更等した後に、撮像装置20を用いた撮像を行うことが可能となる。これにより、ユーザは、表示部202を見づらい状況などにおいても、ユーザが所望する画像を簡易に撮像することが可能である。   As described above in detail, according to the fourth embodiment, the control unit 111 acquires information on the imaging region of the imaging device (capturable range) and information on the user's line of sight (range where the user wants to shoot), Information acquired via the display unit 102 is displayed in the vicinity of the user's eyes. Thereby, the user can perform imaging using the imaging device 20 after confirming the imageable range and the range to be captured and changing the imaging direction of the imaging device 20 as necessary. Thereby, the user can easily capture an image desired by the user even in a situation where it is difficult to view the display unit 202.

また、本第4の実施形態の撮像装置20は、装着装置10から送信されてきた撮像指示に基づいて撮像を行うことで、ユーザが所望する画像を撮像することができる。   Further, the imaging device 20 of the fourth embodiment can capture an image desired by the user by performing imaging based on the imaging instruction transmitted from the mounting device 10.

また、本第4の実施形態においては、撮像装置20に表示部202を設けなくてもよくなるため、撮像装置20の製造コストや部品点数の削減、使用電力の低減などを図ることが可能となる。   In the fourth embodiment, the display unit 202 does not have to be provided in the imaging device 20, and therefore it is possible to reduce the manufacturing cost, the number of parts, the power consumption, and the like of the imaging device 20. .

また、本第4の実施形態では、制御部111は、撮像装置20の撮像領域の情報と、ユーザの視線に関する情報とに基づいて、すなわち、撮像可能範囲と、撮影したい範囲とが一致した場合に、撮像装置20を制御する情報を通信部110を介して撮像装置20に送信する。これにより、ユーザはレリーズボタンを押すなどの操作を行わなくても、ユーザが所望する画像を撮像することが可能となる。   Further, in the fourth embodiment, the control unit 111 is based on the information on the imaging region of the imaging device 20 and the information on the user's line of sight, that is, when the imageable range matches the range to be captured. In addition, information for controlling the imaging device 20 is transmitted to the imaging device 20 via the communication unit 110. Accordingly, the user can take an image desired by the user without performing an operation such as pressing the release button.

なお、上記第4の実施形態では、表示部102に、撮影したい範囲の中心、撮像可能範囲の枠及び中心を表示する場合について説明したが、これに限られるものではない。例えば、撮影したい範囲の中心、撮像可能範囲の枠及び中心を装着装置10の撮像部101が撮像した画像に付加(合成)した画像を、表示部102に表示するようにしてもよい。このようにしても、上記第4の実施形態と同様の効果を得ることができる。   In the fourth embodiment, the case where the center of the range to be photographed and the frame and center of the imageable range are displayed on the display unit 102 has been described. However, the present invention is not limited to this. For example, an image obtained by adding (combining) the center of the range to be photographed, the frame and the center of the imageable range to the image captured by the imaging unit 101 of the mounting apparatus 10 may be displayed on the display unit 102. Even if it does in this way, the effect similar to the said 4th Embodiment can be acquired.

なお、上記第4の実施形態では、制御部111は、表示部102上に、ユーザが撮像装置20を動かす方向や動かす量を矢印(ベクトル)等により表示してもよい。これにより、ユーザは、直感的に撮像装置20の撮像方向を調整することが可能となる。   In the fourth embodiment, the control unit 111 may display the direction and amount of movement of the imaging device 20 by the user on the display unit 102 using an arrow (vector) or the like. Thereby, the user can adjust the imaging direction of the imaging device 20 intuitively.

なお、上記第4の実施形態では、ユーザが撮像装置20の撮像方向を変更する場合について説明したが、これに限られるものではない。例えば、図27に示すような、撮像装置20を保持し、撮像装置20の撮像方向を所定角度範囲で変更可能な駆動機構42を有する保持装置40(三脚や雲台など)を用いてもよい。この場合、保持装置40は、図29(b)の撮影したい範囲の中心と撮像可能範囲の中心とが一致するように、撮像装置20の撮像方向を駆動機構42を用いて変更し、撮像を行うようにすればよい。これにより、自動的にユーザの所望する画像を撮像することが可能となる。   In the fourth embodiment, the case where the user changes the imaging direction of the imaging device 20 has been described. However, the present invention is not limited to this. For example, as shown in FIG. 27, a holding device 40 (such as a tripod or a pan head) that holds the imaging device 20 and has a drive mechanism 42 that can change the imaging direction of the imaging device 20 within a predetermined angle range may be used. . In this case, the holding device 40 changes the imaging direction of the imaging device 20 using the drive mechanism 42 so that the center of the range to be photographed in FIG. You just have to do it. Thereby, it is possible to automatically capture an image desired by the user.

なお、上記第4の実施形態においても、第1の実施形態と同様、図16のようなサーバ30を含む構成を採用してもよい。この場合、図28の処理の一部をサーバ30の制御部34が行ってもよい。また、サーバ30の制御部34は、装着装置10からユーザが撮影したい範囲を取得するとともに、撮像装置20から撮像可能範囲を取得し、これらの範囲を比較して、比較結果を装着装置10や撮像装置20、上述した保持装置に出力するようにしてもよい。   Also in the fourth embodiment, a configuration including the server 30 as shown in FIG. 16 may be adopted as in the first embodiment. In this case, the control unit 34 of the server 30 may perform part of the processing of FIG. Further, the control unit 34 of the server 30 acquires the range that the user wants to shoot from the mounting device 10, acquires the imageable range from the imaging device 20, compares these ranges, and compares the comparison results with the mounting device 10 or You may make it output to the imaging device 20 and the holding | maintenance apparatus mentioned above.

なお、上記各実施形態では、撮像装置20が操作部203を有する場合について説明したが、これに限らず、特に第3、第4の実施形態では、操作部203がなくてもよい。   In each of the above embodiments, the case where the imaging device 20 includes the operation unit 203 has been described. However, the present invention is not limited to this, and the operation unit 203 may not be provided particularly in the third and fourth embodiments.

また、上記各実施形態では、風景を撮影する場合について説明したが、これに限らず、例えば、人物と会話しながら、会話している間に人物を撮影するのに用いてもよい。この場合、撮像装置20を顔の前で構えなくても撮像ができるため、会話している人物の自然な表情を撮像することが可能となる。   In each of the above embodiments, the case where a landscape is photographed has been described. However, the present invention is not limited to this. For example, the present invention may be used to photograph a person while talking with the person. In this case, since the image can be taken without holding the imaging device 20 in front of the face, it is possible to take an image of a natural expression of the person who is talking.

なお、装着装置10の一部機能(撮像部101や表示部102、瞳撮像部107など)をフレーム120に設け、他の機能をスマートフォンや携帯電話、腕時計型の端末などに持たせるようにしてもよい。   It should be noted that some functions (such as the imaging unit 101, the display unit 102, and the pupil imaging unit 107) of the mounting device 10 are provided on the frame 120, and other functions are provided to a smartphone, a mobile phone, a wristwatch-type terminal, or the like. Also good.

なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。   The above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the processing apparatus should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium (except for a carrier wave).

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When the program is distributed, for example, it is sold in the form of a portable recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。   The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.

10 装着装置
20 撮像装置
30 サーバ
32 通信部
34 制御部
102 表示部
107 瞳撮像部
108 視線検出部
109 人物認証部
110 通信部
111 制御部
201 撮像部
207 通信部
210 人物認証部
211 制御部
DESCRIPTION OF SYMBOLS 10 Mounting apparatus 20 Imaging apparatus 30 Server 32 Communication part 34 Control part 102 Display part 107 Pupil imaging part 108 Eye-gaze detection part 109 Person authentication part 110 Communication part 111 Control part 201 Imaging part 207 Communication part 210 Person authentication part 211 Control part

Claims (16)

外部機器が撮像した画像をユーザの目の近傍に表示可能な表示部と、
前記ユーザの視線を検出する視線検出部と、
前記視線検出部の検出結果に応じた情報を前記外部機器に送信する送信部と、を備えたことを特徴とする電子機器。
A display unit capable of displaying an image captured by an external device in the vicinity of the user's eyes;
A line-of-sight detection unit for detecting the line of sight of the user;
An electronic apparatus comprising: a transmission unit that transmits information according to a detection result of the line-of-sight detection unit to the external device.
前記送信部は、前記外部機器の焦点検出に関する情報を送信することを特徴とする請求項1に記載の電子機器。   The electronic device according to claim 1, wherein the transmission unit transmits information related to focus detection of the external device. 外部機器が撮像した画像をユーザの目の近傍に表示可能な表示部と、
前記ユーザの特定の動作を検出する検出部と、
前記検出部が前記ユーザの特定の動作を検出したタイミングに応じた情報を前記外部機器に送信する送信部と、を備えたことを特徴とする電子機器。
A display unit capable of displaying an image captured by an external device in the vicinity of the user's eyes;
A detection unit for detecting a specific operation of the user;
An electronic apparatus comprising: a transmission unit configured to transmit information according to a timing at which the detection unit detects a specific operation of the user to the external device.
前記送信部は、前記外部機器が画像を撮像する姿勢を特定するための情報を送信することを特徴とする請求項3に記載の電子機器。   The electronic device according to claim 3, wherein the transmission unit transmits information for specifying a posture in which the external device captures an image. 前記検出部は、前記ユーザの目の特定の動作を検出することを特徴とする請求項3又は4に記載の電子機器。   The electronic device according to claim 3, wherein the detection unit detects a specific operation of the eyes of the user. 外部機器の撮像領域の情報を入力する第1入力部と、
ユーザの視線に関する情報を入力する第2入力部と、
前記外部機器の撮像領域の情報と、前記ユーザの視線に関する情報とを前記ユーザの目の近傍に表示する表示部と、を備えたことを特徴とする電子機器。
A first input unit for inputting information of an imaging region of the external device;
A second input unit for inputting information relating to the user's line of sight;
An electronic apparatus comprising: a display unit that displays information on an imaging area of the external device and information on the user's line of sight in the vicinity of the user's eyes.
前記外部機器の撮像領域の情報と、前記ユーザの視線に関する情報とに基づいて、前記外部機器を制御する情報を前記外部機器に送信する送信部を備えたことを特徴とする請求項6に記載の電子機器。   The information processing apparatus according to claim 6, further comprising: a transmission unit configured to transmit information for controlling the external device to the external device based on information on an imaging area of the external device and information on the user's line of sight. Electronic equipment. 前記表示部は、前記外部機器が撮像した画像に前記外部機器の撮像領域の情報と、前記ユーザの視線に関する情報とを合成した画像を表示することを特徴とする請求項6又は7に記載の電子機器。   The said display part displays the image which synthesize | combined the information of the imaging area of the said external device, and the information regarding the said user's eyes | visual_axis on the image imaged by the said external device. Electronics. 前記ユーザを認証する認証部を備えたことを特徴とする請求項1〜8のいずれか一項に記載の電子機器。   The electronic apparatus according to claim 1, further comprising an authentication unit that authenticates the user. 前記外部機器の認証結果と、前記認証部の認証結果とが一致した場合に、前記外部機器との通信を許可する制御部を備えたことを特徴とする請求項9に記載の電子機器。   The electronic device according to claim 9, further comprising: a control unit that permits communication with the external device when the authentication result of the external device matches the authentication result of the authentication unit. 前記表示部は、前記外部機器の認証結果に関する表示を行うことを特徴とする請求項10に記載の電子機器。   The electronic device according to claim 10, wherein the display unit displays information related to an authentication result of the external device. 請求項1〜11のいずれか一項に記載の電子機器と通信する通信部と、
ユーザを認証する認証部と、
画像を撮像する撮像部と、を備えたことを特徴とする撮像装置。
A communication unit that communicates with the electronic device according to any one of claims 1 to 11,
An authentication unit for authenticating the user;
An imaging apparatus comprising: an imaging unit that captures an image.
前記認証部の認証結果と、前記電子機器の認証部の認証結果とが一致した場合に、前記通信部による通信を許可する制御部を備えたことを特徴とする請求項12に記載の撮像装置。   The imaging apparatus according to claim 12, further comprising a control unit that permits communication by the communication unit when an authentication result of the authentication unit matches an authentication result of the authentication unit of the electronic device. . 請求項1,3,7のいずれか一項に記載の電子機器と通信する通信部と、
画像を撮像する撮像部と、を備え、
前記撮像部は、前記電子機器の前記送信部から送信された情報に基づいた処理を実行することを特徴とする撮像装置。
A communication unit that communicates with the electronic device according to any one of claims 1, 3, and 7,
An imaging unit that captures an image,
The imaging apparatus performs processing based on information transmitted from the transmission unit of the electronic device.
請求項1〜11のいずれか一項に記載の電子機器のユーザの認証結果を入力する第1認証結果入力部と、
撮像装置のユーザの認証結果を入力する第2認証結果入力部と、
前記第1認証結果入力部が入力した認証結果と、前記第2認証結果入力部が入力した認証結果とが一致した場合に、前記電子機器と前記撮像装置との間の通信を許可する制御部と、を備えたことを特徴とする通信装置。
The 1st authentication result input part which inputs the authentication result of the user of the electronic device as described in any one of Claims 1-11,
A second authentication result input unit for inputting an authentication result of the user of the imaging apparatus;
A control unit that permits communication between the electronic device and the imaging device when the authentication result input by the first authentication result input unit matches the authentication result input by the second authentication result input unit. And a communication device.
請求項6に記載の電子機器から前記ユーザの視線に関する情報を入力する第1情報入力部と、
撮像装置の撮像領域の情報を入力する第2情報入力部と、
前記撮像装置の撮像領域の情報と、前記ユーザの視線に関する情報とを比較する比較部と、を備えたことを特徴とする通信装置。

A first information input unit that inputs information about the user's line of sight from the electronic device according to claim 6;
A second information input unit for inputting information of an imaging region of the imaging device;
A communication apparatus comprising: a comparison unit that compares information on an imaging region of the imaging apparatus and information on the line of sight of the user.

JP2014037377A 2014-01-17 2014-02-27 Electronic apparatus, imaging apparatus, and communication apparatus Pending JP2015162822A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014037377A JP2015162822A (en) 2014-02-27 2014-02-27 Electronic apparatus, imaging apparatus, and communication apparatus
PCT/JP2015/051133 WO2015108161A1 (en) 2014-01-17 2015-01-16 Electronic apparatus, image pickup apparatus, and communication apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014037377A JP2015162822A (en) 2014-02-27 2014-02-27 Electronic apparatus, imaging apparatus, and communication apparatus

Publications (1)

Publication Number Publication Date
JP2015162822A true JP2015162822A (en) 2015-09-07

Family

ID=54185640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014037377A Pending JP2015162822A (en) 2014-01-17 2014-02-27 Electronic apparatus, imaging apparatus, and communication apparatus

Country Status (1)

Country Link
JP (1) JP2015162822A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133280A (en) * 2018-01-29 2019-08-08 株式会社リコー Information processing system, information processing method and program
US10664991B2 (en) 2016-07-20 2020-05-26 Fujifilm Corporation Attention position recognizing apparatus, image pickup apparatus, display apparatus, attention position recognizing method and program
JP2021029011A (en) * 2019-08-09 2021-02-25 キヤノン株式会社 Imaging control device, control method of the imaging control device, program, and storage medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10664991B2 (en) 2016-07-20 2020-05-26 Fujifilm Corporation Attention position recognizing apparatus, image pickup apparatus, display apparatus, attention position recognizing method and program
JP2019133280A (en) * 2018-01-29 2019-08-08 株式会社リコー Information processing system, information processing method and program
JP7052382B2 (en) 2018-01-29 2022-04-12 株式会社リコー Information processing system, information processing method, and program
JP2021029011A (en) * 2019-08-09 2021-02-25 キヤノン株式会社 Imaging control device, control method of the imaging control device, program, and storage medium
JP7286469B2 (en) 2019-08-09 2023-06-05 キヤノン株式会社 IMAGING CONTROL DEVICE, CONTROL METHOD OF IMAGING CONTROL DEVICE, PROGRAM, STORAGE MEDIUM

Similar Documents

Publication Publication Date Title
KR102494698B1 (en) Method and apparatus for changing focus of camera
KR20150133056A (en) Mobile terminal and control method for the mobile terminal
KR101595957B1 (en) Mobile terminal and controlling system
KR20170035237A (en) Mobile terminal and method for controlling the same
KR20160006053A (en) Wearable glass-type device and control method of the wearable glass-type device
KR20190008610A (en) Mobile terminal and Control Method for the Same
KR20180023310A (en) Mobile terminal and method for controlling the same
KR20150087606A (en) Mobile terminal and method for controlling the same
KR102240639B1 (en) Glass type terminal and control method thereof
KR102181208B1 (en) Mobile terminal and control method for the mobile terminal
JP2014138275A (en) Imaging apparatus, remote operation terminal, camera system, method and program for controlling the imaging apparatus, and method and program for controlling the remote operation terminal
KR20180040409A (en) Mobile terminal and method for controlling the same
KR102154528B1 (en) Mobile terminal and method for controlling the same
KR20160017463A (en) Mobile terminal and method for controlling the same
KR20160125674A (en) Mobile terminal and method for controlling the same
KR20180028701A (en) Portable camera and method for controlling the same
JP2015162822A (en) Electronic apparatus, imaging apparatus, and communication apparatus
KR20180020734A (en) Mobile terminal and method for controlling the same
CN113364945A (en) Electronic apparatus, control method, and computer-readable medium
KR20160070529A (en) Wearable device
KR20170082228A (en) Mobile terminal and method for controlling the same
US11442244B2 (en) Imaging device
KR20150084485A (en) Mobile terminal and controlling method thereof
JP2015136030A (en) Imaging apparatus and electronic apparatus
KR20170085358A (en) Mobile terminal and control method for the mobile terminal