JP6337431B2 - System, server, electronic device and program - Google Patents

System, server, electronic device and program Download PDF

Info

Publication number
JP6337431B2
JP6337431B2 JP2013176681A JP2013176681A JP6337431B2 JP 6337431 B2 JP6337431 B2 JP 6337431B2 JP 2013176681 A JP2013176681 A JP 2013176681A JP 2013176681 A JP2013176681 A JP 2013176681A JP 6337431 B2 JP6337431 B2 JP 6337431B2
Authority
JP
Japan
Prior art keywords
imaging
subject
electronic device
information
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013176681A
Other languages
Japanese (ja)
Other versions
JP2015046756A (en
Inventor
昌樹 安藤
昌樹 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013176681A priority Critical patent/JP6337431B2/en
Publication of JP2015046756A publication Critical patent/JP2015046756A/en
Application granted granted Critical
Publication of JP6337431B2 publication Critical patent/JP6337431B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、システム、サーバ、電子機器およびプログラムに関する。   The present invention relates to a system, a server, an electronic device, and a program.

複数の撮影者の間で、共通した撮影イトの下で撮影を行うことを容易にするとした画像処理装置が知られている(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2001−8089号公報
There has been known an image processing apparatus that facilitates shooting under a common shooting position among a plurality of photographers (see, for example, Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] Japanese Patent Laid-Open No. 2001-8089

例えば複数のユーザが互いに離れた位置にいる場合に、他のユーザが使用している撮像装置で撮像された被写体と同じ被写体を撮像することは容易ではない。   For example, when a plurality of users are located at positions apart from each other, it is not easy to capture the same subject as the subject captured by the imaging device used by another user.

本発明の第1の態様においては、システムは、撮像装置と、電子機器と、撮像装置および電子機器と通信するサーバとを備え、撮像装置は、撮像することにより生成した画像データ、撮像時の地理的位置である撮像位置を示す情報および撮像時の撮像方向を示す情報を含む撮像情報を、サーバへ送信し、サーバは、撮像装置から受信した画像データに基づいて、予め定められた条件に適合する被写体が撮像装置で撮像されたか否かを判断する被写体判断部と、撮像装置から受信した撮像情報に基づいて、予め定められた条件に適合する被写体が存在する地理的位置である被写体位置を特定する位置特定部と、位置特定部が特定した被写体位置を示す情報を含む被写体情報を、電子機器へ送信する被写体情報送信部とを有し、電子機器は、サーバから受信した被写体位置へ電子機器のユーザを誘導する。   In a first aspect of the present invention, a system includes an imaging device, an electronic device, and a server that communicates with the imaging device and the electronic device. The imaging device generates image data generated by imaging, Imaging information including information indicating an imaging position that is a geographical position and information indicating an imaging direction at the time of imaging is transmitted to the server, and the server satisfies predetermined conditions based on the image data received from the imaging device. A subject determination unit that determines whether or not a suitable subject is captured by the imaging device, and a subject position that is a geographical position where a subject that meets a predetermined condition exists based on imaging information received from the imaging device And a subject information transmitting unit for transmitting subject information including information indicating the subject position specified by the position specifying unit to the electronic device. To guide the user of the electronic device to the object position received from.

本発明の第2の態様においては、サーバは、撮像装置で撮像することにより生成された画像データ、撮像時の撮像装置の位置を示す情報および撮像時の撮像装置の撮像方向を示す情報を含む撮像情報を、撮像装置から受信するデータ受信部と、データ受信部が受信した前記画像データに基づいて、予め定められた条件に適合する被写体が撮像されているか否かを判断する被写体判断部と、撮像情報に基づいて、前記予め定められた条件に適合する被写体が存在する地理的位置を特定する位置特定部と、位置特定部が特定した前記地理的位置を示す情報を、前記撮像装置とは異なる電子機器へ送信する被写体情報送信部とを備える。   In the second aspect of the present invention, the server includes image data generated by imaging with the imaging device, information indicating the position of the imaging device at the time of imaging, and information indicating the imaging direction of the imaging device at the time of imaging. A data reception unit that receives imaging information from the imaging device, and a subject determination unit that determines whether a subject that meets a predetermined condition is captured based on the image data received by the data reception unit; A position specifying unit that specifies a geographical position where a subject that meets the predetermined condition is present based on the imaging information, and information that indicates the geographical position specified by the position specifying unit, Includes a subject information transmission unit that transmits to different electronic devices.

本発明の第3の態様においては、プログラムは、撮像装置で撮像することにより生成された画像データ、撮像時の前記撮像装置の位置を示す情報および撮像時の前記撮像装置の撮像方向を示す情報を含む撮像情報を、前記撮像装置から受信するデータ受信ステップと、データ受信ステップで受信した前記画像データに基づいて、予め定められた条件に適合する被写体が撮像されているか否かを判断する被写体判断ステップと、撮像情報に基づいて、前記予め定められた条件に適合する被写体が存在する地理的位置を特定する位置特定ステップと、位置特定ステップで特定された前記地理的位置を示す情報を、前記撮像装置とは異なる電子機器へ送信する被写体情報送信ステップとをコンピュータに実行させる。   In the third aspect of the present invention, the program includes image data generated by imaging with the imaging device, information indicating the position of the imaging device at the time of imaging, and information indicating the imaging direction of the imaging device at the time of imaging. A data receiving step for receiving imaging information including the image capturing device, and a subject for determining whether or not a subject that meets a predetermined condition is captured based on the image data received in the data receiving step A determination step; a position specifying step for specifying a geographical position where a subject that meets the predetermined condition is present based on imaging information; and information indicating the geographical position specified in the position specifying step. Causing the computer to execute a subject information transmission step of transmitting to an electronic device different from the imaging device.

本発明の第2の態様においては、電子機器は、撮像装置で撮像することにより生成された画像データ、撮像装置の撮像時の地理的位置を示す情報および前記撮像装置の撮像時の撮像方向を示す情報に基づいてサーバで特定された、予め定められた条件に適合する被写体が存在する地理的位置を示す被写体情報を、前記サーバから受信する被写体情報受信部と、サーバから受信した前記被写体情報で示される地理的位置へユーザを誘導する誘導制御部とを備える。   In the second aspect of the present invention, the electronic device displays the image data generated by imaging with the imaging device, the information indicating the geographical position at the time of imaging of the imaging device, and the imaging direction at the time of imaging of the imaging device. A subject information receiving unit that receives from the server subject information indicating a geographical position where a subject that meets a predetermined condition specified by the server based on the information to be displayed, and the subject information received from the server The guidance control part which guides a user to the geographical position shown by this.

本発明の第3の態様においては、プログラムは、撮像装置で撮像することにより生成された画像データ、前記撮像装置の撮像時の地理的位置を示す情報および前記撮像装置の撮像時の撮像方向を示す情報に基づいてサーバで特定された、予め定められた条件に適合する被写体が存在する地理的位置を示す被写体情報を、前記サーバから受信する被写体情報受信ステップと、サーバから受信した前記被写体情報で示される地理的位置へユーザを誘導する誘導制御ステップとをコンピュータに実行させる。   In the third aspect of the present invention, the program includes image data generated by imaging with an imaging device, information indicating a geographical position at the time of imaging of the imaging device, and an imaging direction at the time of imaging of the imaging device. A subject information receiving step for receiving, from the server, subject information indicating a geographical position where a subject that meets a predetermined condition specified by the server based on the information to be received; and the subject information received from the server And a guidance control step for guiding the user to the geographical location indicated by

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

一実施形態におけるシステム5の概念に示す。The concept of system 5 in one embodiment is shown. カメラ10のシステム構成の一例を示す。1 shows an example of a system configuration of a camera 10. サーバ20のブロック構成の一例を模式的に示す。An example of a block configuration of the server 20 is schematically shown. 表示部138に表示される被写体選択画面400の一例を模式的に示す。An example of the subject selection screen 400 displayed on the display unit 138 is schematically shown. 表示部138に表示されるガイド画面の一例を模式的に示す。An example of the guide screen displayed on the display part 138 is shown typically. 表示部138に表示されるガイド画面の他の一例を模式的に示す。Another example of the guide screen displayed on the display unit 138 is schematically shown. 表示部138に表示されるガイド画面の更なる他の一例を模式的に示す。Another example of the guide screen displayed on the display part 138 is typically shown. カメラ10における動作フローの一例を示す。An example of an operation flow in the camera 10 is shown. レリーズボタンが押し込まれた場合の処理フローの一例を示す。An example of a processing flow when a release button is pushed is shown. サーバ20における処理フローの一例を示す。An example of the processing flow in the server 20 is shown. ガイド処理タスクによりカメラ10において実行される処理フローの一例を示す。An example of the process flow performed in the camera 10 by a guide process task is shown.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、一実施形態におけるシステム5の概念に示す。システム5は、ネットワーク15と、撮像装置の一例としてのカメラ10a、カメラ10bおよびカメラ10cと、ネットワーク15と、サーバ20とを備える。カメラ10a、カメラ10bおよびカメラ10cは、互いに異なるユーザによって使用される。本実施形態の説明において、カメラ10a、カメラ10bおよびカメラ10cを、カメラ10と総称する場合がある。システム5は、カメラ10のそれぞれのユーザを、他のカメラ10で撮像された被写体の位置へ誘導して、当該被写体を撮像させる機会を提供する。   FIG. 1 illustrates the concept of a system 5 in one embodiment. The system 5 includes a network 15, a camera 10a, a camera 10b, and a camera 10c as an example of an imaging device, a network 15, and a server 20. The camera 10a, the camera 10b, and the camera 10c are used by different users. In the description of the present embodiment, the camera 10a, the camera 10b, and the camera 10c may be collectively referred to as the camera 10. The system 5 provides an opportunity to guide each user of the camera 10 to the position of the subject imaged by the other camera 10 and image the subject.

カメラ10およびサーバ20は、ネットワーク15を通じて互いに通信することができる。カメラ10aは、被写体80を撮影して生成された画像データを記録すると、カメラ10aの撮像時の位置情報と、撮像時の撮像方向を示す情報と、当該画像データとを含む撮像情報を、ネットワーク15を通じてサーバ20へ送信する。撮影情報としては、その他に、焦点距離、シャッター速度、絞り値、露出補正、フラッシュ、フラッシュ調光量およびホワイトバランス等の撮像条件、日付、時刻、撮影モード、単写/連写、連写コマ速、天候、撮影機材等を含んでよい。   The camera 10 and the server 20 can communicate with each other through the network 15. When the camera 10a records the image data generated by photographing the subject 80, the camera 10a stores the position information at the time of image capturing by the camera 10a, the information indicating the image capturing direction at the time of image capturing, and the image capturing information including the image data. 15 to the server 20. Other shooting information includes focal length, shutter speed, aperture value, exposure compensation, flash, flash dimming, white balance, and other imaging conditions, date, time, shooting mode, single / continuous shooting, and continuous shooting frames. May include speed, weather, photographic equipment, etc.

サーバ20は、ネットワーク15に接続されたコンピュータである。サーバ20は、複数のコンピュータによってクラウドサーバであってよい。サーバ20は、カメラ10aから受信した画像データを解析して、被写体80の種類を特定する。また、サーバ20は、カメラ10aから受信した画像データを解析して被写体80の種類を特定する。また、サーバ20は、カメラ10aから受信した位置情報および撮像方向を示す情報に基づいて、特定した被写体80の地理的位置を特定する。   The server 20 is a computer connected to the network 15. The server 20 may be a cloud server with a plurality of computers. The server 20 analyzes the image data received from the camera 10a and identifies the type of the subject 80. Further, the server 20 analyzes the image data received from the camera 10a and identifies the type of the subject 80. Moreover, the server 20 specifies the geographical position of the specified subject 80 based on the position information received from the camera 10a and the information indicating the imaging direction.

サーバ20は、カメラ10のユーザから、それぞれユーザが撮像することを欲する被写体の種類を、予め取得している。サーバ20は、特定した種類の被写体を撮像することを欲しているユーザを選択して、当該ユーザが使用しているカメラ10bへ、特定した被写体80の地理的位置を含む被写体情報を送信する。   The server 20 acquires in advance from the user of the camera 10 the type of subject that the user wants to capture. The server 20 selects a user who wants to image the specified type of subject, and transmits subject information including the geographical position of the specified subject 80 to the camera 10b used by the user.

カメラ10bは、サーバ20から受信した被写体80の地理的位置へユーザを誘導する。例えば、カメラ10bは、被写体80の地理的位置とユーザとを誘導するガイド情報を画表示することにより、ユーザを誘導する。そのため、ユーザは、目的の被写体を比較的容易に探しだすことができる。そして、カメラ10aで撮像された被写体80を、カメラ10bのユーザが撮像する可能性を高めることができる。本実施形態の説明において、被写体の地理的位置を単に被写体位置と呼ぶ場合がある。   The camera 10 b guides the user to the geographical position of the subject 80 received from the server 20. For example, the camera 10b guides the user by displaying guide information for guiding the geographical position of the subject 80 and the user. Therefore, the user can find the target subject relatively easily. And possibility that the user of camera 10b will image subject 80 imaged with camera 10a can be raised. In the description of this embodiment, the geographical position of the subject may be simply referred to as the subject position.

図2は、カメラ10のシステム構成の一例を示す。カメラ10は、一例としてレンズ交換式カメラある。本図ではレンズユニット120が装着された状態のカメラ10のブロック構成を示す。   FIG. 2 shows an example of the system configuration of the camera 10. The camera 10 is an interchangeable lens camera as an example. This figure shows a block configuration of the camera 10 with the lens unit 120 mounted.

レンズユニット120は、レンズマウント接点121を有するレンズマウントを備える。カメラ本体130は、カメラマウント接点131を有するカメラマウントを備える。レンズマウントとカメラマウントとが係合してレンズユニット120とカメラ本体130とが一体化されると、レンズマウント接点121とカメラマウント接点131とが接続される。レンズMPU123は、レンズマウント接点121およびカメラマウント接点131を介してカメラMPU140と接続され、相互に通信しつつ協働してレンズユニット120を制御する。   The lens unit 120 includes a lens mount having a lens mount contact 121. The camera body 130 includes a camera mount having a camera mount contact 131. When the lens mount and the camera mount are engaged and the lens unit 120 and the camera body 130 are integrated, the lens mount contact 121 and the camera mount contact 131 are connected. The lens MPU 123 is connected to the camera MPU 140 via the lens mount contact 121 and the camera mount contact 131, and controls the lens unit 120 in cooperation with each other while communicating with each other.

レンズユニット120は、レンズ群122、レンズ駆動部124およびレンズMPU123を有する。被写体光は、レンズユニット120が有する光学系としてのレンズ群122を光軸に沿って透過して、カメラ本体130に入射する。メインミラー145は、レンズ群122の光軸を中心とする被写体光束中に斜設される斜設状態と、被写体光束から退避する退避状態を取り得る。   The lens unit 120 includes a lens group 122, a lens driving unit 124, and a lens MPU 123. The subject light passes through the lens group 122 as an optical system of the lens unit 120 along the optical axis and enters the camera body 130. The main mirror 145 can take an oblique state where the main mirror 145 is obliquely provided in the subject light flux centered on the optical axis of the lens group 122 and a retreat state where the main mirror 145 is retracted from the subject light flux.

メインミラー145が斜設状態にある場合、メインミラー145は、レンズ群122を通過した被写体光束の一部を反射する。具体的には、斜設状態におけるメインミラー145の光軸近傍領域は、ハーフミラーとして形成されている。光軸近傍領域に入射した被写体光束の一部は透過し、他の一部は反射する。メインミラー145により反射された被写体光束は、ピント板161、透過型表示パネル160、ぺンタプリズム147、接眼光学系162およびファインダ窓163を通じて、被写体像としてユーザに提示される。ユーザは、提示された被写体像に基づいて構図等を確認することができる。透過型表示パネル160は、被写体光束に基づく被写体像とともに、撮像動作の設定状態を示す情報等を含む種々の情報をユーザに提示する。透過型表示パネル160は、カメラMPU140の制御に従って、被写体光束に基づく被写体像に重畳して、種々の情報をユーザに提示する。   When the main mirror 145 is in an oblique state, the main mirror 145 reflects a part of the subject light flux that has passed through the lens group 122. Specifically, the region near the optical axis of the main mirror 145 in the oblique state is formed as a half mirror. Part of the subject luminous flux incident on the region near the optical axis is transmitted and the other part is reflected. The subject luminous flux reflected by the main mirror 145 is presented to the user as a subject image through the focus plate 161, the transmissive display panel 160, the pen prism 147, the eyepiece optical system 162, and the finder window 163. The user can confirm the composition and the like based on the presented subject image. The transmissive display panel 160 presents various information including information indicating the setting state of the imaging operation to the user, along with the subject image based on the subject light flux. The transmissive display panel 160 superimposes on the subject image based on the subject luminous flux and presents various information to the user under the control of the camera MPU 140.

メインミラー145の光軸近傍領域を透過した被写体光束の一部は、サブミラー146で反射されて、AFユニット142へ導かれる。AFユニット142は、被写体光束を受光する複数の光電変換素子列を有する。光電変換素子列は、合焦状態にある場合には位相が一致した信号を出力し、前ピン状態または後ピン状態にある場合には、位相ずれした信号を出力する。位相のずれ量は、焦点状態からのずれ量に対応する。AFユニット142は、光電変換素子列の出力を相関演算することで位相差を検出して、位相差を示す位相差信号をカメラMPU140へ出力する。   Part of the subject luminous flux that has passed through the region near the optical axis of the main mirror 145 is reflected by the sub mirror 146 and guided to the AF unit 142. The AF unit 142 includes a plurality of photoelectric conversion element arrays that receive a subject light beam. The photoelectric conversion element array outputs a signal with a phase match when in a focused state, and outputs a signal with a phase shift when in a front pin state or a rear pin state. The amount of phase shift corresponds to the amount of shift from the focus state. The AF unit 142 detects a phase difference by performing a correlation operation on the output of the photoelectric conversion element array, and outputs a phase difference signal indicating the phase difference to the camera MPU 140.

レンズ群122の焦点状態は、カメラMPU140等の制御により、AFユニット142からの位相差信号を用いて調節される。例えば、位相差信号から検出された焦点状態に基づき、カメラMPU140によってレンズ群122が含むフォーカスレンズの目標位置が決定され、決定された目標位置に向けてレンズMPU123の制御によってフォーカスレンズの位置が制御される。具体的には、レンズMPU123は、一例としてフォーカスレンズモータを含むレンズ駆動部124を制御して、レンズ群122を構成するフォーカスレンズを移動させる。このように、メインミラー145がダウンして斜設状態にある場合に、位相差検出方式でレンズ群122の焦点状態が検出されて焦点調節が行われる。AFユニット142は、被写体像における複数の領域のそれぞれにおいて焦点状態を調節すべく、複数の領域にそれぞれ対応する複数の位置にそれぞれ光電変換素子列が設けられる。   The focus state of the lens group 122 is adjusted using the phase difference signal from the AF unit 142 under the control of the camera MPU 140 and the like. For example, the target position of the focus lens included in the lens group 122 is determined by the camera MPU 140 based on the focus state detected from the phase difference signal, and the position of the focus lens is controlled by the control of the lens MPU 123 toward the determined target position. Is done. Specifically, the lens MPU 123 controls the lens driving unit 124 including a focus lens motor as an example, and moves the focus lens constituting the lens group 122. As described above, when the main mirror 145 is down and in the inclined state, the focus state of the lens group 122 is detected by the phase difference detection method, and the focus adjustment is performed. The AF unit 142 is provided with photoelectric conversion element arrays at a plurality of positions respectively corresponding to the plurality of regions in order to adjust the focus state in each of the plurality of regions in the subject image.

測光素子144は、被写体光を測光する測光部の一例である。測光素子144は、ペンタプリズム147に導かれた光束の一部の光束を受光する光電変換素子を有する。測光素子144が有する光電変換素子で検出された被写体の輝度情報は、カメラMPU140に測光値として出力される。カメラMPU140は、測光素子144から取得した輝度情報に基づき、各部を制御する。例えば、カメラMPU140は、当該輝度情報に基づきAE評価値を算出して、AE評価値に基づいて露出制御を行う。   The photometric element 144 is an example of a photometric unit that measures subject light. The photometric element 144 has a photoelectric conversion element that receives a part of the light beam guided to the pentaprism 147. The luminance information of the subject detected by the photoelectric conversion element included in the photometric element 144 is output to the camera MPU 140 as a photometric value. The camera MPU 140 controls each unit based on the luminance information acquired from the photometric element 144. For example, the camera MPU 140 calculates an AE evaluation value based on the luminance information, and performs exposure control based on the AE evaluation value.

メインミラー145が被写体光束から退避すると、サブミラー146はメインミラー145に連動して被写体光束から退避する。撮像素子132のレンズ群122側には、フォーカルプレーンシャッタ143が設けられる。フォーカルプレーンシャッタ143は、一例としてメカニカルシャッタである。メインミラー145が退避状態にあり、フォーカルプレーンシャッタ143が開状態にある場合、レンズ群122を透過した被写体光束は、撮像素子132の受光面に入射する。フォーカルプレーンシャッタ143は、撮像素子132へ入射する被写体光の光路を開閉することで露光を制御する。   When the main mirror 145 retracts from the subject light beam, the sub mirror 146 retracts from the subject light beam in conjunction with the main mirror 145. A focal plane shutter 143 is provided on the lens group 122 side of the image sensor 132. The focal plane shutter 143 is a mechanical shutter as an example. When the main mirror 145 is in the retracted state and the focal plane shutter 143 is in the open state, the subject light flux that has passed through the lens group 122 is incident on the light receiving surface of the image sensor 132. The focal plane shutter 143 controls exposure by opening and closing an optical path of subject light incident on the image sensor 132.

撮像素子132は、撮像部として機能する。撮像素子132は、レンズ群122を通過した被写体光束により被写体を撮像する。撮像素子132としては、例えばCMOSセンサ、CCDセンサ等の固体撮像素子を例示することができる。撮像素子132は、被写体光束を受光する複数の光電変換素子を有しており、複数の光電変換素子でそれぞれ生じた蓄積電荷量に応じたアナログ信号をアナログ処理部133へ出力する。アナログ処理部133は、撮像素子132から出力されたアナログ信号に対して、増幅処理、OBクランプ処理等のアナログ処理を施して、A/D変換器134へ出力する。A/D変換器134は、アナログ処理部133から出力されたアナログ信号を、画像データを表すデジタル信号に変換して出力する。撮像素子132、アナログ処理部133およびA/D変換器134は、カメラMPU140からの指示を受けた駆動部148により駆動される。   The imaging element 132 functions as an imaging unit. The image sensor 132 captures an image of the subject using the subject light flux that has passed through the lens group 122. Examples of the image sensor 132 include solid-state image sensors such as CMOS sensors and CCD sensors. The imaging element 132 has a plurality of photoelectric conversion elements that receive the subject light flux, and outputs an analog signal corresponding to the amount of accumulated charge generated by each of the plurality of photoelectric conversion elements to the analog processing unit 133. The analog processing unit 133 performs analog processing such as amplification processing and OB clamping processing on the analog signal output from the image sensor 132 and outputs the analog signal to the A / D converter 134. The A / D converter 134 converts the analog signal output from the analog processing unit 133 into a digital signal representing image data and outputs the digital signal. The image sensor 132, the analog processing unit 133, and the A / D converter 134 are driven by a driving unit 148 that receives an instruction from the camera MPU 140.

A/D変換器134からデジタル信号で出力したデジタル信号は、画像データとしてASIC135に入力される。ASIC135は、画像処理機能に関連する回路等を一つにまとめた集積回路である。ASIC135は、揮発性メモリの一例としてのRAM136の少なくとも一部のメモリ領域を、画像データを一時的に記憶するバッファ領域として使用して、RAM136に記憶させた画像データに対して種々の画像処理を施す。ASIC135による画像処理としては、ノイズリダクション処理、欠陥画素補正、ホワイトバランス補正、色補間処理、色補正、ガンマ補正、輪郭強調処理、画像データの圧縮処理等を例示することができる。   The digital signal output as a digital signal from the A / D converter 134 is input to the ASIC 135 as image data. The ASIC 135 is an integrated circuit in which circuits related to the image processing function are integrated into one. The ASIC 135 uses at least a part of the memory area of the RAM 136 as an example of a volatile memory as a buffer area for temporarily storing image data, and performs various image processing on the image data stored in the RAM 136. Apply. Examples of the image processing by the ASIC 135 include noise reduction processing, defective pixel correction, white balance correction, color interpolation processing, color correction, gamma correction, contour enhancement processing, image data compression processing, and the like.

撮像素子132が連続して撮像した場合、順次に出力される画像データはバッファ領域に順次に記憶される。撮像素子132が連続して撮像することにより得られた複数の画像データは、連続する静止画の画像データ、または、動画を構成する各画像の画像データとして、バッファ領域に順次に記憶される。RAM136は、ASIC135において動画データを処理する場合にフレームを一時的に記憶するフレームメモリとしても機能する。   When the image sensor 132 continuously captures images, sequentially output image data is sequentially stored in the buffer area. A plurality of image data obtained by continuously capturing images by the image sensor 132 is sequentially stored in the buffer area as image data of continuous still images or image data of each image constituting the moving image. The RAM 136 also functions as a frame memory that temporarily stores frames when the ASIC 135 processes moving image data.

ASIC135における画像処理としては、記録用の画像データを生成する処理の他、表示用の画像データを生成する処理、自動焦点調節(AF)用の画像データ処理を例示できる。また、ASIC135における画像処理としては、AF処理用のコントラスト量を検出する処理等を含む。具体的には、ASIC135は、画像データからコントラスト量を検出してカメラMPU140に供給する。例えば、ASIC135は、光軸方向の異なる位置にフォーカスレンズを位置させて撮像することにより得られた複数の画像データのそれぞれからコントラスト量を検出する。カメラMPU140は、検出されたコントラスト量とフォーカスレンズの位置とに基づいて、レンズ群122の焦点状態を調節する。例えば、カメラMPU140は、コントラスト量を増大させるようフォーカスレンズの目標位置を決定して、レンズMPU123に、決定された目標位置に向けてフォーカスレンズの位置を制御させる。このように、メインミラー145がアップして退避状態にある場合に、コントラスト検出方式でレンズ群122の焦点状態が検出されて焦点調節が行われる。このように、カメラMPU140は、ASIC135およびレンズMPU123と協働して、レンズ群122の焦点調節を行う。   Examples of image processing in the ASIC 135 include processing for generating image data for recording, processing for generating image data for display, and image data processing for automatic focus adjustment (AF). Further, the image processing in the ASIC 135 includes processing for detecting the contrast amount for AF processing and the like. Specifically, the ASIC 135 detects the contrast amount from the image data and supplies it to the camera MPU 140. For example, the ASIC 135 detects the contrast amount from each of a plurality of image data obtained by imaging with the focus lens positioned at different positions in the optical axis direction. The camera MPU 140 adjusts the focus state of the lens group 122 based on the detected contrast amount and the position of the focus lens. For example, the camera MPU 140 determines the target position of the focus lens so as to increase the amount of contrast, and causes the lens MPU 123 to control the position of the focus lens toward the determined target position. As described above, when the main mirror 145 is up and in the retracted state, the focus state of the lens group 122 is detected by the contrast detection method, and the focus adjustment is performed. As described above, the camera MPU 140 performs the focus adjustment of the lens group 122 in cooperation with the ASIC 135 and the lens MPU 123.

ASIC135は、A/D変換器134から出力された画像データを記録する場合、規格化された画像フォーマットの画像データに変換する。例えば、ASIC135は、静止画の画像データを、JPEG等の規格に準拠した符号化形式で符号化された静止画データを生成するための圧縮処理を行う。また、ASIC135は、複数のフレームを、QuickTime、H.264、MPEG2、Motion JPEG等の規格に準拠した符号化方式で符号化された動画データを生成するための圧縮処理を行う。ASIC135は、生成した静止画データ、動画データ等の画像データを、不揮発性の記録媒体の一例としての外部メモリ180へ出力して記録させる。例えば、ASIC135は、静止画ファイル、動画ファイルとして外部メモリ180に記録させる。外部メモリ180としては、フラッシュメモリ等の半導体メモリを例示することができる。外部メモリ180としては、SDメモリカード、CFストレージカード、XQDメモリカード等の種々のメモリカードを例示することができる。RAM136に記憶されている画像データは、記録媒体IF150および外部メモリ180が装着された記録媒体コネクタ151を通じて、外部メモリ180へ転送される。また、外部メモリ180に記録されている画像データは、記録媒体IF150を通じてRAM136へ転送されRAM136に記憶される。記録媒体IF150としては、上述したメモリカードに対するアクセスを制御するカードコントローラを例示することができる。   When recording the image data output from the A / D converter 134, the ASIC 135 converts the image data into a standardized image format. For example, the ASIC 135 performs a compression process for generating still image data obtained by encoding still image data in an encoding format compliant with a standard such as JPEG. Further, the ASIC 135 converts a plurality of frames into QuickTime, H.264, and the like. H.264, MPEG2, Motion JPEG, etc. A compression process for generating moving image data encoded by an encoding method compliant with a standard such as JPEG is performed. The ASIC 135 outputs and records the generated image data such as still image data and moving image data to an external memory 180 as an example of a nonvolatile recording medium. For example, the ASIC 135 records in the external memory 180 as a still image file and a moving image file. An example of the external memory 180 is a semiconductor memory such as a flash memory. Examples of the external memory 180 include various memory cards such as an SD memory card, a CF storage card, and an XQD memory card. The image data stored in the RAM 136 is transferred to the external memory 180 through the recording medium connector 151 to which the recording medium IF 150 and the external memory 180 are attached. The image data recorded in the external memory 180 is transferred to the RAM 136 through the recording medium IF 150 and stored in the RAM 136. Examples of the recording medium IF 150 include a card controller that controls access to the above-described memory card.

ASIC135は、記録用の画像データの生成に並行して、表示用の画像データを生成する。例えば、ASIC135は、いわゆるライブビュー動作時に、表示部138に表示させる表示用の画像データを生成する。また、画像の再生時においては、ASIC135は、外部メモリ180から読み出された画像データから表示用の画像データを生成する。生成された表示用の画像データは、表示制御部137の制御に従ってアナログの信号に変換され、液晶ディスプレイ等の表示部138に表示される。また、撮像により得られた画像データに基づく画像表示と共に、当該画像データに基づく画像表示をすることなく、カメラ10の各種設定に関する様々なメニュー項目も、ASIC135および表示制御部137の制御により表示部138に表示される。   The ASIC 135 generates display image data in parallel with the generation of recording image data. For example, the ASIC 135 generates display image data to be displayed on the display unit 138 during a so-called live view operation. Further, at the time of image reproduction, the ASIC 135 generates image data for display from the image data read from the external memory 180. The generated image data for display is converted into an analog signal under the control of the display control unit 137 and displayed on the display unit 138 such as a liquid crystal display. In addition to the image display based on the image data obtained by imaging, various menu items relating to various settings of the camera 10 are also displayed under the control of the ASIC 135 and the display control unit 137 without displaying the image based on the image data. 138.

外部機器IF152は、外部機器コネクタ156を介して接続された外部機器との間の通信を担う。外部メモリ180に記録された画像データは、外部機器IF152を通じて外部機器へ転送される。また、外部機器IF152を通じて外部機器から通信により取得した画像データは、外部メモリ180に記録される。外部機器IF152は、USB通信により外部機器と通信してよい。   The external device IF 152 is responsible for communication with an external device connected via the external device connector 156. The image data recorded in the external memory 180 is transferred to the external device through the external device IF 152. In addition, image data acquired by communication from an external device through the external device IF 152 is recorded in the external memory 180. The external device IF 152 may communicate with the external device by USB communication.

無線通信部170は、無線通信を担う。具体的には、無線通信部170は、ネットワーク15を通じてサーバ20と通信する。無線通信部170は、無線LAN等の種々の無線通信規格に準拠して無線通信を行う。位置検出部172は、例えばGPSモジュールを有する。位置検出部172は、現在位置を取得してカメラMPU140へ出力する。方向検出部174は、カメラ10の向きを検出する。例えば、方向検出部174は、地磁気センサを有してよい。方向検出部174は、重力に対するカメラ10の向きを検出する姿勢センサを更に有してよい。姿勢センサとしては、3軸加速度センサ等を例示することができる。方向検出部174は、これら1以上のセンサの出力に基づいて、レンズユニット120の光軸の向きを算出して、当該光軸の向きを示す情報をカメラMPU140に出力してよい。なお、本実施形態において、レンズユニット120の光軸の向きを、カメラ10の向きと呼ぶ場合がある。カメラ10の向きを示す情報は、方位および仰俯角を示す情報を含んでよい。   The wireless communication unit 170 is responsible for wireless communication. Specifically, the wireless communication unit 170 communicates with the server 20 through the network 15. The wireless communication unit 170 performs wireless communication in accordance with various wireless communication standards such as a wireless LAN. The position detection unit 172 includes, for example, a GPS module. The position detection unit 172 acquires the current position and outputs it to the camera MPU 140. The direction detection unit 174 detects the direction of the camera 10. For example, the direction detection unit 174 may include a geomagnetic sensor. The direction detection unit 174 may further include a posture sensor that detects the direction of the camera 10 with respect to gravity. Examples of the attitude sensor include a three-axis acceleration sensor. The direction detection unit 174 may calculate the direction of the optical axis of the lens unit 120 based on the output of the one or more sensors, and output information indicating the direction of the optical axis to the camera MPU 140. In the present embodiment, the direction of the optical axis of the lens unit 120 may be referred to as the direction of the camera 10. The information indicating the orientation of the camera 10 may include information indicating the azimuth and the elevation angle.

操作入力部141は、ユーザから操作を受け付ける。操作入力部141は、レリーズボタン、撮像モードダイヤル、再生ボタン、ライブビュースイッチ、動画ボタン、電源スイッチ等の各種操作部材等を含む。また、操作入力部141は、タッチパネル等として表示部138と一体に実装された入力部材を含んでよい。カメラMPU140は、操作入力部141が操作されたことを検知して、操作に応じた動作を実行する。例えば、カメラMPU140は、レリーズボタンが押し込まれた場合に、撮像動作を実行するようにカメラ10の各部を制御する。また、カメラMPU140は、タッチパネルとして実装された入力部材が操作された場合に、表示部138に表示させたメニュー項目および操作内容に応じた動作をするよう、カメラ10の各部を制御する。   The operation input unit 141 receives an operation from the user. The operation input unit 141 includes various operation members such as a release button, an imaging mode dial, a playback button, a live view switch, a moving image button, and a power switch. Further, the operation input unit 141 may include an input member that is integrated with the display unit 138 as a touch panel or the like. The camera MPU 140 detects that the operation input unit 141 has been operated, and executes an operation corresponding to the operation. For example, the camera MPU 140 controls each unit of the camera 10 so as to execute an imaging operation when a release button is pressed. In addition, the camera MPU 140 controls each unit of the camera 10 so as to perform an operation according to the menu item displayed on the display unit 138 and the operation content when an input member mounted as a touch panel is operated.

音声入出力部178は、音声を入力するマイク部および音声を出力するスピーカ部を有する。カメラMPU140は、マイク部から入力された音声信号を処理する。また、カメラMPU140は、スピーカ部から音声を出力させる。例えば、カメラMPU140は、ガイド情報をスピーカ部から音声で出力させてよい。   The voice input / output unit 178 includes a microphone unit that inputs voice and a speaker unit that outputs voice. The camera MPU 140 processes an audio signal input from the microphone unit. The camera MPU 140 outputs sound from the speaker unit. For example, the camera MPU 140 may output the guide information from a speaker unit with sound.

カメラ10は、上記に説明した制御を含めて、カメラMPU140およびASIC135により直接的または間接的に制御される。カメラ10の動作に必要な定数、変数等のパラメータ、プログラム等は、システムメモリ139に格納される。システムメモリ139は、電気的に消去・記憶可能な不揮発性メモリであり、例えばフラッシュROM、EEPROM等により構成される。システムメモリ139は、パラメータ、プログラム等を、カメラ10の非動作時にも失われないように格納する。システムメモリ139に記憶されたパラメータ、プログラム等は、RAM136に展開され、カメラ10の制御に利用される。カメラ本体130内の、ASIC135、RAM136、システムメモリ139、表示制御部137、カメラMPU140および外部機器IF152は、バス等の接続インタフェース149により相互に接続され、各種のデータをやりとりする。   The camera 10 is controlled directly or indirectly by the camera MPU 140 and the ASIC 135 including the control described above. Constants, parameters such as variables, programs, and the like necessary for the operation of the camera 10 are stored in the system memory 139. The system memory 139 is an electrically erasable / storable nonvolatile memory, and is configured by, for example, a flash ROM, an EEPROM, or the like. The system memory 139 stores parameters, programs, and the like so that they are not lost even when the camera 10 is not operating. Parameters, programs, and the like stored in the system memory 139 are expanded in the RAM 136 and used for controlling the camera 10. The ASIC 135, the RAM 136, the system memory 139, the display control unit 137, the camera MPU 140, and the external device IF 152 in the camera body 130 are connected to each other via a connection interface 149 such as a bus and exchange various data.

カメラ本体130の各部、レンズユニット120の各部および外部メモリ180は、電源回路192を介して電源190から電力供給を受ける。電源190としては、カメラ本体130に対して着脱できる例えばリチウムイオン電池等の二次電池、系統電源等を例示することができる。二次電池は電池の一例であり、電池とは、実質的に充電することができない非充電式の電池を含む。カメラMPU140は、電源回路192を制御することにより、電源190からカメラ10の各部への電力供給を制御する。   Each part of the camera body 130, each part of the lens unit 120, and the external memory 180 are supplied with power from the power supply 190 via the power supply circuit 192. Examples of the power source 190 include a secondary battery such as a lithium ion battery that can be attached to and detached from the camera body 130, a system power source, and the like. The secondary battery is an example of a battery, and the battery includes a non-rechargeable battery that cannot be substantially charged. The camera MPU 140 controls power supply from the power supply 190 to each unit of the camera 10 by controlling the power supply circuit 192.

図3は、サーバ20のブロック構成の一例を模式的に示す。サーバ20は、CPU210、RAM220、システムメモリ230、記録媒体240、操作入力部250、通信部270、表示部280およびバス290を備える。バス290は、CPU210、RAM220、システムメモリ230、記録媒体240、操作入力部250、通信部270および表示部280と結合され、各部から出力された各種データ、制御信号等を相互に伝送する。   FIG. 3 schematically illustrates an example of a block configuration of the server 20. The server 20 includes a CPU 210, a RAM 220, a system memory 230, a recording medium 240, an operation input unit 250, a communication unit 270, a display unit 280, and a bus 290. The bus 290 is coupled to the CPU 210, the RAM 220, the system memory 230, the recording medium 240, the operation input unit 250, the communication unit 270, and the display unit 280, and transmits various data output from each unit, control signals, and the like.

CPU210は、中央処理装置であり、サーバ20の制御全般を司る。システムメモリ230は、電気的に消去・記憶可能な不揮発性メモリであり、例えばフラッシュROM等により構成される。システムメモリ230は、サーバ20の動作に必要な定数、変数等の制御用のパラメータ、プログラム等を、サーバ20の非動作時にも失われないように記憶している。システムメモリ230に記憶された定数、変数、プログラム等は、システムメモリ230からRAM220に展開され、サーバ20の各部の制御に利用される。RAM220としては、SDRAM等を適用できる。   The CPU 210 is a central processing unit and governs overall control of the server 20. The system memory 230 is an electrically erasable / storable nonvolatile memory, and is configured by, for example, a flash ROM. The system memory 230 stores control parameters such as constants and variables necessary for the operation of the server 20, programs, and the like so that they are not lost even when the server 20 is not operating. Constants, variables, programs, and the like stored in the system memory 230 are expanded from the system memory 230 to the RAM 220 and used to control each unit of the server 20. As the RAM 220, SDRAM or the like can be applied.

記録媒体240は、不揮発性の記録媒体である。記録媒体240としては、ハードディスク等の磁気記録媒体、フラッシュメモリ等の半導体メモリ、光ディスク等の光学記録媒体等、種々の記録媒体を適用できる。操作入力部250は、ユーザ操作を受け付ける。操作入力部250としては、マウス、キーボード等の操作部材を含んでよい。通信部270は、ネットワーク通信を担い、カメラ10との間で各種のデータを送受信する。表示部280としては、液晶ディスプレイ等の表示デバイスを適用できる。   The recording medium 240 is a non-volatile recording medium. As the recording medium 240, various recording media such as a magnetic recording medium such as a hard disk, a semiconductor memory such as a flash memory, and an optical recording medium such as an optical disk can be applied. The operation input unit 250 receives a user operation. The operation input unit 250 may include operation members such as a mouse and a keyboard. The communication unit 270 is responsible for network communication and transmits / receives various data to / from the camera 10. As the display unit 280, a display device such as a liquid crystal display can be applied.

通信部270は、カメラ10から要求情報および撮像情報を受信する。CPU210は、通信部270が受信した要求情報を処理して、記録媒体240に記録させる。また、CPU210は、カメラ10から送信された撮像情報を処理して、記録媒体240に記録させる。記録媒体240には、被写体に対応づけて解説情報等の付加情報が予め記録されている。被写体が動物である場合、解説情報としては、被写体の形態、被写体の分類、被写体の生態等を例示できる。CPU210は、カメラ10から撮像情報を取得した場合に、解説情報を付加情報として追加して記録媒体240に記録する。   The communication unit 270 receives request information and imaging information from the camera 10. The CPU 210 processes the request information received by the communication unit 270 and records it on the recording medium 240. Further, the CPU 210 processes the imaging information transmitted from the camera 10 and records it on the recording medium 240. Additional information such as commentary information is recorded in advance on the recording medium 240 in association with the subject. When the subject is an animal, examples of the commentary information include the form of the subject, the classification of the subject, and the ecology of the subject. When the imaging information is acquired from the camera 10, the CPU 210 adds commentary information as additional information and records it on the recording medium 240.

CPU210は、カメラ10から新たな撮像情報を受信した場合に、記録媒体240に記録されている要求情報と撮像情報とを照合して、撮像情報に適合する要求情報がある場合に、当該要求情報を送信したカメラ10へ、付加情報を付加した撮像情報を被写体情報として送信する。また、CPU210は、カメラ10から新たな要求情報を受信した場合に、記録媒体240に記録されている撮像情報と要求情報とを照合して、要求情報に適合する撮像情報がある場合に、当該要求情報を送信したカメラ10へ、付加情報を付加した撮像情報を被写体情報として送信する。   When new image information is received from the camera 10, the CPU 210 collates the request information recorded on the recording medium 240 with the image information, and if there is request information that matches the image information, the request information The imaging information added with the additional information is transmitted as subject information to the camera 10 that has transmitted. In addition, when new request information is received from the camera 10, the CPU 210 compares the image information recorded in the recording medium 240 with the request information, and if there is image information that matches the request information, Imaging information with additional information is transmitted as subject information to the camera 10 that has transmitted the request information.

図4は、表示部138に表示される被写体選択画面400の一例を模式的に示す。被写体選択画面400は、目的とする被写体を選択するためのメニュー画面である。カメラMPU140は、サーバ20から受信した被写体情報に含まれる画像データに基づいて、被写体選択画面400を表示部138に表示させる。   FIG. 4 schematically shows an example of the subject selection screen 400 displayed on the display unit 138. The subject selection screen 400 is a menu screen for selecting a target subject. The camera MPU 140 displays the subject selection screen 400 on the display unit 138 based on the image data included in the subject information received from the server 20.

被写体選択画面400は、複数の画像エリア410と、複数の画像エリア410にそれぞれ対応する複数の被写体情報エリア420と、カーソル430とを含む。画像エリア410内には、サーバ20から受信した画像データに基づいて画像が表示される。被写体情報エリア420には、サーバ20から受信した被写体情報に含まれる被写体名等の付加情報が表示される。   The subject selection screen 400 includes a plurality of image areas 410, a plurality of subject information areas 420 corresponding to the plurality of image areas 410, and a cursor 430, respectively. An image is displayed in the image area 410 based on the image data received from the server 20. In the subject information area 420, additional information such as a subject name included in the subject information received from the server 20 is displayed.

ユーザは、マルチセレクタ等の操作入力部141を操作することにより、カーソル430を移動させ、複数の画像エリア410の中から一つの画像エリア410を選択する。カメラMPU140は、マルチセレクタ等の操作に応じて、カーソル430を表示する位置を決定して、決定した位置にカーソル430を表示させる。カメラMPU140は、マルチセレクタ等の操作から、ユーザが画像エリア410を選択する操作がなされたと判断すると、現在のカーソル430の位置に対応する画像エリア410を特定して、特定した画像エリア410に対応する被写体の位置へのガイドを開始する。   The user operates the operation input unit 141 such as a multi selector to move the cursor 430 and select one image area 410 from the plurality of image areas 410. The camera MPU 140 determines a position for displaying the cursor 430 in accordance with an operation of the multi-selector or the like, and displays the cursor 430 at the determined position. When the camera MPU 140 determines that the user has performed an operation of selecting the image area 410 based on the operation of the multi-selector or the like, the camera MPU 140 identifies the image area 410 corresponding to the current position of the cursor 430 and corresponds to the identified image area 410. The guide to the position of the subject to be started is started.

なお、被写体選択画面400において、詳細情報を表示すべき旨の予め定められた操作を検出した場合、カメラMPU140は、現在のカーソル430の位置に対応する被写体情報に含まれる撮像条件等の種々の情報を、表示部138に表示させてよい。   When a predetermined operation for displaying detailed information is detected on the subject selection screen 400, the camera MPU 140 detects various conditions such as an imaging condition included in the subject information corresponding to the current position of the cursor 430. Information may be displayed on the display unit 138.

図5は、表示部138に表示されるガイド画面の一例を模式的に示す。図5は、表示部138に表示されるガイド画面500を示す。ガイド画面500は、カメラ10の現在位置と移動目標の被写体位置との間の距離が予め定められた値より大きい場合に、表示部138に表示される。また、ガイド画面500は、カメラ10の現在位置から移動目標の被写体位置を撮像することができない場合に、表示部138に表示されてもよい。   FIG. 5 schematically illustrates an example of a guide screen displayed on the display unit 138. FIG. 5 shows a guide screen 500 displayed on the display unit 138. The guide screen 500 is displayed on the display unit 138 when the distance between the current position of the camera 10 and the subject position of the movement target is larger than a predetermined value. In addition, the guide screen 500 may be displayed on the display unit 138 when it is not possible to capture the moving subject position from the current position of the camera 10.

ガイド画面500は、移動すべき向きを示すオブジェクト510と、広域エリア550とを含む。オブジェクト510および広域エリア550は、撮像素子132で撮像された画像データに基づく画像上に表示される。   The guide screen 500 includes an object 510 indicating a direction to be moved and a wide area 550. The object 510 and the wide area 550 are displayed on an image based on image data captured by the image sensor 132.

カメラMPU140は、カメラ10の現在位置から被写体位置への向きを、移動すべき向きとして決定してよい。カメラMPU140は、カメラ10の現在位置から被写体位置への移動経路に沿う向きを、移動すべき向きとして決定してよい。カメラMPU140は、カメラ10の現在位置から被写体位置への移動経路に関する経路情報を、サーバ20から受信して、経路情報およびカメラ10の現在位置に基づいて、オブジェクト510を表示してよい。   The camera MPU 140 may determine the direction from the current position of the camera 10 to the subject position as the direction to be moved. The camera MPU 140 may determine the direction along the movement path from the current position of the camera 10 to the subject position as the direction to be moved. The camera MPU 140 may receive route information regarding the moving route from the current position of the camera 10 to the subject position from the server 20 and display the object 510 based on the route information and the current position of the camera 10.

広域エリア550には、カメラ10の現在位置および現在のユーザの向きを示すオブジェクト560と、目標位置を示すオブジェクト570とが含まれる。カメラMPU140は、位置検出部172で検出されたカメラ10の位置の履歴に基づいて、ユーザの向きを決定してよい。カメラMPU140は、方向検出部174で検出されたカメラ10の向きに基づいてユーザの向きを決定してもよい。カメラMPU140は、方向検出部174で検出されたカメラ10の向きを、ユーザの向きとして決定してもよい。   The wide area 550 includes an object 560 indicating the current position of the camera 10 and the current user orientation, and an object 570 indicating the target position. The camera MPU 140 may determine the orientation of the user based on the history of the position of the camera 10 detected by the position detection unit 172. The camera MPU 140 may determine the orientation of the user based on the orientation of the camera 10 detected by the direction detection unit 174. The camera MPU 140 may determine the orientation of the camera 10 detected by the direction detection unit 174 as the orientation of the user.

図6は、表示部138に表示されるガイド画面の他の一例を模式的に示す。図6は、表示部138に表示されるガイド画面600を示す。ガイド画面600は、カメラ10の現在位置と目標位置との間の距離が予め定められた値より小さい場合に、表示部138に表示される。また、ガイド画面600は、カメラ10の現在位置から移動目標の被写体位置を撮像することができる場合に、表示部138に表示されてもよい。   FIG. 6 schematically shows another example of the guide screen displayed on the display unit 138. FIG. 6 shows a guide screen 600 displayed on the display unit 138. The guide screen 600 is displayed on the display unit 138 when the distance between the current position of the camera 10 and the target position is smaller than a predetermined value. In addition, the guide screen 600 may be displayed on the display unit 138 when the moving subject position can be captured from the current position of the camera 10.

ガイド画面600は、向きを示すオブジェクト610を含む。オブジェクト610は、撮像素子132で撮像された画像データに基づく画像上に表示される。カメラMPU140は、カメラ10の現在位置から被写体位置への向きに基づいて、オブジェクト610で示すべき向きを決定して、オブジェクト610を表示させてよい。カメラMPU140は、カメラ10の現在位置から被写体位置への向きをオブジェクト610で示すべき向きとして決定してよい。カメラMPU140は、カメラ10の現在位置から被写体位置への向きと、カメラ10の現在の向きとに基づいて、オブジェクト610で示すべき向きを決定してもよい。また、カメラMPU140は、カメラ10の現在位置から被写体位置への向きと、カメラ10の現在の向きと、カメラ10の現在の画角とに基づいて、オブジェクト610の位置およびオブジェクト610で示すべき向きを決定してよい。   The guide screen 600 includes an object 610 indicating a direction. The object 610 is displayed on an image based on image data captured by the image sensor 132. The camera MPU 140 may display the object 610 by determining the direction to be indicated by the object 610 based on the direction from the current position of the camera 10 to the subject position. The camera MPU 140 may determine the direction from the current position of the camera 10 to the subject position as the direction to be indicated by the object 610. The camera MPU 140 may determine the direction to be indicated by the object 610 based on the direction from the current position of the camera 10 to the subject position and the current direction of the camera 10. The camera MPU 140 also determines the position of the object 610 and the direction to be indicated by the object 610 based on the direction from the current position of the camera 10 to the subject position, the current direction of the camera 10, and the current angle of view of the camera 10. May be determined.

なお、ガイド画面600と同様のガイド画面は、ファインダ窓163を通じてユーザに提示されてもよい。例えば、カメラMPU140は、透過型表示パネル160にオブジェクト610と同様のオブジェクトを表示させて、被写体光束に基づく被写体像に重畳して当該オブジェクトをユーザに提示させてもよい。   Note that a guide screen similar to the guide screen 600 may be presented to the user through the finder window 163. For example, the camera MPU 140 may display an object similar to the object 610 on the transmissive display panel 160 and superimpose it on a subject image based on the subject luminous flux and present the object to the user.

図7は、表示部138に表示されるガイド画面の更なる他の一例を模式的に示す。図7は、カメラ10による撮像範囲内に、被写体位置が含まれている場合のガイド画面700の一例である。   FIG. 7 schematically shows still another example of the guide screen displayed on the display unit 138. FIG. 7 is an example of a guide screen 700 when the subject position is included in the imaging range of the camera 10.

カメラMPU140は、カメラ10の現在位置から被写体位置への向きと、カメラ10の現在の向きと、カメラ10の現在の画角とに基づいて、オブジェクト710の位置およびオブジェクト710で示すべき向きを決定して、表示部138にオブジェクト710を表示させる。なお、ガイド画面700と同様のガイド画面は、ファインダ窓163を通じてユーザに提示されてもよい。例えば、カメラMPU140は、透過型表示パネル160にオブジェクト710と同様のオブジェクトを表示させて、被写体光束に基づく被写体像に重畳して当該オブジェクトをユーザに提示させてもよい。   The camera MPU 140 determines the position of the object 710 and the direction to be indicated by the object 710 based on the direction from the current position of the camera 10 to the subject position, the current direction of the camera 10, and the current angle of view of the camera 10. Then, the object 710 is displayed on the display unit 138. Note that a guide screen similar to the guide screen 700 may be presented to the user through the finder window 163. For example, the camera MPU 140 may display an object similar to the object 710 on the transmissive display panel 160 and superimpose it on a subject image based on the subject luminous flux and present the object to the user.

なお、上述したガイド画面を表示している場合に、被写体位置と現在位置との間の距離に応じて、オブジェクト510、オブジェクト610およびオブジェクト710等のオブジェクトの色、形状および大きさの少なくとも一つを変更してもよい。また、オブジェクトを点滅させる等、オブジェクトの表示状態を変更してもよい。また、被写体位置と現在位置との間の距離を数字で更に表示させてもよい。また、ガイド画面を表示している場合に、要求情報で指定した被写体の声を音声入出力部178のマイク部で検出したときには、音源の方向を特定して、特定した方向に新しく矢印等のオブジェクトを追加で表示してもよい。   When the above-described guide screen is displayed, at least one of the color, shape, and size of an object such as the object 510, the object 610, and the object 710 according to the distance between the subject position and the current position. May be changed. Further, the display state of the object may be changed by blinking the object. Further, the distance between the subject position and the current position may be further displayed as a number. Further, when the voice of the subject specified by the request information is detected by the microphone unit of the voice input / output unit 178 when the guide screen is displayed, the direction of the sound source is specified and a new arrow or the like is added in the specified direction. Additional objects may be displayed.

また、被写体が天体である場合は、カメラMPU140は、北極星等の予め定められた星の位置をユーザに提示するガイド画面を表示させてもよい。日時に応じて天空を移動する星の位置をユーザに提示する場合、カメラMPU140は、日時情報に更に基づいてガイド画面を生成してよい。また、カメラMPU140は、日時に応じて天空を移動する星の位置と、北極星の位置とをユーザに提示するガイド画面を生成してもよい。   When the subject is an astronomical object, the camera MPU 140 may display a guide screen that presents the user with a predetermined star position such as a north star. When presenting the position of a star moving in the sky according to the time of day to the user, the camera MPU 140 may generate a guide screen further based on the date information. In addition, the camera MPU 140 may generate a guide screen that presents the position of the star moving in the sky and the position of the Arctic star according to the date and time.

図8は、カメラ10における動作フローの一例を示す。図8は、カメラ10の起動から終了までの処理フローを示す。本フローは、例えば操作入力部141の一部としての電源スイッチがON位置に切り替えられた場合に、開始される。本フローは、カメラMPU140が主体となってカメラ10の各部を制御することにより実行される。   FIG. 8 shows an example of an operation flow in the camera 10. FIG. 8 shows a processing flow from activation to termination of the camera 10. This flow is started, for example, when a power switch as a part of the operation input unit 141 is switched to the ON position. This flow is executed by controlling each part of the camera 10 mainly by the camera MPU 140.

ステップS800において、カメラ10の初期設定を開始する。例えば、カメラMPU140は、カメラ10を制御するための各種パラメータ等を、システムメモリ139からRAM136に展開する。また、カメラMPU140は、例えば操作入力部141の一部としての撮像モードダイヤル等の状態、および、展開された各種パラメータに基づき、カメラ10の各部の動作条件を設定する。動作条件としては、撮影モード、撮像条件等を例示できる。撮影モードとしては、連写モード、単写モード、バルブ撮影モード等を例示することができる。撮像条件としては、露光時間、絞り値、撮像感度等を例示できる。   In step S800, initial setting of the camera 10 is started. For example, the camera MPU 140 expands various parameters for controlling the camera 10 from the system memory 139 to the RAM 136. In addition, the camera MPU 140 sets operating conditions of each unit of the camera 10 based on, for example, the state of an imaging mode dial as a part of the operation input unit 141 and various developed parameters. Examples of the operating conditions include a shooting mode and imaging conditions. Examples of the shooting mode include a continuous shooting mode, a single shooting mode, and a bulb shooting mode. Examples of imaging conditions include exposure time, aperture value, imaging sensitivity, and the like.

続いて、ステップS802において、カメラMPU140は、初期設定で設定された内容を表示部138等に表示させる。例えば、カメラMPU140は、撮像モード、撮像条件、記録条件等の情報を、アイコン表示等の種々の形式で表示部138に表示させる。   Subsequently, in step S802, the camera MPU 140 causes the display unit 138 and the like to display the content set in the initial setting. For example, the camera MPU 140 causes the display unit 138 to display information such as an imaging mode, imaging conditions, and recording conditions in various formats such as icon display.

続いて、ステップS804において、カメラMPU140は、生じたイベントを特定する。具体的には、カメラMPU140は、操作入力部141に対する操作および無線通信部170から受信したデータの少なくとも一つに基づいて、イベントを特定する。   Subsequently, in step S804, the camera MPU 140 identifies the event that has occurred. Specifically, the camera MPU 140 identifies an event based on at least one of an operation on the operation input unit 141 and data received from the wireless communication unit 170.

設定を実行するユーザ操作にイベントが生じたと判断された場合、指示された設定処理を行う(ステップS808)。設定処理としては、上述した撮像モードを選択する処理、撮像条件を設定する処理等を例示することができる。本ステップで動作設定が変更された場合、変更された動作設定に応じてパラメータ変数が変更される。   When it is determined that an event has occurred in the user operation for executing the setting, the instructed setting process is performed (step S808). Examples of the setting process include a process for selecting the above-described imaging mode, a process for setting an imaging condition, and the like. When the operation setting is changed in this step, the parameter variable is changed according to the changed operation setting.

また、撮像を希望する被写体を示す被写体名を設定する処理も、本設定処理の一部として行われる。要求情報としてサーバ20へ送信する。被写体名とは、「ニホンザル」や「ヒマワリ」等の動植物や、「北斗七星」等の物体の種類を示す名称であってよい。また、被写体名として、「秋焼け」、「夜景」等の、背景、光線状態、季節、時刻や場所をも含む名称を例示することができる。被写体名を複数設定できてもよい。   Also, a process for setting a subject name indicating a subject desired to be imaged is performed as part of the setting process. The request information is transmitted to the server 20. The subject name may be a name indicating the type of an object such as “Himasei” or “animals and plants” such as “Japanese macaque” or “sunflower”. Further, examples of the subject name include names such as “autumn” and “night view” including the background, the light beam state, the season, the time, and the place. A plurality of subject names may be set.

ステップS804において、レリーズボタンに対するユーザ操作に基づくイベントが生じたと判断された場合、レリーズボタンの押し込みに応じて焦点調節または撮像を行う(ステップS810)。本ステップに処理については、図9に関連して説明する。   If it is determined in step S804 that an event based on a user operation on the release button has occurred, focus adjustment or imaging is performed according to the depression of the release button (step S810). The processing in this step will be described with reference to FIG.

ステップS804において、被写体情報を受信したことに基づくイベントが生じたと判断された場合、ガイド処理を行うタスクを起動する(ステップS812)。本タスクが実行する処理については、図11に関連して説明する。   If it is determined in step S804 that an event has occurred based on reception of subject information, a task for performing guide processing is activated (step S812). The processing executed by this task will be described with reference to FIG.

ステップS804において、他のイベントが生じたと判断された場合、イベントに応じて予め定められた処理を実行する(ステップS814)。本処理としては、画像データを再生する処理理等を例示することができる。   If it is determined in step S804 that another event has occurred, processing predetermined according to the event is executed (step S814). An example of this process is a process for reproducing image data.

ステップS808、ステップS810、ステップS812、ステップS814の処理が完了した場合、ステップS820に処理を進める。ステップS820においては、電源をOFFするか否かを判断する。例えば、電源スイッチがOFF位置に切り換えられた場合や、カメラ10が動作を開始してから予め定められた期間、ユーザ指示が無い状態が継続した場合等に、電源をOFFすると判断する。電源をOFFすると判断した場合は本フローを終了し、電源をOFFしないと判断した場合はステップS804に処理を移行させる。   When the processes of step S808, step S810, step S812, and step S814 are completed, the process proceeds to step S820. In step S820, it is determined whether to turn off the power. For example, it is determined to turn off the power when the power switch is switched to the OFF position, or when there is no user instruction for a predetermined period after the camera 10 starts operating. If it is determined that the power is to be turned off, this flow is terminated. If it is determined that the power is not to be turned off, the process proceeds to step S804.

図9は、レリーズボタンが押し込まれた場合の処理フローの一例を示す。本フローは、ステップS810の一部の処理に適用できる。本フローは、カメラMPU140が主体となってカメラ10の各部を制御することにより実行される。   FIG. 9 shows an example of a processing flow when the release button is pressed. This flow can be applied to a part of the processing in step S810. This flow is executed by controlling each part of the camera 10 mainly by the camera MPU 140.

ステップS902において、レリーズボタンが半押しされたか全押しされたか否かを判断する。レリーズボタンが半押しされた場合、カメラMPU140は、現在の焦点調節位置に対応する被写体に対して焦点調節を行い(ステップS904)、本フローを終了する。ステップS904においては、ライブビュー動作をしていない場合は、AFユニット142による位相差に基づく焦点調節が行われる。ライブビュー動作をしている場合は、画像データからコントラスト量に基づく焦点調節が行われる。   In step S902, it is determined whether the release button has been pressed halfway or fully. When the release button is pressed halfway, the camera MPU 140 performs focus adjustment on the subject corresponding to the current focus adjustment position (step S904), and ends this flow. In step S904, when the live view operation is not performed, focus adjustment based on the phase difference by the AF unit 142 is performed. When the live view operation is performed, focus adjustment based on the contrast amount is performed from the image data.

ステップS902の判断において、レリーズボタンが全押ししされたと判断した場合、撮像素子132で露光して撮像を行い(ステップS906)、撮像素子132の出力を読み出す(ステップS908)。続いて、読み出した光電変換素子の出力に基づいて記録用の画像データを生成して(ステップS910)、生成した画像データを外部メモリ180に記録する(ステップS912)。このとき、カメラMPU140は、合焦制御の対象となった合焦点を示す情報を、画像データに付帯して記録させてよい。   If it is determined in step S902 that the release button has been fully pressed, the image sensor 132 is exposed and imaged (step S906), and the output of the image sensor 132 is read (step S908). Subsequently, image data for recording is generated based on the read output of the photoelectric conversion element (step S910), and the generated image data is recorded in the external memory 180 (step S912). At this time, the camera MPU 140 may record information indicating the in-focus point subjected to the focusing control along with the image data.

続いて、ステップS914において、カメラMPU140は、無線通信部170を制御して、外部メモリ180に記録された画像データをサーバ20へ送信させる。サーバ20へは、合焦点を示す情報とともに画像データをサーバ20へ送信させる。   Subsequently, in step S <b> 914, the camera MPU 140 controls the wireless communication unit 170 to transmit the image data recorded in the external memory 180 to the server 20. The server 20 transmits image data to the server 20 together with information indicating the focal point.

続いて、ステップS916において、ユーザをガイド中であるか否かを判断する。例えば、図5から図8にかけて説明したガイド画面を表示する動作モードで動作しているか否かを判断する。ユーザをガイド中でない場合は、本フローを終了する。ユーザをガイド中である場合は、ガイドを終了するか否かを判断する(ステップS918)。   In step S916, it is determined whether the user is being guided. For example, it is determined whether or not it is operating in the operation mode for displaying the guide screen described with reference to FIGS. If the user is not being guided, this flow ends. If the user is being guided, it is determined whether or not to end the guide (step S918).

例えば、カメラMPU140は、ガイドの目標である被写体位置の被写体を撮像して、生成された画像データを記録した場合に、ガイドを終了する旨を判断する。カメラMPU140は、ガイドの目標である被写体位置と現在のカメラ10の位置までの距離が予め定められた値より小さい場合に、ガイドを終了すると判断する。ガイドを終了するべきか否かをユーザに問い合わせて、ガイドを終了すべき旨の入力があった場合に、ガイドを終了すると判断してもよい。   For example, the camera MPU 140 determines that the guide is to be ended when the subject at the subject position that is the target of the guide is imaged and the generated image data is recorded. The camera MPU 140 determines to end the guide when the distance between the subject position that is the guide target and the current position of the camera 10 is smaller than a predetermined value. The user may be inquired whether or not to end the guide, and may be determined to end the guide when there is an input indicating that the guide should be ended.

ガイドを終了すると判断された場合、ガイドを終了する処理を行い(ステップS920)、本フローを終了する。例えば、ガイド画面を表示しない動作モードに設定する。ガイド画面を表示しない動作モードでは、オブジェクト510、オブジェクト610、オブジェクト710および広域エリア550は、表示部138や透過型表示パネル160には表示されない。   If it is determined that the guide is to be terminated, a process for terminating the guide is performed (step S920), and this flow is terminated. For example, the operation mode in which the guide screen is not displayed is set. In the operation mode in which the guide screen is not displayed, the object 510, the object 610, the object 710, and the wide area 550 are not displayed on the display unit 138 or the transmissive display panel 160.

図10は、サーバ20における処理フローの一例を示す。図10は、カメラ10からの待ち受ける部分の処理フローの一例である。本フローは、カメラ10から情報を受信したことが検出された場合に、開始される。本フローは、210が主体となってサーバ20の各部を制御することにより実行される。   FIG. 10 shows an example of a processing flow in the server 20. FIG. 10 is an example of a processing flow of a part waiting from the camera 10. This flow is started when it is detected that information has been received from the camera 10. This flow is executed by controlling each part of the server 20 with 210 as a main body.

本フローが開始すると、ステップS1002において、受信した情報の種類を判断する。具体的には、撮像情報を受信したか、要求情報を受信したか否かを判断する。受信した情報が要求情報である場合、要求情報を記録媒体240に記録する(ステップS1004)。要求情報には、撮像することを希望する被写体の被写体名、カメラ識別情報、ユーザ識別情報が含まれる。   When this flow starts, the type of received information is determined in step S1002. Specifically, it is determined whether imaging information has been received or request information has been received. If the received information is request information, the request information is recorded on the recording medium 240 (step S1004). The request information includes the subject name of the subject desired to be imaged, camera identification information, and user identification information.

ステップS1006において、カメラ10から既に受信して記録媒体240に記録されている撮像情報のうち、要求された被写体名に一致する被写体名を含むものが存在するか否かを判断する。一致する被写体名を含む撮像情報が存在しない場合、本フローを終了する。一致する被写体名を含む撮像情報が存在した場合、当該撮像情報を、上記要求情報を送信したカメラ10へ被写体情報として送信し(ステップS1008)、本フローを終了する。このとき、予め定められた件数を上限として、被写体情報をカメラ10へ送信してよい。また、画像データが得られてからの現在までの経過時間が予め定められた閾値より短いものに限定して、被写体情報をカメラ10へ送信してもよい。予め定められた件数、画像データが得られてからの現在までの経過時間は、ユーザ毎に予め設定され、サーバ20において予め取得されていてよい。   In step S1006, it is determined whether or not there is information including a subject name that matches the requested subject name among the imaging information that has already been received from the camera 10 and recorded on the recording medium 240. If there is no imaging information including a matching subject name, this flow ends. If there is imaging information including a matching subject name, the imaging information is transmitted as subject information to the camera 10 that has transmitted the request information (step S1008), and this flow ends. At this time, subject information may be transmitted to the camera 10 with a predetermined number as the upper limit. Further, the subject information may be transmitted to the camera 10 only when the elapsed time from when the image data is obtained to the present is shorter than a predetermined threshold. The predetermined number of cases and the elapsed time from when the image data is obtained until the present time may be set in advance for each user and acquired in advance in the server 20.

ステップS1004の判断において、受信した情報が撮像情報である場合、被写体の種類を特定する(ステップS1010)。例えば、画像認識により被写体の形状等を認識して、被写体の種類を特定する。撮像情報に合焦点の情報が含まれる場合、合焦点を含む部分領域の画像データに対して画像認識処理を適用してよい。   If it is determined in step S1004 that the received information is imaging information, the type of subject is specified (step S1010). For example, the type of the subject is specified by recognizing the shape of the subject by image recognition. When the focal point information is included in the imaging information, the image recognition process may be applied to the image data of the partial area including the focal point.

続いて、認識した被写体を特定する被写体名および付加情報を撮像情報に追加し(ステップS1012)、撮像情報を記録する(ステップS1014)。付加情報としては、被写体の解説等を例示できる。   Subsequently, the subject name and additional information for identifying the recognized subject are added to the imaging information (step S1012), and the imaging information is recorded (step S1014). Examples of the additional information include an explanation of the subject.

続いて、ステップS1010で特定した種類の被写体を要求しているユーザがいるか否かを判断する(ステップS106)。例えば、記録媒体240に記録されている要求情報を検索して、ステップS1010で特定した種類の被写体の撮像を希望しているユーザがいるか否かを判断する。撮像を希望しているユーザがいない場合、本フローを終了する。撮像を希望しているユーザがいる場合、当該ユーザが使用しているカメラ10へ、撮像情報を被写体情報として送信し(ステップS1018)、本フローを終了する。なお、ステップS1018においては、撮像情報に含まれるカメラ識別情報および要求情報に含まれるカメラ識別情報に基づいて、被写体情報として撮像情報を送信すべきカメラ10を決定してよい。例えば、カメラ10aから撮像情報を受信した場合、カメラ10aには被写体情報が送信されないようにしてよい。また、撮像情報に含まれる被写体位置の情報に更に基づいて、被写体情報として撮像情報を送信すべきカメラ10を決定してよい。例えば、新たに取得した撮像情報に含まれる被写体位置および被写体の種類の組み合わせが、以前に取得した撮像情報に含まれる被写体位置および被写体の種類の組み合わせと一致する場合には、以前に取得した撮像情報を送信したカメラ10には、被写体情報を送信しないようにしてもよい。これにより、以前に撮った同じ被写体についての撮像情報が被写体情報として送信される可能性を低減することができる。   Subsequently, it is determined whether or not there is a user requesting the type of subject specified in step S1010 (step S106). For example, the request information recorded in the recording medium 240 is searched, and it is determined whether or not there is a user who desires to capture the type of subject specified in step S1010. If there is no user who wants to take an image, this flow ends. If there is a user who wishes to image, the imaging information is transmitted as subject information to the camera 10 used by the user (step S1018), and this flow is terminated. In step S1018, the camera 10 to which imaging information should be transmitted as subject information may be determined based on the camera identification information included in the imaging information and the camera identification information included in the request information. For example, when imaging information is received from the camera 10a, subject information may not be transmitted to the camera 10a. Further, the camera 10 to which the imaging information should be transmitted as the subject information may be determined based on the subject position information included in the imaging information. For example, if the combination of the subject position and the subject type included in the newly acquired imaging information matches the combination of the subject position and the subject type included in the previously acquired imaging information, the previously acquired imaging The subject information may not be transmitted to the camera 10 that has transmitted the information. As a result, it is possible to reduce the possibility that imaging information about the same subject that was taken before is transmitted as subject information.

図11は、ガイド処理タスクによりカメラ10において実行される処理フローの一例を示す。本フローは、カメラMPU140が主体となってカメラ10の各部を制御することにより実行される。   FIG. 11 shows an example of a processing flow executed in the camera 10 by the guide processing task. This flow is executed by controlling each part of the camera 10 mainly by the camera MPU 140.

ステップS1102において、カメラMPU140は、カメラ10の現在位置および向きを検出する。続いて、ステップS1104において、カメラMPU140は、目標の被写体位置を撮像できる位置にあるか否かを判断する。   In step S1102, the camera MPU 140 detects the current position and orientation of the camera 10. Subsequently, in step S1104, the camera MPU 140 determines whether or not the target subject position can be imaged.

目標の被写体位置を撮像できる位置にない場合、カメラMPU140は、ユーザが移動すべき向きを特定し(ステップS1106)、移動すべき向きをユーザに提示するガイド画面を、表示部138に表示させる(ステップS1108)。例えば、図5に例示したガイド画面を表示部138に表示させる。   When the target subject position is not at a position where the target subject position can be imaged, the camera MPU 140 identifies the direction in which the user should move (step S1106), and causes the display unit 138 to display a guide screen that presents the direction to be moved to the user ( Step S1108). For example, the guide screen illustrated in FIG. 5 is displayed on the display unit 138.

目標の被写体位置を撮像できる位置にある場合、カメラMPU140は、撮像される地理的範囲および被写体位置に基づいてカメラ10を向けるべき向きを特定し(ステップS1110)、カメラ10の向きを提示するガイド画面を、表示部138に表示させる(ステップS1112)。例えば、図6、図7に例示した、広域ガイド情報を含まないガイド画面を、表示部138に表示させる。   When the target subject position is in a position where the target subject position can be imaged, the camera MPU 140 specifies the direction in which the camera 10 should be directed based on the geographical range to be imaged and the subject position (step S1110), and a guide for presenting the direction of the camera 10 The screen is displayed on the display unit 138 (step S1112). For example, the guide screen that does not include the wide area guide information illustrated in FIGS. 6 and 7 is displayed on the display unit 138.

ステップS1114において、ガイド処理タスクを終了するか否かを判断する。具体的には、図9のステップS920において、ガイド処理タスクを停止するイベントが生じた場合に、ガイド処理タスクを終了する旨を判断する。ガイド処理タスクを終了しない場合は、ステップS1102に処理を移行する。ガイド処理タスクを終了する場合は、ガイド処理タスクを停止して(ステップS1114)、本フローを終了する。   In step S1114, it is determined whether to end the guide processing task. Specifically, in step S920 in FIG. 9, when an event for stopping the guide processing task occurs, it is determined to end the guide processing task. If the guide processing task is not terminated, the process proceeds to step S1102. When ending the guide processing task, the guide processing task is stopped (step S1114), and this flow is ended.

本実施形態において、ガイド画面によるガイドに代えて、またはガイド画面によるガイドに加えて音声でガイドしてもよい。例えば、音声入出力部178が有するスピーカ部から、左方向、右方向等を音声で出力させてよい。   In the present embodiment, voice guidance may be used instead of the guide screen guide or in addition to the guide screen guide. For example, the left and right directions may be output from the speaker unit included in the audio input / output unit 178 as audio.

また、要求情報は、ユーザの登録名、撮像エリア、受信タイミング、画像サイズ、受信件数、受信優先順および撮影機材をそれぞれ示す情報を含んでよい。ここで、ユーザの登録名とは、他のカメラ10がサーバ20に登録しているユーザ名であってよい。例えば、自分好みの画像を撮るユーザ名を要求情報に含めてよい。これにより、撮像情報がむやみに送信されるのを抑制することができる。また、団体で出掛けた場合等で、複数のユーザでグループを結成したときには、当該グループを識別するグループ名を、要求情報に含めてよい。サーバ20は、これらの情報に基づいて、被写体情報を送信すべきか否かを判断する。カメラ10は、設定メニューを通じて、これらの情報を設定してよい。   The request information may include information indicating the registered name of the user, the imaging area, the reception timing, the image size, the number of receptions, the reception priority order, and the imaging equipment. Here, the registered name of the user may be a user name registered in the server 20 by another camera 10. For example, the request information may include the name of a user who takes a picture of his / her preference. Thereby, it can suppress that imaging information is transmitted unnecessarily. Further, when a group is formed by a plurality of users, such as when going out in a group, a group name for identifying the group may be included in the request information. Based on these pieces of information, the server 20 determines whether or not subject information should be transmitted. The camera 10 may set these pieces of information through a setting menu.

撮像エリアとは、ユーザが撮像を行いたいエリアを示す。ユーザは、当該エリアを要求情報に含めることで、興味のないエリアに位置する被写体についての撮像情報が送信されるのを抑制することができる。撮像エリアの設定は、現在位置を中心とする同心円距離別に選択できてよい。また、住所に基づいて撮像エリアを設定してよい。また、タッチパネル機能を有する表示部138に表示された地図上で、撮像エリアを示す範囲を描くことで撮像エリアを設定できてよい。また、設定したユーザの現在位置からの同心円距離別に撮像エリアを設定できてよい。よく使われる複数のエリアは、表示部138において地図上で色を異ならせて提示してもよい。サーバ20は、撮像エリア情報に基づいて、被写体位置が撮像エリア外にある場合には、被写体情報を送信しなくてよい。   The imaging area indicates an area where the user wants to perform imaging. By including the area in the request information, the user can suppress transmission of imaging information about a subject located in an area of no interest. The setting of the imaging area may be selected for each concentric circle distance centered on the current position. Moreover, you may set an imaging area based on an address. The imaging area may be set by drawing a range indicating the imaging area on the map displayed on the display unit 138 having a touch panel function. Moreover, the imaging area may be set according to the concentric distance from the set current position of the user. A plurality of frequently used areas may be presented with different colors on the map in the display unit 138. Based on the imaging area information, the server 20 may not transmit the subject information when the subject position is outside the imaging area.

受信タイミングとは、S301において被写体情報の受信動作を開始するタイミングを示す情報である。例えば、現在位置が撮影エリア内にあることを条件として、被写体情報を送信すべき旨を受信タイミングとして設定してよい。また、受信タイミングとして、被写体情報の受信を開始する時刻、被写体情報の受信を終了する時刻、被写体情報を受信する期間を示す情報等、受信する時刻を直接指定してもよい。サーバ20は、現在の時刻が要求情報に含まれる受信タイミングに適合しない場合には、被写体情報を送信しなくてよい。   The reception timing is information indicating the timing at which the subject information reception operation is started in S301. For example, it may be set as the reception timing that subject information should be transmitted on condition that the current position is within the shooting area. In addition, as the reception timing, the reception time may be directly specified, such as the time when the reception of the subject information is started, the time when the reception of the subject information is ended, and the information indicating the period during which the subject information is received. The server 20 does not have to transmit subject information when the current time does not match the reception timing included in the request information.

画像サイズとは、被写体情報に含まれる画像データのサイズを示す。サーバ20は、撮像情報に含まれる画像データから、要求された画像サイズの画像データを生成して、カメラ10へ送信する。   The image size indicates the size of image data included in the subject information. The server 20 generates image data having a requested image size from the image data included in the imaging information, and transmits the image data to the camera 10.

受信件数とは、カメラ10で受信することができる被写体情報の最大件数を示す。受信件数を超えてカメラ10に送信されるのを防ぐことができる。サーバ20は、要求情報に適合する撮像情報が当該最大件数を超えて存在する場合には、最大件数を上限としてカメラ10へ送信してよい。   The number of receptions indicates the maximum number of subject information that can be received by the camera 10. It is possible to prevent transmission to the camera 10 exceeding the number of receptions. The server 20 may transmit to the camera 10 with the maximum number as the upper limit when the imaging information matching the request information is present exceeding the maximum number.

受信優先順とは、要求情報に適合する撮像情報の数が設定した受信件数を越える場合、被写体情報として優先的に受信する撮像情報を特定する情報である。例えば、撮像日時の新しい順であってよく、古い順であってもよい。また、指定した日時または時刻に近い順であってよく、遠い順であってよい。また、被写体位置または撮像位置が現在位置に近い順であってよく、遠い順であってもよい。撮像エリアとして設定したユーザの現在位置から近い順であってよく、遠い順であってもよい。また、ある指定したポイントから被写体位置が近い順であってよく、遠い順であってもよい。サーバ20は、要求情報に適合する撮像情報が当該最大件数を超えて存在する場合、受信優先順に基づいて他の撮像情報より優先して送信すべき撮像情報を選択して、選択した受信件数の撮像情報を被写体情報としてカメラ10へ送信する。   The reception priority order is information that specifies imaging information that is preferentially received as subject information when the number of imaging information that matches the request information exceeds the set number of receptions. For example, the imaging date may be in the newest order or the oldest order. Moreover, the order may be in the order close to the designated date and time or time, or in the order far away. Further, the subject position or the imaging position may be in the order closer to the current position or in the order farther away. The order may be close to the current position of the user set as the imaging area, or may be in a distant order. In addition, the subject position may be in the order from the specified point to the near or far away. The server 20 selects imaging information to be transmitted with priority over other imaging information based on the reception priority order when imaging information that matches the request information exceeds the maximum number, and the selected number of received information The imaging information is transmitted to the camera 10 as subject information.

また、カメラ10においてガイド画面を表示する場合、カメラ10の設定でガイド画面の表示方法を選択できてよい。例えば、設定した撮像エリア外に現在位置がある場合は、カーナビのような経路情報に基づくガイドモードでユーザをガイドしてよい。そして、現在位置が撮像エリア外にある場合は、図3から図7にかけて例示したように、現在位置、被写体位置およびカメラ10の方向に基づく被写体の位置への誘導方向を矢印等で表示するガイドモードに切り替わるようにしてもよい。   Further, when the guide screen is displayed on the camera 10, the display method of the guide screen may be selected by the setting of the camera 10. For example, when the current position is outside the set imaging area, the user may be guided in a guide mode based on route information such as car navigation. When the current position is outside the imaging area, as illustrated in FIG. 3 to FIG. 7, a guide that displays the current position, the subject position, and the guidance direction to the subject position based on the direction of the camera 10 with arrows or the like. You may make it switch to a mode.

なお、カメラ10は、サーバ20に送信する場合、テキストデータや音声データを撮像情報に追加してサーバ20へ送信してもよい。テキストデータは、ユーザによって入力されたデータであってよい。音声データは、撮像時に録音された音声の音声データであってよく、撮像前後に録音されたユーザの音声の音声データであってよい。   In addition, when transmitting to the server 20, the camera 10 may add text data or audio data to the imaging information and transmit it to the server 20. The text data may be data input by the user. The voice data may be voice data of voice recorded at the time of imaging, or may be voice data of user voice recorded before and after imaging.

また、サーバ20には、被写体毎の被写体認識用のプログラムが記録媒体240に記録されていてよい。カメラ10においては、要求情報に設定した被写体用のプログラムをサーバ20からダウンロードして、カメラ10に組み込んでよい。そして、カメラ10は、ユーザが被写体位置に誘導された後に、撮像領域内における当該被写体の位置を画像データに基づいて検出して、検出した位置に対してオートフォーカス動作により焦点制御を行ってもよい。   Further, the server 20 may record a subject recognition program for each subject in the recording medium 240. In the camera 10, the subject program set in the request information may be downloaded from the server 20 and incorporated in the camera 10. Then, after the user is guided to the subject position, the camera 10 detects the position of the subject in the imaging region based on the image data, and performs focus control on the detected position by an autofocus operation. Good.

また、例えばカメラ10aからサーバ20へ送信した撮像情報が、サーバ20からカメラ10bへ被写体情報として送信された場合に、サーバ20においてカメラ10aのユーザとカメラ10bのユーザと関連付けられているときには、サーバ20は、カメラ10bのユーザにその旨のメッセージを送信することにより、カメラ10bのユーザに通知してもよい。例えば、サーバ20は、撮影情報の送信を完了した旨の電子メールを、カメラ10aへ送信してもよい。   For example, when the imaging information transmitted from the camera 10a to the server 20 is transmitted as subject information from the server 20 to the camera 10b, the server 20 is associated with the user of the camera 10a and the user of the camera 10b. 20 may notify the user of the camera 10b by sending a message to that effect to the user of the camera 10b. For example, the server 20 may transmit an e-mail to the camera 10a indicating that the transmission of the shooting information has been completed.

また、被写体位置までの経路情報等は、サーバ20において特定されてよい。このために、カメラ10は、現在位置および向きの情報を、サーバ20に送信してよい。   Further, the route information to the subject position and the like may be specified in the server 20. For this purpose, the camera 10 may transmit information on the current position and orientation to the server 20.

上記の説明において、カメラMPU140の動作として説明した処理は、カメラMPU140がプログラムに従ってカメラ10が有する各ハードウェアを制御することにより実現される。また、上記の説明においてASIC135により実現される処理は、プロセッサによって実現することができる。例えば、ASIC135の動作として説明した処理は、プロセッサがプログラムに従ってカメラ10が有する各ハードウェアを制御することにより実現される。また、サーバ20において210CPU210の動作として説明した処理は、CPU210がプログラムに従ってサーバ20が有する各ハードウェアを制御することにより実現される。すなわち、本実施形態のカメラ10やサーバ20に関連して説明した処理は、プロセッサがプログラムに従って動作して各ハードウェアを制御することにより、プロセッサ、メモリ等を含む各ハードウェアとプログラムとが協働して動作することにより実現することができる。すなわち、当該処理を、いわゆるコンピュータ装置によって実現することができる。コンピュータ装置は、上述した処理の実行を制御するプログラムをロードして、読み込んだプログラムに従って動作して、当該処理を実行してよい。コンピュータ装置は、当該プログラムを記憶しているコンピュータ読取可能な記録媒体から当該プログラムをロードすることができる。   In the above description, the processing described as the operation of the camera MPU 140 is realized by the camera MPU 140 controlling each hardware of the camera 10 according to a program. In the above description, the processing realized by the ASIC 135 can be realized by a processor. For example, the processing described as the operation of the ASIC 135 is realized by the processor controlling each hardware included in the camera 10 according to the program. Further, the processing described as the operation of the 210 CPU 210 in the server 20 is realized by the CPU 210 controlling each hardware of the server 20 according to the program. In other words, the processing described in connection with the camera 10 and the server 20 of the present embodiment is performed by the processor operating in accordance with the program to control each hardware, so that each hardware including the processor, memory, etc. and the program cooperate. It can be realized by working and operating. That is, the process can be realized by a so-called computer device. The computer device may load a program for controlling the execution of the above-described process, operate according to the read program, and execute the process. The computer device can load the program from a computer-readable recording medium storing the program.

また、本実施形態において、レンズユニット120が装着された状態のカメラ10を、撮像装置の一例として取り上げた。しかし、撮像装置とは、レンズユニット120が装着されていないカメラ本体130を含む概念である。撮像装置としては、レンズ交換式カメラの一例である一眼レフレックスカメラの他に、レンズ非交換式カメラの一例であるコンパクトデジタルカメラ、ミラーレス式カメラ、ビデオカメラ、撮像機能付きの携帯電話機、撮像機能付きの携帯情報端末、撮像機能付きのゲーム機器等の娯楽装置等、撮像機能を有する種々の電子機器を適用の対象とすることができる。   In the present embodiment, the camera 10 with the lens unit 120 attached is taken as an example of an imaging apparatus. However, the imaging device is a concept including the camera body 130 to which the lens unit 120 is not attached. As an imaging device, in addition to a single-lens reflex camera that is an example of an interchangeable lens camera, a compact digital camera that is an example of a non-interchangeable camera, a mirrorless camera, a video camera, a mobile phone with an imaging function, imaging Various electronic devices having an imaging function, such as a portable information terminal with a function and an entertainment device such as a game machine with an imaging function, can be applied.

また、サーバ20から被写体情報を受信する機器は、撮像機能を有しない電子機器であってもよい。例えば、ユーザは、当該電子機器を使用して、見たい物体名等をサーバ20に要求しておく。システム5におけるカメラでその物体が被写体として撮像された場合、図4、図5等に関連して説明したガイド画面に従ってユーザがその被写体の位置に移動することで、見たい物体を観察する機会を高めることができる。   The device that receives subject information from the server 20 may be an electronic device that does not have an imaging function. For example, the user uses the electronic device to request the server 20 for the name of an object to be viewed. When the object is imaged as a subject by the camera in the system 5, the user moves to the position of the subject according to the guide screen described in relation to FIG. 4, FIG. Can be increased.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

5 システム、10 カメラ、15 ネットワーク、20 サーバ、80 被写体、120 レンズユニット、121 レンズマウント接点、122 レンズ群、123 レンズMPU、124 レンズ駆動部、130 カメラ本体、131 カメラマウント接点、132 撮像素子、133 アナログ処理部、134 A/D変換器、135 ASIC、136 RAM、137 表示制御部、138 表示部、139 システムメモリ、140 カメラMPU、141 操作入力部、142 AFユニット、143 フォーカルプレーンシャッタ、144 測光素子、145 メインミラー、146 サブミラー、147 ペンタプリズム、148 駆動部、149 接続インタフェース、150 記録媒体IF、152 外部機器IF、156 外部機器コネクタ、160 透過型表示パネル、161 ピント板、162 接眼光学系、163 ファインダ窓、170 無線通信部、172 位置検出部、174 方向検出部、178 音声入出力部、180 外部メモリ、190 電源、192 電源回路、210 CPU、220 RAM、230 システムメモリ、240 記録媒体、250 操作入力部、270 通信部、280 表示部、290 バス、400 被写体選択画面、410 画像エリア、420 被写体情報エリア、430 カーソル、500 ガイド画面、510、560、570、610、710 オブジェクト、550 広域エリア、600 ガイド画面、700 ガイド画面 5 system, 10 camera, 15 network, 20 server, 80 subject, 120 lens unit, 121 lens mount contact, 122 lens group, 123 lens MPU, 124 lens drive unit, 130 camera body, 131 camera mount contact, 132 image sensor, 133 Analog processing unit, 134 A / D converter, 135 ASIC, 136 RAM, 137 display control unit, 138 display unit, 139 system memory, 140 camera MPU, 141 operation input unit, 142 AF unit, 143 focal plane shutter, 144 Photometric element, 145 main mirror, 146 sub mirror, 147 pentaprism, 148 drive unit, 149 connection interface, 150 recording medium IF, 152 external device IF, 156 external device connection 160, transmissive display panel, 161 focusing plate, 162 eyepiece optical system, 163 finder window, 170 wireless communication unit, 172 position detection unit, 174 direction detection unit, 178 voice input / output unit, 180 external memory, 190 power supply, 192 Power supply circuit, 210 CPU, 220 RAM, 230 system memory, 240 recording medium, 250 operation input unit, 270 communication unit, 280 display unit, 290 bus, 400 subject selection screen, 410 image area, 420 subject information area, 430 cursor, 500 guide screen, 510, 560, 570, 610, 710 object, 550 wide area, 600 guide screen, 700 guide screen

Claims (14)

撮像装置と、
電子機器と、
前記撮像装置および前記電子機器と通信するサーバと
を備え、
前記撮像装置は、撮像することにより生成した画像データと、撮像時の地理的位置である撮像位置を示す情報および撮像時の撮像方向を示す情報を含む撮像情報を前記サーバへ送信し、
前記サーバは、
前記撮像装置から受信した前記画像データのうち前記電子機器から受信した被写体の条件に適合する被写体を含む画像データが存在すると、前記被写体が存在する地理的位置を示す情報を、前記電子機器へ送信する送信部を有し、
前記電子機器は、前記サーバから受信した前記被写体が存在する地理的位置への案内を行う
システム。
An imaging device;
Electronic equipment,
A server that communicates with the imaging device and the electronic device;
The imaging device transmits image data generated by imaging, imaging information including information indicating an imaging position that is a geographical position at the time of imaging, and information indicating an imaging direction at the time of imaging to the server,
The server
When there is image data including a subject that matches the subject condition received from the electronic device among the image data received from the imaging device, information indicating a geographical position where the subject exists is transmitted to the electronic device. Having a transmitter to
The electronic device is a system for guiding to a geographical position where the subject received from the server is present .
前記電子機器から受信した被写体の条件は、前記電子機器のユーザによって指定された被写体の種類に関する条件を含む
請求項1に記載のシステム。
The system according to claim 1, wherein the subject condition received from the electronic device includes a condition related to a subject type designated by a user of the electronic device.
前記撮像情報は、焦点距離を示す情報をさらに含み、
前記サーバは、
前記撮像位置と前記撮像方向と前記焦点距離を示す情報とにより前記被写体の条件に適合する被写体の地理的位置である被写体の位置を特定する
請求項1または2に記載のシステム。
The imaging information further includes information indicating a focal length,
The server
3. The system according to claim 1, wherein a position of a subject that is a geographical position of a subject that satisfies the condition of the subject is specified based on information indicating the imaging position, the imaging direction, and the focal length.
前記電子機器は撮像部を有し、
前記電子機器は、前記被写体の位置により、前記電子機器で前記被写体を撮像できる位置にユーザを誘導する
請求項1から3のいずれか一項に記載のシステム。
The electronic device has an imaging unit,
The system according to any one of claims 1 to 3, wherein the electronic device guides a user to a position where the electronic device can capture an image of the subject based on the position of the subject.
前記電子機器は、前記電子機器の位置および前記被写体の位置による前記被写体と前記電子機器の位置との位置関係を示す情報を表示する表示部を備える
請求項4に記載のシステム。
The system according to claim 4, wherein the electronic device includes a display unit that displays information indicating a positional relationship between the subject and the position of the electronic device according to the position of the electronic device and the position of the subject.
前記電子機器は、
前記撮像部で順次に撮像することにより順次に生成された画像データに基づく画像を、前記表示部に順次に表示させる表示制御部と、
前記撮像部による撮像方向と前記電子機器の位置と前記被写体の位置とにより、前記撮像部による画角内における前記被写体の位置に対応する位置を特定する特定部と
をさらに有し、
前記表示制御部は、前記特定部が特定した位置を示すマーカを、前記画像に重畳して前記表示部に表示させる
請求項5に記載のシステム。
The electronic device is
A display control unit for sequentially displaying images based on image data sequentially generated by sequentially capturing images with the imaging unit on the display unit;
A specifying unit that specifies a position corresponding to the position of the subject within the angle of view by the imaging unit, based on the imaging direction by the imaging unit, the position of the electronic device, and the position of the subject;
The system according to claim 5, wherein the display control unit causes a marker indicating the position specified by the specifying unit to be superimposed on the image and displayed on the display unit.
前記電子機器は、誘導された位置で撮像すると、前記電子機器を識別する情報に対応づけて画像データと撮像位置および撮像方向を示す撮像情報とを前記サーバへ送信する
請求項4から6のいずれか一項に記載のシステム。
7. When the electronic device captures an image at a guided position, the electronic device transmits image data and imaging information indicating an imaging position and an imaging direction to the server in association with information for identifying the electronic device. A system according to claim 1.
前記送信部は、前記電子機器から受信した撮像情報による前記被写体の位置を示す情報を、他の電子機器へ送信する
請求項7に記載のシステム。
The system according to claim 7, wherein the transmission unit transmits information indicating the position of the subject based on imaging information received from the electronic device to another electronic device.
前記撮像装置は、撮像時の撮像条件を前記サーバへさらに送信し、
前記送信部は、前記撮像装置から受信した撮像条件を示す情報をさらに前記電子機器へ送信し、
前記電子機器は、前記送信部から受信した前記撮像条件を示す情報による前記撮像条件をユーザへ提示する
請求項4から8のいずれか一項に記載のシステム。
The imaging device further transmits imaging conditions at the time of imaging to the server,
The transmission unit further transmits information indicating the imaging condition received from the imaging device to the electronic device,
The system according to claim 4, wherein the electronic device presents the imaging condition based on information indicating the imaging condition received from the transmission unit to a user.
前記サーバは、
前記電子機器のユーザによって指定された領域を示す情報を取得する取得部
をさらに備え、
前記送信部は、前記被写体の位置が前記取得部によって取得された領域内の位置であると、前記被写体の位置を示す情報を前記電子機器へ送信する
請求項1から9のいずれか一項に記載のシステム。
The server
An acquisition unit that acquires information indicating an area designated by a user of the electronic device;
The said transmission part transmits the information which shows the position of the said object to the said electronic device, when the position of the said object is a position in the area | region acquired by the said acquisition part. The described system.
前記サーバは、
前記電子機器のユーザによって指定された他のユーザを示す情報を取得するユーザ情報取得部
をさらに備え、
前記送信部は、前記ユーザ情報取得部によって取得されたユーザが使用している前記撮像装置から取得した画像データに前記電子機器から受信した被写体の条件に適合する被写体があると、前記被写体の位置を示す情報を前記電子機器へ送信する
請求項1から10のいずれか一項に記載のシステム。
The server
A user information acquisition unit that acquires information indicating another user designated by the user of the electronic device;
When the transmission unit has a subject that matches the subject condition received from the electronic device in the image data acquired from the imaging device used by the user acquired by the user information acquisition unit, the position of the subject The system as described in any one of Claim 1 to 10 which transmits the information which shows this to the said electronic device.
撮像装置で撮像することにより生成された画像データと、撮像時の前記撮像装置の位置を示す情報および撮像時の前記撮像装置の撮像方向を示す情報を含む撮像情報を、前記撮像装置から受信するデータ受信部と、
前記データ受信部が受信した前記画像データのうち前記撮像装置とは異なる電子機器から受信した被写体の条件に適合する被写体を含む画像データが存在すると、前記被写体が存在する地理的位置を示す情報を、前記撮像装置とは異なる電子機器へ送信する送信部と
を備えるサーバ。
Imaging information including image data generated by imaging with the imaging device, information indicating the position of the imaging device at the time of imaging, and information indicating the imaging direction of the imaging device at the time of imaging is received from the imaging device. A data receiver;
When there is image data including a subject that meets a subject condition received from an electronic device different from the imaging device among the image data received by the data receiving unit, information indicating a geographical position where the subject exists is displayed. A server comprising: a transmission unit that transmits to an electronic device different from the imaging device.
撮像装置で撮像することにより生成された画像データと、撮像時の前記撮像装置の位置を示す情報および撮像時の前記撮像装置の撮像方向を示す情報を含む撮像情報を、前記撮像装置から受信する受信ステップと、
前記受信ステップで受信した前記画像データのうち前記撮像装置とは異なる電子機器から受信した被写体の条件に適合する被写体を含む画像データが存在すると、前記被写体が存在する地理的位置を示す情報を、前記撮像装置とは異なる電子機器へ送信する送信ステップと
をコンピュータに実行させるためのプログラム。
Imaging information including image data generated by imaging with the imaging device, information indicating the position of the imaging device at the time of imaging, and information indicating the imaging direction of the imaging device at the time of imaging is received from the imaging device. Receiving step;
When there is image data including a subject that matches a subject condition received from an electronic device different from the imaging device among the image data received in the reception step, information indicating a geographical position where the subject is present , A program for causing a computer to execute a transmission step of transmitting to an electronic device different from the imaging device.
撮像装置で撮像することにより生成された画像データと撮像時の前記撮像装置の位置および撮像時の前記撮像装置の撮像方向を示す撮像情報とを前記撮像装置から受信し、前記撮像装置とは異なる電子機器から被写体に関する情報を受信する受信部と、
前記受信部で受信した前記被写体に関する情報に関連する被写体を前記画像データから検出する検出部と、
前記受信部で受信した前記撮像情報から特定した、前記検出部で検出した被写体が存在する地理的位置を示す情報を前記撮像装置とは異なる電子機器へ送信する送信部と
を備えるサーバ。
Image data generated by imaging with the imaging device and imaging information indicating the position of the imaging device at the time of imaging and the imaging direction of the imaging device at the time of imaging are received from the imaging device, and are different from the imaging device A receiver that receives information about the subject from the electronic device;
A detection unit that detects a subject related to information about the subject received by the reception unit from the image data;
A server comprising: a transmission unit that transmits information indicating a geographical position where the subject detected by the detection unit exists , identified from the imaging information received by the reception unit, to an electronic device different from the imaging device.
JP2013176681A 2013-08-28 2013-08-28 System, server, electronic device and program Active JP6337431B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013176681A JP6337431B2 (en) 2013-08-28 2013-08-28 System, server, electronic device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013176681A JP6337431B2 (en) 2013-08-28 2013-08-28 System, server, electronic device and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018091771A Division JP6572993B2 (en) 2018-05-10 2018-05-10 Server and program

Publications (2)

Publication Number Publication Date
JP2015046756A JP2015046756A (en) 2015-03-12
JP6337431B2 true JP6337431B2 (en) 2018-06-06

Family

ID=52671944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013176681A Active JP6337431B2 (en) 2013-08-28 2013-08-28 System, server, electronic device and program

Country Status (1)

Country Link
JP (1) JP6337431B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5959030B2 (en) * 2015-03-10 2016-08-02 サミー株式会社 Game machine
CN104702848B (en) * 2015-03-31 2019-02-12 小米科技有限责任公司 Show the method and device of framing information
JP6610030B2 (en) * 2015-06-29 2019-11-27 ヤマハ株式会社 Video processing apparatus and video processing method
CN113273171A (en) * 2018-11-07 2021-08-17 佳能株式会社 Image processing apparatus, image processing server, image processing method, computer program, and storage medium
JP7301521B2 (en) * 2018-11-07 2023-07-03 キヤノン株式会社 Image processing device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004140799A (en) * 2002-09-27 2004-05-13 Fuji Photo Film Co Ltd Method, apparatus, and program for controlling image pickup device
JP2009225279A (en) * 2008-03-18 2009-10-01 Fujifilm Corp Photographing system, server, and photographing method
JP2009239397A (en) * 2008-03-26 2009-10-15 Seiko Epson Corp Imaging apparatus, imaging system, control method of imaging apparatus, and control program
JP2010130039A (en) * 2008-11-25 2010-06-10 Casio Computer Co Ltd Information classifying system and information classifying method
JP5428821B2 (en) * 2009-12-14 2014-02-26 カシオ計算機株式会社 Analysis device, imaging device, server device, analysis method, program, and analysis system

Also Published As

Publication number Publication date
JP2015046756A (en) 2015-03-12

Similar Documents

Publication Publication Date Title
US9007464B2 (en) Photographing apparatus, photographing system, photographing method, and program stored in non-transitory medium in photographing apparatus
US10200585B2 (en) Imaging device, imaging system, imaging method, and computer-readable recording medium for use in an imaging system including an external communication device
JP4761146B2 (en) Imaging apparatus and program thereof
JP6337431B2 (en) System, server, electronic device and program
WO2013084337A1 (en) Image pickup apparatus, control method thereof, and program
JP2014164172A (en) Imaging apparatus and program
US10123160B2 (en) Communication apparatus, image capturing apparatus, control method, and storage medium
US20130021442A1 (en) Electronic camera
US8547454B2 (en) Digital image photographing apparatuses and methods of controlling the same to provide location information
JP6572993B2 (en) Server and program
JP2019193309A (en) Server and program
US20190198058A1 (en) Image recording control apparatus, image recording method, recording medium storing image recording program, image pickup apparatus, and image recording control system
JP6590605B2 (en) Imaging device, imaging device control method, imaging system, portable display device, imaging device control program, portable display device control method, and wearable display device
JP2020058047A (en) Electronic apparatus
US9571717B2 (en) Imaging device, imaging system, imaging method, and computer-readable recording medium
JP6492392B2 (en) Imaging apparatus, system, program and method
US11019269B2 (en) Image capturing apparatus, method of controlling the same, and storage medium
US11924549B2 (en) Imaging apparatus
JP6635210B2 (en) Electronics
JP2019009571A (en) Log device
JP2010130590A (en) Imaging apparatus and imaging method
JP2015040906A (en) Image-capturing device and program
JP6354377B2 (en) Imaging apparatus and control method and program thereof
JP6201336B2 (en) Imaging apparatus and program
JP2017208867A (en) Imaging apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180423

R150 Certificate of patent or registration of utility model

Ref document number: 6337431

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250