JP6057657B2 - Imaging apparatus, information processing method, and program - Google Patents

Imaging apparatus, information processing method, and program Download PDF

Info

Publication number
JP6057657B2
JP6057657B2 JP2012228287A JP2012228287A JP6057657B2 JP 6057657 B2 JP6057657 B2 JP 6057657B2 JP 2012228287 A JP2012228287 A JP 2012228287A JP 2012228287 A JP2012228287 A JP 2012228287A JP 6057657 B2 JP6057657 B2 JP 6057657B2
Authority
JP
Japan
Prior art keywords
imaging
imaging device
information
video camera
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012228287A
Other languages
Japanese (ja)
Other versions
JP2014082591A (en
Inventor
辰哉 日下田
辰哉 日下田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012228287A priority Critical patent/JP6057657B2/en
Publication of JP2014082591A publication Critical patent/JP2014082591A/en
Application granted granted Critical
Publication of JP6057657B2 publication Critical patent/JP6057657B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置、情報処理方法及びプログラムに関する。   The present invention relates to an imaging apparatus, an information processing method, and a program.

近年、ビデオカメラ等、撮像装置に無線LAN等の無線通信デバイスを搭載したものが普及しつつある。このような無線通信機能を有する撮像装置を用いると、様々な機器との間でデータ通信を行うことが可能になり、他の撮像装置で撮影した静止画や動画を自分の撮像装置に受信することが可能になる。
現在、撮影時に周辺にある他の撮像装置に対し、撮影時刻を基準とした前後一定の時間範囲内に撮影した画像取得を要求し、周辺の撮像装置から撮影した画像を取得する技術が提案されている(特許文献1)。
これによると、例えば結婚式等のイベント会場で撮影中に、他の人が撮影している動画又は静止画を取得することが可能になる。
In recent years, video cameras and other imaging apparatuses equipped with wireless communication devices such as a wireless LAN are becoming popular. When an imaging apparatus having such a wireless communication function is used, it is possible to perform data communication with various devices, and still images and moving images captured by other imaging apparatuses are received by the imaging apparatus. It becomes possible.
Currently, a technique has been proposed in which other imaging devices in the vicinity at the time of shooting are requested to acquire images taken within a certain time range before and after the shooting time, and images taken from surrounding imaging devices are acquired. (Patent Document 1).
This makes it possible to acquire a moving image or a still image taken by another person during shooting at an event venue such as a wedding.

特開2007−325096号公報JP 2007-325096 A

イベント会場でユーザーは自分が撮影している映像とは異なるアングルの映像を欲することが考えられる。
しかしながら、イベント会場で多くの人が同時に撮影している場合、ユーザーは他の撮像装置の全ての映像を見て欲しい映像を決める必要があり、映像を見て選択するまでの時間がかかり、不便である。また、他の手段として、他の撮像装置の全ての映像を取得しようとした場合は、それぞれの撮像装置から映像を取得していくため、取得に多くの時間を有し、更にユーザーの撮像装置の記録媒体の容量が多く必要になってしまう等の問題がある。
At the event venue, users may want a video with a different angle from the video they are shooting.
However, when many people are shooting at the event venue at the same time, the user needs to decide which video he / she wants to see all the images from other imaging devices. It is. As another means, when all the images of other imaging devices are to be acquired, the images are acquired from the respective imaging devices. There is a problem that a large capacity of the recording medium is required.

上記課題の少なくとも1つを解決するために、本発明は、無線通信機能を有する撮像装置であって、被写体を撮像する撮像手段と、前記撮像装置の位置情報及び向き情報を含む内部情報を取得する内部情報取得手段と、前記無線通信機能を介して複数の他の撮像装置の位置情報及び向き情報を含む外部情報を取得する外部情報取得手段と、前記撮像手段による撮像中に、前記外部情報取得手段で取得された内部情報と、前記内部情報取得手段で取得された外部情報と、から前記複数の他の撮像装置が前記撮像装置と同じ被写体を撮影しているか否かを判断する判断手段と、前記判断手段で同じ被写体を撮影していると判断された前記複数の他の撮像装置のうち、前記撮像装置と前記被写体の撮影方向が異なる他の撮像装置を優先的に選択する選択手段と、を有し、前記選択手段は、前記判断手段で同じ被写体を撮影していると判断された前記複数の他の撮像装置をグループ化し、設定されたカメラ選択数に達するまで、設定されたアングル範囲内のグループから設定された数の他の撮像装置を順次、選択することで、前記撮像装置と前記被写体の撮影方向が異なる他の撮像装置を優先的に選択するIn order to solve at least one of the above-described problems, the present invention is an imaging apparatus having a wireless communication function, and obtains internal information including imaging means for imaging a subject and position information and orientation information of the imaging apparatus Internal information acquisition means, external information acquisition means for acquiring external information including position information and orientation information of a plurality of other imaging devices via the wireless communication function, and the external information during imaging by the imaging means Determination means for determining whether or not the plurality of other imaging devices are photographing the same subject as the imaging device from the internal information acquired by the acquisition means and the external information acquired by the internal information acquisition means And, from among the plurality of other imaging devices that are determined to be shooting the same subject by the determination means, preferentially select another imaging device that is different from the imaging device in the shooting direction of the subject. Possess a-option means, said selection means, to said grouping said plurality of other imaging apparatus is determined to have taken the same subject at the decision unit, reaches the camera number selected that has been set, set By sequentially selecting another set of imaging devices from a group within the set angle range, another imaging device having a different shooting direction from the imaging device is preferentially selected .

本発明によれば、周辺の撮像装置からユーザーの撮影している映像とは異なるアングルの映像を選択する時間が短縮され、不便さが軽減する。或いは、周辺の撮像装置からの映像を取得する時間が軽減し、ユーザーの撮像装置の記憶媒体の容量を少なくすることができる。   According to the present invention, it is possible to reduce the time for selecting an image having an angle different from the image captured by the user from the peripheral imaging devices, thereby reducing inconvenience. Alternatively, it is possible to reduce the time for acquiring the video from the peripheral imaging devices and to reduce the capacity of the storage medium of the user's imaging device.

実施形態1のビデオカメラシステムのシステム構成の一例を示す図である。1 is a diagram illustrating an example of a system configuration of a video camera system according to Embodiment 1. FIG. ビデオカメラのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a video camera. ビデオカメラの周辺カメラの選択処理の一例を示すフローチャートである。It is a flowchart which shows an example of the selection process of the periphery camera of a video camera. ステップS306におけるビデオカメラの表示部の表示の一例を示す図である。It is a figure which shows an example of the display of the display part of the video camera in step S306. 実施形態1のビデオカメラ101〜109の情報処理の一例を示すフローチャートである。4 is a flowchart illustrating an example of information processing of the video cameras 101 to 109 according to the first embodiment. 図1のシステム構成の図にビデオカメラの位置や向き、被写体の位置等の情報を付加した図である。FIG. 2 is a diagram in which information such as the position and orientation of a video camera and the position of a subject is added to the system configuration diagram of FIG. 1. 図6を例にしてビデオカメラ100〜109の位置情報及び向き情報をまとめたデータリストの一例を示す図である。FIG. 7 is a diagram illustrating an example of a data list in which position information and orientation information of the video cameras 100 to 109 are collected using FIG. 6 as an example. 被写体判断部の情報処理の一例を示すフローチャートである。It is a flowchart which shows an example of the information processing of a to-be-photographed part determination part. 選択部の情報処理の一例を示すフローチャートである。It is a flowchart which shows an example of the information processing of a selection part. 実施形態2のビデオカメラシステムのシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration | structure of the video camera system of Embodiment 2. 実施形態2のビデオカメラ101〜109の情報処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of information processing of the video cameras 101 to 109 according to the second embodiment.

以下、本発明の実施形態について図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<実施形態1>
図1は、実施形態1のビデオカメラシステムのシステム構成の一例を示す図である。ビデオカメラシステムにおいて、無線通信機能を有するビデオカメラ100〜109は無線LANネットワークでそれぞれ接続されており、それぞれのビデオカメラが被写体110を撮影している。
図2は、ビデオカメラのハードウェア構成の一例を示す図である。制御部200は、CPUの一例であり、ROM部208に記憶されているプログラム等に基づき処理を実行することによって、以下の機能や後述するビデオカメラ100のフローチャートに係る処理の一部又は全てを実現すると共にビデオカメラ全体を制御する。前記機能の一つである被写体判断部は、周辺のビデオカメラのうち自分と同じ被写体を撮影しているか判断する。前記機能の一つである選択部は、自分のカメラとアングルが異なるビデオカメラを優先的に選択する。
<Embodiment 1>
FIG. 1 is a diagram illustrating an example of a system configuration of the video camera system according to the first embodiment. In the video camera system, video cameras 100 to 109 having a wireless communication function are connected to each other via a wireless LAN network, and each video camera captures an object 110.
FIG. 2 is a diagram illustrating an example of a hardware configuration of the video camera. The control unit 200 is an example of a CPU, and by executing processing based on a program stored in the ROM unit 208, a part or all of the following functions and processing related to the flowchart of the video camera 100 described later are performed. Realize and control the entire video camera. The subject determination unit, which is one of the functions, determines whether the same subject as that of the surrounding video camera is being photographed. The selection unit, which is one of the functions, preferentially selects a video camera having a different angle from its own camera.

表示部201は、LCD等の表示部であり、情報等を表示する。操作部202は、ユーザーとのインタフェースとなる各種操作キーを備える。向き検出部203は、ビデオカメラがどの方向を向いているかを検出する電子コンパス等からなる。位置検出部204は、ビデオカメラがどの位置にあるかを検出するGPS等からなる。通信部205は、他の通信機器と無線通信を行う。記憶部206は、向き情報、位置情報、無線パラメータ、設定値等の各種データを記憶する記憶部である。撮像部207は、レンズや撮像素子等から構成され、被写体を取り込み撮像する。ROM部208は、プログラム等を格納している格納部である。記憶媒体210は、DVD、HDD、半導体メモリ等の記憶媒体である。記憶媒体インタフェース(IF)209は、記憶媒体210とのインタフェースである。
尚、実施形態における撮像装置はビデオカメラだけでなく、デジタルカメラ等被写体を撮像する装置全てに適用することができる。
また、ビデオカメラ101〜109も図2に示したビデオカメラ100のハードウェア構成と同様のハードウェア構成を有する。即ち、各ビデオカメラの制御部(CPU)が、各ビデオカメラのROM部等に記憶されているプログラムに基づき処理を実行することによって、各ビデオカメラの機能や後述するビデオカメラ101〜109のフローチャートに係る処理の一部又は全てを実現する。
The display unit 201 is a display unit such as an LCD and displays information and the like. The operation unit 202 includes various operation keys that serve as an interface with the user. The direction detection unit 203 includes an electronic compass that detects which direction the video camera is facing. The position detection unit 204 includes a GPS or the like that detects the position of the video camera. The communication unit 205 performs wireless communication with other communication devices. The storage unit 206 is a storage unit that stores various data such as orientation information, position information, wireless parameters, and setting values. The image capturing unit 207 includes a lens, an image sensor, and the like, and captures and captures a subject. The ROM unit 208 is a storage unit that stores programs and the like. The storage medium 210 is a storage medium such as a DVD, HDD, or semiconductor memory. A storage medium interface (IF) 209 is an interface with the storage medium 210.
Note that the imaging apparatus in the embodiment can be applied not only to a video camera but also to all apparatuses that image a subject such as a digital camera.
The video cameras 101 to 109 also have the same hardware configuration as that of the video camera 100 shown in FIG. That is, the control unit (CPU) of each video camera executes processing based on a program stored in the ROM unit or the like of each video camera, whereby the functions of each video camera and the flowcharts of the video cameras 101 to 109 described later are performed. A part or all of the processing related to is realized.

図3は、ビデオカメラ100の周辺カメラの選択処理の一例を示すフローチャートである。
ユーザーがビデオカメラ100の操作部202を操作することで、制御部200は、以下に示す周辺カメラの選択処理を開始する。周辺カメラ選択処理を開始する前のビデオカメラ100の状態としては撮像部207から被写体が取り込まれている状態であれば記憶媒体210に記憶されていなくてもよい。以下、撮像部207から被写体が取り込まれ、記憶媒体210に記憶されていない状態を撮像中、記憶媒体210に記憶されている状態を撮影中とする。
また、ビデオカメラ100の周辺のビデオカメラ101〜109のうち最大何台まで選択するか(以下、最大カメラ選択数)を周辺カメラ選択処理開始までに設定しておく必要がある。最大カメラ選択数は、ユーザーが操作部202を操作することで設定できる。本実施形態では最大カメラ選択数として4が設定されているものとして説明を行う。
FIG. 3 is a flowchart illustrating an example of the peripheral camera selection process of the video camera 100.
When the user operates the operation unit 202 of the video camera 100, the control unit 200 starts a peripheral camera selection process described below. The state of the video camera 100 before starting the peripheral camera selection process may not be stored in the storage medium 210 as long as the subject is captured from the imaging unit 207. Hereinafter, a state in which a subject is captured from the imaging unit 207 and is not stored in the storage medium 210 is assumed to be during imaging, and a state stored in the storage medium 210 is referred to as imaging.
In addition, it is necessary to set the maximum number of video cameras 101 to 109 in the vicinity of the video camera 100 (hereinafter, the maximum number of selected cameras) before the start of the peripheral camera selection process. The maximum camera selection number can be set by the user operating the operation unit 202. In the present embodiment, description will be made assuming that 4 is set as the maximum number of selected cameras.

ステップS300では、制御部200は、通信部205を介し、周辺のビデオカメラ101〜109に無線接続の確立要求を送信し、無線接続を確立し、ステップS301に進む。尚、本実施形態においてはIPアドレス等の無線パラメータはビデオカメラ100〜109に予め設定されており、記憶部206に保持されているものとする。
ステップS301では、制御部200は、ビデオカメラ100の向き検出部203及び位置検出部204がそれぞれ検出したビデオカメラ100の向き(向き情報)及び位置(位置情報)をデータリストとして記憶部206に保持する(内部情報取得)。そして、制御部200は、ステップS302に進む。データリストについては後述する。尚、前記データリストは、内部情報の一例である。
ステップS302では、制御部200は、無線接続されているビデオカメラ101〜109に対し、それぞれ通信部205を介し、位置情報及び向き情報の取得要求を送信する。制御部200は、それぞれのビデオカメラ101〜109から位置情報及び向き情報を取得(外部情報取得)し、データリストとして記憶部206に保持し、ステップS303に進む。データリストについては後述する。尚、前記データリストは、外部情報の一例である。
In step S300, the control unit 200 transmits a wireless connection establishment request to the surrounding video cameras 101 to 109 via the communication unit 205, establishes the wireless connection, and proceeds to step S301. In the present embodiment, it is assumed that wireless parameters such as an IP address are preset in the video cameras 100 to 109 and held in the storage unit 206.
In step S301, the control unit 200 stores the orientation (orientation information) and position (position information) of the video camera 100 detected by the orientation detection unit 203 and the position detection unit 204 of the video camera 100 in the storage unit 206 as a data list. Yes (internal information acquisition). Then, the control unit 200 proceeds to step S302. The data list will be described later. The data list is an example of internal information.
In step S <b> 302, the control unit 200 transmits an acquisition request for position information and orientation information to the video cameras 101 to 109 that are wirelessly connected via the communication unit 205. The control unit 200 acquires position information and orientation information (external information acquisition) from each of the video cameras 101 to 109, stores the information in the storage unit 206 as a data list, and proceeds to step S303. The data list will be described later. The data list is an example of external information.

ステップS303では、制御部200は、被写体判断部でビデオカメラ100と同一被写体付近を撮影しているビデオカメラをビデオカメラ101〜109から抽出し、ステップS304に進む。被写体判断部の処理の詳細は後述する図8を用いて説明する。
ステップS304では、制御部200は、選択部で、ステップS303で抽出したビデオカメラのうち、ビデオカメラ100の撮影している被写体と異なるアングルのビデオカメラを優先的に最大カメラ選択数だけ抽出し、ステップS305に進む。選択部の処理の詳細は後述する図9を用いて説明する。
ステップS305では、制御部200は、ステップS304で抽出したビデオカメラに対し、それぞれ通信部205を介し、代表画の取得要求を送信する。制御部200は、それぞれのビデオカメラから代表画及び代表画の映像が含まれる映像データのファイル名を取得し、記憶部206に保持し、ステップS306に進む。代表画は代表画の取得を問い合わせたときの画像であることが望ましいが、一定時間前(例えば5秒前)の画像でもよい。尚、制御部200は、代表画でなく、撮像部207から得られる動画を取得するようにしてもよい。
In step S303, the control unit 200 extracts from the video cameras 101 to 109 the video camera that is shooting the vicinity of the same subject as the video camera 100 in the subject determination unit, and proceeds to step S304. Details of the processing of the subject determination unit will be described with reference to FIG.
In step S304, the control unit 200 preferentially extracts video cameras having an angle different from that of the subject captured by the video camera 100 from the video cameras extracted in step S303 by the selection unit, as many as the maximum number of selected cameras. Proceed to step S305. Details of the processing of the selection unit will be described with reference to FIG.
In step S305, the control unit 200 transmits a representative image acquisition request to the video camera extracted in step S304 via the communication unit 205. The control unit 200 acquires the file name of the video data including the representative image and the video of the representative image from each video camera, holds the file name in the storage unit 206, and proceeds to step S306. The representative image is desirably an image when the acquisition of the representative image is inquired, but may be an image of a predetermined time before (for example, 5 seconds before). Note that the control unit 200 may acquire a moving image obtained from the imaging unit 207 instead of the representative image.

ステップS306では、制御部200は、表示部201にステップS305で取得した代表画を表示し、ステップS307に進む。
図4は、ステップS306におけるビデオカメラ100の表示部201の表示の一例を示す図である。画像900は、ビデオカメラ100の撮像部207から得られる画像である。代表画901、902、903、904は、周辺のビデオカメラ101〜109のうち、抽出されたビデオカメラの代表画である。ビデオカメラ100は、表示部201に、抽出されたビデオカメラの代表画の一覧を表示部201に表示することができる。
ステップS307では、ユーザーが操作部202を操作し、ステップS307で表示した代表画を選択するか否かを判断する。制御部200は、ユーザーによって、代表画が選択された場合は、ステップS308に進み、そうでなければステップS309に進む。尚、ステップS307ではユーザーが代表画を選択する動作が入るため、制御部200は、次のステップに移行するまで一定時間待つことになる。
In step S306, the control unit 200 displays the representative image acquired in step S305 on the display unit 201, and proceeds to step S307.
FIG. 4 is a diagram illustrating an example of display on the display unit 201 of the video camera 100 in step S306. An image 900 is an image obtained from the imaging unit 207 of the video camera 100. Representative images 901, 902, 903, and 904 are extracted representative images of the video cameras among the surrounding video cameras 101 to 109. The video camera 100 can display a list of extracted representative images of the video camera on the display unit 201 on the display unit 201.
In step S307, it is determined whether or not the user operates the operation unit 202 to select the representative image displayed in step S307. If the representative image is selected by the user, the control unit 200 proceeds to step S308, otherwise proceeds to step S309. In step S307, since the user selects the representative image, the control unit 200 waits for a predetermined time until the process proceeds to the next step.

ステップS308では、制御部200は、ステップS307で選択された代表画に対応するビデオカメラに対し、通信部205を介し、映像データの取得要求を送信する。その際、制御部200は、ステップS304で取得した代表画の映像が含まれる映像データのファイル名もビデオカメラに送信する。制御部200は、代表画に対応するビデオカメラから、ビデオカメラ100から送信したファイル名の映像データを取得し、記憶媒体210に記憶し、終了したらステップS309に進む。尚、制御部200は、代表画に対応するビデオカメラ、映像データのファイル名を記憶部206に保持しておき、映像データの取得は後で行ってもよい。
ステップS309では、制御部200は、表示部201に周辺カメラ選択の処理を継続するか否か等をユーザーに問い合わせる表示を行う。ユーザーは、操作部202を操作し、周辺カメラ選択の処理を終了するか否か選択する。制御部200は、ユーザーが終了するを選択したと判断した場合、ステップS310に進み、そうでなければステップS301に進む。
ステップS310では、制御部200は、通信部205を介し、周辺のビデオカメラ101〜109に無線接続の切断要求を送信し、ビデオカメラ101〜109との無線接続の切断を確認し、図3に示す処理を終了する。
In step S308, the control unit 200 transmits a video data acquisition request to the video camera corresponding to the representative image selected in step S307 via the communication unit 205. At that time, the control unit 200 also transmits the file name of the video data including the video of the representative image acquired in step S304 to the video camera. The control unit 200 acquires the video data of the file name transmitted from the video camera 100 from the video camera corresponding to the representative image, stores it in the storage medium 210, and proceeds to step S309 when the processing is completed. Note that the control unit 200 may store the video camera corresponding to the representative image and the file name of the video data in the storage unit 206, and the video data may be acquired later.
In step S309, the control unit 200 displays on the display unit 201 an inquiry as to whether or not to continue the peripheral camera selection process. The user operates the operation unit 202 to select whether to end the peripheral camera selection process. If the control unit 200 determines that the user has selected to end, the control unit 200 proceeds to step S310, otherwise proceeds to step S301.
In step S310, the control unit 200 transmits a wireless connection disconnection request to the surrounding video cameras 101 to 109 via the communication unit 205, and confirms the disconnection of the wireless connection with the video cameras 101 to 109, as shown in FIG. The processing shown in FIG.

図5は、実施形態1のビデオカメラ101〜109の情報処理の一例を示すフローチャートである。
ステップS400に進む前のビデオカメラ101〜109の状態としては電源がオンされていれば撮影中、撮像中、再生中、どのような状態であってもよい。尚、以下、図5では、ビデオカメラ101〜109の制御部200がプログラムに基づき処理を行うものとして説明を行う。
ステップS400では、制御部200は、他のビデオカメラ(ビデオカメラ100)から無線接続の確立要求を受信したか否か判断する。制御部200は、無線接続の確立要求を受信していればステップS401に進み、そうでなければステップS400に進む。ビデオカメラ101〜109が無線接続の確立要求を受信するというのはステップS300のビデオカメラ100が無線接続の確立要求を送信したときに行われる。
ステップS401では、制御部200は、ビデオカメラ100と無線接続を確立し、ステップS402に進む。ステップS401の処理はステップS300の無線接続の確立のときと同時に行われる。
FIG. 5 is a flowchart illustrating an example of information processing of the video cameras 101 to 109 according to the first embodiment.
The state of the video cameras 101 to 109 before proceeding to step S400 may be any state during shooting, imaging, or playback as long as the power is on. In the following, in FIG. 5, description will be made assuming that the control unit 200 of the video cameras 101 to 109 performs processing based on a program.
In step S400, the control unit 200 determines whether a wireless connection establishment request has been received from another video camera (video camera 100). The control unit 200 proceeds to step S401 if a wireless connection establishment request is received, and proceeds to step S400 otherwise. The video cameras 101 to 109 receive the wireless connection establishment request when the video camera 100 in step S300 transmits the wireless connection establishment request.
In step S401, the control unit 200 establishes a wireless connection with the video camera 100, and proceeds to step S402. The process in step S401 is performed simultaneously with the establishment of the wireless connection in step S300.

ステップS402では、制御部200は、ビデオカメラ100から無線接続の切断要求を受信したか否か判断する。制御部200は、無線接続の切断要求を受信していればステップS412に進み、そうでなければステップS403に進む。無線接続の切断要求を受信するというのはステップS310のビデオカメラ100が無線接続の切断要求を送信したときに行われる。
ステップS403では、制御部200は、ビデオカメラ100から位置情報及び向き情報の取得要求を受信したか否か判断する。制御部200は、位置情報及び向き情報の取得要求を受信していればステップS404に進み、そうでなければステップS402に進む。位置情報及び向き情報の取得要求を受信するというのはステップS302のビデオカメラ100が位置情報及び向き情報の取得要求を送信したときに行われる。
ステップS404では、制御部200は、現在撮影中か否か判断する。制御部200は、撮影中であればステップS405に進み、そうでなければステップS406に進む。尚、ステップS404の判断において、制御部200は、一定時間前(例えば5秒前)に撮影していたかどうかまで含めて判断してもよく、ビデオカメラ100と同一時間帯に撮影していてビデオカメラ100に送信できる映像データがあるか否かの判断をしてもよい。
In step S <b> 402, the control unit 200 determines whether a wireless connection disconnection request has been received from the video camera 100. If the control unit 200 has received a wireless connection disconnection request, the process proceeds to step S412; otherwise, the process proceeds to step S403. Receiving the wireless connection disconnection request is performed when the video camera 100 in step S310 transmits a wireless connection disconnection request.
In step S <b> 403, the control unit 200 determines whether a request for acquiring position information and orientation information has been received from the video camera 100. The control unit 200 proceeds to step S404 if a request for acquisition of position information and orientation information has been received, and proceeds to step S402 if not. The reception request for the position information and orientation information is received when the video camera 100 in step S302 transmits the acquisition request for position information and orientation information.
In step S404, the control unit 200 determines whether or not shooting is currently being performed. The control unit 200 proceeds to step S405 if shooting is in progress, otherwise proceeds to step S406. In the determination in step S404, the control unit 200 may determine whether or not the image was captured a certain time before (for example, 5 seconds before). It may be determined whether there is video data that can be transmitted to the camera 100.

ステップS405では、制御部200は、各ビデオカメラの向き検出部203及び位置検出部204がそれぞれ検出したビデオカメラの位置情報及び向き情報をデータリストとして記憶部206に保持し、ステップS407に進む。
ステップS406では、制御部200は、無効データ(例えば0データ)をビデオカメラ100に送信し、ステップS408に進む。
ステップS407では、制御部200は、位置情報及び向き情報をビデオカメラ100に送信し、ステップS408に進む。
ステップS408では、制御部200は、ビデオカメラ100から代表画の取得要求を受信したか否か判断する。制御部200は、代表画の取得要求を受信していればステップS409に進み、そうでなければステップS410に進む。代表画の取得要求を受信するというのはステップS305のビデオカメラ100が代表画取得要求を送信したときに行われる。
ステップS409では、制御部200は、撮像部207から得られる画像データ1枚を代表画とし、ビデオカメラ100に送信し、ステップS410に進む。代表画は代表画の取得要求を受信したときの撮像部207から得られる画像データでも一定時間前(例えば5秒前)の画像データでもよい。
In step S405, the control unit 200 stores the position information and direction information of the video camera detected by the direction detection unit 203 and the position detection unit 204 of each video camera in the storage unit 206 as a data list, and the process proceeds to step S407.
In step S406, the control unit 200 transmits invalid data (for example, 0 data) to the video camera 100, and the process proceeds to step S408.
In step S407, the control unit 200 transmits the position information and orientation information to the video camera 100, and the process proceeds to step S408.
In step S <b> 408, the control unit 200 determines whether a representative image acquisition request is received from the video camera 100. If the control unit 200 has received a representative image acquisition request, the process proceeds to step S409; otherwise, the process proceeds to step S410. The reception of the representative image acquisition request is performed when the video camera 100 in step S305 transmits the representative image acquisition request.
In step S409, the control unit 200 transmits one image data obtained from the imaging unit 207 as a representative image to the video camera 100, and proceeds to step S410. The representative image may be image data obtained from the imaging unit 207 when a representative image acquisition request is received or image data of a predetermined time before (for example, 5 seconds before).

ステップS410では、制御部200は、ビデオカメラ100から映像データの取得要求及び映像データのファイル名を受信したか否か判断する。制御部200は、映像データの取得要求及び映像データのファイル名を受信していればステップS411に進み、そうでなければステップS402に進む。映像データの取得要求及び映像データのファイル名を受信するというのはステップS308のビデオカメラ100が映像データ取得要求及び映像データのファイル名を送信したときに行われる。
ステップS411では、制御部200は、ステップS410で受信した映像データのファイル名を記憶媒体210から検索し、記憶媒体210にある同じファイル名の映像データをビデオカメラ100に送信し、ステップS402に進む。
ステップS412では、制御部200は、ビデオカメラ100と無線接続を切断すると共にビデオカメラ100に対し、切断が完了したことを送信し、図5に示す処理を終了する。
In step S410, the control unit 200 determines whether a video data acquisition request and a video data file name have been received from the video camera 100. If the video data acquisition request and the video data file name have been received, the control unit 200 proceeds to step S411, otherwise proceeds to step S402. The video data acquisition request and the video data file name are received when the video camera 100 in step S308 transmits the video data acquisition request and the video data file name.
In step S411, the control unit 200 searches the storage medium 210 for the file name of the video data received in step S410, transmits the video data having the same file name in the storage medium 210 to the video camera 100, and proceeds to step S402. .
In step S412, the control unit 200 disconnects the wireless connection with the video camera 100, transmits to the video camera 100 that the disconnection is completed, and ends the process illustrated in FIG.

図6は、図1のシステム構成の図にビデオカメラの位置や向き、被写体の位置等の情報を付加した図である。位置500は、ビデオカメラ100の位置である。位置500からの矢印がビデオカメラ100の向きである。位置501〜509は、それぞれビデオカメラ101〜109の位置である。位置501〜509からの矢印がそれぞれビデオカメラ101〜109の向きである。それぞれのビデオカメラは矢印の向きの方向を撮影しているとする。位置510は、被写体110の位置である。場所511〜515は、おおよその場所である。場所511は、ビデオカメラ100がある場所である。場所512は、ビデオカメラ101〜103がある場所である。場所513は、ビデオカメラ104がある場所である。場所514は、ビデオカメラ105〜107がある場所である。場所515は、ビデオカメラ108、109がある場所である。図6ではビデオカメラ107以外のビデオカメラが被写体110を撮影しているものとする。   FIG. 6 is a diagram in which information such as the position and orientation of the video camera and the position of the subject are added to the system configuration diagram of FIG. A position 500 is the position of the video camera 100. The arrow from the position 500 is the direction of the video camera 100. Positions 501 to 509 are positions of the video cameras 101 to 109, respectively. The arrows from the positions 501 to 509 are the directions of the video cameras 101 to 109, respectively. Assume that each video camera is shooting in the direction of the arrow. A position 510 is the position of the subject 110. The locations 511 to 515 are approximate locations. A place 511 is a place where the video camera 100 is located. A place 512 is a place where the video cameras 101 to 103 are located. A place 513 is a place where the video camera 104 is located. A place 514 is a place where the video cameras 105 to 107 are located. A place 515 is where the video cameras 108 and 109 are located. In FIG. 6, it is assumed that a video camera other than the video camera 107 is shooting the subject 110.

図7は、図6を例にしてビデオカメラ100〜109の位置情報及び向き情報をまとめたデータリストの一例を示す図である。向き情報は、東南東、北東など方角であらわしている。このデータリストは、ステップS301及びステップS302で生成され記憶部206に保持される。
被写体判断部は、ビデオカメラ100と同じ被写体を撮影しているビデオカメラを、データリストを基に抽出する。
FIG. 7 is a diagram showing an example of a data list in which position information and orientation information of the video cameras 100 to 109 are collected using FIG. 6 as an example. Orientation information is expressed in directions such as east-southeast and northeast. This data list is generated in step S301 and step S302 and held in the storage unit 206.
The subject determination unit extracts a video camera shooting the same subject as the video camera 100 based on the data list.

図8は、被写体判断部の情報処理の一例を示すフローチャートである。ここでは各ビデオカメラの位置、向きを2次元の座標(X、Y)としてとらえている。
ステップS700では、被写体判断部は、ビデオカメラ100の位置500を座標(0、0)としてそこから向き方向に半直線(位置500に端を有する半直線)を求め、ステップS701に進む。ビデオカメラ100の向きはデータリストから東南東となり、位置500に端を有する半直線はY=tan(337.5°)×X (X>=0)となる。本実施形態では向きを16方位で考える。方位間隔は22.5°である。
ステップS701では、被写体判断部は、ビデオカメラ100の位置を座標(0、0)としたときのビデオカメラ101〜109のそれぞれの相対位置から向き方向にそれぞれ半直線(位置501〜509に端を有する半直線)を求め、ステップS702に進む。例えば、ビデオカメラ101の位置501はビデオカメラ100の位置500と比べX方向に−1m、Y方向に−3m離れているとする。すると、向きは北東(45°)であるので位置501に端を有する半直線はY=tan(45°)×X−3+tan(45°) (X>=−1)となる。
FIG. 8 is a flowchart illustrating an example of information processing of the subject determination unit. Here, the position and orientation of each video camera are taken as two-dimensional coordinates (X, Y).
In step S700, the subject determination unit determines the position 500 of the video camera 100 as coordinates (0, 0), determines a half line (a half line having an end at the position 500) in the direction from there, and proceeds to step S701. The direction of the video camera 100 is east-southeast from the data list, and a half line having an end at the position 500 is Y = tan (337.5 °) × X (X> = 0). In this embodiment, the direction is considered as 16 directions. The azimuth interval is 22.5 °.
In step S <b> 701, the subject determination unit starts from the relative positions of the video cameras 101 to 109 when the position of the video camera 100 is the coordinates (0, 0) in the direction of the respective straight lines (ends at positions 501 to 509). And the process proceeds to step S702. For example, it is assumed that the position 501 of the video camera 101 is −1 m away from the position 500 of the video camera 100 and −3 m away from the Y direction. Then, since the direction is northeast (45 °), the half line having an end at the position 501 becomes Y = tan (45 °) × X−3 + tan (45 °) (X> = − 1).

ステップS702では、被写体判断部は、位置500に端を有する半直線と交わる半直線を抽出し、抽出した半直線に対応するビデオカメラを抽出し、ステップS703に進む。図6の例ではビデオカメラ101〜106、108、109に係る半直線が位置500に端を有する半直線と交わる。
ステップS703では、被写体判断部は、位置500に端を有する半直線が交わっている点のうち、一定の範囲内で交わっている半直線を検索し、その半直線に対応するビデオカメラを抽出する。そして、被写体判断部は、抽出したビデオカメラを、被写体を撮影しているビデオカメラと判断し、図8に示す処理を終了する。図6の例では位置501〜505、508、509に端を有する半直線が位置500に端を有する半直線と位置510辺りで交わっており、位置506に端を有する半直線だけが位置500に端を有する半直線と異なる範囲で交わっている。その結果、被写体判断部は、位置501〜505、508、509に端を有する半直線に対応するビデオカメラ101〜105、108、109がビデオカメラ100と同一被写体を撮影しているビデオカメラと判断する。
尚、図2のビデオカメラの構成に主被写体の顔情報を検出する顔検出部を付加し、データリストに主被写体の顔情報を付加する構成とすると、各ビデオカメラが撮影している被写体の特徴がわかり、被写体判断部の精度があがる。尚、顔検出部は、ハードウェアとしてビデオカメラに実装されていてもよいし、ソフトウェアがビデオカメラにインストールされ、制御部200が読み込んで実行してもよい。
In step S702, the subject determination unit extracts a half line intersecting with the half line having an end at the position 500, extracts a video camera corresponding to the extracted half line, and proceeds to step S703. In the example of FIG. 6, the half lines related to the video cameras 101 to 106, 108, and 109 intersect with the half line having an end at the position 500.
In step S <b> 703, the subject determination unit searches for a half line that intersects within a certain range among points where the half line having an end at the position 500 intersects, and extracts a video camera corresponding to the half line. . Then, the subject determination unit determines that the extracted video camera is a video camera shooting the subject, and ends the processing shown in FIG. In the example of FIG. 6, a half line having ends at positions 501 to 505, 508, and 509 intersects a half line having an end at position 500 around position 510, and only a half line having an end at position 506 is at position 500. It intersects in a different range from the half line with the end. As a result, the subject determination unit determines that the video cameras 101 to 105, 108, and 109 corresponding to the half lines having ends at the positions 501 to 505, 508, and 509 are video cameras that are shooting the same subject as the video camera 100. To do.
If the face detection unit for detecting the face information of the main subject is added to the configuration of the video camera in FIG. 2 and the face information of the main subject is added to the data list, it is possible to identify the subject captured by each video camera. The feature is understood, and the accuracy of the subject determination unit is improved. Note that the face detection unit may be implemented as hardware in the video camera, or software may be installed in the video camera, and the control unit 200 may read and execute the software.

次に選択部では被写体判断部で抽出したビデオカメラから、ビデオカメラ100とアングルが異なるビデオカメラを優先的に選択する。
図9は、選択部の情報処理の一例を示すフローチャートである。
ステップS800では、選択部は、被写体判断部で抽出されたビデオカメラの位置情報を基に比較的近い場所(例:ビデオカメラ同士の距離が所定の範囲内(例えば、1m以内)にある場所)にあるビデオカメラを1つのグループとする(グループ化する)。そして、選択部は、全てのビデオカメラをグループ分けして、ステップS801に進む。図6の例では、選択部は、位置501〜503は場所512、位置504は場所513、位置505は場所514、位置508、509は場所515とグループ分けする。尚、選択部は、予め1つのグループにする範囲が設定されている場合は、その範囲でグループを決定してもよい。
ステップS801では、選択部は、選択したビデオカメラの数が設定された最大カメラ選択数に達したか否か判断する。最大カメラ選択数に達していれば図9に示す処理を終了し、そうでなければステップS802に進む。
ステップS802では、選択部は、未選択のビデオカメラのグループがあるか否か判断する。選択部は、未選択のビデオカメラのグループがあればステップS803に進み、そうでなければ図9に示す処理を終了する。
Next, the selection unit preferentially selects a video camera having an angle different from that of the video camera 100 from the video cameras extracted by the subject determination unit.
FIG. 9 is a flowchart illustrating an example of information processing by the selection unit.
In step S800, the selection unit is a relatively close place (eg, a place where the distance between the video cameras is within a predetermined range (for example, within 1 m)) based on the position information of the video camera extracted by the subject determination unit. Are grouped together (grouped). Then, the selection unit groups all the video cameras and proceeds to step S801. In the example of FIG. 6, the selection unit groups the positions 501 to 503 with the location 512, the position 504 with the location 513, the location 505 with the location 514, and the locations 508 and 509 with the location 515. Note that the selection unit may determine a group in the range when a range to be set as one group is set in advance.
In step S801, the selection unit determines whether the number of selected video cameras has reached the set maximum camera selection number. If the maximum number of selected cameras has been reached, the process shown in FIG. 9 is terminated, otherwise the process proceeds to step S802.
In step S802, the selection unit determines whether there is a group of unselected video cameras. If there is an unselected video camera group, the selection unit proceeds to step S803; otherwise, the selection unit ends the process illustrated in FIG.

ステップS803では、選択部は、未選択のビデオカメラのグループを抽出し、ステップS804に進む。選択部は、ビデオカメラ100とアングル(向き)が異なるグループから抽出する。尚、選択部は、予め設定された抽出するアングルの範囲に基づき、その範囲内のグループから抽出してもよい。例えば、抽出するアングル範囲をビデオカメラ100の撮影方向に対し、0°〜180°と設定されていた場合、選択部は、設定されたアングル範囲内の、つまり、ビデオカメラ100の撮影方向を基準として右回りの半円の領域に属している、グループから抽出する。これによるとビデオカメラ100が撮影している被写体が横向きである場合、ユーザーの意思で被写体の正面を撮影しているビデオカメラを優先的に抽出することができる。尚、選択部は、予め設定された抽出するグループの優先度に基づいて、ビデオカメラ100とアングルが最も近いグループから順に抽出する、又はアングルが最も異なるグループから順に抽出する、又は被写体に最も近いグループから順に抽出する等としてもよい。尚、前記優先度は、グループに対する優先度を用いて説明を行ったが、ビデオカメラに対する優先度であってもよい。
ステップS804では、選択部は、ステップS803で抽出したグループから1台だけビデオカメラを抽出し、ステップS801に進む。1台だけビデオカメラを抽出する方法としてはグループの中で最も被写体に近いものでもよいし、各ビデオカメラの解像度等の情報が取得できるのであれば最も解像度の高いビデオカメラとしてもよい。
ステップS801からステップS804までの処理によって、選択部は、順次、ビデオカメラを選択することになる。尚、本実施形態では、設定された数として1、つまり、1台だけビデオカメラを抽出していく例で説明を行っているが、このことは本実施形態を限定するものではない。
In step S803, the selection unit extracts a group of unselected video cameras, and proceeds to step S804. The selection unit extracts from a group having an angle (orientation) different from that of the video camera 100. Note that the selection unit may extract from a group within the range based on a preset angle range to be extracted. For example, when the angle range to be extracted is set to 0 ° to 180 ° with respect to the shooting direction of the video camera 100, the selection unit is within the set angle range, that is, based on the shooting direction of the video camera 100. Extract from the group that belongs to the clockwise semicircle region. According to this, when the subject being photographed by the video camera 100 is landscape, the video camera photographing the front of the subject can be preferentially extracted with the intention of the user. The selection unit sequentially extracts from the group having the closest angle to the video camera 100 based on the preset priority of the group to be extracted, or sequentially extracts from the group having the most different angle, or is closest to the subject. It is good also as extracting sequentially from a group. In addition, although the said priority demonstrated using the priority with respect to a group, the priority with respect to a video camera may be sufficient.
In step S804, the selection unit extracts only one video camera from the group extracted in step S803, and proceeds to step S801. As a method for extracting only one video camera, the one closest to the subject in the group may be used, or the video camera having the highest resolution may be used as long as information such as the resolution of each video camera can be acquired.
By the processing from step S801 to step S804, the selection unit sequentially selects video cameras. In this embodiment, an example is described in which one set is set as the set number, that is, only one video camera is extracted. However, this does not limit the present embodiment.

<実施形態2>
図10は、実施形態2のビデオカメラシステムのシステム構成の一例を示した図である。無線通信機能を有するビデオカメラ100〜109がネットワークを介してサーバー1000とそれぞれ接続されて、それぞれのビデオカメラが被写体110を撮影している。尚、サーバー1000は、一つのコンピュータから構成される集中型であってもよいし、複数のコンピュータから構成される分散型であってもよい。尚、説明の簡略化のため本実施形態においては特に断らない限り、サーバー1000は、一つのコンピュータから構成される集中型であるものとして説明を行う。
サーバー1000は、ハードウェア構成として、CPUやHDD等を有し、CPUがHDD等に記憶されているプログラムに基づき処理を実行することによって、サーバー1000の機能が実現される。
サーバー1000は、ネットワークを介してビデオカメラ100〜109とそれぞれ無線接続される。無線接続された状態であれば、サーバー1000は、ビデオカメラ100〜109から送信されるデータの保存(アップロード)及びビデオカメラ100〜109へのデータの送信(ダウンロード)が可能である。ビデオカメラ100〜109のデータはサーバー1000で一括管理され、各ビデオカメラからデータが閲覧できるようになっている。
<Embodiment 2>
FIG. 10 is a diagram illustrating an example of a system configuration of the video camera system according to the second embodiment. Video cameras 100 to 109 having a wireless communication function are connected to the server 1000 via a network, and each video camera captures the subject 110. The server 1000 may be a centralized type constituted by one computer or a distributed type constituted by a plurality of computers. For the sake of simplification of description, unless otherwise specified in the present embodiment, the server 1000 is described as being a centralized type configured from one computer.
The server 1000 has a CPU, HDD, and the like as a hardware configuration, and the functions of the server 1000 are realized by the CPU executing processing based on a program stored in the HDD or the like.
The server 1000 is wirelessly connected to the video cameras 100 to 109 via a network. If the wireless connection is established, the server 1000 can store (upload) data transmitted from the video cameras 100 to 109 and transmit (download) data to the video cameras 100 to 109. Data of the video cameras 100 to 109 is collectively managed by the server 1000 so that data can be browsed from each video camera.

ビデオカメラ100の処理は図3とほぼ同様であり、差異のあるステップS300、S302、S305、S308、S310に関してのみ説明する。尚、ビデオカメラ100の時間設定は予めユーザーが操作部202を操作することで行われているものとする。
ステップS300では、制御部200は、通信部205を介し、サーバー1000と無線接続を確立し、ステップS301に進む。
ステップS302では、制御部200は、サーバー1000から、通信部205を介し、ビデオカメラ101〜109の位置情報及び向き情報、撮影終了時間を取得(ダウンロード)し、データリストとして記憶部206に保持し、ステップS303に進む。取得した撮影終了時間が現在の時間より前になっている場合は、制御部200は、対応するビデオカメラのデータリストの位置情報及び向き情報を無効データとする。
The processing of the video camera 100 is almost the same as that in FIG. 3, and only steps S300, S302, S305, S308, and S310 having differences will be described. It is assumed that the time setting of the video camera 100 is performed in advance by the user operating the operation unit 202.
In step S300, the control unit 200 establishes a wireless connection with the server 1000 via the communication unit 205, and proceeds to step S301.
In step S302, the control unit 200 acquires (downloads) the position information and orientation information of the video cameras 101 to 109 and the shooting end time from the server 1000 via the communication unit 205, and stores them in the storage unit 206 as a data list. The process proceeds to step S303. If the acquired shooting end time is before the current time, the control unit 200 sets the position information and orientation information of the data list of the corresponding video camera as invalid data.

ステップS305では、制御部200は、通信部205を介し、サーバー1000からステップS304で抽出したビデオカメラの代表画と代表画の映像が含まれる映像データのファイル名を取得(ダウンロード)し、記憶部206に保持する。そして、制御部200は、ステップS306に進む。代表画は代表画の取得を問い合わせたときの画像であることが望ましいが、一定時間前(例えば5秒前)の画像でもよい。尚、制御部200は、代表画でなく、動画を取得するようにしてもよい。
ステップS308では、制御部200は、通信部205を介し、サーバー1000からステップS307で選択された代表画に対応するビデオカメラの映像データを取得(ダウンロード)し、記憶媒体210に記憶し、終了したらステップS309に進む。尚、制御部200は、代表画に対応するビデオカメラ、映像データのファイル名を記憶部206に保持しておき、映像データの取得は後で行ってもよい。
ステップS310では、制御部200は、通信部205を介し、サーバー1000と無線接続を切断し、図3に示す処理を終了する。
In step S305, the control unit 200 acquires (downloads) the file name of the video data including the representative image of the video camera and the video of the representative image extracted from the server 1000 in step S304 via the communication unit 205, and the storage unit 206. Then, the control unit 200 proceeds to step S306. The representative image is desirably an image when the acquisition of the representative image is inquired, but may be an image of a predetermined time before (for example, 5 seconds before). Note that the control unit 200 may acquire a moving image instead of the representative image.
In step S308, the control unit 200 acquires (downloads) video data of the video camera corresponding to the representative image selected in step S307 from the server 1000 via the communication unit 205, stores the video data in the storage medium 210, and when finished. The process proceeds to step S309. Note that the control unit 200 may store the video camera corresponding to the representative image and the file name of the video data in the storage unit 206, and the video data may be acquired later.
In step S310, the control unit 200 disconnects the wireless connection with the server 1000 via the communication unit 205, and ends the process illustrated in FIG.

図11は、実施形態2のビデオカメラ101〜109の情報処理の一例を示すフローチャートである。尚、予めビデオカメラ101〜109の時間設定はユーザーが操作部202を操作することで行われているとする。以下、図11では、ビデオカメラ101〜109の制御部200がプログラムに基づき処理を行うものとして説明を行う。
ステップS1100では、制御部200は、それぞれ通信部205を介し、サーバー1000と無線接続を確立し、ステップS1101に進む。尚、ステップS1100の処理は、撮影前に行われる必要があり、制御部200は、電源オン又は撮影モードになったときにこの処理を行うものとする。
ステップS1101では、制御部200は、サーバー1000と無線接続を切断するか否かを判断する。制御部200は、無線接続を切断すると判断するとステップS1110に進み、そうでなければステップS1102に進む。尚、制御部200は、ユーザーが操作部202を操作し、無線接続の切断を要求したとき、或いは電源オフしたとき、或いは撮影モード以外のモード(例えば再生モード)に移行したときに、無線接続を切断するか否かの判断を行う。つまり、制御部200は、ユーザーが操作部202を操作し、無線接続の切断を要求した場合、或いは電源オフした場合、或いは撮影モード以外のモード(例えば再生モード)に移行した場合、無線接続を切断すると判断する。
FIG. 11 is a flowchart illustrating an example of information processing of the video cameras 101 to 109 according to the second embodiment. It is assumed that the time settings of the video cameras 101 to 109 are performed in advance by the user operating the operation unit 202. Hereinafter, in FIG. 11, description will be made assuming that the control unit 200 of the video cameras 101 to 109 performs processing based on a program.
In step S1100, the control unit 200 establishes a wireless connection with the server 1000 via the communication unit 205, and proceeds to step S1101. Note that the processing in step S1100 needs to be performed before shooting, and the control unit 200 performs this processing when the power is turned on or the shooting mode is set.
In step S1101, the control unit 200 determines whether to disconnect the wireless connection with the server 1000. If it is determined that the wireless connection is to be disconnected, the control unit 200 proceeds to step S1110, otherwise proceeds to step S1102. Note that the control unit 200 performs a wireless connection when the user operates the operation unit 202 to request disconnection of the wireless connection, when the power is turned off, or when a mode other than the shooting mode (for example, a playback mode) is entered. It is determined whether or not to disconnect. That is, when the user operates the operation unit 202 to request disconnection of the wireless connection, when the power is turned off, or when the mode is changed to a mode other than the shooting mode (for example, the playback mode), the control unit 200 performs the wireless connection. Judge to disconnect.

ステップS1102では、制御部200は、ユーザーが操作部202を操作し、撮影開始指示がされたか否かを判断する。制御部200は、撮影開始指示がされたと判断するとステップS1103に進み、そうでなければステップS1101に進む。
ステップS1103では、制御部200は、撮影を開始すると共に、サーバー1000に通信部205を介し、無効な撮影終了時間を送信(アップロード)し、ステップS1104に進む。
ステップS1104では、制御部200は、ユーザーが操作部202を操作し、撮影終了指示がされたか否かを判断する。制御部200は、撮影終了指示がされたと判断するとステップS1109に進み、そうでなければステップS1105に進む。
ステップS1105では、制御部200は、各ビデオカメラの向き検出部203及び位置検出部204がそれぞれ検出した各ビデオカメラの位置情報及び向き情報を記憶部206に保持し、ステップS1106に進む。
In step S1102, the control unit 200 determines whether the user has operated the operation unit 202 to give an instruction to start shooting. If the control unit 200 determines that an instruction to start shooting has been given, the process proceeds to step S1103; otherwise, the process proceeds to step S1101.
In step S1103, the control unit 200 starts shooting, transmits (uploads) an invalid shooting end time to the server 1000 via the communication unit 205, and proceeds to step S1104.
In step S1104, the control unit 200 determines whether or not the user has operated the operation unit 202 to give an instruction to end shooting. If the control unit 200 determines that an instruction to end shooting has been given, the process proceeds to step S1109; otherwise, the process proceeds to step S1105.
In step S1105, the control unit 200 holds the position information and direction information of each video camera detected by the direction detection unit 203 and the position detection unit 204 of each video camera in the storage unit 206, and the process proceeds to step S1106.

ステップS1106では、制御部200は、前記位置情報及び向き情報をサーバー1000に送信(アップロード)し、ステップS1107に進む。
ステップS1107では、制御部200は、サーバー1000に通信部205を介し、代表画を送信(アップロード)し、ステップS1108に進む。代表画はこのときの撮像部207から得られる画像データでも一定時間前(例えば5秒前)の画像データでもよい。撮影開始してから1回でも送信していれば、制御部200は、このステップでは処理を何もせず、ステップS1108に進んでもよい。
ステップS1108では、制御部200は、サーバー1000に通信部205を介し、撮影している映像データを送信(アップロード)し、ステップS1104に進む。
In step S1106, the control unit 200 transmits (uploads) the position information and orientation information to the server 1000, and proceeds to step S1107.
In step S1107, the control unit 200 transmits (uploads) the representative image to the server 1000 via the communication unit 205, and the process proceeds to step S1108. The representative image may be image data obtained from the imaging unit 207 at this time or image data of a predetermined time before (for example, 5 seconds before). If the transmission is performed once even after the start of photographing, the control unit 200 may proceed to step S1108 without performing any processing in this step.
In step S1108, the control unit 200 transmits (uploads) the video data being shot to the server 1000 via the communication unit 205, and proceeds to step S1104.

ステップS1109では、制御部200は、撮影した全ての映像データをサーバー1000に送信(アップロード)した後、通信部205を介し、撮影終了時間をサーバー1000に送信(アップロード)し、ステップS1101に進む。
ステップS1110では、制御部200は、サーバー1000と無線接続を切断し、図11に示す処理を終了する。
In step S1109, the control unit 200 transmits (uploads) all shot video data to the server 1000, and then transmits (uploads) the shooting end time to the server 1000 via the communication unit 205, and the process proceeds to step S1101.
In step S1110, the control unit 200 disconnects the wireless connection with the server 1000 and ends the process illustrated in FIG.

<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

以上、上述した各実施形態によれば、周辺の撮像装置からユーザーの撮影している映像とは異なるアングルの映像を選択する時間が短縮され、不便さが軽減する。また、周辺の撮像装置からの映像を取得する時間が軽減し、ユーザーの撮像装置の記憶媒体の容量を少なくすることができる。   As described above, according to each of the above-described embodiments, the time for selecting an image having a different angle from the image captured by the user from the surrounding imaging devices is shortened, and inconvenience is reduced. In addition, it is possible to reduce the time for acquiring the video from the peripheral imaging devices, and to reduce the capacity of the storage medium of the user's imaging device.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

100〜109 ビデオカメラ、200 制御部、1000 サーバー 100 to 109 video camera, 200 control unit, 1000 server

Claims (7)

無線通信機能を有する撮像装置であって、
被写体を撮像する撮像手段と、
前記撮像装置の位置情報及び向き情報を含む内部情報を取得する内部情報取得手段と、
前記無線通信機能を介して複数の他の撮像装置の位置情報及び向き情報を含む外部情報を取得する外部情報取得手段と、
前記撮像手段による撮像中に、前記外部情報取得手段で取得された内部情報と、前記内部情報取得手段で取得された外部情報と、から前記複数の他の撮像装置が前記撮像装置と同じ被写体を撮影しているか否かを判断する判断手段と、
前記判断手段で同じ被写体を撮影していると判断された前記複数の他の撮像装置のうち、前記撮像装置と前記被写体の撮影方向が異なる他の撮像装置を優先的に選択する選択手段と、
を有し、
前記選択手段は、前記判断手段で同じ被写体を撮影していると判断された前記複数の他の撮像装置をグループ化し、設定されたカメラ選択数に達するまで、設定されたアングル範囲内のグループから設定された数の他の撮像装置を順次、選択することで、前記撮像装置と前記被写体の撮影方向が異なる他の撮像装置を優先的に選択する撮像装置。
An imaging device having a wireless communication function,
Imaging means for imaging a subject;
Internal information acquisition means for acquiring internal information including position information and orientation information of the imaging device;
External information acquisition means for acquiring external information including position information and orientation information of a plurality of other imaging devices via the wireless communication function;
During the imaging by the imaging unit, the plurality of other imaging devices can detect the same subject as the imaging device from the internal information acquired by the external information acquisition unit and the external information acquired by the internal information acquisition unit. A judging means for judging whether or not shooting is performed;
A selection unit that preferentially selects another imaging device in which the imaging direction of the subject is different from the imaging device among the plurality of other imaging devices determined to be imaging the same subject by the determination unit;
I have a,
The selection unit groups the plurality of other imaging devices determined to be shooting the same subject by the determination unit, and from the group within the set angle range until the set number of camera selections is reached. An imaging device that preferentially selects another imaging device having a different shooting direction from the imaging device by sequentially selecting a set number of other imaging devices.
前記外部情報取得手段は、前記無線通信機能を介して前記複数の他の撮像装置より前記複数の他の撮像装置の位置情報及び向き情報を含む外部情報を取得する請求項1記載の撮像装置。 The external information obtaining means, the wireless communication function through acquires external information including position information and orientation information of the plurality of other image capturing device from the plurality of other image pickup apparatus according to claim 1 Symbol placement of the imaging device . 前記外部情報取得手段は、前記無線通信機能を介してサーバー装置より前記複数の他の撮像装置の位置情報及び向き情報を含む外部情報を取得する請求項1記載の撮像装置。 The external information obtaining means, according to claim 1 Symbol placement of the imaging device to acquire external information including the position information and orientation information of the plurality of other image pickup apparatus from the server apparatus via a wireless communication function. 前記選択手段は、前記複数の他の撮像装置の位置情報に基づいて、前記判断手段で同じ被写体を撮影していると判断された前記複数の他の撮像装置をグループ化する請求項1乃至3何れか1項記載の撮像装置。 It said selecting means, based on the position information of the plurality of other image pickup apparatus, according to claim 1 to 3, grouping the plurality of other image capturing device is determined to be shooting the same subject by the determining means The imaging device according to any one of the preceding claims. 前記選択手段は、前記他の撮像装置の解像度に基づいて、グループから設定された数の他の撮像装置を選択する請求項1乃至4何れか1項記載の撮像装置。 It said selecting means, on the basis of the resolution of the other imaging apparatus, an imaging apparatus of claims 1 to 4 any one of claims select another image pickup apparatus set number of the group. 無線通信機能を有する撮像装置が実行する情報処理方法であって、
被写体を撮像する撮像ステップと、
前記撮像装置の位置情報及び向き情報を含む内部情報を取得する内部情報取得ステップと、
前記無線通信機能を介して複数の他の撮像装置の位置情報及び向き情報を含む外部情報を取得する外部情報取得ステップと、
前記撮像ステップによる撮像中に、前記外部情報取得ステップで取得された内部情報と、前記内部情報取得ステップで取得された外部情報と、から前記複数の他の撮像装置が前記撮像装置と同じ被写体を撮影しているか否かを判断する判断ステップと、
前記判断ステップで同じ被写体を撮影していると判断された前記複数の他の撮像装置のうち、前記撮像装置と前記被写体の撮影方向が異なる他の撮像装置を優先的に選択する選択ステップと、
を含み、
前記選択ステップでは、前記判断ステップで同じ被写体を撮影していると判断された前記複数の他の撮像装置をグループ化し、設定されたカメラ選択数に達するまで、設定されたアングル範囲内のグループから設定された数の他の撮像装置を順次、選択することで、前記撮像装置と前記被写体の撮影方向が異なる他の撮像装置を優先的に選択する情報処理方法。
An information processing method executed by an imaging apparatus having a wireless communication function,
An imaging step for imaging a subject;
An internal information acquisition step of acquiring internal information including position information and orientation information of the imaging device;
An external information acquisition step of acquiring external information including position information and orientation information of a plurality of other imaging devices via the wireless communication function;
During the imaging by the imaging step, the plurality of other imaging devices select the same subject as the imaging device from the internal information acquired in the external information acquisition step and the external information acquired in the internal information acquisition step. A determination step for determining whether or not shooting is performed;
A selection step that preferentially selects another imaging device that is different from the imaging direction of the imaging device from the plurality of other imaging devices that are determined to be imaging the same subject in the determination step;
Only including,
In the selection step, the plurality of other imaging devices determined to be shooting the same subject in the determination step are grouped, and from the group within the set angle range until the set number of camera selections is reached. An information processing method that preferentially selects another imaging device having a different shooting direction from the imaging device by sequentially selecting a set number of other imaging devices .
無線通信機能を有する撮像装置に、
被写体を撮像する撮像ステップと、
前記撮像装置の位置情報及び向き情報を含む内部情報を取得する内部情報取得ステップと、
前記無線通信機能を介して複数の他の撮像装置の位置情報及び向き情報を含む外部情報を取得する外部情報取得ステップと、
前記撮像ステップによる撮像中に、前記外部情報取得ステップで取得された内部情報と、前記内部情報取得ステップで取得された外部情報と、から前記複数の他の撮像装置が前記撮像装置と同じ被写体を撮影しているか否かを判断する判断ステップと、
前記判断ステップで同じ被写体を撮影していると判断された前記複数の他の撮像装置のうち、前記撮像装置と前記被写体の撮影方向が異なる他の撮像装置を優先的に選択する選択ステップと、
を実行させ
前記選択ステップでは、前記判断ステップで同じ被写体を撮影していると判断された前記複数の他の撮像装置をグループ化し、設定されたカメラ選択数に達するまで、設定されたアングル範囲内のグループから設定された数の他の撮像装置を順次、選択することで、前記撮像装置と前記被写体の撮影方向が異なる他の撮像装置を優先的に選択するプログラム。
In an imaging device having a wireless communication function,
An imaging step for imaging a subject;
An internal information acquisition step of acquiring internal information including position information and orientation information of the imaging device;
An external information acquisition step of acquiring external information including position information and orientation information of a plurality of other imaging devices via the wireless communication function;
During the imaging by the imaging step, the plurality of other imaging devices select the same subject as the imaging device from the internal information acquired in the external information acquisition step and the external information acquired in the internal information acquisition step. A determination step for determining whether or not shooting is performed;
A selection step that preferentially selects another imaging device that is different from the imaging direction of the imaging device from the plurality of other imaging devices that are determined to be imaging the same subject in the determination step;
Was executed,
In the selection step, the plurality of other imaging devices determined to be shooting the same subject in the determination step are grouped, and from the group within the set angle range until the set number of camera selections is reached. A program that preferentially selects another imaging device having a different shooting direction from the imaging device by sequentially selecting a set number of other imaging devices .
JP2012228287A 2012-10-15 2012-10-15 Imaging apparatus, information processing method, and program Expired - Fee Related JP6057657B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012228287A JP6057657B2 (en) 2012-10-15 2012-10-15 Imaging apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012228287A JP6057657B2 (en) 2012-10-15 2012-10-15 Imaging apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2014082591A JP2014082591A (en) 2014-05-08
JP6057657B2 true JP6057657B2 (en) 2017-01-11

Family

ID=50786411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012228287A Expired - Fee Related JP6057657B2 (en) 2012-10-15 2012-10-15 Imaging apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6057657B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9750775B2 (en) 2010-03-10 2017-09-05 Kaneka Corporation Lactic acid bacterium-containing preparation

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016174253A (en) * 2015-03-16 2016-09-29 パイオニア株式会社 Determination device, determination method, and determination program
JP6621063B2 (en) * 2015-04-29 2019-12-18 パナソニックIpマネジメント株式会社 Camera selection method and video distribution system
JP6778912B2 (en) * 2016-02-03 2020-11-04 パナソニックIpマネジメント株式会社 Video display method and video display device
WO2018079043A1 (en) * 2016-10-26 2018-05-03 シャープ株式会社 Information processing device, image pickup device, information processing system, information processing method, and program
JP2019220991A (en) * 2019-09-10 2019-12-26 パイオニア株式会社 Determination device, determination method, and determination program
WO2022220065A1 (en) * 2021-04-14 2022-10-20 キヤノン株式会社 Imaging device, control method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3809309B2 (en) * 1999-09-27 2006-08-16 キヤノン株式会社 Camera control system, camera control method, and storage medium
JP2009273006A (en) * 2008-05-09 2009-11-19 Hitachi Kokusai Electric Inc Monitoring apparatus and monitor system
JP5838560B2 (en) * 2011-02-14 2016-01-06 ソニー株式会社 Image processing apparatus, information processing apparatus, and imaging region sharing determination method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9750775B2 (en) 2010-03-10 2017-09-05 Kaneka Corporation Lactic acid bacterium-containing preparation

Also Published As

Publication number Publication date
JP2014082591A (en) 2014-05-08

Similar Documents

Publication Publication Date Title
JP6057657B2 (en) Imaging apparatus, information processing method, and program
DK2944078T3 (en) Wireless camcorder
JP4098808B2 (en) Remote video display method, video acquisition device, method thereof, and program thereof
US9377848B2 (en) Image processing apparatus, control method thereof, and recording medium for performing data transmission
JP2011114583A (en) Imaging apparatus, control method thereof, and program
US10291835B2 (en) Information processing apparatus, imaging apparatus, information processing method, and imaging system
JP6729680B2 (en) Service providing system, service transfer system, service providing method, and program
JP5497203B2 (en) Memory card
JP2008060948A (en) Communication system and imaging apparatus
JP5945966B2 (en) Portable terminal device, portable terminal program, server, and image acquisition system
JP6688485B2 (en) Service providing system, service transfer system, service providing method, and program
JP5854827B2 (en) COMMUNICATION DEVICE, ITS CONTROL METHOD, PROGRAM
JP5264600B2 (en) Transfer destination device, transfer source device, and image data transfer system
JP5765925B2 (en) Image recording apparatus and method for controlling image recording apparatus
JP6620884B2 (en) Service providing system, service delivery system, service providing method, and program
JP7279416B2 (en) Intermediary terminal, communication system, input system, intermediary control method, and program
JP6844139B2 (en) Imaging device, system
JP6600450B2 (en) Location information specifying device, location information specifying method, and location information specifying program
WO2017156990A1 (en) Photographing method and device for mobile terminal
JP2015005026A (en) Device management terminal, device management system, and device management program
KR101763938B1 (en) A method for processing image data based on location information related on view-point and apparatus for the same
JP6537406B2 (en) Image processing system
JP4308682B2 (en) Remote video display device, remote video display method, and remote video display program
JP2012142727A (en) Conference system, conference terminal, and remote side terminal
JP2017059959A (en) Control device, imaging apparatus, control method thereof, imaging system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161206

R151 Written notification of patent or utility model registration

Ref document number: 6057657

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees