JP4670776B2 - Video sharing system - Google Patents

Video sharing system Download PDF

Info

Publication number
JP4670776B2
JP4670776B2 JP2006238979A JP2006238979A JP4670776B2 JP 4670776 B2 JP4670776 B2 JP 4670776B2 JP 2006238979 A JP2006238979 A JP 2006238979A JP 2006238979 A JP2006238979 A JP 2006238979A JP 4670776 B2 JP4670776 B2 JP 4670776B2
Authority
JP
Japan
Prior art keywords
video
subject
information
camera
sharing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006238979A
Other languages
Japanese (ja)
Other versions
JP2008061195A (en
Inventor
佑子 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006238979A priority Critical patent/JP4670776B2/en
Priority to PCT/JP2007/067217 priority patent/WO2008029803A1/en
Priority to US12/310,674 priority patent/US8339500B2/en
Publication of JP2008061195A publication Critical patent/JP2008061195A/en
Application granted granted Critical
Publication of JP4670776B2 publication Critical patent/JP4670776B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、カメラで撮影された映像を複数のユーザで共有するシステムに関する。   The present invention relates to a system for sharing video captured by a camera among a plurality of users.

従来、デジタルカメラやカメラ付き携帯電話により撮影された画像をインターネット上のサーバにアップロードし、アップロードされた画像を家族や友人など複数のユーザでダウンロードして共有するシステムが知られている(たとえば、特許文献1参照)。   Conventionally, a system is known in which an image taken by a digital camera or a camera-equipped mobile phone is uploaded to a server on the Internet, and the uploaded image is downloaded and shared by a plurality of users such as family members and friends (for example, Patent Document 1).

特開2005−341298号公報JP 2005-341298 A

上記のようなシステムを映像の共有化システムに適用することにより、たとえば、運動会などのイベントにおいて子供達の親がそれぞれ撮影者となって自分の子供を撮影した映像のように、複数の撮影者が同一施設内で撮影した映像を共有化することができる。しかし、特許文献1に開示されるような従来のシステムでは、実際に映像を再生してみなければその映像の内容が分からないため、システムを利用するユーザはいちいち映像を再生して確認しなければならず、使い勝手が悪い。したがって、複数の撮影者が同一施設内で撮影した映像を共有化する際に使い勝手の良いシステムが求められている。   By applying the system described above to a video sharing system, for example, a plurality of photographers, such as a video in which children's parents become photographers at an event such as an athletic meet, respectively. Can share video taken in the same facility. However, in the conventional system as disclosed in Patent Document 1, since the contents of the video are not known unless the video is actually played back, the user who uses the system must play back and check the video one by one. It must be easy to use. Therefore, there is a need for a system that is easy to use when sharing images shot by a plurality of photographers in the same facility.

請求項1の発明は、様々な映像を蓄積してその蓄積された映像を複数のユーザに利用させる映像共有システムにおいて、施設内に存在する複数の被写体のうちいずれかを撮影する複数のカメラと、複数のカメラにより撮影された各撮影映像を収集する映像収集手段と、映像収集手段により収集された各撮影映像を蓄積する蓄積手段と、複数の被写体のうち出番が近い被写体の撮影者に対して警告を行うスケジュール管理手段とを備えるものである。
請求項2の発明は、請求項1の映像共有システムにおいて、スケジュール管理手段は、次のイベントプログラムが開始する所定時間前になったら、そのイベントプログラムに出場する予定の被写体を特定することにより、出番が近い被写体を判断するものである。
請求項3の発明は、請求項1または2の映像共有システムにおいて、スケジュール管理手段は、予め登録されたイベントプログラムごとの出場者登録情報に基づいて、次のイベントプログラムに出場する予定の被写体を特定するものである。
請求項4の発明は、請求項1〜3いずれか一項の映像共有システムにおいて、スケジュール管理手段は、カメラに特定の動作を指示する制御信号を送信することにより警告を行うものである。
請求項5の発明は、請求項1〜3いずれか一項の映像共有システムにおいて、スケジュール管理手段は、予め登録された撮影者が所持する携帯電話のメールアドレスにメールを送信することにより警告を行うものである。
The invention of claim 1 is a video sharing system in which various videos are accumulated and the accumulated videos are used by a plurality of users, and a plurality of cameras for photographing any of a plurality of subjects existing in a facility; A video collecting means for collecting each shot video shot by a plurality of cameras, a storage means for storing each shot video collected by the video collecting means, and a photographer of a subject whose turn is close among a plurality of subjects. And schedule management means for warning.
According to a second aspect of the present invention, in the video sharing system of the first aspect, the schedule management means specifies a subject that is scheduled to participate in the event program when a predetermined time before the next event program starts. The subject whose turn is close is determined.
According to a third aspect of the present invention, in the video sharing system according to the first or second aspect, the schedule management means selects a subject to be participated in the next event program based on the participant registration information for each event program registered in advance. It is something to identify.
According to a fourth aspect of the present invention, in the video sharing system according to any one of the first to third aspects, the schedule management means issues a warning by transmitting a control signal instructing a specific operation to the camera.
According to a fifth aspect of the present invention, in the video sharing system according to any one of the first to third aspects, the schedule management means issues a warning by sending an e-mail to a mail address of a mobile phone possessed by a photographer registered in advance. Is what you do.

本発明によれば、運動会において子供達の親がそれぞれ撮影者となって自分の子供を撮影した映像のように、複数の撮影者が同一施設内で撮影した映像を共有化する際に、使い勝手の良いシステムを提供することができる。   According to the present invention, it is convenient to share videos taken by a plurality of photographers in the same facility, such as videos in which children's parents are photographers and photographed by their parents at an athletic meet. A good system can be provided.

図1は、本発明の一実施形態による映像共有システムの構成を示すブロック図である。この映像共有システムは、主に幼稚園や保育園、小学校等の施設において、複数の撮影者がその施設内で撮影した映像を共有化する際に用いられるものである。この映像共有システムを用いることにより、たとえば運動会などのイベントにおいて子供達の親がそれぞれ撮影者となって自分の子供を撮影した映像を、他の親との間で共有することができる。これにより、自分の子供が障害物の陰に隠れたりしてうまく撮影できなかった場面があっても、他の親が撮影した映像を利用することで、その場面に自分の子供が写っている映像を得ることができるようになる。   FIG. 1 is a block diagram showing a configuration of a video sharing system according to an embodiment of the present invention. This video sharing system is mainly used in a kindergarten, a nursery school, an elementary school or the like to share videos taken by a plurality of photographers in the facility. By using this video sharing system, for example, at the event such as an athletic meet, children's parents can be photographers, and videos of their children can be shared with other parents. As a result, even if there is a scene where your child was hiding behind an obstacle and could not be shot well, using the video taken by other parents, their child is reflected in the scene You can get a video.

図1の映像共有システム100は、ICタグ101と、ICタグ受信機102と、カメラ103と、制御装置104と、記録装置105とで構成される。なお、ICタグ受信機102、制御装置104および記録装置105は施設内に予め設置されている。一方、ICタグ101およびカメラ103は、映像共有システム100のユーザである子供と撮影者によって所持されている。   The video sharing system 100 of FIG. 1 includes an IC tag 101, an IC tag receiver 102, a camera 103, a control device 104, and a recording device 105. The IC tag receiver 102, the control device 104, and the recording device 105 are installed in advance in the facility. On the other hand, the IC tag 101 and the camera 103 are possessed by a child who is a user of the video sharing system 100 and a photographer.

ICタグ101は、カメラ103により被写体とされる子供達(園児、児童など)が各自1つずつ所持している。例えば、名札、帽子、靴、園児服、体操服などにICタグ101を装着しておき、これらのものを身に着けることによって子供達にICタグ101を所持させる。さらに、カメラ103を所持している撮影者(親など)も、各自ICタグ101を所持している。この場合、子供と同様にICタグ101を撮影者の衣服などに装着してもよいし、あるいはカメラ103に装着してもよい。すなわち、図1ではICタグ101を代表して1つのブロックで表しているが、実際には子供と撮影者の数に応じた複数のICタグ101が映像共有システム100に含まれる。   The IC tag 101 is carried by each of the children (children, children, etc.) who are the subjects of the camera 103. For example, the IC tag 101 is attached to a name tag, a hat, shoes, nursery clothes, gym clothes, and the like, and the children carry the IC tag 101 by wearing these things. Further, a photographer (such as a parent) who owns the camera 103 also owns the IC tag 101. In this case, the IC tag 101 may be attached to the photographer's clothes or the like as with the child, or may be attached to the camera 103. That is, in FIG. 1, the IC tag 101 is represented by one block, but actually, the video sharing system 100 includes a plurality of IC tags 101 corresponding to the number of children and photographers.

ICタグ101には、ICタグ101の各々を一意に識別するための固有のタグ番号がそれぞれ付与されており、このタグ番号でICタグ101を所持している人物を特定できるようになっている。具体的には、各撮影者および子供がそれぞれ所持している複数のICタグ101のタグ番号と、その各々を所持している人物とを対応付けたタグ管理情報が後述する記録装置105に予め記録されている。そして、制御装置104は、ICタグ受信機102で読み取ったICタグ101のタグ番号に基づいて、そのICタグ101の所持者が誰であるかを特定する。なお、各ICタグ101のタグ番号はタグ情報の一部としてICタグ受信機102に送信される。すなわち各ICタグ101は、各々に固有の識別情報としてタグ情報を送信する。   The IC tag 101 is given a unique tag number for uniquely identifying each IC tag 101, and the person who owns the IC tag 101 can be specified by this tag number. . Specifically, tag management information in which tag numbers of a plurality of IC tags 101 possessed by each photographer and child are associated with persons possessing each of them is stored in advance in a recording device 105 described later. It is recorded. Then, based on the tag number of the IC tag 101 read by the IC tag receiver 102, the control device 104 specifies who is the owner of the IC tag 101. The tag number of each IC tag 101 is transmitted to the IC tag receiver 102 as part of tag information. That is, each IC tag 101 transmits tag information as unique identification information.

ICタグ受信機102は、映像共有システム100が用いられる施設内に所定間隔ごとに設置される。具体的には、園庭や校庭の地中、施設の建物の床下などに、所定の間隔を空けて(例えば、地中には2mおき、床下には1mおきに)碁盤の目状に埋め込まれて設置される。すなわち、このICタグ受信機102も図1では代表して1つのブロックで表しているが、実際には複数のICタグ受信機102が映像共有システム100に含まれている。また、各ICタグ受信機102には、それぞれのICタグ受信機102を一意に識別するための受信機番号が付加されている。そして、各ICタグ受信機102の設置位置と受信機番号とを対応付けた受信機管理情報が記録装置105に記録されている。   The IC tag receiver 102 is installed at predetermined intervals in a facility where the video sharing system 100 is used. Specifically, it is embedded in a grid pattern in the ground of a garden or school yard, under the floor of a facility building, etc., with a predetermined interval (for example, every 2 m under the ground and every 1 m below the floor). Installed. That is, the IC tag receiver 102 is also represented by one block as a representative in FIG. 1, but actually, a plurality of IC tag receivers 102 are included in the video sharing system 100. Each IC tag receiver 102 is assigned a receiver number for uniquely identifying each IC tag receiver 102. Then, the receiver management information in which the installation position of each IC tag receiver 102 is associated with the receiver number is recorded in the recording device 105.

上記のように施設内に所定間隔ごとに設置されたICタグ受信機102のいずれかの上を子供や撮影者が通過すると、そのICタグ受信機102は、通過した人物が所持しているICタグ101から無線通信によりタグ情報を読み込んで、そのタグ情報と自身の受信機番号とを制御装置104へ出力する。制御装置104では、後述するように、タグ情報に含まれるタグ番号を特定し、さらに受信機番号に基づいてその受信機の設置位置を特定することで、ICタグ101を所持する人物(すなわち、子供または撮影者)の施設内における所在位置をそれぞれ特定することができる。換言すると、ICタグ受信機102により受信されたICタグ101の各々に固有の識別情報と、そのICタグ101からの識別情報を受信したICタグ受信機102の設置位置とに基づいて、被写体である子供の所在位置や、撮影者が所持するカメラ103の施設内における所在位置を特定することができる。   As described above, when a child or a photographer passes over any one of the IC tag receivers 102 installed at predetermined intervals in the facility, the IC tag receiver 102 is connected to the IC possessed by the passing person. The tag information is read from the tag 101 by wireless communication, and the tag information and its receiver number are output to the control device 104. As will be described later, the control device 104 specifies the tag number included in the tag information, and further specifies the installation position of the receiver based on the receiver number, so that the person who owns the IC tag 101 (that is, The location of the child or photographer in the facility can be specified. In other words, based on the identification information unique to each IC tag 101 received by the IC tag receiver 102 and the installation position of the IC tag receiver 102 that has received the identification information from the IC tag 101, It is possible to specify the location of a child and the location of the camera 103 owned by the photographer.

図2は、園庭や校庭、あるいは施設の建物におけるICタグ受信機102の設置例を示す図である。図2においては、ICタグ受信機102の設置位置を白丸で示している。この図2に示す例では、ICタグ受信機102は施設内に等間隔で設置されている。なお、ICタグ受信機102の設置間隔は必ずしも図2のように等間隔である必要はない。   FIG. 2 is a diagram illustrating an installation example of the IC tag receiver 102 in a garden, schoolyard, or facility building. In FIG. 2, the installation position of the IC tag receiver 102 is indicated by a white circle. In the example shown in FIG. 2, the IC tag receivers 102 are installed in the facility at equal intervals. Note that the installation intervals of the IC tag receivers 102 do not necessarily have to be equal as shown in FIG.

カメラ103は、撮影者によって所持されるビデオカメラであり、撮影者の操作に応じて施設内に存在する子供達のいずれかを撮影して、その映像を制御装置104へ逐次送信する。さらに、撮影時の撮影方向や焦点距離、撮影レンズのズーム量や画角などを求め、これらのうち後述する撮影範囲の算出において必要な情報を撮影情報として撮影映像と共に制御装置104へ逐次送信する。なお撮影方向については、たとえばカメラ103に方位検出センサや姿勢検出センサなどを内蔵し、それを用いてカメラ103がどちらを向いているかを検出することにより検出することができる。これらの撮影情報を映像データ内にメタデータとして埋め込むことにより撮影映像と共に送信してもよい。   The camera 103 is a video camera possessed by the photographer, photographs any of the children present in the facility in accordance with the photographer's operation, and sequentially transmits the video to the control device 104. Further, the photographing direction and focal length at the time of photographing, the zoom amount and the angle of view of the photographing lens are obtained, and information necessary for calculating the photographing range described later is sequentially transmitted to the control device 104 together with the photographed image as photographing information. . Note that the shooting direction can be detected by, for example, incorporating a direction detection sensor, a posture detection sensor, or the like in the camera 103 and detecting which direction the camera 103 is facing. These pieces of shooting information may be transmitted together with the shot video by embedding them as metadata in the video data.

なお、施設内に複数の撮影者がいる場合は、その撮影者ごとにカメラ103が所持される。すなわち、このカメラ103も図1では代表して1つのブロックで表しているが、実際には複数のカメラ103が映像共有システム100に含まれる。   When there are a plurality of photographers in the facility, the camera 103 is possessed for each photographer. That is, this camera 103 is also represented by one block in FIG. 1 as a representative, but actually, a plurality of cameras 103 are included in the video sharing system 100.

制御装置104は、例えばパソコンやサーバなどのコンピュータ装置であり、施設内の複数箇所に設置されたICタグ受信機102とは、施設内に敷設されたLAN等を介して接続されている。また、カメラ103とは無線LANなどの無線通信回線を介して接続され、記録装置105とは所定のインタフェースを介して接続される。この制御装置104は、位置特定部104a、スケジュール管理部104b、映像収集部104c、映像編集部104dおよび課金部104eを機能的に有している。   The control device 104 is a computer device such as a personal computer or a server, for example, and is connected to the IC tag receivers 102 installed at a plurality of locations in the facility via a LAN or the like installed in the facility. The camera 103 is connected via a wireless communication line such as a wireless LAN, and the recording apparatus 105 is connected via a predetermined interface. The control device 104 functionally includes a position specifying unit 104a, a schedule management unit 104b, a video collection unit 104c, a video editing unit 104d, and a billing unit 104e.

位置特定部104aは、ICタグ受信機102からタグ情報と受信機番号が入力されると、上述したように記録装置105に記録されている受信機管理情報に基づいて、入力された受信機番号に対応するICタグ受信機102の設置位置を特定すると共に、入力されたタグ情報に基づいて、そのタグ情報を発信したICタグ101のタグ番号を特定する。こうして特定されたICタグ受信機102の設置位置とICタグ101のタグ番号から、そのタグ番号が付与されたICタグ101を所持する人物(子供または撮影者)が施設内のどこにいるかを特定する。そして、子供の場合はその位置を被写体位置として、また撮影者の場合はその位置をカメラ位置として、記録装置105にそれぞれ記録する。この被写体位置およびカメラ位置は、子供や撮影者が移動して所持するICタグ101のタグ情報がそれまでとは異なるICタグ受信機102によって受信されたときに更新される。   When the tag information and the receiver number are input from the IC tag receiver 102, the position specifying unit 104a receives the input receiver number based on the receiver management information recorded in the recording device 105 as described above. Is specified, and the tag number of the IC tag 101 that has transmitted the tag information is specified based on the input tag information. From the installation position of the IC tag receiver 102 thus identified and the tag number of the IC tag 101, it is specified where the person (child or photographer) who owns the IC tag 101 to which the tag number is assigned is located in the facility. . In the case of a child, the position is recorded as a subject position, and in the case of a photographer, the position is recorded as a camera position in the recording device 105. The subject position and the camera position are updated when the tag information of the IC tag 101 carried by the child or the photographer is received by the IC tag receiver 102 different from the previous one.

スケジュール管理部104bは、イベントスケジュールに従って予め登録されたイベントプログラムごとの出場者登録情報に基づいて、次のイベントプログラムの出場予定者を特定し、その出場予定者を被写体として撮影する撮影者に対して、撮影開始を促す旨を伝える警告情報を送信する。たとえば運動会において、次の競技に出場する子供の親に対して警告情報を送信する。この警告情報の送信は、たとえば撮影者が所持するカメラ103に対して、電源投入や警告音の出力、液晶モニタの点滅表示、液晶モニタにおける「出番5分前です」等の警告表示など、特定の動作を指示する制御信号を送信することによって行われる。なおこの場合、被写体(子供)とカメラ103の対応関係が予め登録されている。あるいは、予め登録された親の携帯電話のメールアドレスにメールを送信したりすることにより行われる。なお、登録されたイベントプログラムごとの出場者登録情報は、記録装置105に記録される。   The schedule management unit 104b identifies a prospective participant of the next event program based on the participant registration information for each event program registered in advance according to the event schedule, and for a photographer who photographs the prospective participant as a subject. Warning information indicating that the start of shooting is to be transmitted. For example, in a sports day, warning information is transmitted to the parent of a child who participates in the next competition. This warning information is transmitted to the camera 103 owned by the photographer, for example, by turning on the power, outputting a warning sound, flashing the LCD monitor, or displaying a warning message such as “5 minutes before the start” on the LCD monitor. This is done by transmitting a control signal instructing the operation. In this case, the correspondence between the subject (child) and the camera 103 is registered in advance. Alternatively, it is performed by sending a mail to the mail address of the parent mobile phone registered in advance. Note that the participant registration information for each registered event program is recorded in the recording device 105.

映像収集部104cは、カメラ103により撮影されて逐次送信される映像を受信することにより、各カメラ103からの撮影映像を収集して記録装置105に記録する。この映像収集部104cによって、複数のカメラ103から収集された複数の映像が記録装置105に記録される。さらに、前述のような撮影条件情報を撮影映像と共にカメラ103から逐次受信し、撮影映像と合わせて記録装置105に所定時間ごとに記録する。こうして記録された撮影条件情報は、後述する映像編集部104dが行う映像判定処理においてカメラ103の撮影範囲を求める際に用いられる。   The video collection unit 104 c collects the video shot from each camera 103 and records it in the recording device 105 by receiving the video shot by the camera 103 and sequentially transmitted. The video collection unit 104 c records a plurality of videos collected from the plurality of cameras 103 in the recording device 105. Further, the above-described shooting condition information is sequentially received from the camera 103 together with the shot video, and recorded together with the shot video in the recording device 105 every predetermined time. The shooting condition information recorded in this way is used when obtaining the shooting range of the camera 103 in the video determination process performed by the video editing unit 104d described later.

映像編集部104dは、映像収集部104cによって複数のカメラ103から収集された各撮影映像における被写体を特定し、その結果に基づいて、いずれかの被写体を編集対象とした映像の編集を行う。この映像編集では、収集された各撮影映像の中から編集対象とされた被写体が最もよく写っている映像部分を所定時間ごとに抽出し、それを順次挿入して映像を編集することにより、その被写体に適した編集映像を作成する。このときの詳しい処理内容については、後で説明する。   The video editing unit 104d specifies a subject in each captured video collected from the plurality of cameras 103 by the video collecting unit 104c, and edits a video with any subject as an editing target based on the result. In this video editing, the video portion in which the subject to be edited is best reflected is extracted from each collected video every predetermined time, and the video portion is edited by inserting it sequentially. Create an edited video suitable for the subject. Detailed processing contents at this time will be described later.

課金部104eは、映像編集部104dによって複数の撮影映像を編集して作成された編集映像をユーザに提供する際に、そのユーザに対する課金額またはそのユーザが受け取る受領金額の算出を行う。このとき、ユーザに提供する編集映像において当該ユーザ以外の撮影者が撮影した映像が利用されている場合は、その利用時間に応じた金額が当該ユーザに対して課金され、映像の提供者に支払われる。これとは反対に、当該ユーザの撮影した映像が他のユーザに提供された編集映像において利用されている場合は、当該ユーザに対してその利用時間に応じた金額が支払われる。この課金額または受領金額の具体的な算出方法については、後で詳しく説明する。   The billing unit 104e calculates a charge amount for the user or a receipt amount received by the user when providing the user with the edited video created by editing the plurality of captured videos by the video editing unit 104d. At this time, if an edited video provided to the user uses a video taken by a photographer other than the user, an amount corresponding to the usage time is charged to the user and paid to the video provider. Is called. On the other hand, when the video shot by the user is used in the edited video provided to another user, the user is paid an amount corresponding to the usage time. A specific method for calculating the charged amount or the received amount will be described in detail later.

記録装置105は、前述したような様々な情報、すなわちタグ管理情報や受信機管理情報、位置特定部104aにより特定された被写体位置およびカメラ位置の情報、映像収集部104cによって収集されたカメラ103の撮影映像および撮影情報、イベントプログラムごとの出場者登録情報などを記録して蓄積することができる。この記録装置105には、たとえばハードディスクなどが用いられる。   The recording apparatus 105 includes various information as described above, that is, tag management information and receiver management information, information on the subject position and camera position specified by the position specifying unit 104a, and information on the camera 103 collected by the video collecting unit 104c. Shooting video and shooting information, registration information for each event program, etc. can be recorded and stored. For this recording device 105, for example, a hard disk or the like is used.

以上説明したような映像共有システム100を用いることにより、運動会に参加している子供達を被写体としてそれぞれの親が撮影した映像を収集し、親同士の間で共有化することができる。そして、運動会の終了後に親が自宅のパーソナルコンピュータから映像共有システム100にアクセスする等の方法により、自分の子供を編集対象に指定すると、自分の撮影映像だけでなく共有化された他の親の撮影映像も利用して、自分の子供が最もよく写っている編集映像を作成することができる。   By using the video sharing system 100 as described above, it is possible to collect videos taken by each parent with children participating in the athletic meet as subjects and share them among the parents. Then, after the athletic meet, when the parent designates his / her child as an editing target by a method such as accessing the video sharing system 100 from a personal computer at home, not only his own video but also other parents who have been shared. You can also use the shot video to create an edited video that best shows your child.

図3は、映像共有システム100において制御装置104により実行される処理を示すフローチャートである。このフローチャートに示すように、制御装置104はステップS100のイベント中処理、ステップS200の映像判定処理、ステップS300の映像編集処理およびステップS400の課金処理を順番に実行する。これらの各ステップにおける具体的な処理の内容を、図4〜7のフローチャートを用いて以下に説明する。なお、ステップS100のイベント中処理は運動会などのイベント開催中に実行され、それ以外の処理はイベント終了後に実行される。   FIG. 3 is a flowchart illustrating processing executed by the control device 104 in the video sharing system 100. As shown in this flowchart, the control device 104 sequentially executes the in-event process in step S100, the video determination process in step S200, the video editing process in step S300, and the billing process in step S400. The specific processing contents in each of these steps will be described below with reference to the flowcharts of FIGS. Note that the in-event process in step S100 is executed during an event such as an athletic meet, and the other processes are executed after the event ends.

図4は、図3のステップS100のイベント中処理において実行される処理のフローチャートである。このフローチャートは、ステップS101〜S104の位置特定処理と、ステップS111〜S114のスケジュール管理処理と、ステップS121、S122の映像収集処理と、ステップS131の判定処理とによって構成されている。なお、位置特定処理は制御装置104において位置特定部104aにより実行され、スケジュール管理処理はスケジュール管理部104bにより実行され、映像収集処理は映像収集部104cにより実行される。   FIG. 4 is a flowchart of processing executed in the event processing in step S100 of FIG. This flowchart is composed of position specifying processing in steps S101 to S104, schedule management processing in steps S111 to S114, video collection processing in steps S121 and S122, and determination processing in step S131. The position specifying process is executed by the position specifying unit 104a in the control device 104, the schedule management process is executed by the schedule management unit 104b, and the video collecting process is executed by the video collecting unit 104c.

ステップS101では、ICタグ受信機102からタグ情報と受信機番号を入力する。ステップS102では、ステップS101で入力したタグ番号と記録装置105に記録されたタグ管理情報に基づいて、そのタグ番号に該当する被写体またはカメラ103を特定する。ステップS103では、ステップS102で特定された被写体またはカメラ103について、ステップS101で入力した受信機番号と記録装置105に記録された受信機管理情報に基づいて、その被写体位置またはカメラ位置を特定する。ステップS104では、ステップS103で特定された被写体位置またはカメラ位置を記録装置105に記録する。   In step S101, tag information and a receiver number are input from the IC tag receiver 102. In step S102, the subject or camera 103 corresponding to the tag number is specified based on the tag number input in step S101 and the tag management information recorded in the recording device 105. In step S103, the subject position or camera position of the subject or camera 103 specified in step S102 is specified based on the receiver number input in step S101 and the receiver management information recorded in the recording device 105. In step S104, the subject position or camera position specified in step S103 is recorded in the recording device 105.

以上説明したステップS101〜S104の位置特定処理により、ICタグ受信機102から入力されたタグ番号が子供の所持するICタグ101に対して付与されたものである場合、その子供が被写体として特定され、その所在位置が被写体位置として記録装置105に記録される。また、ICタグ受信機102から入力されたタグ番号が撮影者である親の所持するICタグ101に対して付与されたものである場合、その撮影者が所持しているカメラ103が特定され、その所在位置がカメラ位置として記録装置105に記録される。このようにして、映像共有システム100に含まれる複数の被写体およびカメラ103について、それぞれの被写体位置およびカメラ位置を記録する。   When the tag number input from the IC tag receiver 102 is assigned to the IC tag 101 possessed by the child by the position specifying process in steps S101 to S104 described above, the child is specified as the subject. The location is recorded in the recording device 105 as the subject position. Further, when the tag number input from the IC tag receiver 102 is assigned to the IC tag 101 possessed by the parent who is the photographer, the camera 103 possessed by the photographer is specified, The location is recorded in the recording device 105 as a camera position. In this manner, the subject positions and camera positions of the plurality of subjects and the camera 103 included in the video sharing system 100 are recorded.

ステップS111では、記録装置105に記録された出場者登録情報を読み出す。この出場者登録情報の例を図8に示す。この例では、運動会の「玉入れ」、「100m走」、「おどり(年長)」、および「障害物競走」の各競技プログラムについて、子供A〜Eがどの競技プログラムに出場するかを表している。システム管理者や子供達の親が事前に各競技プログラムに出場する子供のチェックボックスをチェックしておくことにより、このような出場者登録情報を登録することができる。   In step S111, the participant registration information recorded in the recording device 105 is read. An example of the participant registration information is shown in FIG. In this example, it represents which competition program children A to E will participate in for each competition program of athletic meet “Tama-in”, “100m run”, “Dance (elder)”, and “Obstacle race”. ing. Such system registration information can be registered by checking the check box of the child who participates in each competition program in advance by the system administrator or the parents of the children.

ステップS112では、ステップS111で読み出した出場者登録情報に基づいて、次のイベントプログラムの開始時間に近づいた否かを判定する。ここでは、次のイベントプログラムが開始される所定時間前、たとえば5分前になったときに開始時間に近づいたと判定する。すなわち図8の出場者登録情報の例では、たとえば9時55分になったときに「玉入れ」の開始時間に近づいたと判定し、10時35分になったときに「100m走」の開始時間に近づいたと判定する。このようにして、ステップS112が肯定判定された場合はステップS113へ進む。一方、ステップS112が否定判定された場合は、ステップS113、S114を飛ばしてその次のステップS121へ進む。   In step S112, based on the participant registration information read in step S111, it is determined whether or not the start time of the next event program is approaching. Here, it is determined that the start time is approaching when a predetermined time before the next event program starts, for example, 5 minutes before. That is, in the example of the participant registration information in FIG. 8, for example, when it is 9:55, it is determined that the start time of “Tama-in” is approached, and when “10:35” is reached, the “100 m run” starts. It is determined that the time is approaching. In this way, if an affirmative determination is made in step S112, the process proceeds to step S113. On the other hand, if a negative determination is made in step S112, steps S113 and S114 are skipped and the process proceeds to the next step S121.

ステップS113では、ステップS111で読み出した出場者登録情報に基づいて、次のイベントプログラムの出場予定者を特定する。こうして次のイベントプログラムの出場予定者を特定することにより、出番が近い被写体が判断される。ステップS114では、ステップS113で特定された出場予定者を被写体として撮影を行う者に対して、撮影を促す旨を伝える警告情報を前述のような方法により送信する。すなわち図8の出場者登録情報の例では、たとえば9時55分になったときには、「玉入れ」に参加する子供A、Cの親に対して警告情報を送信し、10時35分になったときには、「100m走」に参加する子供Cの親に対して警告情報を送信する。   In step S113, a prospective participant of the next event program is specified based on the participant registration information read in step S111. In this way, by specifying a person who is scheduled to participate in the next event program, a subject with a close turn is determined. In step S114, warning information is transmitted by the method described above to inform the person who takes a picture of the prospective participant specified in step S113 as a subject. That is, in the example of the participant registration information in FIG. 8, for example, when 9:55 is reached, warning information is transmitted to the parents of children A and C participating in “Tama-in” and becomes 10:35. If it happens, the warning information is transmitted to the parent of the child C participating in the “100 m run”.

以上説明したステップS111〜S114のスケジュール管理処理により、次のイベントプログラムが開始する所定時間前になったら、予め登録されたイベントプログラムごとの出場者登録情報に基づいて、次のイベントプログラムに出場する予定の被写体を特定する。これにより出番が近い被写体を判断し、その被写体の撮影者に対して、その撮影者が所持するカメラ103に特定の動作を指示する制御信号を送信したり、あるいは撮影者が所持する予め登録された携帯電話のメールアドレスにメールを送信したりすることで警告を行う。したがって、撮影者はイベントのスケジュールを覚えていなくても、撮影タイミングを逃すことなく目的とする被写体を確実に撮影することができる。   As a result of the schedule management processing in steps S111 to S114 described above, if the predetermined time before the next event program starts, the next event program is entered based on the pre-registered participant registration information for each event program. Identify the intended subject. This makes it possible to determine a subject whose turn is close and transmit a control signal instructing a specific operation to the camera 103 possessed by the photographer or to be registered in advance by the photographer. Warn by sending an email to the email address of a mobile phone. Therefore, even if the photographer does not remember the event schedule, the photographer can reliably photograph the target subject without missing the photographing timing.

ステップS121では、カメラ103から送信される撮影映像と撮影情報を受信する。この撮影情報には、前述のようにカメラ103における撮影時の様々な撮影条件が表されている。ステップS122では、ステップS121で受信した撮影映像と撮影情報を記録装置105に記録する。このとき、各撮影映像のホワイトバランスが一致するように調節したりしてもよい。こうしてステップS121およびS122の映像収集処理を実行することにより、複数の撮影者がカメラ103によってそれぞれ撮影した映像を収集して各ユーザ間で共有化することができる。   In step S121, the captured video and the captured information transmitted from the camera 103 are received. In this shooting information, as described above, various shooting conditions at the time of shooting by the camera 103 are expressed. In step S122, the captured video and the captured information received in step S121 are recorded in the recording device 105. At this time, adjustment may be made so that the white balance of each photographed image matches. By executing the video collecting process in steps S121 and S122 in this way, videos taken by a plurality of photographers with the camera 103 can be collected and shared among users.

なお、上記のようにしてカメラ103から撮影映像と撮影情報を送信する際には、後述のような映像判定処理および映像編集処理を実行するための時刻情報を付加しておく必要がある。この時刻情報は、処理対象とされる全ての撮影映像および撮影情報において一致していなければならない。そのため、全ての撮影者がカメラ103の時計を同じ時刻に予め合わせておく必要がある。たとえば、標準電波を受信して時刻校正を行う電波時計をカメラ103に搭載することにより、複数のカメラ103の時計合わせを自動的に行うことができる。   It should be noted that when transmitting the captured video and the shooting information from the camera 103 as described above, it is necessary to add time information for executing a video determination process and a video editing process as described later. This time information must be the same in all the captured images and the shooting information to be processed. Therefore, all photographers need to set the clock of the camera 103 to the same time in advance. For example, by mounting on the camera 103 a radio clock that receives a standard radio wave and corrects the time, the clocks of a plurality of cameras 103 can be automatically adjusted.

ステップS131では、イベントが終了したか否かを判定する。この判定は、ステップS111で読み出した出場者登録情報に基づいて行ってもよいし、システム管理者などがイベント終了時に行う所定の操作を検出することで行ってもよい。まだイベントが終了していないと判定した場合はステップS101へ戻り、上記のような処理を繰り返す。一方、既にイベントが終了したと判定した場合は、図4のフローチャートを終了する。イベント中処理では、以上説明したような処理が実行される。   In step S131, it is determined whether the event has ended. This determination may be performed based on the participant registration information read in step S111, or may be performed by detecting a predetermined operation performed by the system administrator or the like at the end of the event. If it is determined that the event has not ended yet, the process returns to step S101 and the above-described processing is repeated. On the other hand, if it is determined that the event has already ended, the flowchart of FIG. 4 ends. In the in-event process, the process as described above is executed.

次に、ステップS200の映像判定処理において映像編集部104dにより実行される図5のフローチャートについて説明する。ステップS201では、前述の映像収集処理により収集されて記録装置105に記録された各撮影映像に対して基準時刻の設定を行う。この基準時刻とは、各映像の開始から終了までの間に所定の時間間隔で設定されるものであり、たとえば1秒間隔で設定される。この基準時刻は全ての映像に対して共通に設定される。たとえば、最も早い時刻に撮影開始された映像の開始時刻を最初の基準時刻として、そこから所定時間ごとに各映像に対して基準時刻が設定される。なお、基準時刻の設定間隔は、制御装置104の処理能力などに応じて決定される。すなわち、設定間隔を短くするほど、以降に説明する処理の合計ステップ数が増大して制御装置104の処理負荷が大きくなるので、その処理時間が一定の範囲内となるように、制御装置104の処理能力が高い場合は基準時刻の設定間隔を短くし、処理能力が低い場合は基準時刻の設定間隔を長くすることが好ましい。   Next, the flowchart of FIG. 5 executed by the video editing unit 104d in the video determination process of step S200 will be described. In step S <b> 201, a reference time is set for each captured video collected by the video collection process and recorded in the recording device 105. The reference time is set at a predetermined time interval from the start to the end of each video, and is set at an interval of 1 second, for example. This reference time is set in common for all videos. For example, the start time of the video image that has been started at the earliest time is set as the first reference time, and the reference time is set for each video image every predetermined time thereafter. Note that the reference time setting interval is determined according to the processing capability of the control device 104 and the like. That is, as the setting interval is shortened, the total number of steps described below increases and the processing load on the control device 104 increases, so that the processing time of the control device 104 can be kept within a certain range. It is preferable to shorten the reference time setting interval when the processing capability is high, and to increase the reference time setting interval when the processing capability is low.

ステップS202では、前述の映像収集処理により収集されて記録装置105に記録された撮影映像の中からいずれかを選択する。ここでは、たとえば撮影者が所持するICタグ101のタグ番号が小さいものから、その撮影者による撮影映像を順番に選択する。ステップS203では、ステップS201で設定した基準時刻のうち、ステップS202で選択した映像において最初となる基準時刻を選択する。   In step S <b> 202, one of the captured videos collected by the video collection process and recorded in the recording device 105 is selected. Here, for example, images taken by the photographer are selected in order from the one with the smallest tag number of the IC tag 101 possessed by the photographer. In step S203, the first reference time in the video selected in step S202 is selected from the reference times set in step S201.

ステップS204では、ステップS202で選択した撮影映像と共に記録されている撮影情報のうち、現在選択中の基準時刻における撮影情報を記録装置105から読み出す。ここで現在選択中の基準時刻とは、ステップS203または後述のステップS213によって選択された基準時刻である。すなわち、最初にこのステップS204の処理を実行する場合は、最初の基準時刻が現在選択中の基準時刻とされ、その後はステップS204の処理を繰り返し実行する度に、続く基準時刻が順次に現在選択中の基準時刻とされる。なお、前述のように撮影情報がメタデータとして撮影映像内に埋め込まれている場合は、ステップS202で選択した映像において現在選択中の基準時刻に埋め込まれたメタデータを読み出すことで、撮影情報の読み出しを行う。   In step S <b> 204, shooting information at the currently selected reference time is read out from the recording device 105 among the shooting information recorded together with the shot video selected in step S <b> 202. Here, the currently selected reference time is the reference time selected in step S203 or step S213 described later. That is, when the process of step S204 is first executed, the first reference time is set as the currently selected reference time, and thereafter, each time the process of step S204 is repeatedly executed, the subsequent reference time is sequentially selected. It is set as the middle reference time. As described above, when the shooting information is embedded as the metadata in the shot video, the metadata embedded at the currently selected reference time in the video selected in step S202 is read, so that Read.

ステップS205では、ステップS204で読み出した撮影情報に基づいて、カメラ103の撮影範囲を算出する。ここでは、撮影情報に表される撮影方向を中心にして広がる所定の範囲内を撮影範囲として求める。この撮影範囲の大きさは、撮影情報に表されるカメラ103の焦点距離やズーム量、画角などに応じて決定される。   In step S205, the shooting range of the camera 103 is calculated based on the shooting information read in step S204. Here, a predetermined range extending around the shooting direction represented by the shooting information is obtained as the shooting range. The size of this shooting range is determined according to the focal length, zoom amount, angle of view, etc. of the camera 103 represented in the shooting information.

ステップS206では、現在選択中の基準時刻における被写体位置情報およびカメラ位置情報を記録装置105から読み出す。この被写体位置情報およびカメラ位置情報は、前述の位置特定処理によって記録装置105に記録されたものである。なお、このとき被写体位置情報については記録装置105に記録されている全ての被写体位置情報を読み出し対象とするが、カメラ位置情報については、ステップS202で選択した映像を撮影したカメラ103の位置情報のみを読み出し対象とする。すなわち、全ての被写体の位置情報と、選択した撮影映像に対応するカメラ103の位置情報とを、記録装置105に記録された被写体位置情報およびカメラ位置情報の中から読み出す。   In step S206, the subject position information and the camera position information at the currently selected reference time are read from the recording device 105. The subject position information and the camera position information are recorded in the recording device 105 by the position specifying process described above. At this time, all the subject position information recorded in the recording device 105 is read as subject position information, but only the position information of the camera 103 that captured the video selected in step S202 is taken as the camera position information. To be read. That is, the position information of all the subjects and the position information of the camera 103 corresponding to the selected photographed image are read out from the subject position information and the camera position information recorded in the recording device 105.

ステップS207では、ステップS205で算出された撮影範囲と、ステップS206で読み出した被写体位置情報およびカメラ位置情報に基づいて、撮影範囲内にある被写体を特定する。すなわち、被写体位置情報とカメラ位置情報から、当該カメラ103に対する各被写体の相対位置を求め、その相対位置が撮影範囲内にある被写体を特定する。ここで特定された撮影範囲内の被写体を対象として、以降に説明するステップS208およびS209の処理が実行される。なお、ステップS207において撮影範囲内にある被写体が一つも特定されたかった場合は、ステップS208、S209およびS210の処理が実行されずに、ステップS211において被写体情報に「なし」と記録される。   In step S207, a subject within the photographing range is specified based on the photographing range calculated in step S205, the subject position information and the camera position information read in step S206. That is, the relative position of each subject with respect to the camera 103 is obtained from the subject position information and the camera position information, and the subject whose relative position is within the shooting range is specified. The processes of steps S208 and S209 described below are executed for the subject within the shooting range specified here. If no subject in the shooting range has been specified in step S207, the processing in steps S208, S209, and S210 is not performed, and “none” is recorded in the subject information in step S211.

ステップS208では、ステップS202で選択した撮影映像において、撮影の障害となっている撮影障害物があるか否かを判定する障害物判定を行う。この障害物判定は次のようにして行うことができる。たとえば、施設内にある障害物の四隅等にICタグ101を配置しておき、そのICタグ101の位置を位置特定部104aにおいて前述のように特定することにより、障害物の位置を特定する。こうして特定された障害物の位置と撮影範囲内にある被写体の位置を比較し、被写体がその障害物の陰になっているか否かを判定することにより、撮影障害物があるか否かを判定することができる。あるいは、撮影画像において被写体が障害物の陰に隠れているか否かを画像処理などで認識することにより、障害物判定を行うようにしてもよい。   In step S208, obstacle determination is performed to determine whether or not there is a shooting obstacle that is an obstacle to shooting in the shot video selected in step S202. This obstacle determination can be performed as follows. For example, the position of the obstacle is specified by placing the IC tag 101 at the four corners of the obstacle in the facility and specifying the position of the IC tag 101 in the position specifying unit 104a as described above. Determine whether there is a shooting obstacle by comparing the position of the obstacle thus identified with the position of the subject within the shooting range and determining whether the subject is behind the obstacle. can do. Alternatively, the obstacle determination may be performed by recognizing whether the subject is hidden behind the obstacle in the captured image by image processing or the like.

ステップS209では、ステップS202で選択した撮影映像における撮影状態の良否を判定する撮影良否判定を行う。たとえば、カメラ103において撮影時に手ぶれや合焦ミスが起きているか否かを検出し、これらが検出されていた場合は前述の撮影情報などにより制御装置104へ通知する。この通知の発生状況を撮影映像と共に記録装置105に記録しておき、発生時には撮影状態が悪いと判定することにより、撮影良否判定を行うことができる。または、カメラ位置および撮影範囲内にある被写体の位置に基づいてカメラ103からその被写体までの距離を計算し、その計算結果を撮影情報の焦点距離と比較して、被写体までの距離がカメラ103の撮影可能範囲外にある場合は撮影状態が悪いと判定することにより、撮影良否判定を行ってもよい。あるいは、撮影画像にぶれやピンボケがあるか否かを顔認識などの画像処理によって認識したり、撮影画像の明るさが適切であるか否かを判定したりすることで、撮影良否判定を行うこともできる。   In step S209, a shooting quality determination is performed to determine the quality of the shooting state in the shot video selected in step S202. For example, the camera 103 detects whether camera shake or a focus error occurs during shooting, and if these are detected, the control device 104 is notified based on the shooting information described above. The state of occurrence of this notification is recorded in the recording device 105 together with the photographed video, and when it occurs, it can be judged whether or not the photographing is good by judging that the photographing state is bad. Alternatively, the distance from the camera 103 to the subject is calculated based on the camera position and the position of the subject within the shooting range, and the calculated result is compared with the focal length of the shooting information. If it is outside the shootable range, it may be determined whether or not the shooting is good by determining that the shooting state is bad. Alternatively, whether or not the photographed image is blurred or out of focus is recognized by image processing such as face recognition, or whether or not the brightness of the photographed image is appropriate is determined to determine whether or not the photograph is taken. You can also

ステップS210では、ステップS207における撮影範囲内の被写体の特定結果と、ステップS208の障害物判定の結果およびステップS209の撮影良否判定の結果に基づいて、撮影映像において適切に撮影されている被写体を特定する。すなわち、ステップS207で特定された撮影範囲内の被写体のうち、ステップS208で撮影障害物がないと判定され、さらにステップS209で撮影状態が良いと判定されたものを、撮影映像において適切に撮影されている被写体とする。ステップS211では、ステップS210で特定された被写体の情報を被写体情報として記録装置105に記録する。   In step S210, based on the result of specifying the subject within the shooting range in step S207, the result of the obstacle determination in step S208, and the result of the shooting pass / fail determination in step S209, the subject that is appropriately shot in the shot video is specified. To do. In other words, among the subjects within the shooting range specified in step S207, those determined to have no shooting obstacles in step S208 and further determined to have a good shooting state in step S209 are appropriately shot in the shot video. Subject. In step S211, the subject information specified in step S210 is recorded in the recording device 105 as subject information.

ステップS212では、ステップS202で選択した撮影映像について、最後の基準時刻まで選択したか否かを判定する。ここでいう最後の基準時刻とは、ステップS201で設定した基準時刻の中で、ステップS202で選択した撮影映像の最後に当たるものである。この最後の基準時刻までをまだ選択していない場合はステップS213へ進み、現在選択中の次の基準時刻を選択した後、ステップS204へ戻る。これにより、次の基準時刻が順次選択され、前述のような処理が繰り返し実行される。一方、最後の基準時刻まで選択した場合はステップS214へ進む。   In step S212, it is determined whether or not the captured video selected in step S202 has been selected up to the last reference time. Here, the last reference time corresponds to the last of the captured video selected in step S202 in the reference time set in step S201. If the time until the last reference time has not yet been selected, the process proceeds to step S213, and after selecting the next reference time currently selected, the process returns to step S204. As a result, the next reference time is sequentially selected, and the processing as described above is repeatedly executed. On the other hand, if the selection is made up to the last reference time, the process proceeds to step S214.

ステップS214では、ステップS202の処理により、記録装置105に記録されている全ての撮影映像が既に選択されたか否かを判定する。まだ選択していない撮影映像が残っている場合はステップS202へ戻り、それまでに選択したのとは異なる撮影映像をステップS202において選択した後、上記のような処理を繰り返す。このようにすることで、カメラ103により撮影されて収集された撮影映像の全てが順次選択され、図5のフローチャートに示す映像判定処理が繰り返し実行される。一方、ステップS214において全ての撮影映像が選択されたと判定された場合は、図5のフローチャートを終了する。映像判定処理では、以上説明したような処理が実行される。   In step S214, it is determined whether or not all photographed images recorded in the recording device 105 have already been selected by the processing in step S202. If there is still a photographed video that has not yet been selected, the process returns to step S202, and after selecting a photographed video different from that selected in step S202, the above processing is repeated. In this way, all of the captured images captured and collected by the camera 103 are sequentially selected, and the image determination process shown in the flowchart of FIG. 5 is repeatedly executed. On the other hand, if it is determined in step S214 that all the captured images have been selected, the flowchart of FIG. 5 ends. In the video determination process, the process described above is executed.

以上説明したような映像判定処理の具体例を図9および図10を用いて説明する。図9は、カメラ103における撮影状況の例を示している。この例では、カメラ103が右方向に徐々に回転しながら、子供A,BまたはCを被写体として撮影を行っている様子を示している。なお、カメラ103と子供Aの間には障害物200が存在している。   A specific example of the video determination process as described above will be described with reference to FIGS. FIG. 9 shows an example of a shooting situation in the camera 103. In this example, the camera 103 gradually rotates rightward and the child A, B, or C is photographed as a subject. An obstacle 200 exists between the camera 103 and the child A.

図10は、図9の撮影状況において撮影された映像について、図5のフローチャートに示した映像判定処理により記録される被写体情報の例を示している。初めの基準時刻t0では、カメラ103の撮影範囲内に子供BおよびCが位置しているとする。このとき前述のような障害物判定により、被写体である子供B、C共にカメラ103との間に障害物200がないと判定され、さらに撮影良否判定により、子供B、Cは共に撮影状態が良いと判定されたとする。この場合、基準時刻t0における被写体情報には子供BおよびCが記録される。次の基準時刻t1でも、上記と同様にして被写体情報に子供BおよびCが記録される。   FIG. 10 shows an example of subject information recorded by the video determination process shown in the flowchart of FIG. 5 for the video shot in the shooting situation of FIG. It is assumed that children B and C are located within the shooting range of the camera 103 at the first reference time t0. At this time, it is determined by the obstacle determination as described above that there is no obstacle 200 between the camera 103 and the children B and C, which are the subjects, and both the children B and C are in a good shooting state by the shooting quality determination. Is determined. In this case, children B and C are recorded in the subject information at the reference time t0. At the next reference time t1, children B and C are recorded in the subject information in the same manner as described above.

基準時刻t2では、カメラ103が右方向に回転したことによって子供Bが撮影範囲外となったため、撮影範囲内には子供CおよびAが位置しているとする。このとき前述のような障害物判定により、被写体である子供Aとカメラ103の間に障害物200があると判定されたとする。この場合、基準時刻t2における被写体情報には子供Cのみが記録される。次の基準時刻t3でも、同様に被写体情報には子供Cのみが記録される。   At the reference time t2, it is assumed that the children C and A are located within the photographing range because the child B is out of the photographing range due to the camera 103 rotating to the right. At this time, it is assumed that the obstacle 200 is determined to be between the child A as the subject and the camera 103 by the obstacle determination as described above. In this case, only the child C is recorded in the subject information at the reference time t2. Similarly, only the child C is recorded in the subject information at the next reference time t3.

その後の基準時刻t4では、カメラ103がさらに右方向に回転したことによって子供Cも撮影範囲外となったため、撮影範囲内には子供Aのみが位置しているとする。この場合、子供Aとカメラ103の間には障害物200があるため、被写体情報にはいずれの子供も記録されずに「なし」と記録される。以上説明したようにして、被写体情報の記録が行われる。   At the subsequent reference time t4, the child C is also out of the shooting range due to the camera 103 rotating further to the right, and therefore it is assumed that only the child A is located within the shooting range. In this case, since there is an obstacle 200 between the child A and the camera 103, no child is recorded in the subject information and “none” is recorded. As described above, the subject information is recorded.

次に、図3のステップS300の映像編集処理において映像編集部104dにより実行される図6のフローチャートについて説明する。ステップS301では、編集対象とする被写体の選択を行う。この被写体の選択は、たとえばユーザである親が運動会の終了後に自宅のパーソナルコンピュータから映像共有システム100にアクセスし、自分の子供を編集対象に指定することで行われる。あるいは、運動会に参加した全ての子供をステップS301において順次選択し、それぞれについて図6のフローチャートを実行することとしてもよい。   Next, the flowchart of FIG. 6 executed by the video editing unit 104d in the video editing process of step S300 of FIG. 3 will be described. In step S301, a subject to be edited is selected. The selection of the subject is performed, for example, when a parent who is a user accesses the video sharing system 100 from a personal computer at home after the athletic meet and designates his / her child as an editing target. Or it is good also as selecting all the children who participated in the athletic meet in step S301 one by one, and performing the flowchart of FIG. 6 about each.

なお、ステップS301において、撮影映像の被写体である子供とユーザである親との対応関係を表したユーザ情報を予め登録しておき、そのユーザ情報に基づいて被写体を選択するようにしてもよい。すなわち、いずれかのユーザから編集映像の作成要求があると、予め登録されたユーザ情報に基づいてそのユーザの子供を特定し、特定された子供をそのユーザについて編集対象とする被写体に自動的に選択する。このようにすれば、ユーザが他人の子供を許可なく編集対象に指定してその子供の編集映像を無断で作成するのを防ぐことができる。   In step S301, user information representing a correspondence relationship between a child as a subject of a captured video and a parent as a user may be registered in advance, and the subject may be selected based on the user information. That is, when an edit video creation request is received from any user, the child of the user is specified based on user information registered in advance, and the specified child is automatically set as a subject to be edited for the user. select. In this way, it is possible to prevent the user from designating another child's child without permission and creating an edited video of the child without permission.

ステップS302では、映像編集時間の設定を行う。ここでは、以降説明する処理によって編集映像を作成するときに、蓄積された各撮影映像から抽出する映像部分の撮影時刻の範囲を設定することにより、映像編集時間を設定する。すなわち、ここで設定される映像編集時間の範囲内の時刻に撮影された映像部分が各撮影映像から抽出され、それを用いて編集映像が作成される。この映像編集時間の設定は、ユーザである親が自宅のパーソナルコンピュータから直接指定してもよいし、ステップS301で選択した被写体がいずれかの撮影映像において撮影されている全ての時間を自動的に指定するようにしてもよい。あるいは、予め登録されたイベントプログラム情報に基づいて、いずれかのイベントプログラムをユーザが選択することにより、そのイベントプログラムの時間を映像編集時間として設定することとしてもよい。なお、このイベントプログラム情報を、図8に示したようなイベントプログラムごとの出場者登録情報と兼用してもよい。   In step S302, the video editing time is set. Here, when the edited video is created by the processing described below, the video editing time is set by setting the shooting time range of the video portion extracted from each of the stored shot videos. That is, a video portion shot at a time within the range of the video editing time set here is extracted from each shot video, and an edited video is created using it. The video editing time may be set directly by the parent as a user from a personal computer at home, or all the time during which the subject selected in step S301 is shot in any shot video is automatically set. You may make it specify. Alternatively, the time of the event program may be set as the video editing time by the user selecting one of the event programs based on pre-registered event program information. This event program information may also be used as participant registration information for each event program as shown in FIG.

ステップS303では、図5のステップS201で設定された基準時刻のうち、ステップS302で設定された映像編集時間に含まれる最初の基準時刻を選択する。次のステップS304では、前回の映像切り替えから所定時間以内(たとえば2秒以内)であるか否かを判定する。すなわち、ステップS303または後述のステップS315によって選択された基準時刻と、最後に映像切り替えをした基準時刻との間が所定時間以上離れている場合は、ステップS304を否定判定してステップS305へ進む。一方、ステップS303または後述のステップS315によって選択された基準時刻と、最後に映像切り替えをした基準時刻との間が所定時間以内である場合は、ステップS304を肯定判定してステップS306へ進む。なお、ここでいう映像切り替えとは、後述のステップS309、S311またはS312の処理によっていずれかの撮影映像から抽出された映像部分がステップS313において編集映像に挿入されたときに、それまでとは異なる撮影映像からの映像部分が挿入されることを意味している。   In step S303, the first reference time included in the video editing time set in step S302 is selected from the reference times set in step S201 in FIG. In the next step S304, it is determined whether or not it is within a predetermined time (for example, within 2 seconds) from the previous video switching. That is, if the reference time selected in step S303 or step S315 described later and the reference time at which the video was switched last are longer than a predetermined time, a negative determination is made in step S304 and the process proceeds to step S305. On the other hand, if the interval between the reference time selected in step S303 or step S315 described later and the reference time at which video switching was last performed is within a predetermined time, an affirmative determination is made in step S304 and the process proceeds to step S306. Note that the video switching here is different from that when the video portion extracted from one of the captured videos in step S309, S311 or S312 described later is inserted into the edited video in step S313. This means that the video part from the shot video is inserted.

ステップS304からS305へ進んだ場合、ステップS305では、図5のフローチャートに示す映像判定処理によって前述のように記録された各撮影映像の被写体情報を記録装置105から読み出す。ステップS305を実行したらステップS307へ進む。   When the process proceeds from step S304 to S305, in step S305, the subject information of each photographed video recorded as described above is read from the recording device 105 by the video determination process shown in the flowchart of FIG. If step S305 is performed, it will progress to step S307.

一方、ステップS304からS306へ進んだ場合、ステップS306では、前回と同じ撮影映像から、現在選択中の基準時刻から次の基準時刻までの映像部分を抽出する。こうすることにより、同一の撮影映像から所定時間以上の連続する映像部分を抽出することができる。これにより、少なくともその所定時間が経過するまでは、編集映像において映像の切り替わり(カメラの切り替わり)が起こらない。その結果、切り替えが頻繁すぎて見づらい編集映像となることを防止できる。ステップS306の実行後はステップS313へ進む。   On the other hand, when the process proceeds from step S304 to S306, in step S306, a video portion from the currently selected reference time to the next reference time is extracted from the same captured video as the previous time. By doing so, it is possible to extract a continuous video portion of a predetermined time or more from the same photographed video. As a result, video switching (camera switching) does not occur in the edited video until at least the predetermined time has elapsed. As a result, it is possible to prevent the edited video from being switched too frequently and difficult to view. After execution of step S306, the process proceeds to step S313.

ステップS307では、ステップS305で読み出した各撮影映像の被写体情報に基づいて、ステップS301で編集対象に選択された被写体が、選択中の基準時刻においていずれかの撮影映像に撮影されているか否かを判定する。すなわち、読み出した各撮影映像の被写体情報のうち少なくともいずれかにおいて、編集対象に選択された被写体が記録されていれば、ステップS307を肯定判定してステップS308へ進む。一方、読み出した被写体情報のいずれにおいても選択された被写体が記録されていなければ、ステップS307を否定判定してステップS309へ進む。   In step S307, based on the subject information of each captured video read in step S305, whether or not the subject selected as the editing target in step S301 is captured in any captured video at the selected reference time. judge. That is, if the subject selected as the editing target is recorded in at least one of the read subject information of each captured video, an affirmative determination is made in step S307 and the process proceeds to step S308. On the other hand, if the selected subject is not recorded in any of the read subject information, a negative determination is made in step S307 and the process proceeds to step S309.

ステップS307からS309へ進んだ場合、ステップS309では、イベント全体の様子を撮影した全体撮影映像から、現在選択中の基準時刻から次の基準時刻までの映像部分を抽出する。この全体撮影映像は、イベント主催者などによって撮影される。これにより、編集対象とされた被写体がいずれの撮影映像にもおいても撮影されていない場合であっても、イベントに合わせた適当な映像を編集映像に挿入することができる。なお、全体撮影映像を挿入する代わりに、たとえば自分の子供を編集対象に指定した親自身による撮影映像を挿入してもよいし、あるいは他の親の撮影映像のいずれかを適当に選択して挿入してもよい。ステップS309の実行後はステップS313へ進む。   When the process proceeds from step S307 to S309, in step S309, a video portion from the currently selected reference time to the next reference time is extracted from the entire captured image obtained by photographing the entire event. This whole shot image is taken by an event organizer or the like. Thereby, even if the subject to be edited is not shot in any shot video, an appropriate video tailored to the event can be inserted into the edited video. Note that instead of inserting the entire video image, for example, a video image taken by a parent who has designated his / her child as an editing target may be inserted, or any other video image of another parent may be selected appropriately. It may be inserted. After execution of step S309, the process proceeds to step S313.

一方、ステップS307からS308へ進んだ場合、ステップS308では、ステップS305で読み出した被写体情報に基づいて、ステップS301で編集対象に選択された被写体が同一時間内に複数の撮影映像において撮影されているか否かを判定する。すなわち、読み出した各撮影映像の被写体情報のうち複数の被写体情報において、編集対象に選択された被写体が記録されていれば、ステップS308を肯定判定してステップS310へ進む。一方、読み出した被写体情報のうち一つのみに選択された被写体が記録されていれば、ステップS308を否定判定してステップS311へ進む。   On the other hand, when the process proceeds from step S307 to S308, in step S308, based on the subject information read in step S305, is the subject selected as the editing target in step S301 captured in a plurality of captured images within the same time period? Determine whether or not. That is, if the subject selected as the editing target is recorded in a plurality of pieces of subject information of the read subject information of each captured video, an affirmative determination is made in step S308 and the process proceeds to step S310. On the other hand, if the selected subject is recorded in only one of the read subject information, a negative determination is made in step S308 and the process proceeds to step S311.

ステップS308からS310へ進んだ場合、ステップS310では、ステップS308において編集対象の被写体が撮影されていると判定された複数の撮影映像のうちいずれかを、優先すべき撮影映像(優先映像)として判定する。この判定は、カメラ103と被写体の位置関係または各撮影映像の写り具合に基づいて、たとえば次のようにして行うことができる。たとえば、撮影情報と被写体位置情報およびカメラ位置情報に基づいて、その映像を撮影したカメラ103と被写体の距離が最も近いものや、被写体が撮影範囲の最も中央付近に位置しているものを判別することにより、どの撮影映像が優先映像であるかを判定できる。または、各撮影映像の中で最もぶれやボケが少ないものを画像処理などにより判別することで優先映像を判定してもよい。なお、このときにどの条件を重視するかを設定できるようにしてもよい。ステップS310により優先映像が判定されたら、ステップS312へ進む。   When the process proceeds from step S308 to S310, in step S310, one of a plurality of photographed videos determined to have been photographed in step S308 is determined as a priority photographed video (priority video). To do. This determination can be performed, for example, as follows based on the positional relationship between the camera 103 and the subject or the appearance of each captured video. For example, based on the shooting information, the subject position information, and the camera position information, it is determined whether the camera 103 that shot the video is closest to the subject or the subject is located closest to the center of the shooting range. Thus, it is possible to determine which captured video is the priority video. Alternatively, the priority image may be determined by determining the image with the least blur or blur among the captured images by image processing or the like. At this time, it may be possible to set which condition is important. If the priority video is determined in step S310, the process proceeds to step S312.

一方、ステップS308からS311へ進んだ場合、ステップS311では、ステップS308において編集対象の被写体が撮影されていると判定された唯一の撮影映像から、現在選択中の基準時刻から次の基準時刻までの映像部分を抽出する。ステップS311の実行後はステップS313へ進む。   On the other hand, when the process proceeds from step S308 to S311, in step S311, from the only photographed video in which it is determined in step S308 that the subject to be edited is photographed, from the currently selected reference time to the next reference time. Extract the video part. After execution of step S311, the process proceeds to step S313.

ステップS312では、ステップS310において優先映像として判定された撮影映像から、現在選択中の基準時刻から次の基準時刻までの映像部分を抽出する。これにより、編集対象とされた被写体が複数の撮影映像に撮影されている場合であっても、その中で最も適した撮影映像から映像部分を抽出することができる。ステップS312の実行後はステップS313へ進む。   In step S312, a video portion from the currently selected reference time to the next reference time is extracted from the captured video determined as the priority video in step S310. Thereby, even when the subject to be edited is shot in a plurality of shot videos, the video portion can be extracted from the shot video most suitable among them. After execution of step S312, the process proceeds to step S313.

ステップS313では、ステップS306、S309、S311またはS312において抽出された映像部分を編集映像に挿入する。これにより、編集映像において現在選択中の基準時刻から次の基準時刻までの映像部分が挿入される。なお、このとき音声については、編集映像中で統一されるように、マスター音声として録音されたものを用いることとしてもよい。   In step S313, the video portion extracted in step S306, S309, S311 or S312 is inserted into the edited video. Thereby, the video portion from the currently selected reference time to the next reference time in the edited video is inserted. At this time, the sound recorded as the master sound may be used so as to be unified in the edited video.

ステップS314では、ステップS302で設定された映像編集時間に含まれる最後の基準時刻を選択する。最後の基準時刻までをまだ選択していない場合はステップS315へ進み、ステップS315において現在選択中の次の基準時刻を選択した後、ステップS304へ戻る。これにより、次の基準時刻が順次選択され、前述のような処理が繰り返し実行される。一方、ステップS314において最後の基準時刻まで選択したと判定された場合は、図6のフローチャートを終了する。このようにして、複数の撮影映像のいずれかから抽出された複数の映像部分が順次挿入されることにより映像が編集され、その結果、編集対象として選択された被写体についての編集映像が作成される。映像編集処理では、以上説明したような処理が実行される。   In step S314, the last reference time included in the video editing time set in step S302 is selected. If the time until the last reference time has not yet been selected, the process proceeds to step S315. After selecting the next reference time currently selected in step S315, the process returns to step S304. As a result, the next reference time is sequentially selected, and the processing as described above is repeatedly executed. On the other hand, if it is determined in step S314 that the selection has been made up to the last reference time, the flowchart of FIG. 6 ends. In this way, the video is edited by sequentially inserting a plurality of video portions extracted from any of the plurality of photographed videos, and as a result, an edited video for the subject selected as the editing target is created. . In the video editing process, the process described above is executed.

以上説明したような映像編集処理により作成される編集映像の具体例を図11に示す。この例では、図9の子供AおよびBをそれぞれ編集対象の被写体に選択した場合に、それぞれについて作成される編集映像においてどのような映像が挿入されるかを示している。このとき、図9に示すカメラ103によって撮影された映像(映像#1と表す)に対しては、図11に示すように、図10に示したものと同じ内容の被写体情報が記録されているものとする。また、別のカメラ103によって撮影された映像(映像#2と表す)に対しては、図11に示すような被写体情報が記録されているものとする。   A specific example of an edited video created by the video editing process as described above is shown in FIG. In this example, when children A and B in FIG. 9 are selected as subjects to be edited, what kind of video is inserted in the edited video created for each of them is shown. At this time, as shown in FIG. 11, subject information having the same content as that shown in FIG. 10 is recorded for the video (shown as video # 1) taken by the camera 103 shown in FIG. Shall. Further, it is assumed that subject information as shown in FIG. 11 is recorded for a video (represented as video # 2) taken by another camera 103.

最初の基準時刻t0では、映像#1にはその被写体情報から子供BおよびCが写っており、映像#2にはその被写体情報から子供AおよびDが写っていることが分かる。したがって、子供Aを編集対象に選択した場合に映像編集処理によって作成される編集映像(被写体A編集映像と表す)には、その子供Aが写っている映像#2が基準時刻t0から次の基準時刻t1までの間に挿入される。また、子供Bを編集対象に選択した場合に映像編集処理によって作成される編集映像(被写体B編集映像と表す)には、その子供Bが写っている映像#1が基準時刻t0から次の基準時刻t1までの間に挿入される。これと同様に、基準時刻t1から次の基準時刻t2までの間においても、被写体A編集映像には子供Aが写っている映像#2が挿入され、被写体B編集映像には子供Bが写っている映像#1が挿入される。   At the first reference time t0, it can be seen that children #B and C are captured from the subject information in video # 1, and children A and D are captured from the subject information in video # 2. Accordingly, in the edited video (represented as the subject A edited video) created by the video editing process when child A is selected as the editing target, video # 2 in which the child A is captured is the next reference from the reference time t0. It is inserted until time t1. In addition, in the edited video (represented as the subject B edited video) created by the video editing process when the child B is selected as the editing target, the video # 1 in which the child B is captured is the next reference from the reference time t0. It is inserted until time t1. Similarly, during the period from the reference time t1 to the next reference time t2, the video # 2 showing the child A is inserted in the subject A edited video, and the child B is shown in the subject B edited video. Video # 1 is inserted.

基準時刻t2では、映像#1にはその被写体情報から子供Bが写っておらず、子供Cのみが写っていることが分かる。このとき子供Bは映像#1、#2いずれにも写っていないため、被写体B編集映像には、基準時刻t2から次の基準時刻t3までの間に、イベント主催者などによって撮影された全体撮影映像が挿入される。一方被写体A編集映像には、それまでと同様に、子供Aが写っている映像#2が基準時刻t2から次の基準時刻t3までの間に挿入される。   At the reference time t2, it can be seen from the subject information that the child B is not captured and only the child C is captured in the video # 1. At this time, since child B is not shown in either video # 1 or # 2, the subject B edited video is a whole picture taken by an event organizer or the like between the reference time t2 and the next reference time t3. Video is inserted. On the other hand, in the subject A edited video, the video # 2 in which the child A is reflected is inserted between the reference time t2 and the next reference time t3, as before.

基準時刻t3では、映像#2にはその被写体情報から子供AおよびCが写っており、子供Dは写っていないことが分かる。このときにも基準時刻t2の場合と同様に、基準時刻t3から次の基準時刻t4までの間に、被写体A編集映像には映像#2が挿入され、被写体B編集映像には全体撮影映像が挿入される。   At the reference time t3, it can be seen from the subject information that the children A and C are shown in the video # 2, and the child D is not shown. At this time, as in the case of the reference time t2, the video # 2 is inserted into the subject A edited video and the whole shot video is included in the subject B edited video between the reference time t3 and the next reference time t4. Inserted.

基準時刻t4では、映像#1にはその被写体情報からいずれの子供も写っておらず、映像#2にはその被写体情報から子供CおよびBが写っていることが分かる。このとき子供Aは映像#1、#2いずれにも写っていないため、被写体A編集映像には全体撮影映像が挿入される。一方被写体B編集映像には、子供Bが写っている映像#2が挿入される。以上説明したようにして、被写体A編集映像および被写体B編集映像にそれぞれ挿入された各映像を順につなぎ合わせることにより、編集対象の被写体として指定された子供AおよびBについての編集映像がそれぞれ作成される。   At the reference time t4, it can be seen that no child is shown in the video # 1 from the subject information, and that the children C and B are shown in the video # 2 from the subject information. At this time, since child A is not shown in either video # 1 or # 2, the entire shot video is inserted into the subject A edited video. On the other hand, video # 2 showing child B is inserted into the subject B edited video. As described above, by sequentially connecting the videos inserted in the subject A edited video and the subject B edited video, edited videos for the children A and B designated as the subjects to be edited are respectively created. The

次に、図3のステップS400の課金処理において課金部104eにより実行される図7のフローチャートについて説明する。ステップS401では、課金処理の対象とするユーザを選択する。このユーザの選択は、たとえばユーザである親が自分の子供を編集対象に指定して上記の映像編集処理により編集映像を作成したときに、その親を対象ユーザとして選択することにより行われる。あるいは、編集映像を提供する全てのユーザを順番に対象ユーザとして選択し、各ユーザについてステップS402以降の処理を順次実行するようにしてもよい。ステップS402では、ステップS401で選択した対象ユーザに対して作成された編集映像を特定する。   Next, the flowchart of FIG. 7 executed by the charging unit 104e in the charging process of step S400 of FIG. 3 will be described. In step S401, a user to be charged is selected. This user selection is performed, for example, by selecting a parent as a target user when a parent who is a user designates his / her child as an editing target and creates an edited video by the video editing process described above. Alternatively, all users who provide the edited video may be selected as target users in order, and the processes after step S402 may be sequentially executed for each user. In step S402, the edited video created for the target user selected in step S401 is specified.

ステップS403では、ステップS402で特定した対象ユーザに対して作成された編集映像の中に、ステップS401で選択した対象ユーザ以外の他人による撮影映像が挿入されているか否かを判定する。対象ユーザに対して作成された編集映像のうちいずれかの部分に他人の撮影映像が挿入されている場合は、ステップS404へ進む。一方、対象ユーザに対して作成された編集映像の全てがその対象ユーザ自身によって撮影された映像で構成されており、他人の撮影映像が挿入されていない場合は、ステップS404を実行せずにステップS405へ進む。   In step S403, it is determined whether or not a video shot by another person other than the target user selected in step S401 is inserted in the edited video created for the target user specified in step S402. If another person's captured video is inserted in any part of the edited video created for the target user, the process proceeds to step S404. On the other hand, if all of the edited videos created for the target user are composed of videos shot by the target user, and no other person's shot video is inserted, step S404 is not executed and step S404 is not executed. Proceed to S405.

ステップS404では、ステップS403で対象ユーザの編集映像に挿入されていると判定された他人の撮影映像の合計挿入時間、すなわち対象ユーザの編集映像において他人の撮影映像を利用している時間(映像利用時間)を求め、その映像利用時間に応じた課金額の算出を行う。ここでは、たとえば予め定められた課金単位時間ごとに所定の金額を乗じることにより(たとえば、1秒ごとに1円など)、課金額を算出する。こうして対象ユーザに対する課金額が算出されたら、ステップS405へ進む。   In step S404, the total insertion time of the other person's captured video determined to have been inserted in the edited video of the target user in step S403, that is, the time during which the other user's captured video is used in the target user's edited video (video usage) Time), and a charge amount is calculated according to the video usage time. Here, for example, the charge amount is calculated by multiplying a predetermined amount for each predetermined charge unit time (for example, 1 yen per second). When the billing amount for the target user is calculated in this way, the process proceeds to step S405.

ステップS405では、対象ユーザ以外の他人に対して作成された編集映像、すなわちステップS402で特定した対象ユーザの編集映像を除いたいずれかの編集映像の中に、その対象ユーザによって撮影された映像が挿入されているか否かを判定する。対象ユーザの撮影映像が他人の編集映像のいずれかに挿入されている場合は、ステップS406へ進む。一方、対象ユーザの撮影映像が他人の編集映像のいずれにも挿入されていない場合は、ステップS406を実行せずにステップS407へ進む。   In step S405, a video shot by the target user is included in one of the edited videos excluding the edited video of the target user specified in step S402. It is determined whether or not it has been inserted. If the target user's captured video has been inserted into any of the other person's edited videos, the process proceeds to step S406. On the other hand, if the captured video of the target user is not inserted in any of the edited videos of other people, the process proceeds to step S407 without executing step S406.

ステップS406では、ステップS405で他人の編集映像に挿入されていると判定された対象ユーザの撮影映像の合計挿入時間、すなわち対象ユーザが撮影映像を他人の編集映像に提供している時間(映像提供時間)を求め、その映像提供時間に応じた受領金額の算出を行う。ここでは、たとえば予め定められた支払単位時間に所定の金額を乗じることにより(たとえば、1秒ごとに1円など)、受領金額を算出する。なお、このときに対象ユーザの受領金額と当該撮影映像の利用者に対する課金額の間に差を設けて、その差分をシステム管理者の手数料などに充当してもよい。こうして対象ユーザの受領金額が算出されたら、ステップS407へ進む。   In step S406, the total insertion time of the captured video of the target user determined to have been inserted in the edited video of the other person in step S405, that is, the time during which the target user provides the edited video of the target user (video provision) Time) and the amount of money received is calculated according to the video provision time. Here, for example, the amount of money received is calculated by multiplying a predetermined payment unit time by a predetermined amount (for example, 1 yen per second). At this time, a difference may be provided between the amount received by the target user and the amount charged to the user of the photographed video, and the difference may be applied to the fee of the system administrator. When the amount received by the target user is calculated in this way, the process proceeds to step S407.

ステップS407では、ステップS404により算出された課金額と、ステップS406により算出された受領金額とに基づいて、対象ユーザの最終的な課金額または受領金額の算出を行う。このとき、課金額が受領金額を上回っている場合は、その上回っている分を最終的な課金額とし、反対に受領金額が課金額を上回っている場合は、その上回っている分を最終的な受領金額とする。こうして対象ユーザの最終的な課金額または受領金額が算出されたら、ステップS408へ進む。   In step S407, the final charge amount or receipt amount of the target user is calculated based on the charge amount calculated in step S404 and the receipt amount calculated in step S406. At this time, if the amount charged exceeds the amount received, the amount exceeding the amount received will be the final amount charged. Conversely, if the amount received exceeds the amount charged, the amount exceeding the amount received will be the final amount. The amount received will be When the final charge amount or receipt amount of the target user is thus calculated, the process proceeds to step S408.

ステップS408では、ステップS407で算出された課金額または受領金額の通知を対象ユーザに対して行う。こうして課金額または受領金額を通知されたユーザは、それに応じて課金額の支払いまたは受領金額の受け取りを、たとえば編集映像の受領時などに行う。または、クレジットカード決済や銀行振込などによって課金額の支払いや受領金額の受け取りを行ってもよい。ステップS408を実行したら図7のフローチャートを終了する。課金処理では、以上説明したような処理が実行される。   In step S408, the target user is notified of the charge amount or the receipt amount calculated in step S407. In this way, the user who is notified of the charge amount or the received amount pays the charge amount or receives the received amount accordingly, for example, when the edited video is received. Alternatively, payment of the charge amount or receipt of the received amount may be performed by credit card settlement or bank transfer. If step S408 is performed, the flowchart of FIG. 7 will be complete | finished. In the accounting process, the process as described above is executed.

以上説明した実施の形態によれば、次のような作用効果を奏することができる。
(1)複数のカメラ103により撮影された各撮影映像を、映像収集部104cが実行する映像収集処理により収集し、その各撮影映像において撮影されている被写体を、映像編集部104dが行う映像判定処理により撮影映像ごとに特定する(ステップS210)。そして、収集された各撮影映像と特定された被写体を表す被写体情報とを記録装置105に記録し(ステップS122、S211)、記録装置105において蓄積することとした。このようにしたので、運動会において子供達の親がそれぞれ撮影者となって自分の子供を撮影した映像のように、複数の撮影者が同一施設内で撮影した映像を共有化する際に、使い勝手の良いシステムを提供することができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) Video captured by the plurality of cameras 103 is collected by video collection processing executed by the video collection unit 104c, and a video editing unit 104d performs video determination on a subject captured in each captured video. The processing identifies each shot video (step S210). Then, each collected video image and subject information representing the identified subject are recorded in the recording device 105 (steps S122 and S211) and stored in the recording device 105. Because of this, it is convenient to share videos taken by multiple photographers in the same facility, such as videos taken by the parents of the children who were photographers at the athletic meet. A good system can be provided.

(2)施設内における各被写体および各カメラの所在位置を特定し(ステップS103)、その情報を記録装置105に記録しておく(ステップS104)。ステップS210では、こうして特定されて記録された各被写体および各カメラの所在位置に基づいて、各撮影映像において撮影されている被写体を特定することとした。このようにしたので、各撮影映像において撮影されている被写体を確実に特定することができる。 (2) The location of each subject and each camera in the facility is specified (step S103), and the information is recorded in the recording device 105 (step S104). In step S210, the subject photographed in each photographed video is identified based on each subject thus identified and recorded and the location of each camera. Since it did in this way, the to-be-photographed object can be specified reliably in each captured video.

(3)施設内に複数のICタグ受信機102を設置しておき、ステップS103では、このICタグ受信機102により受信された被写体が所持するICタグ101のタグ情報と、そのタグ情報を受信したICタグ受信機102の設置位置とに基づいて、施設内における各被写体および各カメラの所在位置を特定することとした。このようにしたので、各被写体および各カメラの所在位置を精度よく求めることができる。 (3) A plurality of IC tag receivers 102 are installed in the facility, and in step S103, the tag information of the IC tag 101 held by the subject received by the IC tag receiver 102 and the tag information are received. Based on the installation position of the IC tag receiver 102, the location of each subject and each camera in the facility is specified. Since it did in this way, the location of each subject and each camera can be obtained with high accuracy.

(4)複数のカメラ103から撮影情報を収集し(ステップS121、S122)、収集された撮影情報に基づいて各カメラの撮影範囲を算出する(ステップS205)。そして、特定された各被写体および各カメラの所在位置と、算出された各カメラの撮影範囲とに基づいて、撮影範囲内にある被写体を特定する(ステップS207)。ステップS210では、こうして特定された撮影範囲内の被写体により、各撮影映像において撮影されている被写体を特定することとした。このようにしたので、撮影されている被写体を正確に特定することができる。 (4) Shooting information is collected from a plurality of cameras 103 (steps S121 and S122), and a shooting range of each camera is calculated based on the collected shooting information (step S205). Then, based on the specified location of each subject and each camera and the calculated shooting range of each camera, a subject within the shooting range is specified (step S207). In step S210, the subject photographed in each photographed video is identified by the subject within the photographing range thus identified. Since it did in this way, the to-be-photographed subject can be specified correctly.

(5)また、各撮影映像における撮影障害物の存在の有無を判定し(ステップS208)、その判定結果にも基づいてステップS211における被写体の特定を行うこととしたので、撮影されている被写体をより一層正確に特定することができる。 (5) Also, it is determined whether or not there is a shooting obstacle in each captured video (step S208), and the subject in step S211 is specified based on the determination result, so that the subject being shot is selected. It can be specified even more accurately.

(6)さらに、各撮影映像における撮影状態の良否を判定し(ステップS209)、その判定結果にも基づいてステップS211における被写体の特定を行うこととしたので、撮影されている被写体をさらに一層正確に特定することができる。 (6) Furthermore, the quality of the shooting state in each shot image is determined (step S209), and the subject is specified in step S211 based on the determination result, so that the subject being shot is more accurately identified. Can be specified.

(7)映像編集部104dが実行する映像編集処理により、編集対象とする被写体を選択し(ステップS301)、記録装置105に蓄積された複数の撮影映像のいずれかから、選択された被写体が撮影されている複数の映像部分を抽出する(ステップS306、S311、S312)。こうして抽出された複数の映像部分を順次挿入して映像を編集することにより、選択された被写体についての編集映像を作成する(ステップS313)こととした。このようにしたので、運動会において子供達の親がそれぞれ撮影者となって自分の子供を撮影した映像のように、複数の撮影者が同一施設内で撮影した映像を共有化する際に、使い勝手の良いシステムを提供することができる。 (7) A subject to be edited is selected by the video editing processing executed by the video editing unit 104d (step S301), and the selected subject is photographed from any of a plurality of photographed videos stored in the recording device 105. The plurality of video portions that have been extracted are extracted (steps S306, S311, and S312). By editing the video by sequentially inserting a plurality of video portions extracted in this way, an edited video for the selected subject is created (step S313). Because of this, it is convenient to share videos taken by multiple photographers in the same facility, such as videos taken by the parents of the children who were photographers at the athletic meet. A good system can be provided.

(8)施設内における各被写体および各カメラの所在位置を特定し(ステップS103)、その情報を記録装置105に記録しておく(ステップS104)。こうして記録された各被写体および各カメラの所在位置に基づいて、各撮影映像において撮影されている被写体を特定し(ステップS210)、特定された被写体を表す被写体情報を記録する(ステップS211)。こうして記録された被写体情報に基づいて、選択された被写体がいずれかの撮影映像において撮影されているか否かを判定し(ステップS307、S308)、その判定結果により、ステップS311またはS312において、選択された被写体が撮影されている映像部分を抽出することとした。このようにしたので、選択された被写体が撮影されている映像部分を確実に抽出することができる。 (8) The location of each subject and each camera in the facility is specified (step S103), and the information is recorded in the recording device 105 (step S104). Based on each subject thus recorded and the location of each camera, the subject being photographed in each photographed video is identified (step S210), and subject information representing the identified subject is recorded (step S211). Based on the subject information thus recorded, it is determined whether or not the selected subject is captured in any of the captured images (steps S307 and S308), and the selected result is selected in step S311 or S312. The video portion where the subject was photographed was extracted. Since it did in this way, the image | video part by which the selected to-be-photographed object is image | photographed can be extracted reliably.

(9)前回の映像切替から所定時間以内であるか否かを判定し(ステップS304)、所定時間以内である場合は、前回と同じ撮影映像から、現在選択中の基準時刻から次の基準時刻までの映像部分を抽出する(ステップS306)。こうして同一の撮影映像から所定時間以上の連続する映像部分を抽出することとしたので、少なくともその所定時間が経過するまでは、編集映像において映像の切り替わり(カメラの切り替わり)が起こらず、切り替えが頻繁すぎて見づらい編集映像となることを防止できる。 (9) It is determined whether or not it is within a predetermined time since the previous video switching (step S304). If it is within the predetermined time, the next reference time from the currently selected reference time to the next reference time The video portion up to is extracted (step S306). In this way, since a continuous video portion of a predetermined time or more is extracted from the same captured video, video switching (camera switching) does not occur in the edited video at least until the predetermined time elapses, and switching frequently occurs. It is possible to prevent the edited video from being too difficult to see.

(10)選択された被写体がいずれかの撮影映像に撮影されているか否かを判定し(ステップS307)、いずれの撮影映像においても撮影されていないときには、予め定められた全体撮影映像から映像部分を抽出し(ステップS309)、その映像部分をステップS313において編集映像に挿入することとした。このようにしたので、編集対象とされた被写体がいずれの撮影映像にもおいても撮影されていない場合であっても、イベントに合わせた適当な映像を編集映像に挿入することができる。 (10) It is determined whether or not the selected subject is captured in any of the captured images (step S307). When the selected subject is not captured in any of the captured images, the video portion is determined from the predetermined whole captured image. Are extracted (step S309), and the video portion is inserted into the edited video in step S313. Since it did in this way, even if it is a case where the subject made into edit is not image | photographed also in any picked-up image, the suitable image | video according to the event can be inserted in an edit image | video.

(11)選択された被写体が同一時間内に複数の撮影映像において撮影されているか否かを判定し(ステップS308)、複数の撮影映像において撮影されている場合には、その複数の撮影映像のいずれかを優先すべきと判定する(ステップS310)。ステップS312では、こうして優先すべきと判定された撮影映像から映像部分を抽出することとした。このようにしたので、編集対象とされた被写体が複数の撮影映像に撮影されている場合であっても、その中で最も適した撮影映像から映像部分を抽出することができる。 (11) It is determined whether or not the selected subject has been captured in a plurality of captured images within the same time (step S308). It is determined that either one should be prioritized (step S310). In step S312, the video portion is extracted from the captured video determined to be prioritized in this way. Since it did in this way, even if it is a case where the photographic subject made into edit is image | photographed in the some imaging | video image | video, a video part can be extracted from the most suitable imaging | video image | video among them.

(12)ステップS310では、カメラと被写体の位置関係または各撮影映像の写り具合に基づいて、複数の撮影映像のいずれかを優先すべきと判定することとしたので、映像部分を抽出するのに最も適した撮影映像を確実に判定することができる。 (12) In step S310, based on the positional relationship between the camera and the subject or the appearance of each captured image, it is determined that one of the plurality of captured images should be prioritized. The most suitable captured video can be reliably determined.

(13)ステップS301で被写体を選択するときに、各被写体とユーザとの対応関係を表したユーザ情報を予め登録しておき、いずれかのユーザから編集映像の作成要求があると、登録されているユーザ情報に基づいて、そのユーザについて編集対象とする被写体を選択することができる。このようにすれば、ユーザが他人の子供などそのユーザに無関係な人物を許可なく編集対象に指定して、その人物の編集映像を無断で作成することを防止できる。 (13) When a subject is selected in step S301, user information representing a correspondence relationship between each subject and the user is registered in advance, and if any user requests creation of an edited video, it is registered. The subject to be edited can be selected based on the user information. In this way, it is possible to prevent the user from specifying a person unrelated to the user, such as a child of another person, as an editing target without permission, and creating an edited video of the person without permission.

(14)映像編集処理において抽出される映像部分の撮影時刻の範囲を、映像編集時間として設定する(ステップS302)。このとき、予め登録されたイベントプログラム情報に基づいて映像編集時間を設定することができる。このようにしたので、ユーザは映像編集時間を間単に設定することができる。 (14) The shooting time range of the video portion extracted in the video editing process is set as the video editing time (step S302). At this time, the video editing time can be set based on pre-registered event program information. In this way, the user can simply set the video editing time.

(15)課金部104eが実行する課金処理により、いずれかのユーザを対象ユーザとして選択し(ステップS401)、その対象ユーザに対して作成された編集映像に対する当該対象ユーザの課金額を算出する(ステップS404)。また、当該対象ユーザ以外の他のユーザに対して作成された編集映像に対する当該対象ユーザの受領金額を算出する(ステップS406)こととした。このようにしたので、他ユーザの撮影映像の利用や、他ユーザに対する撮影映像の提供に応じて、ユーザに課金または受領金の支払いを行うことができる。 (15) One of the users is selected as the target user by the charging process executed by the charging unit 104e (step S401), and the charge amount of the target user for the edited video created for the target user is calculated ( Step S404). In addition, the received amount of the target user for the edited video created for other users other than the target user is calculated (step S406). Since it did in this way, according to the utilization of the imaging | video of another user, or provision of the imaging | video imaging | video with respect to another user, a user can be charged or payment of a receipt money can be performed.

(16)ステップS404では、対象ユーザに対して作成された編集映像において他のユーザの撮影映像が挿入されている時間に応じて、当該対象ユーザの課金額を算出することとした。このようにしたので、他ユーザの撮影映像の利用状況に応じた適切な課金額を算出することができる。 (16) In step S404, the charge amount of the target user is calculated according to the time during which another user's captured video is inserted in the edited video created for the target user. Since it did in this way, the appropriate charge amount according to the utilization condition of the other user's picked-up image can be calculated.

(17)ステップS406では、対象ユーザ以外の他のユーザに対して作成された編集映像において当該対象ユーザの撮影映像が挿入されている時間に応じて、当該対象ユーザの受領金額を算出することとした。このようにしたので、他ユーザに対する撮影映像の提供状況に応じた適切な受領金額を算出することができる。 (17) In step S406, the received amount of the target user is calculated according to the time during which the target user's captured video is inserted in the edited video created for other users than the target user. did. Since it did in this way, the appropriate amount of money received according to the provided situation of the photography picture to other users can be calculated.

(18)スケジュール管理部104bが実行するスケジュール管理処理により、施設内に存在する複数の被写体のうち出番が近い被写体の撮影者に対して警告を行うこととした。このようにしたので、撮影者はイベントのスケジュールを覚えていなくても、撮影タイミングを逃すことなく目的とする被写体を確実に撮影することができる。その結果、運動会において子供達の親がそれぞれ撮影者となって自分の子供を撮影した映像のように、複数の撮影者が同一施設内で撮影した映像を共有化する際に、使い勝手の良いシステムを提供することができる。 (18) With the schedule management process executed by the schedule management unit 104b, a warning is given to the photographer of the subject whose turn number is close among the plurality of subjects present in the facility. Thus, even if the photographer does not remember the event schedule, the photographer can reliably photograph the target subject without missing the photographing timing. As a result, it is an easy-to-use system for sharing videos taken by multiple photographers within the same facility, such as videos taken by children's parents as photographers at the athletic meet. Can be provided.

(19)次のイベントプログラムの開始時間に近づいたか否かを判定し(ステップS112)、次のイベントプログラムが開始する所定時間前になったら、そのイベントプログラムに出場する予定の被写体を特定し(ステップS113)、これにより出番が近い被写体を判断することとした。このようにしたので、適切なタイミングで出番が近い被写体を判断することができる。 (19) It is determined whether or not the start time of the next event program is approached (step S112), and when a predetermined time before the next event program starts, a subject to be participated in the event program is specified ( In step S113), it is decided to determine the subject whose turn is close. Since this is done, it is possible to determine a subject whose turn is close at an appropriate timing.

(20)ステップS112では、予め登録されたイベントプログラムごとの出場者登録情報に基づいて、次のイベントプログラムに出場する予定の被写体を特定することとした。このようにしたので、次のイベントプログラムに出場する予定の被写体を簡単かつ確実に特定することができる。 (20) In step S112, based on the participant registration information for each event program registered in advance, the subject who is scheduled to participate in the next event program is specified. Since it did in this way, the subject who will participate in the next event program can be specified easily and reliably.

(21)ステップS114において警告情報を送信するときに、カメラ103に特定の動作を指示する制御信号を送信することにより、撮影者に対して警告を行うことができる。あるいは、ステップS114において警告情報を送信するときに、予め登録された撮影者が所持する携帯電話のメールアドレスにメールを送信することにより、撮影者に対して警告を行うこともできる。これらいずれかのようにすることで、撮影者にとって分かりやすい警告とすることができる。 (21) When transmitting warning information in step S114, a warning can be given to the photographer by transmitting a control signal instructing the camera 103 to perform a specific operation. Alternatively, when the warning information is transmitted in step S114, a warning can be given to the photographer by sending an e-mail to the e-mail address of the mobile phone possessed by the pre-registered photographer. By doing either of these, it is possible to make the warning easy for the photographer to understand.

なお、以上説明した実施の形態では、カメラ103によって撮影された全ての撮影映像を映像収集部104cにより収集して共有化することとしたが、事前に共有化に同意したユーザが撮影した映像のみを対象としてもよい。このとき、撮影映像の著作権の帰属に関する取り決めや、他人の撮影映像を商用目的には使用できないことなどを事前に契約事項で定めておくことが好ましい。あるいは、撮影者が共有化するか否かをその都度選択できるようにしてもよい。   In the embodiment described above, all the captured images captured by the camera 103 are collected and shared by the image collection unit 104c, but only the images captured by the user who has agreed to share in advance. May be targeted. At this time, it is preferable to preliminarily determine in the contract items that there is an agreement regarding copyright attribution of the photographed video and that other people's photographed video cannot be used for commercial purposes. Alternatively, the photographer may be able to select whether or not to share each time.

また、撮影映像を一旦カメラ103に記録しておき、後でユーザが自宅のパーソナルコンピュータ等から制御装置104に送信することで、撮影映像を制御装置104に収集することとしてもよい。このとき、撮影映像のうちどの部分を制御装置104に送信して共有化するかをユーザが選択できるようにしてもよい。   Alternatively, the captured video may be temporarily recorded in the camera 103, and the user may collect the captured video in the control device 104 by transmitting the video to the control device 104 later from a personal computer at home. At this time, the user may be allowed to select which part of the captured video is transmitted to the control device 104 and shared.

上記の実施の形態では、図4〜7のフローチャートに示した処理を全て制御装置104において実行することとしたが、このうち一部をカメラ103において実行することとしてもよい。たとえば、位置特定処理によって特定された被写体位置およびカメラ位置の情報を制御装置104から各カメラ103へ逐次送信し、その情報に基づいて、図5のフローチャートで説明したような映像判定処理をカメラ103において実行することもできる。このようにした場合、カメラ103から撮影映像と被写体情報を制御装置104へ送信することにより、図6のフローチャートに示す映像編集処理を制御装置104の映像編集部104dにおいて実行することができる。なお、その場合には被写体情報をメタデータとして撮影映像データ内に埋め込むこととしてもよい。   In the above embodiment, all of the processes shown in the flowcharts of FIGS. 4 to 7 are executed by the control device 104, but some of them may be executed by the camera 103. For example, information on the subject position and the camera position specified by the position specifying process is sequentially transmitted from the control device 104 to each camera 103, and based on the information, the video determination process as described in the flowchart of FIG. Can also be performed. In such a case, the video editing process shown in the flowchart of FIG. 6 can be executed in the video editing unit 104 d of the control device 104 by transmitting the captured video and subject information from the camera 103 to the control device 104. In this case, subject information may be embedded in the captured video data as metadata.

上記の実施の形態では、幼稚園や保育園、小学校等の施設において、運動会などのイベントにおいて親が撮影者となって自分の子供を撮影し、その撮影映像を共有化する映像共有システムを例に説明したが、これ以外の場合にも適用することができる。たとえば、自分の子供以外を被写体として撮影する場合に用いてもよいし、あるいは公園、体育館、遊園地、観光施設などの様々な施設において使用してもよい。これ以外にも様々な使用形態が考えられる。   In the above embodiment, an example of a video sharing system in which a parent becomes a photographer at an event such as an athletic meet in a kindergarten, nursery school, elementary school, etc. However, it can be applied to other cases. For example, it may be used when photographing a subject other than his / her child as a subject, or may be used in various facilities such as a park, a gymnasium, an amusement park, and a tourist facility. Various other usage forms are conceivable.

以上説明した各実施の形態や各種の変形例はあくまで一例であり、発明の特徴が損なわれない限り、本発明はこれらの内容に限定されない。   Each embodiment and various modifications described above are merely examples, and the present invention is not limited to these contents as long as the features of the invention are not impaired.

上記の実施の形態では、スケジュール管理手段をスケジュール管理部104b、映像収集手段を映像収集部104c、蓄積手段を記録装置105によりそれぞれ実現することとした。しかし、これはあくまで一例であり、発明を解釈する際、上記の実施形態の記載事項と特許請求の範囲の記載事項の対応関係には何ら限定も拘束もされない。   In the above embodiment, the schedule management unit is realized by the schedule management unit 104b, the video collection unit is realized by the video collection unit 104c, and the storage unit is realized by the recording device 105. However, this is merely an example, and when interpreting the invention, there is no limitation or restriction on the correspondence between the items described in the above embodiment and the items described in the claims.

本発明の一実施の形態による映像共有システムのブロック図である。1 is a block diagram of a video sharing system according to an embodiment of the present invention. ICタグ受信機の設置例を示す図である。It is a figure which shows the example of installation of an IC tag receiver. 本発明の一実施の形態による映像共有システムにおいて実行される処理のフローチャートである。It is a flowchart of the process performed in the video sharing system by one embodiment of this invention. イベント中処理において実行される処理のフローチャートである。It is a flowchart of the process performed in the process during an event. 映像判定処理において実行される処理のフローチャートである。It is a flowchart of the process performed in an image | video determination process. 映像編集処理において実行される処理のフローチャートである。It is a flowchart of the process performed in a video editing process. 課金処理において実行される処理のフローチャートである。It is a flowchart of the process performed in an accounting process. 出場者登録情報の例を示す図である。It is a figure which shows the example of participant registration information. カメラにおける撮影状況の例を示す図である。It is a figure which shows the example of the imaging | photography condition in a camera. 図9の撮影状況において撮影された映像について記録される被写体情報の例を示す図である。It is a figure which shows the example of the to-be-photographed object information recorded about the image | video image | photographed in the imaging | photography condition of FIG. 映像編集処理により作成される編集映像の具体例を示す図である。It is a figure which shows the specific example of the edit image | video produced by image | video edit processing.

符号の説明Explanation of symbols

100:映像共有システム 101:ICタグ
102:ICタグ受信機 103:カメラ
104:制御装置 105:記録装置
100: Video sharing system 101: IC tag 102: IC tag receiver 103: Camera 104: Control device 105: Recording device

Claims (5)

様々な映像を蓄積してその蓄積された映像を複数のユーザに利用させる映像共有システムにおいて、
施設内に存在する複数の被写体のうちいずれかを撮影する複数のカメラと、
前記複数のカメラにより撮影された各撮影映像を収集する映像収集手段と、
前記映像収集手段により収集された各撮影映像を蓄積する蓄積手段と、
前記複数の被写体のうち出番が近い被写体の撮影者に対して警告を行うスケジュール管理手段とを備えることを特徴とする映像共有システム。
In a video sharing system that stores various videos and allows multiple users to use the stored videos.
A plurality of cameras for photographing one of a plurality of subjects existing in the facility;
Video collection means for collecting each captured video captured by the plurality of cameras;
Storage means for storing each photographed video collected by the video collection means;
A video sharing system, comprising: a schedule management unit that issues a warning to a photographer of a subject whose turn is close among the plurality of subjects.
請求項1の映像共有システムにおいて、
前記スケジュール管理手段は、次のイベントプログラムが開始する所定時間前になったら、そのイベントプログラムに出場する予定の被写体を特定することにより、出番が近い被写体を判断することを特徴とする映像共有システム。
The video sharing system of claim 1,
The schedule management means, when a predetermined time before the next event program starts, identifies a subject that is scheduled to participate in the event program, and thereby determines a subject that is coming soon. .
請求項1または2の映像共有システムにおいて、
前記スケジュール管理手段は、予め登録されたイベントプログラムごとの出場者登録情報に基づいて、次のイベントプログラムに出場する予定の被写体を特定することを特徴とする映像共有システム。
The video sharing system according to claim 1 or 2,
The video sharing system according to claim 1, wherein the schedule management means identifies a subject who is scheduled to participate in the next event program based on attendee registration information for each event program registered in advance.
請求項1〜3いずれか一項の映像共有システムにおいて、
前記スケジュール管理手段は、前記カメラに特定の動作を指示する制御信号を送信することにより警告を行うことを特徴とする映像共有システム。
The video sharing system according to any one of claims 1 to 3,
The video sharing system according to claim 1, wherein the schedule management means issues a warning by transmitting a control signal instructing a specific operation to the camera.
請求項1〜3いずれか一項の映像共有システムにおいて、
前記スケジュール管理手段は、予め登録された前記撮影者が所持する携帯電話のメールアドレスにメールを送信することにより警告を行うことを特徴とする映像共有システム。
The video sharing system according to any one of claims 1 to 3,
The video sharing system according to claim 1, wherein the schedule management means issues a warning by sending a mail to a mail address of a mobile phone possessed by the photographer registered in advance.
JP2006238979A 2006-09-04 2006-09-04 Video sharing system Expired - Fee Related JP4670776B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006238979A JP4670776B2 (en) 2006-09-04 2006-09-04 Video sharing system
PCT/JP2007/067217 WO2008029803A1 (en) 2006-09-04 2007-09-04 Video sharing system, imaging support system, and camera
US12/310,674 US8339500B2 (en) 2006-09-04 2007-09-04 Video sharing system, photography support system, and camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006238979A JP4670776B2 (en) 2006-09-04 2006-09-04 Video sharing system

Publications (2)

Publication Number Publication Date
JP2008061195A JP2008061195A (en) 2008-03-13
JP4670776B2 true JP4670776B2 (en) 2011-04-13

Family

ID=39243387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006238979A Expired - Fee Related JP4670776B2 (en) 2006-09-04 2006-09-04 Video sharing system

Country Status (1)

Country Link
JP (1) JP4670776B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5609108B2 (en) * 2009-12-28 2014-10-22 富士通株式会社 Imaging data output system, imaging data output device, imaging data output method, and computer program
WO2013161319A1 (en) * 2012-04-27 2013-10-31 パナソニック株式会社 Content playback method, content playback system, and content filming device
JP6028457B2 (en) * 2012-08-24 2016-11-16 ソニー株式会社 Terminal device, server, and program
JP6371020B1 (en) * 2018-01-31 2018-08-08 株式会社Nttドコモ Information processing device
JP2020194245A (en) * 2019-05-25 2020-12-03 Rkbミューズ株式会社 Video providing system and video providing program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002024229A (en) * 2000-07-03 2002-01-25 Fuji Photo Film Co Ltd Self-portrait image providing system
JP2002297753A (en) * 2001-03-30 2002-10-11 Fujitsu Ltd System for providing image data
JP2003289465A (en) * 2002-03-28 2003-10-10 Fuji Photo Film Co Ltd Imaging system and imaging method
JP2004247913A (en) * 2003-02-13 2004-09-02 Sony Corp Imaging apparatus, video data storage device, and imaging system
JP2004297134A (en) * 2003-03-25 2004-10-21 Fuji Photo Film Co Ltd Composite image providing system, image composite apparatus, and program
JP2005341298A (en) * 2004-05-27 2005-12-08 Canon Inc Network system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002024229A (en) * 2000-07-03 2002-01-25 Fuji Photo Film Co Ltd Self-portrait image providing system
JP2002297753A (en) * 2001-03-30 2002-10-11 Fujitsu Ltd System for providing image data
JP2003289465A (en) * 2002-03-28 2003-10-10 Fuji Photo Film Co Ltd Imaging system and imaging method
JP2004247913A (en) * 2003-02-13 2004-09-02 Sony Corp Imaging apparatus, video data storage device, and imaging system
JP2004297134A (en) * 2003-03-25 2004-10-21 Fuji Photo Film Co Ltd Composite image providing system, image composite apparatus, and program
JP2005341298A (en) * 2004-05-27 2005-12-08 Canon Inc Network system

Also Published As

Publication number Publication date
JP2008061195A (en) 2008-03-13

Similar Documents

Publication Publication Date Title
WO2008029803A1 (en) Video sharing system, imaging support system, and camera
CN101910936B (en) Guided photography based on image capturing device rendered user recommendations
US7391886B1 (en) Digital camera with image tracking system
US20080174676A1 (en) Producing enhanced photographic products from images captured at known events
JP2004289825A (en) Production of enhanced photographic product from image captured at known picture site
JP4206888B2 (en) Image processing apparatus and program
JP6028457B2 (en) Terminal device, server, and program
JP6248937B2 (en) Content acquisition device, portable device, server, information processing device, and storage medium
JP4670776B2 (en) Video sharing system
JP4720687B2 (en) Video sharing system
JP2010183609A (en) Wireless multi-recorder system
JP2008537228A (en) Interactive shooting and distribution system and related methods
JP4984753B2 (en) Video sharing system
JP2007081681A (en) Image pickup device and method therefor
JP2009093433A (en) Image processor and retrieval device
JP2004312511A (en) Video image editing system, kindergartener monitoring system, welfare facilities monitoring system, commemoration video creation system, action monitoring system, and video image editing method
WO2020246166A1 (en) Image processing device, image processing method, program, and imaging device
JP2015015570A (en) System, apparatus and program for image management
JP2013250741A (en) Rental system
CN109034764A (en) Realize that scenic spot is taken photo by plane the system of service based on wechat platform
JP2020077954A (en) Image processing device
JP4172380B2 (en) Identification information recording apparatus and method, and imaging system
KR101140506B1 (en) Photographing apparatus supporting pose template and the same method
JP2005286379A (en) Photographing support system and photographing support method
JP2003018070A (en) System for transmitting video image to photographed person

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110103

R150 Certificate of patent or registration of utility model

Ref document number: 4670776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees