JP4670776B2 - Video sharing system - Google Patents
Video sharing system Download PDFInfo
- Publication number
- JP4670776B2 JP4670776B2 JP2006238979A JP2006238979A JP4670776B2 JP 4670776 B2 JP4670776 B2 JP 4670776B2 JP 2006238979 A JP2006238979 A JP 2006238979A JP 2006238979 A JP2006238979 A JP 2006238979A JP 4670776 B2 JP4670776 B2 JP 4670776B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- subject
- information
- camera
- sharing system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、カメラで撮影された映像を複数のユーザで共有するシステムに関する。 The present invention relates to a system for sharing video captured by a camera among a plurality of users.
従来、デジタルカメラやカメラ付き携帯電話により撮影された画像をインターネット上のサーバにアップロードし、アップロードされた画像を家族や友人など複数のユーザでダウンロードして共有するシステムが知られている(たとえば、特許文献1参照)。 Conventionally, a system is known in which an image taken by a digital camera or a camera-equipped mobile phone is uploaded to a server on the Internet, and the uploaded image is downloaded and shared by a plurality of users such as family members and friends (for example, Patent Document 1).
上記のようなシステムを映像の共有化システムに適用することにより、たとえば、運動会などのイベントにおいて子供達の親がそれぞれ撮影者となって自分の子供を撮影した映像のように、複数の撮影者が同一施設内で撮影した映像を共有化することができる。しかし、特許文献1に開示されるような従来のシステムでは、実際に映像を再生してみなければその映像の内容が分からないため、システムを利用するユーザはいちいち映像を再生して確認しなければならず、使い勝手が悪い。したがって、複数の撮影者が同一施設内で撮影した映像を共有化する際に使い勝手の良いシステムが求められている。 By applying the system described above to a video sharing system, for example, a plurality of photographers, such as a video in which children's parents become photographers at an event such as an athletic meet, respectively. Can share video taken in the same facility. However, in the conventional system as disclosed in Patent Document 1, since the contents of the video are not known unless the video is actually played back, the user who uses the system must play back and check the video one by one. It must be easy to use. Therefore, there is a need for a system that is easy to use when sharing images shot by a plurality of photographers in the same facility.
請求項1の発明は、様々な映像を蓄積してその蓄積された映像を複数のユーザに利用させる映像共有システムにおいて、施設内に存在する複数の被写体のうちいずれかを撮影する複数のカメラと、複数のカメラにより撮影された各撮影映像を収集する映像収集手段と、映像収集手段により収集された各撮影映像を蓄積する蓄積手段と、複数の被写体のうち出番が近い被写体の撮影者に対して警告を行うスケジュール管理手段とを備えるものである。
請求項2の発明は、請求項1の映像共有システムにおいて、スケジュール管理手段は、次のイベントプログラムが開始する所定時間前になったら、そのイベントプログラムに出場する予定の被写体を特定することにより、出番が近い被写体を判断するものである。
請求項3の発明は、請求項1または2の映像共有システムにおいて、スケジュール管理手段は、予め登録されたイベントプログラムごとの出場者登録情報に基づいて、次のイベントプログラムに出場する予定の被写体を特定するものである。
請求項4の発明は、請求項1〜3いずれか一項の映像共有システムにおいて、スケジュール管理手段は、カメラに特定の動作を指示する制御信号を送信することにより警告を行うものである。
請求項5の発明は、請求項1〜3いずれか一項の映像共有システムにおいて、スケジュール管理手段は、予め登録された撮影者が所持する携帯電話のメールアドレスにメールを送信することにより警告を行うものである。
The invention of claim 1 is a video sharing system in which various videos are accumulated and the accumulated videos are used by a plurality of users, and a plurality of cameras for photographing any of a plurality of subjects existing in a facility; A video collecting means for collecting each shot video shot by a plurality of cameras, a storage means for storing each shot video collected by the video collecting means, and a photographer of a subject whose turn is close among a plurality of subjects. And schedule management means for warning.
According to a second aspect of the present invention, in the video sharing system of the first aspect, the schedule management means specifies a subject that is scheduled to participate in the event program when a predetermined time before the next event program starts. The subject whose turn is close is determined.
According to a third aspect of the present invention, in the video sharing system according to the first or second aspect, the schedule management means selects a subject to be participated in the next event program based on the participant registration information for each event program registered in advance. It is something to identify.
According to a fourth aspect of the present invention, in the video sharing system according to any one of the first to third aspects, the schedule management means issues a warning by transmitting a control signal instructing a specific operation to the camera.
According to a fifth aspect of the present invention, in the video sharing system according to any one of the first to third aspects, the schedule management means issues a warning by sending an e-mail to a mail address of a mobile phone possessed by a photographer registered in advance. Is what you do.
本発明によれば、運動会において子供達の親がそれぞれ撮影者となって自分の子供を撮影した映像のように、複数の撮影者が同一施設内で撮影した映像を共有化する際に、使い勝手の良いシステムを提供することができる。 According to the present invention, it is convenient to share videos taken by a plurality of photographers in the same facility, such as videos in which children's parents are photographers and photographed by their parents at an athletic meet. A good system can be provided.
図1は、本発明の一実施形態による映像共有システムの構成を示すブロック図である。この映像共有システムは、主に幼稚園や保育園、小学校等の施設において、複数の撮影者がその施設内で撮影した映像を共有化する際に用いられるものである。この映像共有システムを用いることにより、たとえば運動会などのイベントにおいて子供達の親がそれぞれ撮影者となって自分の子供を撮影した映像を、他の親との間で共有することができる。これにより、自分の子供が障害物の陰に隠れたりしてうまく撮影できなかった場面があっても、他の親が撮影した映像を利用することで、その場面に自分の子供が写っている映像を得ることができるようになる。 FIG. 1 is a block diagram showing a configuration of a video sharing system according to an embodiment of the present invention. This video sharing system is mainly used in a kindergarten, a nursery school, an elementary school or the like to share videos taken by a plurality of photographers in the facility. By using this video sharing system, for example, at the event such as an athletic meet, children's parents can be photographers, and videos of their children can be shared with other parents. As a result, even if there is a scene where your child was hiding behind an obstacle and could not be shot well, using the video taken by other parents, their child is reflected in the scene You can get a video.
図1の映像共有システム100は、ICタグ101と、ICタグ受信機102と、カメラ103と、制御装置104と、記録装置105とで構成される。なお、ICタグ受信機102、制御装置104および記録装置105は施設内に予め設置されている。一方、ICタグ101およびカメラ103は、映像共有システム100のユーザである子供と撮影者によって所持されている。
The
ICタグ101は、カメラ103により被写体とされる子供達(園児、児童など)が各自1つずつ所持している。例えば、名札、帽子、靴、園児服、体操服などにICタグ101を装着しておき、これらのものを身に着けることによって子供達にICタグ101を所持させる。さらに、カメラ103を所持している撮影者(親など)も、各自ICタグ101を所持している。この場合、子供と同様にICタグ101を撮影者の衣服などに装着してもよいし、あるいはカメラ103に装着してもよい。すなわち、図1ではICタグ101を代表して1つのブロックで表しているが、実際には子供と撮影者の数に応じた複数のICタグ101が映像共有システム100に含まれる。
The IC tag 101 is carried by each of the children (children, children, etc.) who are the subjects of the
ICタグ101には、ICタグ101の各々を一意に識別するための固有のタグ番号がそれぞれ付与されており、このタグ番号でICタグ101を所持している人物を特定できるようになっている。具体的には、各撮影者および子供がそれぞれ所持している複数のICタグ101のタグ番号と、その各々を所持している人物とを対応付けたタグ管理情報が後述する記録装置105に予め記録されている。そして、制御装置104は、ICタグ受信機102で読み取ったICタグ101のタグ番号に基づいて、そのICタグ101の所持者が誰であるかを特定する。なお、各ICタグ101のタグ番号はタグ情報の一部としてICタグ受信機102に送信される。すなわち各ICタグ101は、各々に固有の識別情報としてタグ情報を送信する。
The IC tag 101 is given a unique tag number for uniquely identifying each IC tag 101, and the person who owns the IC tag 101 can be specified by this tag number. . Specifically, tag management information in which tag numbers of a plurality of IC tags 101 possessed by each photographer and child are associated with persons possessing each of them is stored in advance in a recording device 105 described later. It is recorded. Then, based on the tag number of the IC tag 101 read by the
ICタグ受信機102は、映像共有システム100が用いられる施設内に所定間隔ごとに設置される。具体的には、園庭や校庭の地中、施設の建物の床下などに、所定の間隔を空けて(例えば、地中には2mおき、床下には1mおきに)碁盤の目状に埋め込まれて設置される。すなわち、このICタグ受信機102も図1では代表して1つのブロックで表しているが、実際には複数のICタグ受信機102が映像共有システム100に含まれている。また、各ICタグ受信機102には、それぞれのICタグ受信機102を一意に識別するための受信機番号が付加されている。そして、各ICタグ受信機102の設置位置と受信機番号とを対応付けた受信機管理情報が記録装置105に記録されている。
The
上記のように施設内に所定間隔ごとに設置されたICタグ受信機102のいずれかの上を子供や撮影者が通過すると、そのICタグ受信機102は、通過した人物が所持しているICタグ101から無線通信によりタグ情報を読み込んで、そのタグ情報と自身の受信機番号とを制御装置104へ出力する。制御装置104では、後述するように、タグ情報に含まれるタグ番号を特定し、さらに受信機番号に基づいてその受信機の設置位置を特定することで、ICタグ101を所持する人物(すなわち、子供または撮影者)の施設内における所在位置をそれぞれ特定することができる。換言すると、ICタグ受信機102により受信されたICタグ101の各々に固有の識別情報と、そのICタグ101からの識別情報を受信したICタグ受信機102の設置位置とに基づいて、被写体である子供の所在位置や、撮影者が所持するカメラ103の施設内における所在位置を特定することができる。
As described above, when a child or a photographer passes over any one of the
図2は、園庭や校庭、あるいは施設の建物におけるICタグ受信機102の設置例を示す図である。図2においては、ICタグ受信機102の設置位置を白丸で示している。この図2に示す例では、ICタグ受信機102は施設内に等間隔で設置されている。なお、ICタグ受信機102の設置間隔は必ずしも図2のように等間隔である必要はない。
FIG. 2 is a diagram illustrating an installation example of the
カメラ103は、撮影者によって所持されるビデオカメラであり、撮影者の操作に応じて施設内に存在する子供達のいずれかを撮影して、その映像を制御装置104へ逐次送信する。さらに、撮影時の撮影方向や焦点距離、撮影レンズのズーム量や画角などを求め、これらのうち後述する撮影範囲の算出において必要な情報を撮影情報として撮影映像と共に制御装置104へ逐次送信する。なお撮影方向については、たとえばカメラ103に方位検出センサや姿勢検出センサなどを内蔵し、それを用いてカメラ103がどちらを向いているかを検出することにより検出することができる。これらの撮影情報を映像データ内にメタデータとして埋め込むことにより撮影映像と共に送信してもよい。
The
なお、施設内に複数の撮影者がいる場合は、その撮影者ごとにカメラ103が所持される。すなわち、このカメラ103も図1では代表して1つのブロックで表しているが、実際には複数のカメラ103が映像共有システム100に含まれる。
When there are a plurality of photographers in the facility, the
制御装置104は、例えばパソコンやサーバなどのコンピュータ装置であり、施設内の複数箇所に設置されたICタグ受信機102とは、施設内に敷設されたLAN等を介して接続されている。また、カメラ103とは無線LANなどの無線通信回線を介して接続され、記録装置105とは所定のインタフェースを介して接続される。この制御装置104は、位置特定部104a、スケジュール管理部104b、映像収集部104c、映像編集部104dおよび課金部104eを機能的に有している。
The
位置特定部104aは、ICタグ受信機102からタグ情報と受信機番号が入力されると、上述したように記録装置105に記録されている受信機管理情報に基づいて、入力された受信機番号に対応するICタグ受信機102の設置位置を特定すると共に、入力されたタグ情報に基づいて、そのタグ情報を発信したICタグ101のタグ番号を特定する。こうして特定されたICタグ受信機102の設置位置とICタグ101のタグ番号から、そのタグ番号が付与されたICタグ101を所持する人物(子供または撮影者)が施設内のどこにいるかを特定する。そして、子供の場合はその位置を被写体位置として、また撮影者の場合はその位置をカメラ位置として、記録装置105にそれぞれ記録する。この被写体位置およびカメラ位置は、子供や撮影者が移動して所持するICタグ101のタグ情報がそれまでとは異なるICタグ受信機102によって受信されたときに更新される。
When the tag information and the receiver number are input from the
スケジュール管理部104bは、イベントスケジュールに従って予め登録されたイベントプログラムごとの出場者登録情報に基づいて、次のイベントプログラムの出場予定者を特定し、その出場予定者を被写体として撮影する撮影者に対して、撮影開始を促す旨を伝える警告情報を送信する。たとえば運動会において、次の競技に出場する子供の親に対して警告情報を送信する。この警告情報の送信は、たとえば撮影者が所持するカメラ103に対して、電源投入や警告音の出力、液晶モニタの点滅表示、液晶モニタにおける「出番5分前です」等の警告表示など、特定の動作を指示する制御信号を送信することによって行われる。なおこの場合、被写体(子供)とカメラ103の対応関係が予め登録されている。あるいは、予め登録された親の携帯電話のメールアドレスにメールを送信したりすることにより行われる。なお、登録されたイベントプログラムごとの出場者登録情報は、記録装置105に記録される。
The
映像収集部104cは、カメラ103により撮影されて逐次送信される映像を受信することにより、各カメラ103からの撮影映像を収集して記録装置105に記録する。この映像収集部104cによって、複数のカメラ103から収集された複数の映像が記録装置105に記録される。さらに、前述のような撮影条件情報を撮影映像と共にカメラ103から逐次受信し、撮影映像と合わせて記録装置105に所定時間ごとに記録する。こうして記録された撮影条件情報は、後述する映像編集部104dが行う映像判定処理においてカメラ103の撮影範囲を求める際に用いられる。
The
映像編集部104dは、映像収集部104cによって複数のカメラ103から収集された各撮影映像における被写体を特定し、その結果に基づいて、いずれかの被写体を編集対象とした映像の編集を行う。この映像編集では、収集された各撮影映像の中から編集対象とされた被写体が最もよく写っている映像部分を所定時間ごとに抽出し、それを順次挿入して映像を編集することにより、その被写体に適した編集映像を作成する。このときの詳しい処理内容については、後で説明する。
The
課金部104eは、映像編集部104dによって複数の撮影映像を編集して作成された編集映像をユーザに提供する際に、そのユーザに対する課金額またはそのユーザが受け取る受領金額の算出を行う。このとき、ユーザに提供する編集映像において当該ユーザ以外の撮影者が撮影した映像が利用されている場合は、その利用時間に応じた金額が当該ユーザに対して課金され、映像の提供者に支払われる。これとは反対に、当該ユーザの撮影した映像が他のユーザに提供された編集映像において利用されている場合は、当該ユーザに対してその利用時間に応じた金額が支払われる。この課金額または受領金額の具体的な算出方法については、後で詳しく説明する。
The
記録装置105は、前述したような様々な情報、すなわちタグ管理情報や受信機管理情報、位置特定部104aにより特定された被写体位置およびカメラ位置の情報、映像収集部104cによって収集されたカメラ103の撮影映像および撮影情報、イベントプログラムごとの出場者登録情報などを記録して蓄積することができる。この記録装置105には、たとえばハードディスクなどが用いられる。
The recording apparatus 105 includes various information as described above, that is, tag management information and receiver management information, information on the subject position and camera position specified by the
以上説明したような映像共有システム100を用いることにより、運動会に参加している子供達を被写体としてそれぞれの親が撮影した映像を収集し、親同士の間で共有化することができる。そして、運動会の終了後に親が自宅のパーソナルコンピュータから映像共有システム100にアクセスする等の方法により、自分の子供を編集対象に指定すると、自分の撮影映像だけでなく共有化された他の親の撮影映像も利用して、自分の子供が最もよく写っている編集映像を作成することができる。
By using the
図3は、映像共有システム100において制御装置104により実行される処理を示すフローチャートである。このフローチャートに示すように、制御装置104はステップS100のイベント中処理、ステップS200の映像判定処理、ステップS300の映像編集処理およびステップS400の課金処理を順番に実行する。これらの各ステップにおける具体的な処理の内容を、図4〜7のフローチャートを用いて以下に説明する。なお、ステップS100のイベント中処理は運動会などのイベント開催中に実行され、それ以外の処理はイベント終了後に実行される。
FIG. 3 is a flowchart illustrating processing executed by the
図4は、図3のステップS100のイベント中処理において実行される処理のフローチャートである。このフローチャートは、ステップS101〜S104の位置特定処理と、ステップS111〜S114のスケジュール管理処理と、ステップS121、S122の映像収集処理と、ステップS131の判定処理とによって構成されている。なお、位置特定処理は制御装置104において位置特定部104aにより実行され、スケジュール管理処理はスケジュール管理部104bにより実行され、映像収集処理は映像収集部104cにより実行される。
FIG. 4 is a flowchart of processing executed in the event processing in step S100 of FIG. This flowchart is composed of position specifying processing in steps S101 to S104, schedule management processing in steps S111 to S114, video collection processing in steps S121 and S122, and determination processing in step S131. The position specifying process is executed by the
ステップS101では、ICタグ受信機102からタグ情報と受信機番号を入力する。ステップS102では、ステップS101で入力したタグ番号と記録装置105に記録されたタグ管理情報に基づいて、そのタグ番号に該当する被写体またはカメラ103を特定する。ステップS103では、ステップS102で特定された被写体またはカメラ103について、ステップS101で入力した受信機番号と記録装置105に記録された受信機管理情報に基づいて、その被写体位置またはカメラ位置を特定する。ステップS104では、ステップS103で特定された被写体位置またはカメラ位置を記録装置105に記録する。
In step S101, tag information and a receiver number are input from the
以上説明したステップS101〜S104の位置特定処理により、ICタグ受信機102から入力されたタグ番号が子供の所持するICタグ101に対して付与されたものである場合、その子供が被写体として特定され、その所在位置が被写体位置として記録装置105に記録される。また、ICタグ受信機102から入力されたタグ番号が撮影者である親の所持するICタグ101に対して付与されたものである場合、その撮影者が所持しているカメラ103が特定され、その所在位置がカメラ位置として記録装置105に記録される。このようにして、映像共有システム100に含まれる複数の被写体およびカメラ103について、それぞれの被写体位置およびカメラ位置を記録する。
When the tag number input from the
ステップS111では、記録装置105に記録された出場者登録情報を読み出す。この出場者登録情報の例を図8に示す。この例では、運動会の「玉入れ」、「100m走」、「おどり(年長)」、および「障害物競走」の各競技プログラムについて、子供A〜Eがどの競技プログラムに出場するかを表している。システム管理者や子供達の親が事前に各競技プログラムに出場する子供のチェックボックスをチェックしておくことにより、このような出場者登録情報を登録することができる。 In step S111, the participant registration information recorded in the recording device 105 is read. An example of the participant registration information is shown in FIG. In this example, it represents which competition program children A to E will participate in for each competition program of athletic meet “Tama-in”, “100m run”, “Dance (elder)”, and “Obstacle race”. ing. Such system registration information can be registered by checking the check box of the child who participates in each competition program in advance by the system administrator or the parents of the children.
ステップS112では、ステップS111で読み出した出場者登録情報に基づいて、次のイベントプログラムの開始時間に近づいた否かを判定する。ここでは、次のイベントプログラムが開始される所定時間前、たとえば5分前になったときに開始時間に近づいたと判定する。すなわち図8の出場者登録情報の例では、たとえば9時55分になったときに「玉入れ」の開始時間に近づいたと判定し、10時35分になったときに「100m走」の開始時間に近づいたと判定する。このようにして、ステップS112が肯定判定された場合はステップS113へ進む。一方、ステップS112が否定判定された場合は、ステップS113、S114を飛ばしてその次のステップS121へ進む。 In step S112, based on the participant registration information read in step S111, it is determined whether or not the start time of the next event program is approaching. Here, it is determined that the start time is approaching when a predetermined time before the next event program starts, for example, 5 minutes before. That is, in the example of the participant registration information in FIG. 8, for example, when it is 9:55, it is determined that the start time of “Tama-in” is approached, and when “10:35” is reached, the “100 m run” starts. It is determined that the time is approaching. In this way, if an affirmative determination is made in step S112, the process proceeds to step S113. On the other hand, if a negative determination is made in step S112, steps S113 and S114 are skipped and the process proceeds to the next step S121.
ステップS113では、ステップS111で読み出した出場者登録情報に基づいて、次のイベントプログラムの出場予定者を特定する。こうして次のイベントプログラムの出場予定者を特定することにより、出番が近い被写体が判断される。ステップS114では、ステップS113で特定された出場予定者を被写体として撮影を行う者に対して、撮影を促す旨を伝える警告情報を前述のような方法により送信する。すなわち図8の出場者登録情報の例では、たとえば9時55分になったときには、「玉入れ」に参加する子供A、Cの親に対して警告情報を送信し、10時35分になったときには、「100m走」に参加する子供Cの親に対して警告情報を送信する。 In step S113, a prospective participant of the next event program is specified based on the participant registration information read in step S111. In this way, by specifying a person who is scheduled to participate in the next event program, a subject with a close turn is determined. In step S114, warning information is transmitted by the method described above to inform the person who takes a picture of the prospective participant specified in step S113 as a subject. That is, in the example of the participant registration information in FIG. 8, for example, when 9:55 is reached, warning information is transmitted to the parents of children A and C participating in “Tama-in” and becomes 10:35. If it happens, the warning information is transmitted to the parent of the child C participating in the “100 m run”.
以上説明したステップS111〜S114のスケジュール管理処理により、次のイベントプログラムが開始する所定時間前になったら、予め登録されたイベントプログラムごとの出場者登録情報に基づいて、次のイベントプログラムに出場する予定の被写体を特定する。これにより出番が近い被写体を判断し、その被写体の撮影者に対して、その撮影者が所持するカメラ103に特定の動作を指示する制御信号を送信したり、あるいは撮影者が所持する予め登録された携帯電話のメールアドレスにメールを送信したりすることで警告を行う。したがって、撮影者はイベントのスケジュールを覚えていなくても、撮影タイミングを逃すことなく目的とする被写体を確実に撮影することができる。
As a result of the schedule management processing in steps S111 to S114 described above, if the predetermined time before the next event program starts, the next event program is entered based on the pre-registered participant registration information for each event program. Identify the intended subject. This makes it possible to determine a subject whose turn is close and transmit a control signal instructing a specific operation to the
ステップS121では、カメラ103から送信される撮影映像と撮影情報を受信する。この撮影情報には、前述のようにカメラ103における撮影時の様々な撮影条件が表されている。ステップS122では、ステップS121で受信した撮影映像と撮影情報を記録装置105に記録する。このとき、各撮影映像のホワイトバランスが一致するように調節したりしてもよい。こうしてステップS121およびS122の映像収集処理を実行することにより、複数の撮影者がカメラ103によってそれぞれ撮影した映像を収集して各ユーザ間で共有化することができる。
In step S121, the captured video and the captured information transmitted from the
なお、上記のようにしてカメラ103から撮影映像と撮影情報を送信する際には、後述のような映像判定処理および映像編集処理を実行するための時刻情報を付加しておく必要がある。この時刻情報は、処理対象とされる全ての撮影映像および撮影情報において一致していなければならない。そのため、全ての撮影者がカメラ103の時計を同じ時刻に予め合わせておく必要がある。たとえば、標準電波を受信して時刻校正を行う電波時計をカメラ103に搭載することにより、複数のカメラ103の時計合わせを自動的に行うことができる。
It should be noted that when transmitting the captured video and the shooting information from the
ステップS131では、イベントが終了したか否かを判定する。この判定は、ステップS111で読み出した出場者登録情報に基づいて行ってもよいし、システム管理者などがイベント終了時に行う所定の操作を検出することで行ってもよい。まだイベントが終了していないと判定した場合はステップS101へ戻り、上記のような処理を繰り返す。一方、既にイベントが終了したと判定した場合は、図4のフローチャートを終了する。イベント中処理では、以上説明したような処理が実行される。 In step S131, it is determined whether the event has ended. This determination may be performed based on the participant registration information read in step S111, or may be performed by detecting a predetermined operation performed by the system administrator or the like at the end of the event. If it is determined that the event has not ended yet, the process returns to step S101 and the above-described processing is repeated. On the other hand, if it is determined that the event has already ended, the flowchart of FIG. 4 ends. In the in-event process, the process as described above is executed.
次に、ステップS200の映像判定処理において映像編集部104dにより実行される図5のフローチャートについて説明する。ステップS201では、前述の映像収集処理により収集されて記録装置105に記録された各撮影映像に対して基準時刻の設定を行う。この基準時刻とは、各映像の開始から終了までの間に所定の時間間隔で設定されるものであり、たとえば1秒間隔で設定される。この基準時刻は全ての映像に対して共通に設定される。たとえば、最も早い時刻に撮影開始された映像の開始時刻を最初の基準時刻として、そこから所定時間ごとに各映像に対して基準時刻が設定される。なお、基準時刻の設定間隔は、制御装置104の処理能力などに応じて決定される。すなわち、設定間隔を短くするほど、以降に説明する処理の合計ステップ数が増大して制御装置104の処理負荷が大きくなるので、その処理時間が一定の範囲内となるように、制御装置104の処理能力が高い場合は基準時刻の設定間隔を短くし、処理能力が低い場合は基準時刻の設定間隔を長くすることが好ましい。
Next, the flowchart of FIG. 5 executed by the
ステップS202では、前述の映像収集処理により収集されて記録装置105に記録された撮影映像の中からいずれかを選択する。ここでは、たとえば撮影者が所持するICタグ101のタグ番号が小さいものから、その撮影者による撮影映像を順番に選択する。ステップS203では、ステップS201で設定した基準時刻のうち、ステップS202で選択した映像において最初となる基準時刻を選択する。 In step S <b> 202, one of the captured videos collected by the video collection process and recorded in the recording device 105 is selected. Here, for example, images taken by the photographer are selected in order from the one with the smallest tag number of the IC tag 101 possessed by the photographer. In step S203, the first reference time in the video selected in step S202 is selected from the reference times set in step S201.
ステップS204では、ステップS202で選択した撮影映像と共に記録されている撮影情報のうち、現在選択中の基準時刻における撮影情報を記録装置105から読み出す。ここで現在選択中の基準時刻とは、ステップS203または後述のステップS213によって選択された基準時刻である。すなわち、最初にこのステップS204の処理を実行する場合は、最初の基準時刻が現在選択中の基準時刻とされ、その後はステップS204の処理を繰り返し実行する度に、続く基準時刻が順次に現在選択中の基準時刻とされる。なお、前述のように撮影情報がメタデータとして撮影映像内に埋め込まれている場合は、ステップS202で選択した映像において現在選択中の基準時刻に埋め込まれたメタデータを読み出すことで、撮影情報の読み出しを行う。 In step S <b> 204, shooting information at the currently selected reference time is read out from the recording device 105 among the shooting information recorded together with the shot video selected in step S <b> 202. Here, the currently selected reference time is the reference time selected in step S203 or step S213 described later. That is, when the process of step S204 is first executed, the first reference time is set as the currently selected reference time, and thereafter, each time the process of step S204 is repeatedly executed, the subsequent reference time is sequentially selected. It is set as the middle reference time. As described above, when the shooting information is embedded as the metadata in the shot video, the metadata embedded at the currently selected reference time in the video selected in step S202 is read, so that Read.
ステップS205では、ステップS204で読み出した撮影情報に基づいて、カメラ103の撮影範囲を算出する。ここでは、撮影情報に表される撮影方向を中心にして広がる所定の範囲内を撮影範囲として求める。この撮影範囲の大きさは、撮影情報に表されるカメラ103の焦点距離やズーム量、画角などに応じて決定される。
In step S205, the shooting range of the
ステップS206では、現在選択中の基準時刻における被写体位置情報およびカメラ位置情報を記録装置105から読み出す。この被写体位置情報およびカメラ位置情報は、前述の位置特定処理によって記録装置105に記録されたものである。なお、このとき被写体位置情報については記録装置105に記録されている全ての被写体位置情報を読み出し対象とするが、カメラ位置情報については、ステップS202で選択した映像を撮影したカメラ103の位置情報のみを読み出し対象とする。すなわち、全ての被写体の位置情報と、選択した撮影映像に対応するカメラ103の位置情報とを、記録装置105に記録された被写体位置情報およびカメラ位置情報の中から読み出す。
In step S206, the subject position information and the camera position information at the currently selected reference time are read from the recording device 105. The subject position information and the camera position information are recorded in the recording device 105 by the position specifying process described above. At this time, all the subject position information recorded in the recording device 105 is read as subject position information, but only the position information of the
ステップS207では、ステップS205で算出された撮影範囲と、ステップS206で読み出した被写体位置情報およびカメラ位置情報に基づいて、撮影範囲内にある被写体を特定する。すなわち、被写体位置情報とカメラ位置情報から、当該カメラ103に対する各被写体の相対位置を求め、その相対位置が撮影範囲内にある被写体を特定する。ここで特定された撮影範囲内の被写体を対象として、以降に説明するステップS208およびS209の処理が実行される。なお、ステップS207において撮影範囲内にある被写体が一つも特定されたかった場合は、ステップS208、S209およびS210の処理が実行されずに、ステップS211において被写体情報に「なし」と記録される。
In step S207, a subject within the photographing range is specified based on the photographing range calculated in step S205, the subject position information and the camera position information read in step S206. That is, the relative position of each subject with respect to the
ステップS208では、ステップS202で選択した撮影映像において、撮影の障害となっている撮影障害物があるか否かを判定する障害物判定を行う。この障害物判定は次のようにして行うことができる。たとえば、施設内にある障害物の四隅等にICタグ101を配置しておき、そのICタグ101の位置を位置特定部104aにおいて前述のように特定することにより、障害物の位置を特定する。こうして特定された障害物の位置と撮影範囲内にある被写体の位置を比較し、被写体がその障害物の陰になっているか否かを判定することにより、撮影障害物があるか否かを判定することができる。あるいは、撮影画像において被写体が障害物の陰に隠れているか否かを画像処理などで認識することにより、障害物判定を行うようにしてもよい。
In step S208, obstacle determination is performed to determine whether or not there is a shooting obstacle that is an obstacle to shooting in the shot video selected in step S202. This obstacle determination can be performed as follows. For example, the position of the obstacle is specified by placing the IC tag 101 at the four corners of the obstacle in the facility and specifying the position of the IC tag 101 in the
ステップS209では、ステップS202で選択した撮影映像における撮影状態の良否を判定する撮影良否判定を行う。たとえば、カメラ103において撮影時に手ぶれや合焦ミスが起きているか否かを検出し、これらが検出されていた場合は前述の撮影情報などにより制御装置104へ通知する。この通知の発生状況を撮影映像と共に記録装置105に記録しておき、発生時には撮影状態が悪いと判定することにより、撮影良否判定を行うことができる。または、カメラ位置および撮影範囲内にある被写体の位置に基づいてカメラ103からその被写体までの距離を計算し、その計算結果を撮影情報の焦点距離と比較して、被写体までの距離がカメラ103の撮影可能範囲外にある場合は撮影状態が悪いと判定することにより、撮影良否判定を行ってもよい。あるいは、撮影画像にぶれやピンボケがあるか否かを顔認識などの画像処理によって認識したり、撮影画像の明るさが適切であるか否かを判定したりすることで、撮影良否判定を行うこともできる。
In step S209, a shooting quality determination is performed to determine the quality of the shooting state in the shot video selected in step S202. For example, the
ステップS210では、ステップS207における撮影範囲内の被写体の特定結果と、ステップS208の障害物判定の結果およびステップS209の撮影良否判定の結果に基づいて、撮影映像において適切に撮影されている被写体を特定する。すなわち、ステップS207で特定された撮影範囲内の被写体のうち、ステップS208で撮影障害物がないと判定され、さらにステップS209で撮影状態が良いと判定されたものを、撮影映像において適切に撮影されている被写体とする。ステップS211では、ステップS210で特定された被写体の情報を被写体情報として記録装置105に記録する。 In step S210, based on the result of specifying the subject within the shooting range in step S207, the result of the obstacle determination in step S208, and the result of the shooting pass / fail determination in step S209, the subject that is appropriately shot in the shot video is specified. To do. In other words, among the subjects within the shooting range specified in step S207, those determined to have no shooting obstacles in step S208 and further determined to have a good shooting state in step S209 are appropriately shot in the shot video. Subject. In step S211, the subject information specified in step S210 is recorded in the recording device 105 as subject information.
ステップS212では、ステップS202で選択した撮影映像について、最後の基準時刻まで選択したか否かを判定する。ここでいう最後の基準時刻とは、ステップS201で設定した基準時刻の中で、ステップS202で選択した撮影映像の最後に当たるものである。この最後の基準時刻までをまだ選択していない場合はステップS213へ進み、現在選択中の次の基準時刻を選択した後、ステップS204へ戻る。これにより、次の基準時刻が順次選択され、前述のような処理が繰り返し実行される。一方、最後の基準時刻まで選択した場合はステップS214へ進む。 In step S212, it is determined whether or not the captured video selected in step S202 has been selected up to the last reference time. Here, the last reference time corresponds to the last of the captured video selected in step S202 in the reference time set in step S201. If the time until the last reference time has not yet been selected, the process proceeds to step S213, and after selecting the next reference time currently selected, the process returns to step S204. As a result, the next reference time is sequentially selected, and the processing as described above is repeatedly executed. On the other hand, if the selection is made up to the last reference time, the process proceeds to step S214.
ステップS214では、ステップS202の処理により、記録装置105に記録されている全ての撮影映像が既に選択されたか否かを判定する。まだ選択していない撮影映像が残っている場合はステップS202へ戻り、それまでに選択したのとは異なる撮影映像をステップS202において選択した後、上記のような処理を繰り返す。このようにすることで、カメラ103により撮影されて収集された撮影映像の全てが順次選択され、図5のフローチャートに示す映像判定処理が繰り返し実行される。一方、ステップS214において全ての撮影映像が選択されたと判定された場合は、図5のフローチャートを終了する。映像判定処理では、以上説明したような処理が実行される。
In step S214, it is determined whether or not all photographed images recorded in the recording device 105 have already been selected by the processing in step S202. If there is still a photographed video that has not yet been selected, the process returns to step S202, and after selecting a photographed video different from that selected in step S202, the above processing is repeated. In this way, all of the captured images captured and collected by the
以上説明したような映像判定処理の具体例を図9および図10を用いて説明する。図9は、カメラ103における撮影状況の例を示している。この例では、カメラ103が右方向に徐々に回転しながら、子供A,BまたはCを被写体として撮影を行っている様子を示している。なお、カメラ103と子供Aの間には障害物200が存在している。
A specific example of the video determination process as described above will be described with reference to FIGS. FIG. 9 shows an example of a shooting situation in the
図10は、図9の撮影状況において撮影された映像について、図5のフローチャートに示した映像判定処理により記録される被写体情報の例を示している。初めの基準時刻t0では、カメラ103の撮影範囲内に子供BおよびCが位置しているとする。このとき前述のような障害物判定により、被写体である子供B、C共にカメラ103との間に障害物200がないと判定され、さらに撮影良否判定により、子供B、Cは共に撮影状態が良いと判定されたとする。この場合、基準時刻t0における被写体情報には子供BおよびCが記録される。次の基準時刻t1でも、上記と同様にして被写体情報に子供BおよびCが記録される。
FIG. 10 shows an example of subject information recorded by the video determination process shown in the flowchart of FIG. 5 for the video shot in the shooting situation of FIG. It is assumed that children B and C are located within the shooting range of the
基準時刻t2では、カメラ103が右方向に回転したことによって子供Bが撮影範囲外となったため、撮影範囲内には子供CおよびAが位置しているとする。このとき前述のような障害物判定により、被写体である子供Aとカメラ103の間に障害物200があると判定されたとする。この場合、基準時刻t2における被写体情報には子供Cのみが記録される。次の基準時刻t3でも、同様に被写体情報には子供Cのみが記録される。
At the reference time t2, it is assumed that the children C and A are located within the photographing range because the child B is out of the photographing range due to the
その後の基準時刻t4では、カメラ103がさらに右方向に回転したことによって子供Cも撮影範囲外となったため、撮影範囲内には子供Aのみが位置しているとする。この場合、子供Aとカメラ103の間には障害物200があるため、被写体情報にはいずれの子供も記録されずに「なし」と記録される。以上説明したようにして、被写体情報の記録が行われる。
At the subsequent reference time t4, the child C is also out of the shooting range due to the
次に、図3のステップS300の映像編集処理において映像編集部104dにより実行される図6のフローチャートについて説明する。ステップS301では、編集対象とする被写体の選択を行う。この被写体の選択は、たとえばユーザである親が運動会の終了後に自宅のパーソナルコンピュータから映像共有システム100にアクセスし、自分の子供を編集対象に指定することで行われる。あるいは、運動会に参加した全ての子供をステップS301において順次選択し、それぞれについて図6のフローチャートを実行することとしてもよい。
Next, the flowchart of FIG. 6 executed by the
なお、ステップS301において、撮影映像の被写体である子供とユーザである親との対応関係を表したユーザ情報を予め登録しておき、そのユーザ情報に基づいて被写体を選択するようにしてもよい。すなわち、いずれかのユーザから編集映像の作成要求があると、予め登録されたユーザ情報に基づいてそのユーザの子供を特定し、特定された子供をそのユーザについて編集対象とする被写体に自動的に選択する。このようにすれば、ユーザが他人の子供を許可なく編集対象に指定してその子供の編集映像を無断で作成するのを防ぐことができる。 In step S301, user information representing a correspondence relationship between a child as a subject of a captured video and a parent as a user may be registered in advance, and the subject may be selected based on the user information. That is, when an edit video creation request is received from any user, the child of the user is specified based on user information registered in advance, and the specified child is automatically set as a subject to be edited for the user. select. In this way, it is possible to prevent the user from designating another child's child without permission and creating an edited video of the child without permission.
ステップS302では、映像編集時間の設定を行う。ここでは、以降説明する処理によって編集映像を作成するときに、蓄積された各撮影映像から抽出する映像部分の撮影時刻の範囲を設定することにより、映像編集時間を設定する。すなわち、ここで設定される映像編集時間の範囲内の時刻に撮影された映像部分が各撮影映像から抽出され、それを用いて編集映像が作成される。この映像編集時間の設定は、ユーザである親が自宅のパーソナルコンピュータから直接指定してもよいし、ステップS301で選択した被写体がいずれかの撮影映像において撮影されている全ての時間を自動的に指定するようにしてもよい。あるいは、予め登録されたイベントプログラム情報に基づいて、いずれかのイベントプログラムをユーザが選択することにより、そのイベントプログラムの時間を映像編集時間として設定することとしてもよい。なお、このイベントプログラム情報を、図8に示したようなイベントプログラムごとの出場者登録情報と兼用してもよい。 In step S302, the video editing time is set. Here, when the edited video is created by the processing described below, the video editing time is set by setting the shooting time range of the video portion extracted from each of the stored shot videos. That is, a video portion shot at a time within the range of the video editing time set here is extracted from each shot video, and an edited video is created using it. The video editing time may be set directly by the parent as a user from a personal computer at home, or all the time during which the subject selected in step S301 is shot in any shot video is automatically set. You may make it specify. Alternatively, the time of the event program may be set as the video editing time by the user selecting one of the event programs based on pre-registered event program information. This event program information may also be used as participant registration information for each event program as shown in FIG.
ステップS303では、図5のステップS201で設定された基準時刻のうち、ステップS302で設定された映像編集時間に含まれる最初の基準時刻を選択する。次のステップS304では、前回の映像切り替えから所定時間以内(たとえば2秒以内)であるか否かを判定する。すなわち、ステップS303または後述のステップS315によって選択された基準時刻と、最後に映像切り替えをした基準時刻との間が所定時間以上離れている場合は、ステップS304を否定判定してステップS305へ進む。一方、ステップS303または後述のステップS315によって選択された基準時刻と、最後に映像切り替えをした基準時刻との間が所定時間以内である場合は、ステップS304を肯定判定してステップS306へ進む。なお、ここでいう映像切り替えとは、後述のステップS309、S311またはS312の処理によっていずれかの撮影映像から抽出された映像部分がステップS313において編集映像に挿入されたときに、それまでとは異なる撮影映像からの映像部分が挿入されることを意味している。 In step S303, the first reference time included in the video editing time set in step S302 is selected from the reference times set in step S201 in FIG. In the next step S304, it is determined whether or not it is within a predetermined time (for example, within 2 seconds) from the previous video switching. That is, if the reference time selected in step S303 or step S315 described later and the reference time at which the video was switched last are longer than a predetermined time, a negative determination is made in step S304 and the process proceeds to step S305. On the other hand, if the interval between the reference time selected in step S303 or step S315 described later and the reference time at which video switching was last performed is within a predetermined time, an affirmative determination is made in step S304 and the process proceeds to step S306. Note that the video switching here is different from that when the video portion extracted from one of the captured videos in step S309, S311 or S312 described later is inserted into the edited video in step S313. This means that the video part from the shot video is inserted.
ステップS304からS305へ進んだ場合、ステップS305では、図5のフローチャートに示す映像判定処理によって前述のように記録された各撮影映像の被写体情報を記録装置105から読み出す。ステップS305を実行したらステップS307へ進む。 When the process proceeds from step S304 to S305, in step S305, the subject information of each photographed video recorded as described above is read from the recording device 105 by the video determination process shown in the flowchart of FIG. If step S305 is performed, it will progress to step S307.
一方、ステップS304からS306へ進んだ場合、ステップS306では、前回と同じ撮影映像から、現在選択中の基準時刻から次の基準時刻までの映像部分を抽出する。こうすることにより、同一の撮影映像から所定時間以上の連続する映像部分を抽出することができる。これにより、少なくともその所定時間が経過するまでは、編集映像において映像の切り替わり(カメラの切り替わり)が起こらない。その結果、切り替えが頻繁すぎて見づらい編集映像となることを防止できる。ステップS306の実行後はステップS313へ進む。 On the other hand, when the process proceeds from step S304 to S306, in step S306, a video portion from the currently selected reference time to the next reference time is extracted from the same captured video as the previous time. By doing so, it is possible to extract a continuous video portion of a predetermined time or more from the same photographed video. As a result, video switching (camera switching) does not occur in the edited video until at least the predetermined time has elapsed. As a result, it is possible to prevent the edited video from being switched too frequently and difficult to view. After execution of step S306, the process proceeds to step S313.
ステップS307では、ステップS305で読み出した各撮影映像の被写体情報に基づいて、ステップS301で編集対象に選択された被写体が、選択中の基準時刻においていずれかの撮影映像に撮影されているか否かを判定する。すなわち、読み出した各撮影映像の被写体情報のうち少なくともいずれかにおいて、編集対象に選択された被写体が記録されていれば、ステップS307を肯定判定してステップS308へ進む。一方、読み出した被写体情報のいずれにおいても選択された被写体が記録されていなければ、ステップS307を否定判定してステップS309へ進む。 In step S307, based on the subject information of each captured video read in step S305, whether or not the subject selected as the editing target in step S301 is captured in any captured video at the selected reference time. judge. That is, if the subject selected as the editing target is recorded in at least one of the read subject information of each captured video, an affirmative determination is made in step S307 and the process proceeds to step S308. On the other hand, if the selected subject is not recorded in any of the read subject information, a negative determination is made in step S307 and the process proceeds to step S309.
ステップS307からS309へ進んだ場合、ステップS309では、イベント全体の様子を撮影した全体撮影映像から、現在選択中の基準時刻から次の基準時刻までの映像部分を抽出する。この全体撮影映像は、イベント主催者などによって撮影される。これにより、編集対象とされた被写体がいずれの撮影映像にもおいても撮影されていない場合であっても、イベントに合わせた適当な映像を編集映像に挿入することができる。なお、全体撮影映像を挿入する代わりに、たとえば自分の子供を編集対象に指定した親自身による撮影映像を挿入してもよいし、あるいは他の親の撮影映像のいずれかを適当に選択して挿入してもよい。ステップS309の実行後はステップS313へ進む。 When the process proceeds from step S307 to S309, in step S309, a video portion from the currently selected reference time to the next reference time is extracted from the entire captured image obtained by photographing the entire event. This whole shot image is taken by an event organizer or the like. Thereby, even if the subject to be edited is not shot in any shot video, an appropriate video tailored to the event can be inserted into the edited video. Note that instead of inserting the entire video image, for example, a video image taken by a parent who has designated his / her child as an editing target may be inserted, or any other video image of another parent may be selected appropriately. It may be inserted. After execution of step S309, the process proceeds to step S313.
一方、ステップS307からS308へ進んだ場合、ステップS308では、ステップS305で読み出した被写体情報に基づいて、ステップS301で編集対象に選択された被写体が同一時間内に複数の撮影映像において撮影されているか否かを判定する。すなわち、読み出した各撮影映像の被写体情報のうち複数の被写体情報において、編集対象に選択された被写体が記録されていれば、ステップS308を肯定判定してステップS310へ進む。一方、読み出した被写体情報のうち一つのみに選択された被写体が記録されていれば、ステップS308を否定判定してステップS311へ進む。 On the other hand, when the process proceeds from step S307 to S308, in step S308, based on the subject information read in step S305, is the subject selected as the editing target in step S301 captured in a plurality of captured images within the same time period? Determine whether or not. That is, if the subject selected as the editing target is recorded in a plurality of pieces of subject information of the read subject information of each captured video, an affirmative determination is made in step S308 and the process proceeds to step S310. On the other hand, if the selected subject is recorded in only one of the read subject information, a negative determination is made in step S308 and the process proceeds to step S311.
ステップS308からS310へ進んだ場合、ステップS310では、ステップS308において編集対象の被写体が撮影されていると判定された複数の撮影映像のうちいずれかを、優先すべき撮影映像(優先映像)として判定する。この判定は、カメラ103と被写体の位置関係または各撮影映像の写り具合に基づいて、たとえば次のようにして行うことができる。たとえば、撮影情報と被写体位置情報およびカメラ位置情報に基づいて、その映像を撮影したカメラ103と被写体の距離が最も近いものや、被写体が撮影範囲の最も中央付近に位置しているものを判別することにより、どの撮影映像が優先映像であるかを判定できる。または、各撮影映像の中で最もぶれやボケが少ないものを画像処理などにより判別することで優先映像を判定してもよい。なお、このときにどの条件を重視するかを設定できるようにしてもよい。ステップS310により優先映像が判定されたら、ステップS312へ進む。
When the process proceeds from step S308 to S310, in step S310, one of a plurality of photographed videos determined to have been photographed in step S308 is determined as a priority photographed video (priority video). To do. This determination can be performed, for example, as follows based on the positional relationship between the
一方、ステップS308からS311へ進んだ場合、ステップS311では、ステップS308において編集対象の被写体が撮影されていると判定された唯一の撮影映像から、現在選択中の基準時刻から次の基準時刻までの映像部分を抽出する。ステップS311の実行後はステップS313へ進む。 On the other hand, when the process proceeds from step S308 to S311, in step S311, from the only photographed video in which it is determined in step S308 that the subject to be edited is photographed, from the currently selected reference time to the next reference time. Extract the video part. After execution of step S311, the process proceeds to step S313.
ステップS312では、ステップS310において優先映像として判定された撮影映像から、現在選択中の基準時刻から次の基準時刻までの映像部分を抽出する。これにより、編集対象とされた被写体が複数の撮影映像に撮影されている場合であっても、その中で最も適した撮影映像から映像部分を抽出することができる。ステップS312の実行後はステップS313へ進む。 In step S312, a video portion from the currently selected reference time to the next reference time is extracted from the captured video determined as the priority video in step S310. Thereby, even when the subject to be edited is shot in a plurality of shot videos, the video portion can be extracted from the shot video most suitable among them. After execution of step S312, the process proceeds to step S313.
ステップS313では、ステップS306、S309、S311またはS312において抽出された映像部分を編集映像に挿入する。これにより、編集映像において現在選択中の基準時刻から次の基準時刻までの映像部分が挿入される。なお、このとき音声については、編集映像中で統一されるように、マスター音声として録音されたものを用いることとしてもよい。 In step S313, the video portion extracted in step S306, S309, S311 or S312 is inserted into the edited video. Thereby, the video portion from the currently selected reference time to the next reference time in the edited video is inserted. At this time, the sound recorded as the master sound may be used so as to be unified in the edited video.
ステップS314では、ステップS302で設定された映像編集時間に含まれる最後の基準時刻を選択する。最後の基準時刻までをまだ選択していない場合はステップS315へ進み、ステップS315において現在選択中の次の基準時刻を選択した後、ステップS304へ戻る。これにより、次の基準時刻が順次選択され、前述のような処理が繰り返し実行される。一方、ステップS314において最後の基準時刻まで選択したと判定された場合は、図6のフローチャートを終了する。このようにして、複数の撮影映像のいずれかから抽出された複数の映像部分が順次挿入されることにより映像が編集され、その結果、編集対象として選択された被写体についての編集映像が作成される。映像編集処理では、以上説明したような処理が実行される。 In step S314, the last reference time included in the video editing time set in step S302 is selected. If the time until the last reference time has not yet been selected, the process proceeds to step S315. After selecting the next reference time currently selected in step S315, the process returns to step S304. As a result, the next reference time is sequentially selected, and the processing as described above is repeatedly executed. On the other hand, if it is determined in step S314 that the selection has been made up to the last reference time, the flowchart of FIG. 6 ends. In this way, the video is edited by sequentially inserting a plurality of video portions extracted from any of the plurality of photographed videos, and as a result, an edited video for the subject selected as the editing target is created. . In the video editing process, the process described above is executed.
以上説明したような映像編集処理により作成される編集映像の具体例を図11に示す。この例では、図9の子供AおよびBをそれぞれ編集対象の被写体に選択した場合に、それぞれについて作成される編集映像においてどのような映像が挿入されるかを示している。このとき、図9に示すカメラ103によって撮影された映像(映像#1と表す)に対しては、図11に示すように、図10に示したものと同じ内容の被写体情報が記録されているものとする。また、別のカメラ103によって撮影された映像(映像#2と表す)に対しては、図11に示すような被写体情報が記録されているものとする。
A specific example of an edited video created by the video editing process as described above is shown in FIG. In this example, when children A and B in FIG. 9 are selected as subjects to be edited, what kind of video is inserted in the edited video created for each of them is shown. At this time, as shown in FIG. 11, subject information having the same content as that shown in FIG. 10 is recorded for the video (shown as video # 1) taken by the
最初の基準時刻t0では、映像#1にはその被写体情報から子供BおよびCが写っており、映像#2にはその被写体情報から子供AおよびDが写っていることが分かる。したがって、子供Aを編集対象に選択した場合に映像編集処理によって作成される編集映像(被写体A編集映像と表す)には、その子供Aが写っている映像#2が基準時刻t0から次の基準時刻t1までの間に挿入される。また、子供Bを編集対象に選択した場合に映像編集処理によって作成される編集映像(被写体B編集映像と表す)には、その子供Bが写っている映像#1が基準時刻t0から次の基準時刻t1までの間に挿入される。これと同様に、基準時刻t1から次の基準時刻t2までの間においても、被写体A編集映像には子供Aが写っている映像#2が挿入され、被写体B編集映像には子供Bが写っている映像#1が挿入される。
At the first reference time t0, it can be seen that children #B and C are captured from the subject information in video # 1, and children A and D are captured from the subject information in
基準時刻t2では、映像#1にはその被写体情報から子供Bが写っておらず、子供Cのみが写っていることが分かる。このとき子供Bは映像#1、#2いずれにも写っていないため、被写体B編集映像には、基準時刻t2から次の基準時刻t3までの間に、イベント主催者などによって撮影された全体撮影映像が挿入される。一方被写体A編集映像には、それまでと同様に、子供Aが写っている映像#2が基準時刻t2から次の基準時刻t3までの間に挿入される。
At the reference time t2, it can be seen from the subject information that the child B is not captured and only the child C is captured in the video # 1. At this time, since child B is not shown in either video # 1 or # 2, the subject B edited video is a whole picture taken by an event organizer or the like between the reference time t2 and the next reference time t3. Video is inserted. On the other hand, in the subject A edited video, the
基準時刻t3では、映像#2にはその被写体情報から子供AおよびCが写っており、子供Dは写っていないことが分かる。このときにも基準時刻t2の場合と同様に、基準時刻t3から次の基準時刻t4までの間に、被写体A編集映像には映像#2が挿入され、被写体B編集映像には全体撮影映像が挿入される。
At the reference time t3, it can be seen from the subject information that the children A and C are shown in the
基準時刻t4では、映像#1にはその被写体情報からいずれの子供も写っておらず、映像#2にはその被写体情報から子供CおよびBが写っていることが分かる。このとき子供Aは映像#1、#2いずれにも写っていないため、被写体A編集映像には全体撮影映像が挿入される。一方被写体B編集映像には、子供Bが写っている映像#2が挿入される。以上説明したようにして、被写体A編集映像および被写体B編集映像にそれぞれ挿入された各映像を順につなぎ合わせることにより、編集対象の被写体として指定された子供AおよびBについての編集映像がそれぞれ作成される。
At the reference time t4, it can be seen that no child is shown in the video # 1 from the subject information, and that the children C and B are shown in the
次に、図3のステップS400の課金処理において課金部104eにより実行される図7のフローチャートについて説明する。ステップS401では、課金処理の対象とするユーザを選択する。このユーザの選択は、たとえばユーザである親が自分の子供を編集対象に指定して上記の映像編集処理により編集映像を作成したときに、その親を対象ユーザとして選択することにより行われる。あるいは、編集映像を提供する全てのユーザを順番に対象ユーザとして選択し、各ユーザについてステップS402以降の処理を順次実行するようにしてもよい。ステップS402では、ステップS401で選択した対象ユーザに対して作成された編集映像を特定する。
Next, the flowchart of FIG. 7 executed by the
ステップS403では、ステップS402で特定した対象ユーザに対して作成された編集映像の中に、ステップS401で選択した対象ユーザ以外の他人による撮影映像が挿入されているか否かを判定する。対象ユーザに対して作成された編集映像のうちいずれかの部分に他人の撮影映像が挿入されている場合は、ステップS404へ進む。一方、対象ユーザに対して作成された編集映像の全てがその対象ユーザ自身によって撮影された映像で構成されており、他人の撮影映像が挿入されていない場合は、ステップS404を実行せずにステップS405へ進む。 In step S403, it is determined whether or not a video shot by another person other than the target user selected in step S401 is inserted in the edited video created for the target user specified in step S402. If another person's captured video is inserted in any part of the edited video created for the target user, the process proceeds to step S404. On the other hand, if all of the edited videos created for the target user are composed of videos shot by the target user, and no other person's shot video is inserted, step S404 is not executed and step S404 is not executed. Proceed to S405.
ステップS404では、ステップS403で対象ユーザの編集映像に挿入されていると判定された他人の撮影映像の合計挿入時間、すなわち対象ユーザの編集映像において他人の撮影映像を利用している時間(映像利用時間)を求め、その映像利用時間に応じた課金額の算出を行う。ここでは、たとえば予め定められた課金単位時間ごとに所定の金額を乗じることにより(たとえば、1秒ごとに1円など)、課金額を算出する。こうして対象ユーザに対する課金額が算出されたら、ステップS405へ進む。 In step S404, the total insertion time of the other person's captured video determined to have been inserted in the edited video of the target user in step S403, that is, the time during which the other user's captured video is used in the target user's edited video (video usage) Time), and a charge amount is calculated according to the video usage time. Here, for example, the charge amount is calculated by multiplying a predetermined amount for each predetermined charge unit time (for example, 1 yen per second). When the billing amount for the target user is calculated in this way, the process proceeds to step S405.
ステップS405では、対象ユーザ以外の他人に対して作成された編集映像、すなわちステップS402で特定した対象ユーザの編集映像を除いたいずれかの編集映像の中に、その対象ユーザによって撮影された映像が挿入されているか否かを判定する。対象ユーザの撮影映像が他人の編集映像のいずれかに挿入されている場合は、ステップS406へ進む。一方、対象ユーザの撮影映像が他人の編集映像のいずれにも挿入されていない場合は、ステップS406を実行せずにステップS407へ進む。 In step S405, a video shot by the target user is included in one of the edited videos excluding the edited video of the target user specified in step S402. It is determined whether or not it has been inserted. If the target user's captured video has been inserted into any of the other person's edited videos, the process proceeds to step S406. On the other hand, if the captured video of the target user is not inserted in any of the edited videos of other people, the process proceeds to step S407 without executing step S406.
ステップS406では、ステップS405で他人の編集映像に挿入されていると判定された対象ユーザの撮影映像の合計挿入時間、すなわち対象ユーザが撮影映像を他人の編集映像に提供している時間(映像提供時間)を求め、その映像提供時間に応じた受領金額の算出を行う。ここでは、たとえば予め定められた支払単位時間に所定の金額を乗じることにより(たとえば、1秒ごとに1円など)、受領金額を算出する。なお、このときに対象ユーザの受領金額と当該撮影映像の利用者に対する課金額の間に差を設けて、その差分をシステム管理者の手数料などに充当してもよい。こうして対象ユーザの受領金額が算出されたら、ステップS407へ進む。 In step S406, the total insertion time of the captured video of the target user determined to have been inserted in the edited video of the other person in step S405, that is, the time during which the target user provides the edited video of the target user (video provision) Time) and the amount of money received is calculated according to the video provision time. Here, for example, the amount of money received is calculated by multiplying a predetermined payment unit time by a predetermined amount (for example, 1 yen per second). At this time, a difference may be provided between the amount received by the target user and the amount charged to the user of the photographed video, and the difference may be applied to the fee of the system administrator. When the amount received by the target user is calculated in this way, the process proceeds to step S407.
ステップS407では、ステップS404により算出された課金額と、ステップS406により算出された受領金額とに基づいて、対象ユーザの最終的な課金額または受領金額の算出を行う。このとき、課金額が受領金額を上回っている場合は、その上回っている分を最終的な課金額とし、反対に受領金額が課金額を上回っている場合は、その上回っている分を最終的な受領金額とする。こうして対象ユーザの最終的な課金額または受領金額が算出されたら、ステップS408へ進む。 In step S407, the final charge amount or receipt amount of the target user is calculated based on the charge amount calculated in step S404 and the receipt amount calculated in step S406. At this time, if the amount charged exceeds the amount received, the amount exceeding the amount received will be the final amount charged. Conversely, if the amount received exceeds the amount charged, the amount exceeding the amount received will be the final amount. The amount received will be When the final charge amount or receipt amount of the target user is thus calculated, the process proceeds to step S408.
ステップS408では、ステップS407で算出された課金額または受領金額の通知を対象ユーザに対して行う。こうして課金額または受領金額を通知されたユーザは、それに応じて課金額の支払いまたは受領金額の受け取りを、たとえば編集映像の受領時などに行う。または、クレジットカード決済や銀行振込などによって課金額の支払いや受領金額の受け取りを行ってもよい。ステップS408を実行したら図7のフローチャートを終了する。課金処理では、以上説明したような処理が実行される。 In step S408, the target user is notified of the charge amount or the receipt amount calculated in step S407. In this way, the user who is notified of the charge amount or the received amount pays the charge amount or receives the received amount accordingly, for example, when the edited video is received. Alternatively, payment of the charge amount or receipt of the received amount may be performed by credit card settlement or bank transfer. If step S408 is performed, the flowchart of FIG. 7 will be complete | finished. In the accounting process, the process as described above is executed.
以上説明した実施の形態によれば、次のような作用効果を奏することができる。
(1)複数のカメラ103により撮影された各撮影映像を、映像収集部104cが実行する映像収集処理により収集し、その各撮影映像において撮影されている被写体を、映像編集部104dが行う映像判定処理により撮影映像ごとに特定する(ステップS210)。そして、収集された各撮影映像と特定された被写体を表す被写体情報とを記録装置105に記録し(ステップS122、S211)、記録装置105において蓄積することとした。このようにしたので、運動会において子供達の親がそれぞれ撮影者となって自分の子供を撮影した映像のように、複数の撮影者が同一施設内で撮影した映像を共有化する際に、使い勝手の良いシステムを提供することができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) Video captured by the plurality of
(2)施設内における各被写体および各カメラの所在位置を特定し(ステップS103)、その情報を記録装置105に記録しておく(ステップS104)。ステップS210では、こうして特定されて記録された各被写体および各カメラの所在位置に基づいて、各撮影映像において撮影されている被写体を特定することとした。このようにしたので、各撮影映像において撮影されている被写体を確実に特定することができる。 (2) The location of each subject and each camera in the facility is specified (step S103), and the information is recorded in the recording device 105 (step S104). In step S210, the subject photographed in each photographed video is identified based on each subject thus identified and recorded and the location of each camera. Since it did in this way, the to-be-photographed object can be specified reliably in each captured video.
(3)施設内に複数のICタグ受信機102を設置しておき、ステップS103では、このICタグ受信機102により受信された被写体が所持するICタグ101のタグ情報と、そのタグ情報を受信したICタグ受信機102の設置位置とに基づいて、施設内における各被写体および各カメラの所在位置を特定することとした。このようにしたので、各被写体および各カメラの所在位置を精度よく求めることができる。
(3) A plurality of
(4)複数のカメラ103から撮影情報を収集し(ステップS121、S122)、収集された撮影情報に基づいて各カメラの撮影範囲を算出する(ステップS205)。そして、特定された各被写体および各カメラの所在位置と、算出された各カメラの撮影範囲とに基づいて、撮影範囲内にある被写体を特定する(ステップS207)。ステップS210では、こうして特定された撮影範囲内の被写体により、各撮影映像において撮影されている被写体を特定することとした。このようにしたので、撮影されている被写体を正確に特定することができる。 (4) Shooting information is collected from a plurality of cameras 103 (steps S121 and S122), and a shooting range of each camera is calculated based on the collected shooting information (step S205). Then, based on the specified location of each subject and each camera and the calculated shooting range of each camera, a subject within the shooting range is specified (step S207). In step S210, the subject photographed in each photographed video is identified by the subject within the photographing range thus identified. Since it did in this way, the to-be-photographed subject can be specified correctly.
(5)また、各撮影映像における撮影障害物の存在の有無を判定し(ステップS208)、その判定結果にも基づいてステップS211における被写体の特定を行うこととしたので、撮影されている被写体をより一層正確に特定することができる。 (5) Also, it is determined whether or not there is a shooting obstacle in each captured video (step S208), and the subject in step S211 is specified based on the determination result, so that the subject being shot is selected. It can be specified even more accurately.
(6)さらに、各撮影映像における撮影状態の良否を判定し(ステップS209)、その判定結果にも基づいてステップS211における被写体の特定を行うこととしたので、撮影されている被写体をさらに一層正確に特定することができる。 (6) Furthermore, the quality of the shooting state in each shot image is determined (step S209), and the subject is specified in step S211 based on the determination result, so that the subject being shot is more accurately identified. Can be specified.
(7)映像編集部104dが実行する映像編集処理により、編集対象とする被写体を選択し(ステップS301)、記録装置105に蓄積された複数の撮影映像のいずれかから、選択された被写体が撮影されている複数の映像部分を抽出する(ステップS306、S311、S312)。こうして抽出された複数の映像部分を順次挿入して映像を編集することにより、選択された被写体についての編集映像を作成する(ステップS313)こととした。このようにしたので、運動会において子供達の親がそれぞれ撮影者となって自分の子供を撮影した映像のように、複数の撮影者が同一施設内で撮影した映像を共有化する際に、使い勝手の良いシステムを提供することができる。
(7) A subject to be edited is selected by the video editing processing executed by the
(8)施設内における各被写体および各カメラの所在位置を特定し(ステップS103)、その情報を記録装置105に記録しておく(ステップS104)。こうして記録された各被写体および各カメラの所在位置に基づいて、各撮影映像において撮影されている被写体を特定し(ステップS210)、特定された被写体を表す被写体情報を記録する(ステップS211)。こうして記録された被写体情報に基づいて、選択された被写体がいずれかの撮影映像において撮影されているか否かを判定し(ステップS307、S308)、その判定結果により、ステップS311またはS312において、選択された被写体が撮影されている映像部分を抽出することとした。このようにしたので、選択された被写体が撮影されている映像部分を確実に抽出することができる。 (8) The location of each subject and each camera in the facility is specified (step S103), and the information is recorded in the recording device 105 (step S104). Based on each subject thus recorded and the location of each camera, the subject being photographed in each photographed video is identified (step S210), and subject information representing the identified subject is recorded (step S211). Based on the subject information thus recorded, it is determined whether or not the selected subject is captured in any of the captured images (steps S307 and S308), and the selected result is selected in step S311 or S312. The video portion where the subject was photographed was extracted. Since it did in this way, the image | video part by which the selected to-be-photographed object is image | photographed can be extracted reliably.
(9)前回の映像切替から所定時間以内であるか否かを判定し(ステップS304)、所定時間以内である場合は、前回と同じ撮影映像から、現在選択中の基準時刻から次の基準時刻までの映像部分を抽出する(ステップS306)。こうして同一の撮影映像から所定時間以上の連続する映像部分を抽出することとしたので、少なくともその所定時間が経過するまでは、編集映像において映像の切り替わり(カメラの切り替わり)が起こらず、切り替えが頻繁すぎて見づらい編集映像となることを防止できる。 (9) It is determined whether or not it is within a predetermined time since the previous video switching (step S304). If it is within the predetermined time, the next reference time from the currently selected reference time to the next reference time The video portion up to is extracted (step S306). In this way, since a continuous video portion of a predetermined time or more is extracted from the same captured video, video switching (camera switching) does not occur in the edited video at least until the predetermined time elapses, and switching frequently occurs. It is possible to prevent the edited video from being too difficult to see.
(10)選択された被写体がいずれかの撮影映像に撮影されているか否かを判定し(ステップS307)、いずれの撮影映像においても撮影されていないときには、予め定められた全体撮影映像から映像部分を抽出し(ステップS309)、その映像部分をステップS313において編集映像に挿入することとした。このようにしたので、編集対象とされた被写体がいずれの撮影映像にもおいても撮影されていない場合であっても、イベントに合わせた適当な映像を編集映像に挿入することができる。 (10) It is determined whether or not the selected subject is captured in any of the captured images (step S307). When the selected subject is not captured in any of the captured images, the video portion is determined from the predetermined whole captured image. Are extracted (step S309), and the video portion is inserted into the edited video in step S313. Since it did in this way, even if it is a case where the subject made into edit is not image | photographed also in any picked-up image, the suitable image | video according to the event can be inserted in an edit image | video.
(11)選択された被写体が同一時間内に複数の撮影映像において撮影されているか否かを判定し(ステップS308)、複数の撮影映像において撮影されている場合には、その複数の撮影映像のいずれかを優先すべきと判定する(ステップS310)。ステップS312では、こうして優先すべきと判定された撮影映像から映像部分を抽出することとした。このようにしたので、編集対象とされた被写体が複数の撮影映像に撮影されている場合であっても、その中で最も適した撮影映像から映像部分を抽出することができる。 (11) It is determined whether or not the selected subject has been captured in a plurality of captured images within the same time (step S308). It is determined that either one should be prioritized (step S310). In step S312, the video portion is extracted from the captured video determined to be prioritized in this way. Since it did in this way, even if it is a case where the photographic subject made into edit is image | photographed in the some imaging | video image | video, a video part can be extracted from the most suitable imaging | video image | video among them.
(12)ステップS310では、カメラと被写体の位置関係または各撮影映像の写り具合に基づいて、複数の撮影映像のいずれかを優先すべきと判定することとしたので、映像部分を抽出するのに最も適した撮影映像を確実に判定することができる。 (12) In step S310, based on the positional relationship between the camera and the subject or the appearance of each captured image, it is determined that one of the plurality of captured images should be prioritized. The most suitable captured video can be reliably determined.
(13)ステップS301で被写体を選択するときに、各被写体とユーザとの対応関係を表したユーザ情報を予め登録しておき、いずれかのユーザから編集映像の作成要求があると、登録されているユーザ情報に基づいて、そのユーザについて編集対象とする被写体を選択することができる。このようにすれば、ユーザが他人の子供などそのユーザに無関係な人物を許可なく編集対象に指定して、その人物の編集映像を無断で作成することを防止できる。 (13) When a subject is selected in step S301, user information representing a correspondence relationship between each subject and the user is registered in advance, and if any user requests creation of an edited video, it is registered. The subject to be edited can be selected based on the user information. In this way, it is possible to prevent the user from specifying a person unrelated to the user, such as a child of another person, as an editing target without permission, and creating an edited video of the person without permission.
(14)映像編集処理において抽出される映像部分の撮影時刻の範囲を、映像編集時間として設定する(ステップS302)。このとき、予め登録されたイベントプログラム情報に基づいて映像編集時間を設定することができる。このようにしたので、ユーザは映像編集時間を間単に設定することができる。 (14) The shooting time range of the video portion extracted in the video editing process is set as the video editing time (step S302). At this time, the video editing time can be set based on pre-registered event program information. In this way, the user can simply set the video editing time.
(15)課金部104eが実行する課金処理により、いずれかのユーザを対象ユーザとして選択し(ステップS401)、その対象ユーザに対して作成された編集映像に対する当該対象ユーザの課金額を算出する(ステップS404)。また、当該対象ユーザ以外の他のユーザに対して作成された編集映像に対する当該対象ユーザの受領金額を算出する(ステップS406)こととした。このようにしたので、他ユーザの撮影映像の利用や、他ユーザに対する撮影映像の提供に応じて、ユーザに課金または受領金の支払いを行うことができる。
(15) One of the users is selected as the target user by the charging process executed by the
(16)ステップS404では、対象ユーザに対して作成された編集映像において他のユーザの撮影映像が挿入されている時間に応じて、当該対象ユーザの課金額を算出することとした。このようにしたので、他ユーザの撮影映像の利用状況に応じた適切な課金額を算出することができる。 (16) In step S404, the charge amount of the target user is calculated according to the time during which another user's captured video is inserted in the edited video created for the target user. Since it did in this way, the appropriate charge amount according to the utilization condition of the other user's picked-up image can be calculated.
(17)ステップS406では、対象ユーザ以外の他のユーザに対して作成された編集映像において当該対象ユーザの撮影映像が挿入されている時間に応じて、当該対象ユーザの受領金額を算出することとした。このようにしたので、他ユーザに対する撮影映像の提供状況に応じた適切な受領金額を算出することができる。 (17) In step S406, the received amount of the target user is calculated according to the time during which the target user's captured video is inserted in the edited video created for other users than the target user. did. Since it did in this way, the appropriate amount of money received according to the provided situation of the photography picture to other users can be calculated.
(18)スケジュール管理部104bが実行するスケジュール管理処理により、施設内に存在する複数の被写体のうち出番が近い被写体の撮影者に対して警告を行うこととした。このようにしたので、撮影者はイベントのスケジュールを覚えていなくても、撮影タイミングを逃すことなく目的とする被写体を確実に撮影することができる。その結果、運動会において子供達の親がそれぞれ撮影者となって自分の子供を撮影した映像のように、複数の撮影者が同一施設内で撮影した映像を共有化する際に、使い勝手の良いシステムを提供することができる。
(18) With the schedule management process executed by the
(19)次のイベントプログラムの開始時間に近づいたか否かを判定し(ステップS112)、次のイベントプログラムが開始する所定時間前になったら、そのイベントプログラムに出場する予定の被写体を特定し(ステップS113)、これにより出番が近い被写体を判断することとした。このようにしたので、適切なタイミングで出番が近い被写体を判断することができる。 (19) It is determined whether or not the start time of the next event program is approached (step S112), and when a predetermined time before the next event program starts, a subject to be participated in the event program is specified ( In step S113), it is decided to determine the subject whose turn is close. Since this is done, it is possible to determine a subject whose turn is close at an appropriate timing.
(20)ステップS112では、予め登録されたイベントプログラムごとの出場者登録情報に基づいて、次のイベントプログラムに出場する予定の被写体を特定することとした。このようにしたので、次のイベントプログラムに出場する予定の被写体を簡単かつ確実に特定することができる。 (20) In step S112, based on the participant registration information for each event program registered in advance, the subject who is scheduled to participate in the next event program is specified. Since it did in this way, the subject who will participate in the next event program can be specified easily and reliably.
(21)ステップS114において警告情報を送信するときに、カメラ103に特定の動作を指示する制御信号を送信することにより、撮影者に対して警告を行うことができる。あるいは、ステップS114において警告情報を送信するときに、予め登録された撮影者が所持する携帯電話のメールアドレスにメールを送信することにより、撮影者に対して警告を行うこともできる。これらいずれかのようにすることで、撮影者にとって分かりやすい警告とすることができる。
(21) When transmitting warning information in step S114, a warning can be given to the photographer by transmitting a control signal instructing the
なお、以上説明した実施の形態では、カメラ103によって撮影された全ての撮影映像を映像収集部104cにより収集して共有化することとしたが、事前に共有化に同意したユーザが撮影した映像のみを対象としてもよい。このとき、撮影映像の著作権の帰属に関する取り決めや、他人の撮影映像を商用目的には使用できないことなどを事前に契約事項で定めておくことが好ましい。あるいは、撮影者が共有化するか否かをその都度選択できるようにしてもよい。
In the embodiment described above, all the captured images captured by the
また、撮影映像を一旦カメラ103に記録しておき、後でユーザが自宅のパーソナルコンピュータ等から制御装置104に送信することで、撮影映像を制御装置104に収集することとしてもよい。このとき、撮影映像のうちどの部分を制御装置104に送信して共有化するかをユーザが選択できるようにしてもよい。
Alternatively, the captured video may be temporarily recorded in the
上記の実施の形態では、図4〜7のフローチャートに示した処理を全て制御装置104において実行することとしたが、このうち一部をカメラ103において実行することとしてもよい。たとえば、位置特定処理によって特定された被写体位置およびカメラ位置の情報を制御装置104から各カメラ103へ逐次送信し、その情報に基づいて、図5のフローチャートで説明したような映像判定処理をカメラ103において実行することもできる。このようにした場合、カメラ103から撮影映像と被写体情報を制御装置104へ送信することにより、図6のフローチャートに示す映像編集処理を制御装置104の映像編集部104dにおいて実行することができる。なお、その場合には被写体情報をメタデータとして撮影映像データ内に埋め込むこととしてもよい。
In the above embodiment, all of the processes shown in the flowcharts of FIGS. 4 to 7 are executed by the
上記の実施の形態では、幼稚園や保育園、小学校等の施設において、運動会などのイベントにおいて親が撮影者となって自分の子供を撮影し、その撮影映像を共有化する映像共有システムを例に説明したが、これ以外の場合にも適用することができる。たとえば、自分の子供以外を被写体として撮影する場合に用いてもよいし、あるいは公園、体育館、遊園地、観光施設などの様々な施設において使用してもよい。これ以外にも様々な使用形態が考えられる。 In the above embodiment, an example of a video sharing system in which a parent becomes a photographer at an event such as an athletic meet in a kindergarten, nursery school, elementary school, etc. However, it can be applied to other cases. For example, it may be used when photographing a subject other than his / her child as a subject, or may be used in various facilities such as a park, a gymnasium, an amusement park, and a tourist facility. Various other usage forms are conceivable.
以上説明した各実施の形態や各種の変形例はあくまで一例であり、発明の特徴が損なわれない限り、本発明はこれらの内容に限定されない。 Each embodiment and various modifications described above are merely examples, and the present invention is not limited to these contents as long as the features of the invention are not impaired.
上記の実施の形態では、スケジュール管理手段をスケジュール管理部104b、映像収集手段を映像収集部104c、蓄積手段を記録装置105によりそれぞれ実現することとした。しかし、これはあくまで一例であり、発明を解釈する際、上記の実施形態の記載事項と特許請求の範囲の記載事項の対応関係には何ら限定も拘束もされない。
In the above embodiment, the schedule management unit is realized by the
100:映像共有システム 101:ICタグ
102:ICタグ受信機 103:カメラ
104:制御装置 105:記録装置
100: Video sharing system 101: IC tag 102: IC tag receiver 103: Camera 104: Control device 105: Recording device
Claims (5)
施設内に存在する複数の被写体のうちいずれかを撮影する複数のカメラと、
前記複数のカメラにより撮影された各撮影映像を収集する映像収集手段と、
前記映像収集手段により収集された各撮影映像を蓄積する蓄積手段と、
前記複数の被写体のうち出番が近い被写体の撮影者に対して警告を行うスケジュール管理手段とを備えることを特徴とする映像共有システム。 In a video sharing system that stores various videos and allows multiple users to use the stored videos.
A plurality of cameras for photographing one of a plurality of subjects existing in the facility;
Video collection means for collecting each captured video captured by the plurality of cameras;
Storage means for storing each photographed video collected by the video collection means;
A video sharing system, comprising: a schedule management unit that issues a warning to a photographer of a subject whose turn is close among the plurality of subjects.
前記スケジュール管理手段は、次のイベントプログラムが開始する所定時間前になったら、そのイベントプログラムに出場する予定の被写体を特定することにより、出番が近い被写体を判断することを特徴とする映像共有システム。 The video sharing system of claim 1,
The schedule management means, when a predetermined time before the next event program starts, identifies a subject that is scheduled to participate in the event program, and thereby determines a subject that is coming soon. .
前記スケジュール管理手段は、予め登録されたイベントプログラムごとの出場者登録情報に基づいて、次のイベントプログラムに出場する予定の被写体を特定することを特徴とする映像共有システム。 The video sharing system according to claim 1 or 2,
The video sharing system according to claim 1, wherein the schedule management means identifies a subject who is scheduled to participate in the next event program based on attendee registration information for each event program registered in advance.
前記スケジュール管理手段は、前記カメラに特定の動作を指示する制御信号を送信することにより警告を行うことを特徴とする映像共有システム。 The video sharing system according to any one of claims 1 to 3,
The video sharing system according to claim 1, wherein the schedule management means issues a warning by transmitting a control signal instructing a specific operation to the camera.
前記スケジュール管理手段は、予め登録された前記撮影者が所持する携帯電話のメールアドレスにメールを送信することにより警告を行うことを特徴とする映像共有システム。 The video sharing system according to any one of claims 1 to 3,
The video sharing system according to claim 1, wherein the schedule management means issues a warning by sending a mail to a mail address of a mobile phone possessed by the photographer registered in advance.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006238979A JP4670776B2 (en) | 2006-09-04 | 2006-09-04 | Video sharing system |
PCT/JP2007/067217 WO2008029803A1 (en) | 2006-09-04 | 2007-09-04 | Video sharing system, imaging support system, and camera |
US12/310,674 US8339500B2 (en) | 2006-09-04 | 2007-09-04 | Video sharing system, photography support system, and camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006238979A JP4670776B2 (en) | 2006-09-04 | 2006-09-04 | Video sharing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008061195A JP2008061195A (en) | 2008-03-13 |
JP4670776B2 true JP4670776B2 (en) | 2011-04-13 |
Family
ID=39243387
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006238979A Expired - Fee Related JP4670776B2 (en) | 2006-09-04 | 2006-09-04 | Video sharing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4670776B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5609108B2 (en) * | 2009-12-28 | 2014-10-22 | 富士通株式会社 | Imaging data output system, imaging data output device, imaging data output method, and computer program |
WO2013161319A1 (en) * | 2012-04-27 | 2013-10-31 | パナソニック株式会社 | Content playback method, content playback system, and content filming device |
JP6028457B2 (en) * | 2012-08-24 | 2016-11-16 | ソニー株式会社 | Terminal device, server, and program |
JP6371020B1 (en) * | 2018-01-31 | 2018-08-08 | 株式会社Nttドコモ | Information processing device |
JP2020194245A (en) * | 2019-05-25 | 2020-12-03 | Rkbミューズ株式会社 | Video providing system and video providing program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002024229A (en) * | 2000-07-03 | 2002-01-25 | Fuji Photo Film Co Ltd | Self-portrait image providing system |
JP2002297753A (en) * | 2001-03-30 | 2002-10-11 | Fujitsu Ltd | System for providing image data |
JP2003289465A (en) * | 2002-03-28 | 2003-10-10 | Fuji Photo Film Co Ltd | Imaging system and imaging method |
JP2004247913A (en) * | 2003-02-13 | 2004-09-02 | Sony Corp | Imaging apparatus, video data storage device, and imaging system |
JP2004297134A (en) * | 2003-03-25 | 2004-10-21 | Fuji Photo Film Co Ltd | Composite image providing system, image composite apparatus, and program |
JP2005341298A (en) * | 2004-05-27 | 2005-12-08 | Canon Inc | Network system |
-
2006
- 2006-09-04 JP JP2006238979A patent/JP4670776B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002024229A (en) * | 2000-07-03 | 2002-01-25 | Fuji Photo Film Co Ltd | Self-portrait image providing system |
JP2002297753A (en) * | 2001-03-30 | 2002-10-11 | Fujitsu Ltd | System for providing image data |
JP2003289465A (en) * | 2002-03-28 | 2003-10-10 | Fuji Photo Film Co Ltd | Imaging system and imaging method |
JP2004247913A (en) * | 2003-02-13 | 2004-09-02 | Sony Corp | Imaging apparatus, video data storage device, and imaging system |
JP2004297134A (en) * | 2003-03-25 | 2004-10-21 | Fuji Photo Film Co Ltd | Composite image providing system, image composite apparatus, and program |
JP2005341298A (en) * | 2004-05-27 | 2005-12-08 | Canon Inc | Network system |
Also Published As
Publication number | Publication date |
---|---|
JP2008061195A (en) | 2008-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2008029803A1 (en) | Video sharing system, imaging support system, and camera | |
CN101910936B (en) | Guided photography based on image capturing device rendered user recommendations | |
US7391886B1 (en) | Digital camera with image tracking system | |
US20080174676A1 (en) | Producing enhanced photographic products from images captured at known events | |
JP2004289825A (en) | Production of enhanced photographic product from image captured at known picture site | |
JP4206888B2 (en) | Image processing apparatus and program | |
JP6028457B2 (en) | Terminal device, server, and program | |
JP6248937B2 (en) | Content acquisition device, portable device, server, information processing device, and storage medium | |
JP4670776B2 (en) | Video sharing system | |
JP4720687B2 (en) | Video sharing system | |
JP2010183609A (en) | Wireless multi-recorder system | |
JP2008537228A (en) | Interactive shooting and distribution system and related methods | |
JP4984753B2 (en) | Video sharing system | |
JP2007081681A (en) | Image pickup device and method therefor | |
JP2009093433A (en) | Image processor and retrieval device | |
JP2004312511A (en) | Video image editing system, kindergartener monitoring system, welfare facilities monitoring system, commemoration video creation system, action monitoring system, and video image editing method | |
WO2020246166A1 (en) | Image processing device, image processing method, program, and imaging device | |
JP2015015570A (en) | System, apparatus and program for image management | |
JP2013250741A (en) | Rental system | |
CN109034764A (en) | Realize that scenic spot is taken photo by plane the system of service based on wechat platform | |
JP2020077954A (en) | Image processing device | |
JP4172380B2 (en) | Identification information recording apparatus and method, and imaging system | |
KR101140506B1 (en) | Photographing apparatus supporting pose template and the same method | |
JP2005286379A (en) | Photographing support system and photographing support method | |
JP2003018070A (en) | System for transmitting video image to photographed person |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101221 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110103 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4670776 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140128 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140128 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |