WO2008029803A1 - Système de partage de vidéo, système de support d'imagerie et caméra - Google Patents

Système de partage de vidéo, système de support d'imagerie et caméra Download PDF

Info

Publication number
WO2008029803A1
WO2008029803A1 PCT/JP2007/067217 JP2007067217W WO2008029803A1 WO 2008029803 A1 WO2008029803 A1 WO 2008029803A1 JP 2007067217 W JP2007067217 W JP 2007067217W WO 2008029803 A1 WO2008029803 A1 WO 2008029803A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
video
camera
unit
information
Prior art date
Application number
PCT/JP2007/067217
Other languages
English (en)
French (fr)
Inventor
Yuko Hattori
Junko Hasegawa
Original Assignee
Nikon Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2006238978A external-priority patent/JP4984753B2/ja
Priority claimed from JP2006238977A external-priority patent/JP4720687B2/ja
Priority claimed from JP2006238979A external-priority patent/JP4670776B2/ja
Priority claimed from JP2006241579A external-priority patent/JP2008066963A/ja
Application filed by Nikon Corporation filed Critical Nikon Corporation
Priority to US12/310,674 priority Critical patent/US8339500B2/en
Publication of WO2008029803A1 publication Critical patent/WO2008029803A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00132Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture in a digital photofinishing system, i.e. a system where digital photographic images undergo typical photofinishing processing, e.g. printing ordering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00132Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture in a digital photofinishing system, i.e. a system where digital photographic images undergo typical photofinishing processing, e.g. printing ordering
    • H04N1/00148Storage
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Definitions

  • the setting interval is shortened, the total number of steps described below increases and the processing load on the control device 104 increases, so that the processing time of the control device 104 can be kept within a certain range. It is preferable to shorten the reference time setting interval when the processing capability is high, and to increase the reference time setting interval when the processing capability is low.
  • step S205 the shooting range of the camera 103 is calculated based on the shooting information read in step S204.
  • a photographing range is determined within a predetermined range that spreads around the photographing direction represented by the photographing information.
  • the size of this shooting range is determined according to the focal length, zoom amount, angle of view, etc. of the camera 103 represented in the shooting information.
  • step S 305 the subject information of each captured video recorded as described above is read from the recording device 105 by the video determination process shown in the flowchart of FIG.
  • step S305 the process proceeds to step S307.
  • FIG. 11 A specific example of the edited video created by the video editing process as described above is shown in FIG.
  • FIG. 11 when children A and B in Fig. 9 are selected as the subjects to be edited, what kind of video is inserted into the edited video created! Power.
  • subject information having the same content as that shown in FIG. 10 is recorded for the video (shown as video # 1) taken by the camera 103 shown in FIG. Shall.
  • subject information as shown in FIG. 11 is recorded for a video (shown as video # 2) shot by another camera 103.
  • step S209 whether or not the shooting state of each shot image is good is determined (step S209), and the subject is specified in step S211 based on the determination result. The subject can be identified even more accurately.
  • each photographer has a camera 103. That is, this camera 103 is also represented by one block in FIG. 12 as a representative, but actually, a plurality of cameras 103 may be included in the photographing support system 200.
  • the timing control unit 6 is controlled by the control unit 9, and controls the timing of each operation of the imaging device 3, the analog signal processing unit 4, the A / D conversion unit 5, and the image processing unit 7.
  • the image processing unit 7 is composed of, for example, a one-chip microprocessor dedicated to image processing, and the A / D conversion unit 5 Therefore, predetermined image processing is performed on the image data converted from the image signal. Operation part
  • step S10 based on the result of the focus adjustment process in step S9, it is determined whether or not the subject exists in the autofocus area selected in step S8. For example, the distance force S to the subject obtained in each autofocus area during focus adjustment in step S9, and the distance from the camera 103 to the subject obtained when the subject position was calculated in step S4. If there is a large difference, it is determined that there is a subject in the selected autofocus area! /, And! /, And the process proceeds to step S11. Otherwise, it is determined that the subject exists within the selected autofocus area, and the process proceeds to step S13.
  • (b) is a display when the subject is positioned in the left direction with respect to the shooting range.
  • the arrow 33 displayed to indicate the direction of the subject is different from the arrow 32 of FIG. 19 displayed when the camera 103 is held sideways.
  • the display of the subject direction on the finder 18 can be switched between vertical display and horizontal display.
  • the vertical / horizontal detection unit 19 in FIG. 14 detects whether the photographer holds the camera 103 vertically or horizontally.
  • step S12 the process proceeds to step S11, and the above-described processing is executed to focus on the distance from the camera 103 to the subject obtained when the subject position is calculated in step S4. Make adjustments. Thus, the focus of the camera 103 can be adjusted appropriately even when the subject is outside the shooting range.
  • the camera 103 determines whether or not the subject is within the shooting range (step S6), and changes the position information of the subject provided to the photographer according to the determination result. Specifically, when it is determined that the subject is within the shooting range, the position of the subject within the shooting range is displayed (step S7), and when it is determined that the subject is not within the shooting range, the shooting range is displayed. The direction of the subject with respect to is displayed (step S12). Since this is done, the subject position information can be provided with appropriate contents in each case depending on whether the subject is within the shooting range or not.
  • step S7 or S12 When displaying the position or direction of the subject in step S7 or S12, the photographer switches between vertical display and horizontal display depending on the direction in which the camera 103 is held. . Since this is done, even when the camera 103 is held in either the vertical or horizontal orientation, it is easy to see!
  • step S11 Based on the relative position of the subject obtained in step S4, the focus adjustment of the camera 103 is performed (step S11). At this time, if the subject is within the shooting range, perform normal focus adjustment using the autofocus area according to the subject within the shooting range (step S9), and if the subject is not within the shooting range, It was decided to execute step S11. Since this is done, the focus of the camera 103 can be adjusted appropriately even when the subject is outside the shooting range.
  • an infrared signal is transmitted from the infrared transmitter 201 possessed by the subject and the infrared signal is received by the camera 202, whereby the direction of the subject with respect to the camera 202 is determined. It was decided to detect.
  • infrared signals for example, radio waves, laser light, and ultrasonic waves can be used as signals.
  • the signal is Any signal may be used as long as it can be detected by the camera from the direction of the signal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Description

明 細 書
映像共有システム、撮影支援システム、カメラ
技術分野
[0001] 本発明は、カメラで撮影された映像を複数のユーザで共有するシステムと、カメラを 用いて撮影を行う際に撮影者を支援するシステムに関する。
背景技術
[0002] 従来、デジタルカメラやカメラ付き携帯電話により撮影された画像をインターネット 上のサーバにアップロードし、アップロードされた画像を家族や友人など複数のユー ザでダウンロードして共有するシステムが知られている(特許文献 1参照)。
また、被写体を検出して撮影を行うシステムが従来より知られている。特許文献 2に 開示される自動撮影システムでは、ユーザに関する情報を格納した無線タグを各ュ 一ザに配布しておき、各撮影スポットに設置された撮影ユニットは、ユーザが所持す る無線タグを検出した場合には、ユーザの画像を撮影する。
[0003] 特許文献 1 :特開 2005— 341298号公報
特許文献 2:特開 2005— 99439号公報
発明の開示
発明が解決しょうとする課題
[0004] 上記のようなシステムを映像の共有化システムに適用することにより、たとえば、運 動会などのイベントにおいて子供達の親がそれぞれ撮影者となって自分の子供を撮 影した映像のように、複数の撮影者が同一施設内で撮影した映像を共有化すること 力できる。しかし、特許文献 1に開示されるような従来のシステムでは、実際に映像を 再生してみなければその映像の内容が分からないため、システムを利用するユーザ はいちいち映像を再生して確認しなければならず、使い勝手が悪い。したがって、複 数の撮影者が同一施設内で撮影した映像を共有化する際に使い勝手の良いシステ ムが求められている。
また、特許文献 2に開示されるような従来の自動撮影システムは、テーマパークや 遊園地等の娯楽施設内の撮影スポットにおける自動撮影に用レ、られるものであるた め、たとえば運動会で親が自分の子供を撮影する場合のように、撮影者が特定の被 写体を探して撮影する状況での使用には適していない。したがって、撮影者が特定 の被写体を探して撮影する際に撮影者を支援する撮影支援システムが求められてい 課題を解決するための手段
本発明の第 1の態様による映像共有システムは、様々な映像を蓄積してその蓄積さ れた映像を複数のユーザに利用させる映像共有システムにおいて、施設内に存在 する複数の被写体のうち!/、ずれ力、を撮影する複数のカメラと、複数のカメラにより撮 影された各撮影映像を収集する映像収集部と、各撮影映像にお!/、て撮影されてレ、る 被写体を撮影映像ごとに特定する被写体特定部と、映像収集部により収集された各 撮影映像と、被写体特定部により特定された被写体を表す被写体情報とを蓄積する 蓄積部とを備える。
本発明の第 2の態様によると、第 1の態様による映像共有システムにおいて、施設 内における各被写体および各カメラの所在位置を特定する位置特定部をさらに備え 、被写体特定部は、位置特定部により特定された各被写体および各カメラの所在位 置に基づレ、て、各撮影映像にぉレ、て撮影されて!/、る被写体を特定することが好まし い。
本発明の第 3の態様によると、第 2の態様による映像共有システムにおいて、複数 の被写体および複数のカメラのいずれ力、を使用して撮影を行う複数の撮影者によつ てそれぞれ所持され、各々が固有の識別情報を送信する複数の送信部と、施設内 にそれぞれ設置され、送信部から送信される識別情報を受信する複数の受信部とを さらに備え、位置特定部は、受信部により受信された識別情報と、その識別情報を受 信した受信部の設置位置とに基づいて、施設内における各被写体および各カメラの 所在位置を特定することができる。
本発明の第 4の態様によると、第 2または第 3の態様による映像共有システムにおい て、複数のカメラから、撮影方向、焦点距離、ズーム量または画角のうち少なくともい ずれかを含む撮影情報を収集する撮影情報収集部と、撮影情報収集部により収集さ れた撮影情報に基づいて各カメラの撮影範囲を算出する撮影範囲算出部とをさらに 備え、被写体特定部は、位置特定部により特定された各被写体および各カメラの所 在位置と、撮影範囲算出部により算出された各カメラの撮影範囲とに基づいて、各撮 影映像にぉレ、て撮影されて!、る被写体を特定することが好ましレ、。
本発明の第 5の態様によると、第 4の態様による映像共有システムにおいて、各撮 影映像における撮影障害物の存在の有無を判定する障害物判定部をさらに備え、 被写体特定部は、さらに障害物判定部の判定結果に基づいて、各撮影映像におい て撮影されてレ、る被写体を特定することがなお好ましレ、。
本発明の第 6の態様によると、第 4または第 5の態様による映像共有システムにおい て、各撮影映像における撮影状態の良否を判定する撮影良否判定部をさらに備え、 被写体特定部は、さらに撮影良否判定部の判定結果に基づいて、各撮影映像にお V、て撮影されてレ、る被写体を特定することとしてもよ!/、。
本発明の第 7の態様による映像共有システムは、様々な映像を蓄積してその蓄積さ れた映像を複数のユーザに利用させる映像共有システムにおいて、施設内に存在 する複数の被写体のうち!/、ずれかが撮影されて!/、る複数の撮影映像を蓄積する蓄 積部と、編集対象とする被写体を選択する被写体選択部と、蓄積部により蓄積された 複数の撮影映像のいずれかから、被写体選択部により選択された被写体が撮影され ている複数の映像部分を抽出する抽出部と、抽出部により抽出された複数の映像部 分を順次挿入して映像を編集することにより、選択された被写体についての編集映 像を作成する編集部とを備える。
本発明の第 8の態様によると、第 7の態様による映像共有システムにおいて、施設 内における各被写体および複数の撮影映像を撮影した複数のカメラの所在位置をそ れぞれ特定する位置特定部と、位置特定部により特定された各被写体および各カメ ラの所在位置に基づいて、蓄積部により蓄積された各撮影映像において撮影されて いる被写体を特定する被写体特定部と、被写体特定部により特定された被写体を表 す被写体情報を記録する被写体情報記録部とをさらに備え、抽出部は、被写体情報 記録部により記録された被写体情報に基づ!/、て、選択された被写体が撮影されて!/、 る映像部分を抽出することが好ましい。
本発明の第 9の態様によると、第 8の態様による映像共有システムにおいて、複数 の被写体および複数のカメラのいずれ力、を使用して撮影を行う複数の撮影者によつ てそれぞれ所持され、各々が固有の識別情報を送信する複数の送信部と、施設内 にそれぞれ設置され、送信部から送信される識別情報を受信する複数の受信部とを さらに備え、位置特定部は、受信部により受信された識別情報と、その識別情報を受 信した受信部の設置位置とに基づいて、施設内における各被写体および各カメラの 所在位置をそれぞれ特定することがなお好ましい。
本発明の第 10の態様によると、第 7〜第 9のいずれかの態様による映像共有システ ムにおいて、抽出部は、同一の撮影映像から予め定められた所定時間以上の連続 する映像部分を抽出することができる。
本発明の第 11の態様によると、第 7〜第 10のいずれかの態様による映像共有シス テムにおいて、編集部は、選択された被写体がいずれの撮影映像においても撮影さ れて!/、な!/、ときに、予め定められた全体撮影映像を揷入することとしてもょレ、。
本発明の第 12の態様によると、第 7〜第 11のいずれかの態様による映像共有シス テムにおいて、選択された被写体が同一時間内に複数の撮影映像において撮影さ れて!/、る場合に、その複数の撮影映像の!/、ずれかを優先すべきと判定する優先判 定部をさらに備え、抽出部は、優先判定部により優先すべきと判定された撮影映像 から映像部分を抽出することが好ましい。
本発明の第 13の態様によると、第 12の態様による映像共有システムにおいて、優 先判定部は、カメラと被写体の位置関係または各撮影映像の写り具合に基づいて、 いずれかの撮影画像を優先すべきと判定することができる。
本発明の第 14の態様によると、第 7〜第 13のいずれかの態様による映像共有シス テムにおいて、各被写体とユーザとの対応関係を表したユーザ情報を登録するユー ザ情報登録部をさらに備え、被写体選択部は、いずれかのユーザから編集映像の作 成要求があると、ユーザ情報登録部により予め登録されたユーザ情報に基づいて、 そのユーザにっレ、て編集対象とする被写体を選択することとしてもょレ、。
本発明の第 15の態様によると、第 7〜第 14のいずれかの態様による映像共有シス テムにおいて、予め登録されたイベントプログラム情報に基づいて、抽出部により抽 出される映像部分の撮影時刻の範囲を設定する時刻範囲設定部をさらに備えること もできる。
本発明の第 16の態様によると、第 7〜第 15のいずれかの態様による映像共有シス テムにおいて、いずれかのユーザに対して編集部により作成された編集映像に対す る当該ユーザの課金額を算出する課金額算出部と、当該ユーザ以外の他のユーザ に対して編集部により作成された編集映像に対する当該ユーザの受領金額を算出 する受領金額算出部とをさらに備えることが好ましい。
本発明の第 17の態様によると、第 16の態様による映像共有システムにおいて、課 金額算出部は、当該ユーザに対して作成された編集映像において他のユーザの撮 影映像が揷入されている時間に応じて、当該ユーザの課金額を算出することがなお 好ましい。
本発明の第 18の態様によると、第 16または第 17の態様による映像共有システムに おいて、受領金額算出部は、当該ユーザ以外の他のユーザに対して作成された編 集映像において当該ユーザの撮影映像が揷入されている時間に応じて、当該ユー ザの受領金額を算出することとしてもよい。
本発明の第 19の態様による映像共有システムは、様々な映像を蓄積してその蓄積 された映像を複数のユーザに利用させる映像共有システムにおいて、施設内に存在 する複数の被写体のうち!/、ずれ力、を撮影する複数のカメラと、複数のカメラにより撮 影された各撮影映像を収集する映像収集部と、映像収集部により収集された各撮影 映像を蓄積する蓄積部と、複数の被写体のうち出番が近い被写体の撮影者に対して 警告を行うスケジュール管理部とを備える。
本発明の第 20の態様によると、第 19の態様による映像共有システムにおいて、ス ケジュール管理部は、次のイベントプログラムが開始する所定時間前になつたら、そ のイベントプログラムに出場する予定の被写体を特定することにより、出番が近い被 写体を判断することが好ましレ、。
本発明の第 21の態様によると、第 19または第 20の態様による映像共有システムに おいて、スケジュール管理部は、予め登録されたイベントプログラムごとの出場者登 録情報に基づいて、次のイベントプログラムに出場する予定の被写体を特定すること ができる。 本発明の第 22の態様によると、第 19〜第 21のいずれかの態様による映像共有シ ステムにおいて、スケジュール管理部は、カメラに特定の動作を指示する制御信号を 送信することにより警告を fiうこと力 Sできる。
本発明の第 23の態様によると、第 19〜第 21のいずれかの態様による映像共有シ ステムにおいて、スケジュール管理部は、予め登録された撮影者が所持する携帯電 話のメールアドレスにメールを送信することにより警告を行うこともできる。
本発明の第 24の態様による撮影支援システムは、 1または 2以上の被写体によって それぞれ所持され、各々が固有の識別情報を送信する単数または複数の送信部と、 被写体を撮影するためのカメラとを備え、送信部から送信される識別情報に基づいて 求められるカメラに対する被写体の相対位置に基づいて、カメラにより被写体の位置 情報を撮影者に提供する。
本発明の第 25の態様によると、第 24の態様による撮影支援システムにおいて、施 設内にそれぞれ設置され、送信部から送信される識別情報を受信する複数の受信 部と、受信部により受信された識別情報と、その識別情報を受信した受信部の設置 位置とに基づいて、施設内における被写体の所在位置を特定する被写体位置特定 部と、施設内におけるカメラの所在位置を特定するカメラ位置特定部と、被写体位置 特定部により特定された被写体の所在位置と、カメラ位置特定部により特定された力 メラの所在位置とに基づいて、カメラに対する被写体の相対位置を求める相対位置 算出部とをさらに備えることが好ましい。
本発明の第 26の態様によると、第 25の態様による撮影支援システムにおいて、送 信部は、さらに撮影者によって所持され、カメラ位置特定部は、撮影者によって所持 された送信部から送信されて受信部により受信された識別情報と、その識別情報を 受信した受信部の設置位置とに基づいて、施設内におけるカメラの所在位置を特定 することがなお好ましい。
本発明の第 27の態様によると、第 25または第 26の態様による撮影支援システムに おいて、カメラは、被写体が撮影範囲内にあるか否かを判定し、その判定結果に応じ て、撮影者に提供する被写体の位置情報を変化させることとしてよい。
本発明の第 28の態様によると、第 27の態様による撮影支援システムにおいて、被 写体が撮影範囲内にあると判定した場合、カメラは、その撮影範囲内における被写 体の位置を表示することにより、被写体の位置情報を撮影者に提供することもできる 本発明の第 29の態様によると、第 28の態様による撮影支援システムにおいて、カメ ラは、撮影時のオートフォーカス領域を示すためにファインダ像に重ねて表示される オートフォーカスエリアの一部を用いて、撮影範囲内における被写体の位置を表示 することが好ましい。
本発明の第 30の態様によると、第 27〜第 29のいずれかの態様による撮影支援シ ステムにおいて、被写体が撮影範囲内にないと判定した場合、カメラは、その撮影範 囲に対する被写体の方向を表示することにより、被写体の位置情報を撮影者に提供 することが好ましい。
本発明の第 31の態様によると、第 30の態様による撮影支援システムにおいて、カメ ラは、撮影範囲に対する被写体の方向を示す図形をファインダに表示することができ 本発明の第 32の態様によると、第 28〜第 31のいずれかの態様による撮影支援シ ステムにおいて、カメラは、被写体の位置または方向を表示するときに、撮影者がそ のカメラを構えた向きに応じて、縦表示または横表示のいずれかに切り替えることが 好ましい。
本発明の第 33の態様によると、第 25〜第 32のいずれかの態様による撮影支援シ ステムにおいて、カメラは、相対位置算出部により求められた被写体の相対位置に基 づいて、ピント調節を行うことができる。
本発明の第 34の態様によると、第 33の態様による撮影支援システムにおいて、カメ ラは、被写体が撮影範囲内にある場合は、その撮影範囲内にある被写体に合わせて ピント調節を行い、被写体が撮影範囲内にない場合は、相対位置算出部により求め られた被写体の相対位置に基づレ、てピント調節を行うことが好ましレ、。
本発明の第 35の態様によると、第 24の態様による撮影支援システムにおいて、カメ ラは、送信部から送信される識別情報を受信するための受信部と、その受信部により 受信された識別情報およびその受信方向に基づいて、そのカメラに対する被写体の 相対位置を求める相対位置算出部とを備えることもできる。
本発明の第 36の態様によると、第 35の態様による撮影支援システムにおいて、カメ ラは、被写体が撮影範囲内にあるか否力、を判定し、その判定結果に応じて、撮影者 に提供する被写体の位置情報を変化させることが好ましい。
本発明の第 37の態様によると、第 36の態様による撮影支援システムにおいて、被 写体が撮影範囲内にあると判定した場合、カメラは、その撮影範囲内における被写 体の位置を表示することにより、被写体の位置情報を撮影者に提供することが好まし い。
本発明の第 38の態様によると、第 37の態様による撮影支援システムにおいて、カメ ラは、撮影時のオートフォーカス領域を示すためにファインダ像に重ねて表示される オートフォーカスエリアの一部を用いて、撮影範囲内における被写体の位置を表示 すること力 Sでさる。
本発明の第 39の態様によると、第 36〜第 38のいずれかの態様による撮影支援シ ステムにおいて、被写体が撮影範囲内にないと判定した場合、カメラは、その撮影範 囲に対する被写体の方向を表示することにより、被写体の位置情報を撮影者に提供 することが好ましい。
本発明の第 40の態様によると、第 39の態様による撮影支援システムにおいて、カメ ラは、撮影範囲に対する被写体の方向を示す図形をファインダに表示することができ 本発明の第 41の態様によると、第 37〜第 40のいずれかの態様による撮影支援シ ステムにおいて、カメラは、被写体の位置または方向を表示するときに、撮影者がそ のカメラを構えた向きに応じて、縦表示または横表示のいずれかに切り替えることが 好ましい。
本発明の第 42の態様によると、第 24〜第 41のいずれかの態様による撮影支援シ ステムにおいて、カメラに予め登録された被写体が所持する送信部の情報に基づい て、カメラにより撮影者に位置情報を提供する被写体を選択することもできる。
本発明の第 43の態様によるカメラは、第 24〜第 42のいずれかの態様による撮影 支援システムにおいて用いられる。 発明の効果
[0006] 本発明によれば、運動会において子供達の親がそれぞれ撮影者となって自分の子 供を撮影した映像のように、複数の撮影者が同一施設内で撮影した映像を共有化す る際に、使レ、勝手の良レ、システムを提供することができる。
また本発明によれば、運動会において親が自分の子供を撮影するときなどのように 撮影者が特定の被写体を探して撮影する際に、その被写体の位置情報を提供して 撮影者を支援することができる。
図面の簡単な説明
[0007] [図 1]本発明の第 1の実施の形態による映像共有システムのブロック図である。
[図 2]ICタグ受信機の設置例を示す図である。
[図 3]本発明の第 1の実施の形態による映像共有システムにおいて実行される処理の フローチャートである。
[図 4]イベント中処理において実行される処理のフローチャートである。
[図 5]映像判定処理において実行される処理のフローチャートである。
[図 6]映像編集処理において実行される処理のフローチャートである。
[図 7]課金処理において実行される処理のフローチャートである。
[図 8]出場者登録情報の例を示す図である。
[図 9]カメラにおける撮影状況の例を示す図である。
[図 10]図 9の撮影状況において撮影された映像について記録される被写体情報の 例を示す図である。
[図 11]映像編集処理により作成される編集映像の具体例を示す図である。
[図 12]本発明の第 2の実施の形態による撮影支援システムのブロック図である。
[図 13]ICタグ受信機の設置例を示す図である。
[図 14]本発明の第 2の実施の形態による撮影支援システムにおけるカメラのブロック 図である。
[図 15]カメラを背面方向から見たときの外観図の例である。
[図 16]本発明の第 2の実施の形態による撮影支援システムにおいてカメラが実行す る処理のフローチャートである。 [図 17]被写体を選択する際に表示される画面例を示す図である。
[図 18]ファインダにおける被写体位置の表示例を示す図である。
[図 19]ファインダにおける被写体方向の表示例を示す図である。
[図 20]カメラを縦に構えた場合のファインダにおける被写体方向の表示例を示す図 である。
[図 21]本発明の第 3の実施の形態による撮影支援システムのブロック図である。
[図 22]本発明の第 3の実施の形態による撮影支援システムにおけるカメラのブロック 図である。
[図 23]本発明の第 3の実施の形態による撮影支援システムにおいてカメラが実行す る処理のフローチャートである。
発明を実施するための最良の形態
[0008] 第 1の実施の形態
図 1は、本発明の一実施形態による映像共有システムの構成を示すブロック図であ る。この映像共有システムは、主に幼稚園や保育園、小学校等の施設において、複 数の撮影者がその施設内で撮影した映像を共有化する際に用いられるものである。 この映像共有システムを用いることにより、たとえば運動会などのイベントにおいて子 供達の親がそれぞれ撮影者となって自分の子供を撮影した映像を、他の親との間で 共有すること力できる。これにより、自分の子供が障害物の陰に隠れたりしてうまく撮 影できなかった場面があっても、他の親が撮影した映像を利用することで、その場面 に自分の子供が写ってレ、る映像を得ること力 Sできるようになる。
[0009] 図 1の映像共有システム 100は、 ICタグ 101と、 ICタグ受信機 102と、カメラ 103と、 制御装置 104と、記録装置 105とで構成される。なお、 ICタグ受信機 102、制御装置 104および記録装置 105は施設内に予め設置されている。一方、 ICタグ 101および カメラ 103は、映像共有システム 100のユーザである子供と撮影者によって所持され ている。
[0010] ICタグ 101は、カメラ 103により被写体とされる子供達(園児、児童など)が各自 1つ ずつ所持している。例えば、名札、帽子、靴、園児服、体操服などに ICタグ 101を装 着しておき、これらのものを身に着けることによって子供達に ICタグ 101を所持させる 。さらに、カメラ 103を所持している撮影者 (親など)も、各自 ICタグ 101を所持してい る。この場合、子供と同様に ICタグ 101を撮影者の衣服などに装着してもよいし、ある いはカメラ 103に装着してもよい。すなわち、図 1では ICタグ 101を代表して 1つのブ ロックで表している力 実際には子供と撮影者の数に応じた複数の ICタグ 101が映 像共有システム 100に含まれる。
[0011] ICタグ 101には、 ICタグ 101の各々を一意に識別するための固有のタグ番号がそ れぞれ付与されており、このタグ番号で ICタグ 101を所持している人物を特定できる ようになつている。具体的には、各撮影者および子供がそれぞれ所持している複数の
ICタグ 101のタグ番号と、その各々を所持している人物とを対応付けたタグ管理情報 が後述する記録装置 105に予め記録されている。そして、制御装置 104は、 ICタグ 受信機 102で読み取った ICタグ 101のタグ番号に基づいて、その ICタグ 101の所持 者が誰であるかを特定する。なお、各 ICタグ 101のタグ番号はタグ情報の一部として ICタグ受信機 102に送信される。すなわち各 ICタグ 101は、各々に固有の識別情報 としてタグ情報を送信する。
[0012] ICタグ受信機 102は、映像共有システム 100が用いられる施設内に所定間隔ごと に設置される。具体的には、園庭や校庭の地中、施設の建物の床下などに、所定の 間隔を空けて(例えば、地中には 2mおき、床下には lmおきに)碁盤の目状に埋め 込まれて設置される。すなわち、この ICタグ受信機 102も図 1では代表して 1つのブロ ックで表している力 実際には複数の ICタグ受信機 102が映像共有システム 100に 含まれている。また、各 ICタグ受信機 102には、それぞれの ICタグ受信機 102を一 意に識別するための受信機番号が付加されている。そして、各 ICタグ受信機 102の 設置位置と受信機番号とを対応付けた受信機管理情報が記録装置 105に記録され ている。
[0013] 上記のように施設内に所定間隔ごとに設置された ICタグ受信機 102のいずれかの 上を子供や撮影者が通過すると、その ICタグ受信機 102は、通過した人物が所持し ている ICタグ 101から無線通信によりタグ情報を読み込んで、そのタグ情報と自身の 受信機番号とを制御装置 104へ出力する。制御装置 104では、後述するように、タグ 情報に含まれるタグ番号を特定し、さらに受信機番号に基づいてその受信機の設置 位置を特定することで、 ICタグ 101を所持する人物 (すなわち、子供または撮影者) の施設内における所在位置をそれぞれ特定することができる。換言すると、 ICタグ受 信機 102により受信された ICタグ 101の各々に固有の識別情報と、その ICタグ 101 力もの識別情報を受信した ICタグ受信機 102の設置位置とに基づいて、被写体であ る子供の所在位置や、撮影者が所持するカメラ 103の施設内における所在位置を特 定すること力 Sでさる。
[0014] 図 2は、園庭や校庭、あるいは施設の建物における ICタグ受信機 102の設置例を 示す図である。図 2においては、 ICタグ受信機 102の設置位置を白丸で示している。 この図 2に示す例では、 ICタグ受信機 102は施設内に等間隔で設置されている。な お、 ICタグ受信機 102の設置間隔は必ずしも図 2のように等間隔である必要はない。
[0015] カメラ 103は、撮影者によって所持されるカメラであり、撮影者の操作に応じて施設 内に存在する子供達のいずれかを撮影して、その映像を制御装置 104へ逐次送信 する。さらに、撮影時の撮影方向や焦点距離、撮影レンズのズーム量や画角などを 求め、これらのうち後述する撮影範囲の算出において必要な情報を撮影情報として 撮影映像と共に制御装置 104へ逐次送信する。なお撮影方向については、たとえば カメラ 103に方位検出センサや姿勢検出センサなどを内蔵し、それを用いてカメラ 10 3がどちらを向いているかを検出することにより検出することができる。これらの撮影情 報を映像データ内にメタデータとして埋め込むことにより撮影映像と共に送信してもよ い。
[0016] なお、施設内に複数の撮影者がいる場合は、その撮影者ごとにカメラ 103が所持さ れる。すなわち、このカメラ 103も図 1では代表して 1つのブロックで表している力 実 際には複数のカメラ 103が映像共有システム 100に含まれる。
[0017] 制御装置 104は、例えばパソコンやサーバなどのコンピュータ装置であり、施設内 の複数箇所に設置された ICタグ受信機 102とは、施設内に敷設された LAN等を介 して接続されている。また、カメラ 103とは無線 LANなどの無線通信回線を介して接 続され、記録装置 105とは所定のインタフェースを介して接続される。この制御装置 1 04は、位置特定部 104a、スケジュール管理部 104b、映像収集部 104c、映像編集 部 104dおよび課金部 104eを機能的に有している。 [0018] 位置特定部 104aは、 ICタグ受信機 102からタグ情報と受信機番号が入力されると 、上述したように記録装置 105に記録されている受信機管理情報に基づいて、入力 された受信機番号に対応する ICタグ受信機 102の設置位置を特定すると共に、入力 されたタグ情報に基づいて、そのタグ情報を発信した ICタグ 101のタグ番号を特定 する。こうして特定された ICタグ受信機 102の設置位置と ICタグ 101のタグ番号から 、そのタグ番号が付与された ICタグ 101を所持する人物(子供または撮影者)が施設 内のどこにいるかを特定する。そして、子供の場合はその位置を被写体位置として、 また撮影者の場合はその位置をカメラ位置として、記録装置 105にそれぞれ記録す る。この被写体位置およびカメラ位置は、子供や撮影者が移動して所持する ICタグ 1 01のタグ情報がそれまでとは異なる ICタグ受信機 102によって受信されたときに更 新される。
[0019] スケジュール管理部 104bは、イベントスケジュールに従って予め登録されたィベン トプログラムごとの出場者登録情報に基づいて、次のイベントプログラムの出場予定 者を特定し、その出場予定者を被写体として撮影する撮影者に対して、撮影開始を 促す旨を伝える警告情報を送信する。たとえば運動会において、次の競技に出場す る子供の親に対して警告情報を送信する。この警告情報の送信は、たとえば撮影者 が所持するカメラ 103に対して、電源投入や警告音の出力、液晶モニタの点滅表示 、液晶モニタにおける「出番 5分前です」等の警告表示など、特定の動作を指示する 制御信号を送信することによって行われる。なおこの場合、被写体 (子供)とカメラ 10 3の対応関係が予め登録されている。あるいは、予め登録された親の携帯電話のメー ルアドレスにメールを送信したりすることにより行われる。なお、登録されたイベントプ ログラムごとの出場者登録情報は、記録装置 105に記録される。
[0020] 映像収集部 104cは、カメラ 103により撮影されて逐次送信される映像を受信するこ とにより、各カメラ 103からの撮影映像を収集して記録装置 105に記録する。この映 像収集部 104cによって、複数のカメラ 103から収集された複数の映像が記録装置 1 05に記録される。さらに、前述のような撮影条件情報を撮影映像と共にカメラ 103か ら逐次受信し、撮影映像と合わせて記録装置 105に所定時間ごとに記録する。こうし て記録された撮影条件情報は、後述する映像編集部 104dが行う映像判定処理にお いてカメラ 103の撮影範囲を求める際に用いられる。
[0021] 映像編集部 104dは、映像収集部 104cによって複数のカメラ 103から収集された 各撮影映像における被写体を特定し、その結果に基づいて、いずれかの被写体を 編集対象とした映像の編集を行う。この映像編集では、収集された各撮影映像の中 力 編集対象とされた被写体が最もよく写っている映像部分を所定時間ごとに抽出し 、それを順次挿入して映像を編集することにより、その被写体に適した編集映像を作 成する。このときの詳しい処理内容については、後で説明する。
[0022] 課金部 104eは、映像編集部 104dによって複数の撮影映像を編集して作成された 編集映像をユーザに提供する際に、そのユーザに対する課金額またはそのユーザ が受け取る受領金額の算出を行う。このとき、ユーザに提供する編集映像において 当該ユーザ以外の撮影者が撮影した映像が利用されている場合は、その利用時間 に応じた金額が当該ユーザに対して課金され、映像の提供者に支払われる。これと は反対に、当該ユーザの撮影した映像が他のユーザに提供された編集映像におい て利用されている場合は、当該ユーザに対してその利用時間に応じた金額が支払わ れる。この課金額または受領金額の具体的な算出方法については、後で詳しく説明 する。
[0023] 記録装置 105は、前述したような様々な情報、すなわちタグ管理情報や受信機管 理情報、位置特定部 104aにより特定された被写体位置およびカメラ位置の情報、映 像収集部 104cによって収集されたカメラ 103の撮影映像および撮影情報、イベント プログラムごとの出場者登録情報などを記録して蓄積することができる。この記録装 置 105には、たとえばノ、ードディスクなどが用いられる。
[0024] 以上説明したような映像共有システム 100を用いることにより、運動会に参加してい る子供達を被写体としてそれぞれの親が撮影した映像を収集し、親同士の間で共有 化すること力 Sできる。そして、運動会の終了後に親が自宅のパーソナルコンピュータ 力、ら映像共有システム 100にアクセスする等の方法により、自分の子供を編集対象に 指定すると、自分の撮影映像だけでなく共有化された他の親の撮影映像も利用して 、 自分の子供が最もよく写っている編集映像を作成することができる。
[0025] 図 3は、映像共有システム 100において制御装置 104により実行される処理を示す フローチャートである。このフローチャートに示すように、制御装置 104はステップ S 1 00のイベント中処理、ステップ S200の映像判定処理、ステップ S300の映像編集処 理およびステップ S400の課金処理を順番に実行する。これらの各ステップにおける 具体的な処理の内容を、図 4〜7のフローチャートを用いて以下に説明する。なお、 ステップ S 100のイベント中処理は運動会などのイベント開催中に実行され、それ以 外の処理はイベント終了後に実行される。
[0026] 図 4は、図 3のステップ S100のイベント中処理において実行される処理のフローチ ヤートである。このフローチャートは、ステップ S10;!〜 S104の位置特定処理と、ステ ップ S 11;!〜 S114のスケジユーノレ管理処理と、ステップ S121、 S122の映像収集処 理と、ステップ S 131の判定処理とによって構成されている。なお、位置特定処理は 制御装置 104において位置特定部 104aにより実行され、スケジュール管理処理は スケジュール管理部 104bにより実行され、映像収集処理は映像収集部 104cにより 実行される。
[0027] ステップ S101では、 ICタグ受信機 102からタグ情報と受信機番号を入力する。ステ ップ S 102では、ステップ S 101で入力したタグ番号と記録装置 105に記録されたタグ 管理情報に基づいて、そのタグ番号に該当する被写体またはカメラ 103を特定する。 ステップ S 103では、ステップ S102で特定された被写体またはカメラ 103について、 ステップ S 101で入力した受信機番号と記録装置 105に記録された受信機管理情報 に基づいて、その被写体位置またはカメラ位置を特定する。ステップ S104では、ステ ップ S 103で特定された被写体位置またはカメラ位置を記録装置 105に記録する。
[0028] 以上説明したステップ S10;!〜 S 104の位置特定処理により、 ICタグ受信機 102か ら入力されたタグ番号が子供の所持する ICタグ 101に対して付与されたものである 場合、その子供が被写体として特定され、その所在位置が被写体位置として記録装 置 105に記録される。また、 ICタグ受信機 102から入力されたタグ番号が撮影者であ る親の所持する ICタグ 101に対して付与されたものである場合、その撮影者が所持 しているカメラ 103が特定され、その所在位置がカメラ位置として記録装置 105に記 録される。このようにして、映像共有システム 100に含まれる複数の被写体およびカメ ラ 103について、それぞれの被写体位置およびカメラ位置を記録する。 [0029] ステップ SI 11では、記録装置 105に記録された出場者登録情報を読み出す。この 出場者登録情報の例を図 8に示す。この例では、運動会の「玉入れ」、「100m走」、「 おどり(年長)」、および「障害物競走」の各競技プログラムについて、子供 A〜Eがど の競技プログラムに出場するかを表している。システム管理者や子供達の親が事前 に各競技プログラムに出場する子供のチェックボックスをチェックしておくことにより、 このような出場者登録情報を登録することができる。
[0030] ステップ S112では、ステップ S111で読み出した出場者登録情報に基づいて、次 のイベントプログラムの開始時間に近づいた否かを判定する。ここでは、次のイベント プログラムが開始される所定時間前、たとえば 5分前になつたときに開始時間に近づ いたと判定する。すなわち図 8の出場者登録情報の例では、たとえば 9時 55分になつ たときに「玉入れ」の開始時間に近づいたと判定し、 10時 35分になったときに「100 m走」の開始時間に近づいたと判定する。このようにして、ステップ S112が肯定判定 された場合はステップ S 113へ進む。一方、ステップ S 112が否定判定された場合は 、ステップ S113、 S 114を飛ばしてその次のステップ S121へ進む。
[0031] ステップ S113では、ステップ S111で読み出した出場者登録情報に基づいて、次 のイベントプログラムの出場予定者を特定する。こうして次のイベントプログラムの出 場予定者を特定することにより、出番が近い被写体が判断される。ステップ S 114で は、ステップ S113で特定された出場予定者を被写体として撮影を行う者に対して、 撮影を促す旨を伝える警告情報を前述のような方法により送信する。すなわち図 8の 出場者登録情報の例では、たとえば 9時 55分になったときには、「玉入れ」に参加す る子供 A、 Cの親に対して警告情報を送信し、 10時 35分になったときには、「100m 走」に参加する子供 Cの親に対して警告情報を送信する。
[0032] 以上説明したステップ S111〜S 114のスケジュール管理処理により、次のイベント プログラムが開始する所定時間前になつたら、予め登録されたイベントプログラムごと の出場者登録情報に基づいて、次のイベントプログラムに出場する予定の被写体を 特定する。これにより出番が近い被写体を判断し、その被写体の撮影者に対して、そ の撮影者が所持するカメラ 103に特定の動作を指示する制御信号を送信したり、ある いは撮影者が所持する予め登録された携帯電話のメールアドレスにメールを送信し たりすることで警告を行う。したがって、撮影者はイベントのスケジュールを覚えていな くても、撮影タイミングを逃すことなく目的とする被写体を確実に撮影することができる
[0033] ステップ S121では、カメラ 103から送信される撮影映像と撮影情報を受信する。こ の撮影情報には、前述のようにカメラ 103における撮影時の様々な撮影条件が表さ れている。ステップ S 122では、ステップ S 121で受信した撮影映像と撮影情報を記録 装置 105に記録する。このとき、各撮影映像のホワイトバランスが一致するように調節 したりしてもよい。こうしてステップ S121および S122の映像収集処理を実行すること により、複数の撮影者がカメラ 103によってそれぞれ撮影した映像を収集して各 ザ間で共有化することができる。
[0034] なお、上記のようにしてカメラ 103から撮影映像と撮影情報を送信する際には、後 述のような映像判定処理および映像編集処理を実行するための時刻情報を付加し ておく必要がある。この時刻情報は、処理対象とされる全ての撮影映像および撮影 情報において一致していなければならない。そのため、全ての撮影者がカメラ 103の 時計を同じ時刻に予め合わせておく必要がある。たとえば、標準電波を受信して時 刻校正を行う電波時計をカメラ 103に搭載することにより、複数のカメラ 103の時計合 わせを自動的に行うことができる。
[0035] ステップ S131では、イベントが終了したか否かを判定する。この判定は、ステップ S
111で読み出した出場者登録情報に基づ!/、て行ってもよ!/、し、システム管理者など 力 Sイベント終了時に行う所定の操作を検出することで行ってもよい。まだイベントが終 了していないと判定した場合はステップ S101 戻り、上記のような処理を繰り返す。 一方、既にイベントが終了したと判定した場合は、図 4のフローチャートを終了する。 イベント中処理では、以上説明したような処理が実行される。
[0036] 次に、ステップ S200の映像判定処理において映像編集部 104dにより実行される 図 5のフローチャートについて説明する。ステップ S201では、前述の映像収集処理 により収集されて記録装置 105に記録された各撮影映像に対して基準時刻の設定を 行う。この基準時刻とは、各映像の開始から終了までの間に所定の時間間隔で設定 されるものであり、たとえば 1秒間隔で設定される。この基準時刻は全ての映像に対し て共通に設定される。たとえば、最も早い時刻に撮影開始された映像の開始時刻を 最初の基準時刻として、そこから所定時間ごとに各映像に対して基準時刻が設定さ れる。なお、基準時刻の設定間隔は、制御装置 104の処理能力などに応じて決定さ れる。すなわち、設定間隔を短くするほど、以降に説明する処理の合計ステップ数が 増大して制御装置 104の処理負荷が大きくなるので、その処理時間が一定の範囲内 となるように、制御装置 104の処理能力が高い場合は基準時刻の設定間隔を短くし 、処理能力が低い場合は基準時刻の設定間隔を長くすることが好ましい。
[0037] ステップ S202では、前述の映像収集処理により収集されて記録装置 105に記録さ れた撮影映像の中からいずれかを選択する。ここでは、たとえば撮影者が所持する I Cタグ 101のタグ番号が小さいものから、その撮影者による撮影映像を順番に選択す る。ステップ S203では、ステップ S201で設定した基準時刻のうち、ステップ S202で 選択した映像において最初となる基準時刻を選択する。
[0038] ステップ S204では、ステップ S202で選択した撮影映像と共に記録されて!/、る撮影 情報のうち、現在選択中の基準時刻における撮影情報を記録装置 105から読み出 す。ここで現在選択中の基準時刻とは、ステップ S203または後述のステップ S213に よって選択された基準時刻である。すなわち、最初にこのステップ S 204の処理を実 行する場合は、最初の基準時刻が現在選択中の基準時刻とされ、その後はステップ S204の処理を繰り返し実行する度に、続く基準時刻が順次に現在選択中の基準時 亥 IJとされる。なお、前述のように撮影情報力 Sメタデータとして撮影映像内に埋め込ま れている場合は、ステップ S202で選択した映像において現在選択中の基準時刻に 埋め込まれたメタデータを読み出すことで、撮影情報の読み出しを行う。
[0039] ステップ S205では、ステップ S204で読み出した撮影情報に基づいて、カメラ 103 の撮影範囲を算出する。ここでは、撮影情報に表される撮影方向を中心にして広が る所定の範囲内を撮影範囲として求める。この撮影範囲の大きさは、撮影情報に表さ れるカメラ 103の焦点距離やズーム量、画角などに応じて決定される。
[0040] ステップ S206では、現在選択中の基準時刻における被写体位置情報およびカメラ 位置情報を記録装置 105から読み出す。この被写体位置情報およびカメラ位置情報 は、前述の位置特定処理によって記録装置 105に記録されたものである。なお、この とき被写体位置情報については記録装置 105に記録されている全ての被写体位置 情報を読み出し対象とするが、カメラ位置情報については、ステップ S202で選択し た映像を撮影したカメラ 103の位置情報のみを読み出し対象とする。すなわち、全て の被写体の位置情報と、選択した撮影映像に対応するカメラ 103の位置情報とを、 記録装置 105に記録された被写体位置情報およびカメラ位置情報の中から読み出 す。
[0041] ステップ S207では、ステップ S205で算出された撮影範囲と、ステップ S206で読 み出した被写体位置情報およびカメラ位置情報に基づいて、撮影範囲内にある被写 体を特定する。すなわち、被写体位置情報とカメラ位置情報から、当該カメラ 103に 対する各被写体の相対位置を求め、その相対位置が撮影範囲内にある被写体を特 定する。ここで特定された撮影範囲内の被写体を対象として、以降に説明するステツ プ S208および S209の処理力 S実行される。なお、ステップ S207において撮影範囲 内にある被写体が一つも特定されたかった場合は、ステップ S208、 S209および S2 10の処理が実行されずに、ステップ S211において被写体情報に「なし」と記録され
[0042] ステップ S208では、ステップ S202で選択した撮影映像にお!/、て、撮影の障害とな つてレ、る撮影障害物があるか否力、を判定する障害物判定を行う。この障害物判定は 7火のようにして行うこと力 Sできる。たとえば、施設内にある障害物の四隅等に ICタグ 10 1を配置しておき、その ICタグ 101の位置を位置特定部 104aにおいて前述のように 特定することにより、障害物の位置を特定する。こうして特定された障害物の位置と撮 影範囲内にある被写体の位置を比較し、被写体がその障害物の陰になっているか否 力、を判定することにより、撮影障害物があるか否かを判定することができる。あるいは 、撮影画像にぉレ、て被写体が障害物の陰に隠れて!/、るか否かを画像処理などで認 識することにより、障害物判定を行うようにしてもよい。
[0043] ステップ S209では、ステップ S202で選択した撮影映像における撮影状態の良否 を判定する撮影良否判定を行う。たとえば、カメラ 103において撮影時に手ぶれや合 焦ミスが起きて!/、るか否力、を検出し、これらが検出されて!/、た場合は前述の撮影情報 などにより制御装置 104へ通知する。この通知の発生状況を撮影映像と共に記録装 置 105に記録しておき、発生時には撮影状態が悪いと判定することにより、撮影良否 判定を行うことができる。または、カメラ位置および撮影範囲内にある被写体の位置 に基づいてカメラ 103からその被写体までの距離を計算し、その計算結果を撮影情 報の焦点距離と比較して、被写体までの距離がカメラ 103の撮影可能範囲外にある 場合は撮影状態が悪いと判定することにより、撮影良否判定を行ってもよい。あるい は、撮影画像にぶれやピンボケがあるか否かを顔認識などの画像処理によって認識 したり、撮影画像の明るさが適切であるか否かを判定したりすることで、撮影良否判 定を fiうこともできる。
[0044] ステップ S210では、ステップ S207における撮影範囲内の被写体の特定結果と、ス テツプ S208の障害物判定の結果およびステップ S209の撮影良否判定の結果に基 づいて、撮影映像において適切に撮影されている被写体を特定する。すなわち、ス テツプ S 207で特定された撮影範囲内の被写体のうち、ステップ S 208で撮影障害物 がないと判定され、さらにステップ S209で撮影状態が良いと判定されたものを、撮影 映像において適切に撮影されている被写体とする。ステップ S211では、ステップ S2 10で特定された被写体の情報を被写体情報として記録装置 105に記録する。
[0045] ステップ S212では、ステップ S202で選択した撮影映像について、最後の基準時 刻まで選択したか否かを判定する。ここでいう最後の基準時刻とは、ステップ S201で 設定した基準時刻の中で、ステップ S202で選択した撮影映像の最後に当たるもの である。この最後の基準時刻までをまだ選択していない場合はステップ S213へ進み 、現在選択中の次の基準時刻を選択した後、ステップ S204へ戻る。これにより、次の 基準時刻が順次選択され、前述のような処理が繰り返し実行される。一方、最後の基 準時刻まで選択した場合はステップ S214へ進む。
[0046] ステップ S214では、ステップ S202の処理により、記録装置 105に記録されている 全ての撮影映像が既に選択されたか否かを判定する。まだ選択して!/、な!/、撮影映像 が残っている場合はステップ S202へ戻り、それまでに選択したのとは異なる撮影映 像をステップ S202において選択した後、上記のような処理を繰り返す。このようにす ることで、カメラ 103により撮影されて収集された撮影映像の全てが順次選択され、図 5のフローチャートに示す映像判定処理が繰り返し実行される。一方、ステップ S214 において全ての撮影映像が選択されたと判定された場合は、図 5のフローチャートを 終了する。映像判定処理では、以上説明したような処理が実行される。
[0047] 以上説明したような映像判定処理の具体例を図 9および図 10を用いて説明する。
図 9は、カメラ 103における撮影状況の例を示している。この例では、カメラ 103が右 方向に徐々に回転しながら、子供 A, Bまたは Cを被写体として撮影を行っている様 子を示している。なお、カメラ 103と子供 Aの間には障害物 120が存在している。
[0048] 図 10は、図 9の撮影状況において撮影された映像について、図 5のフローチャート に示した映像判定処理により記録される被写体情報の例を示して!/、る。初めの基準 時刻 tOでは、カメラ 103の撮影範囲内に子供 Bおよび Cが位置しているとする。このと き前述のような障害物判定により、被写体である子供 B、 C共にカメラ 103との間に障 害物 120がないと判定され、さらに撮影良否判定により、子供 B、 Cは共に撮影状態 が良いと判定されたとする。この場合、基準時刻 tOにおける被写体情報には子供 B および Cが記録される。次の基準時刻 tlでも、上記と同様にして被写体情報に子供 Bおよび Cが記録される。
[0049] 基準時刻 t2では、カメラ 103が右方向に回転したことによって子供 Bが撮影範囲外 となったため、撮影範囲内には子供 Cおよび Aが位置しているとする。このとき前述の ような障害物判定により、被写体である子供 Aとカメラ 103の間に障害物 120があると 判定されたとする。この場合、基準時刻 t2における被写体情報には子供 Cのみが記 録される。次の基準時刻 t3でも、同様に被写体情報には子供 Cのみが記録される。
[0050] その後の基準時刻 t4では、カメラ 103がさらに右方向に回転したことによって子供 Cも撮影範囲外となったため、撮影範囲内には子供 Aのみが位置しているとする。こ の場合、子供 Aとカメラ 103の間には障害物 120があるため、被写体情報にはいず れの子供も記録されずに「なし」と記録される。以上説明したようにして、被写体情報 の記録が fiわれる。
[0051] 次に、図 3のステップ S300の映像編集処理において映像編集部 104dにより実行 される図 6のフローチャートについて説明する。ステップ S301では、編集対象とする 被写体の選択を行う。この被写体の選択は、たとえばユーザである親が運動会の終 了後に自宅のパーソナルコンピュータから映像共有システム 100にアクセスし、自分 の子供を編集対象に指定することで行われる。あるいは、運動会に参加した全ての 子供をステップ S301において順次選択し、それぞれについて図 6のフローチャート を実 fiすることとしてあよい。
[0052] なお、ステップ S301において、撮影映像の被写体である子供とユーザである親と の対応関係を表したユーザ情報を予め登録しておき、そのユーザ情報に基づ!/、て被 写体を選択するようにしてもよい。すなわち、いずれかのユーザから編集映像の作成 要求があると、予め登録されたユーザ情報に基づ!/、てそのユーザの子供を特定し、 特定された子供をそのユーザにつ!/、て編集対象とする被写体に自動的に選択する。 このようにすれば、ユーザが他人の子供を許可なく編集対象に指定してその子供の 編集映像を無断で作成するのを防ぐことができる。
[0053] ステップ S302では、映像編集時間の設定を行う。ここでは、以降説明する処理によ つて編集映像を作成するときに、蓄積された各撮影映像から抽出する映像部分の撮 影時刻の範囲を設定することにより、映像編集時間を設定する。すなわち、ここで設 定される映像編集時間の範囲内の時刻に撮影された映像部分が各撮影映像から抽 出され、それを用いて編集映像が作成される。この映像編集時間の設定は、ユーザ である親が自宅のパーソナルコンピュータから直接指定してもよいし、ステップ S301 で選択した被写体がレ、ずれかの撮影映像にぉレ、て撮影されてレ、る全ての時間を自 動的に指定するようにしてもよい。あるいは、予め登録されたイベントプログラム情報 に基づいて、いずれかのイベントプログラムをユーザが選択することにより、そのィべ ントプログラムの時間を映像編集時間として設定することとしてもよい。なお、このィべ ントプログラム情報を、図 8に示したようなイベントプログラムごとの出場者登録情報と 兼用してもよい。
[0054] ステップ S303では、図 5のステップ S201で設定された基準時刻のうち、ステップ S 302で設定された映像編集時間に含まれる最初の基準時刻を選択する。次のステツ プ S304では、前回の映像切り替えから所定時間以内(たとえば 2秒以内)であるか否 かを判定する。すなわち、ステップ S303または後述のステップ S315によって選択さ れた基準時刻と、最後に映像切り替えをした基準時刻との間が所定時間以上離れて いる場合は、ステップ S304を否定判定してステップ S305へ進む。一方、ステップ S3 03または後述のステップ S315によって選択された基準時刻と、最後に映像切り替え をした基準時刻との間が所定時間以内である場合は、ステップ S304を肯定判定して ステップ S306へ進む。なお、ここでいう映像切り替えとは、後述のステップ S309、 S3 11または S312の処理によっていずれかの撮影映像から抽出された映像部分がステ ップ S313において編集映像に揷入されたときに、それまでとは異なる撮影映像から の映像部分が揷入されることを意味してレ、る。
[0055] ステップ S304力、ら S305へ進んだ場合、ステップ S305では、図 5のフローチャート に示す映像判定処理によって前述のように記録された各撮影映像の被写体情報を 記録装置 105から読み出す。ステップ S 305を実行したらステップ S 307へ進む。
[0056] 一方、ステップ S304力、ら S306へ進んだ場合、ステップ S306では、前回と同じ撮 影映像から、現在選択中の基準時刻から次の基準時刻までの映像部分を抽出する 。こうすることにより、同一の撮影映像から所定時間以上の連続する映像部分を抽出 すること力 Sできる。これにより、少なくともその所定時間が経過するまでは、編集映像 において映像の切り替わり(カメラの切り替わり)が起こらない。その結果、切り替えが 頻繁すぎて見づらい編集映像となることを防止できる。ステップ S306の実行後はス テツプ S313へ進む。
[0057] ステップ S307では、ステップ S305で読み出した各撮影映像の被写体情報に基づ いて、ステップ S301で編集対象に選択された被写体力 選択中の基準時刻におい ていずれかの撮影映像に撮影されているか否かを判定する。すなわち、読み出した 各撮影映像の被写体情報のうち少なくともいずれかにおいて、編集対象に選択され た被写体が記録されていれば、ステップ S307を肯定判定してステップ S308へ進む 。一方、読み出した被写体情報のいずれにおいても選択された被写体が記録されて いなければ、ステップ S307を否定判定してステップ S309へ進む。
[0058] ステップ S307力、ら S309へ進んだ場合、ステップ S309では、イベント全体の様子 を撮影した全体撮影映像から、現在選択中の基準時刻から次の基準時刻までの映 像部分を抽出する。この全体撮影映像は、イベント主催者などによって撮影される。 これにより、編集対象とされた被写体がレ、ずれの撮影映像にもおレ、ても撮影されてレヽ ない場合であっても、イベントに合わせた適当な映像を編集映像に揷入することがで きる。なお、全体撮影映像を揷入する代わりに、たとえば自分の子供を編集対象に指 定した親自身による撮影映像を揷入してもよ!/、し、あるいは他の親の撮影映像の!/、 ずれかを適当に選択して揷入してもよい。ステップ S309の実行後はステップ S313 へ進む。
[0059] 一方、ステップ S307力、ら S308へ進んだ場合、ステップ S308では、ステップ S305 で読み出した被写体情報に基づレ、て、ステップ S301で編集対象に選択された被写 体が同一時間内に複数の撮影映像において撮影されているか否かを判定する。す なわち、読み出した各撮影映像の被写体情報のうち複数の被写体情報において、編 集対象に選択された被写体が記録されて!/、れば、ステップ S308を肯定判定してス テツプ S310へ進む。一方、読み出した被写体情報のうち一つのみに選択された被 写体が記録されていれば、ステップ S308を否定判定してステップ S311へ進む。
[0060] ステップ S308力、ら S310へ進んだ、場合、ステップ S310では、ステップ S308におい て編集対象の被写体が撮影されてレ、ると判定された複数の撮影映像のうち!、ずれか を、優先すべき撮影映像 (優先映像)として判定する。この判定は、カメラ 103と被写 体の位置関係または各撮影映像の写り具合に基づいて、たとえば次のようにして行う こと力 Sでさる。たとえば、撮影情報と被写体位置情報およびカメラ位置情報に基づレ、 て、その映像を撮影したカメラ 103と被写体の距離が最も近いものや、被写体が撮影 範囲の最も中央付近に位置しているものを判別することにより、どの撮影映像が優先 映像である力、を判定できる。または、各撮影映像の中で最もぶれやボケが少ないもの を画像処理などにより判別することで優先映像を判定してもよい。なお、このときにど の条件を重視するかを設定できるようにしてもよい。ステップ S310により優先映像が 判定されたら、ステップ S312へ進む。
[0061] 一方、ステップ S308力、ら S311へ進んだ場合、ステップ S311では、ステップ S308 にお!/、て編集対象の被写体が撮影されてレ、ると判定された唯一の撮影映像から、現 在選択中の基準時刻から次の基準時刻までの映像部分を抽出する。ステップ S311 の実行後はステップ S313へ進む。
[0062] ステップ S312では、ステップ S310において優先映像として判定された撮影映像か ら、現在選択中の基準時刻から次の基準時刻までの映像部分を抽出する。これによ り、編集対象とされた被写体が複数の撮影映像に撮影されている場合であっても、そ の中で最も適した撮影映像から映像部分を抽出することができる。ステップ S312の 実行後はステップ S313へ進む。
[0063] ステップ S313では、ステップ S306、 S309、 S311または S312において由出され た映像部分を編集映像に揷入する。これにより、編集映像において現在選択中の基 準時刻から次の基準時刻までの映像部分が揷入される。なお、このとき音声につい ては、編集映像中で統一されるように、マスター音声として録音されたものを用いるこ ととしてあよい。
[0064] ステップ S314では、ステップ S302で設定された映像編集時間に含まれる最後の 基準時刻を選択する。最後の基準時刻までをまだ選択してレヽなレヽ場合はステップ S3 15へ進み、ステップ S315において現在選択中の次の基準時刻を選択した後、ステ ップ S304へ戻る。これにより、次の基準時刻が順次選択され、前述のような処理が 繰り返し実行される。一方、ステップ S314において最後の基準時刻まで選択したと 判定された場合は、図 6のフローチャートを終了する。このようにして、複数の撮影映 像のいずれかから抽出された複数の映像部分が順次挿入されることにより映像が編 集され、その結果、編集対象として選択された被写体についての編集映像が作成さ れる。映像編集処理では、以上説明したような処理が実行される。
[0065] 以上説明したような映像編集処理により作成される編集映像の具体例を図 11に示 す。この例では、図 9の子供 Aおよび Bをそれぞれ編集対象の被写体に選択した場 合に、それぞれにつ!/、て作成される編集映像にお!/、てどのような映像が揷入される 力、を示している。このとき、図 9に示すカメラ 103によって撮影された映像(映像 # 1と 表す)に対しては、図 11に示すように、図 10に示したものと同じ内容の被写体情報が 記録されているものとする。また、別のカメラ 103によって撮影された映像(映像 # 2と 表す)に対しては、図 11に示すような被写体情報が記録されているものとする。
[0066] 最初の基準時刻 tOでは、映像 # 1にはその被写体情報から子供 Bおよび Cが写つ ており、映像 # 2にはその被写体情報から子供 Aおよび Dが写っていることが分かる 。したがって、子供 Aを編集対象に選択した場合に映像編集処理によって作成され る編集映像 (被写体 A編集映像と表す)には、その子供 Aが写ってレ、る映像 # 2が基 準時刻 tOから次の基準時刻 tlまでの間に挿入される。また、子供 Bを編集対象に選 択した場合に映像編集処理によって作成される編集映像 (被写体 B編集映像と表す )には、その子供 Bが写っている映像 # 1が基準時刻 tOから次の基準時刻 までの 間に挿入される。これと同様に、基準時刻 tlから次の基準時刻 t2までの間において も、被写体 A編集映像には子供 Aが写っている映像 # 2が揷入され、被写体 B編集 映像には子供 Bが写っている映像 # 1が揷入される。
[0067] 基準時刻 t2では、映像 # 1にはその被写体情報から子供 Bが写っておらず、子供 Cのみが写っていることが分かる。このとき子供 Bは映像 # 1、 # 2いずれにも写って いないため、被写体 B編集映像には、基準時刻 t2から次の基準時刻 t3までの間に、 イベント主催者などによって撮影された全体撮影映像が揷入される。一方被写体 A 編集映像には、それまでと同様に、子供 Aが写っている映像 # 2が基準時刻 t2から 次の基準時刻 t3までの間に挿入される。
[0068] 基準時刻 t3では、映像 # 2にはその被写体情報から子供 Aおよび Cが写っており、 子供 Dは写っていないことが分かる。このときにも基準時刻 t2の場合と同様に、基準 時刻 t3から次の基準時刻 t4までの間に、被写体 A編集映像には映像 # 2が揷入さ れ、被写体 B編集映像には全体撮影映像が揷入される。
[0069] 基準時刻 t4では、映像 # 1にはその被写体情報からいずれの子供も写っておらず 、映像 # 2にはその被写体情報から子供 Cおよび Bが写っていることが分かる。このと き子供 Aは映像 # 1、 # 2いずれにも写っていないため、被写体 A編集映像には全体 撮影映像が揷入される。一方被写体 B編集映像には、子供 Bが写っている映像 # 2 が揷入される。以上説明したようにして、被写体 A編集映像および被写体 B編集映像 にそれぞれ揷入された各映像を順につなぎ合わせることにより、編集対象の被写体と して指定された子供 Aおよび Bについての編集映像がそれぞれ作成される。
[0070] 次に、図 3のステップ S400の課金処理において課金部 104eにより実行される図 7 のフローチャートについて説明する。ステップ S401では、課金処理の対象とするュ 一ザを選択する。このユーザの選択は、たとえばユーザである親が自分の子供を編 集対象に指定して上記の映像編集処理により編集映像を作成したときに、その親を 対象ユーザとして選択することにより行われる。あるいは、編集映像を提供する全て のユーザを順番に対象ユーザとして選択し、各ユーザについてステップ S402以降 の処理を順次実行するようにしてもよい。ステップ S402では、ステップ S401で選択 した対象ユーザに対して作成された編集映像を特定する。
[0071] ステップ S403では、ステップ S402で特定した対象ユーザに対して作成された編集 映像の中に、ステップ S401で選択した対象ユーザ以外の他人による撮影映像が揷 入されてレ、るか否かを判定する。対象ユーザに対して作成された編集映像のうちレヽ ずれかの部分に他人の撮影映像が揷入されて!/、る場合は、ステップ S404へ進む。 一方、対象ユーザに対して作成された編集映像の全てがその対象ユーザ自身によ つて撮影された映像で構成されており、他人の撮影映像が揷入されて!、な!/、場合は 、ステップ S404を実行せずにステップ S405へ進む。
[0072] ステップ S404では、ステップ S403で対象ユーザの編集映像に揷入されていると 判定された他人の撮影映像の合計揷入時間、すなわち対象ユーザの編集映像にお V、て他人の撮影映像を利用してレ、る時間(映像利用時間)を求め、その映像利用時 間に応じた課金額の算出を行う。ここでは、たとえば予め定められた課金単位時間ご とに所定の金額を乗じることにより(たとえば、 1秒ごとに 1円など)、課金額を算出する 。こうして対象ユーザに対する課金額が算出されたら、ステップ S405へ進む。
[0073] ステップ S405では、対象ユーザ以外の他人に対して作成された編集映像、すなわ ちステップ S402で特定した対象ユーザの編集映像を除!/、た!/、ずれかの編集映像の 中に、その対象ユーザによって撮影された映像が揷入されているか否かを判定する 。対象ユーザの撮影映像が他人の編集映像の!/、ずれかに挿入されて!/、る場合は、 ステップ S406へ進む。一方、対象ユーザの撮影映像が他人の編集映像のいずれに も揷入されて!/、な!/、場合は、ステップ S406を実行せずにステップ S407へ進む。
[0074] ステップ S406では、ステップ S405で他人の編集映像に揷入されていると判定され た対象ユーザの撮影映像の合計挿入時間、すなわち対象ユーザが撮影映像を他人 の編集映像に提供している時間(映像提供時間)を求め、その映像提供時間に応じ た受領金額の算出を行う。ここでは、たとえば予め定められた支払単位時間に所定 の金額を乗じることにより(たとえば、 1秒ごとに 1円など)、受領金額を算出する。なお 、このときに対象ユーザの受領金額と当該撮影映像の利用者に対する課金額の間に 差を設けて、その差分をシステム管理者の手数料などに充当してもよい。こうして対 象ユーザの受領金額が算出されたら、ステップ S407へ進む。
[0075] ステップ S407では、ステップ S404により算出された課金額と、ステップ S406により 算出された受領金額とに基づ!/、て、対象ユーザの最終的な課金額または受領金額 の算出を行う。このとき、課金額が受領金額を上回っている場合は、その上回ってい る分を最終的な課金額とし、反対に受領金額が課金額を上回っている場合は、その 上回って!/、る分を最終的な受領金額とする。こうして対象ユーザの最終的な課金額 または受領金額が算出されたら、ステップ S408へ進む。
[0076] ステップ S408では、ステップ S407で算出された課金額または受領金額の通知を 対象ユーザに対して行う。こうして課金額または受領金額を通知されたユーザは、そ れに応じて課金額の支払いまたは受領金額の受け取りを、たとえば編集映像の受領 時などに行う。または、クレジットカード決済や銀行振込などによって課金額の支払い や受領金額の受け取りを行ってもよい。ステップ S408を実行したら図 7のフローチヤ ートを終了する。課金処理では、以上説明したような処理が実行される。
[0077] 以上説明した実施の形態によれば、次のような作用効果を奏することができる。
(1)複数のカメラ 103により撮影された各撮影映像を、映像収集部 104cが実行する 映像収集処理により収集し、その各撮影映像において撮影されている被写体を、映 像編集部 104dが行う映像判定処理により撮影映像ごとに特定する(ステップ S210) 。そして、収集された各撮影映像と特定された被写体を表す被写体情報とを記録装 置 105に記録し (ステップ S122、 S211)、記録装置 105において蓄積することとした 。このようにしたので、運動会において子供達の親がそれぞれ撮影者となって自分の 子供を撮影した映像のように、複数の撮影者が同一施設内で撮影した映像を共有化 する際に、使レ、勝手の良レ、システムを提供することができる。
[0078] (2)施設内における各被写体および各カメラの所在位置を特定し (ステップ S 103)、 その情報を記録装置 105に記録しておく(ステップ S 104)。ステップ S210では、こう して特定されて記録された各被写体および各カメラの所在位置に基づ!/、て、各撮影 映像において撮影されている被写体を特定することとした。このようにしたので、各撮 影映像にぉレ、て撮影されて!、る被写体を確実に特定することができる。 [0079] (3)施設内に複数の ICタグ受信機 102を設置しておき、ステップ S 103では、この IC タグ受信機 102により受信された被写体が所持する ICタグ 101のタグ情報と、そのタ グ情報を受信した ICタグ受信機 102の設置位置とに基づいて、施設内における各被 写体および各カメラの所在位置を特定することとした。このようにしたので、各被写体 および各カメラの所在位置を精度よく求めることができる。
[0080] (4)複数のカメラ 103から撮影情報を収集し (ステップ S121、 S122)、収集された撮 影情報に基づいて各カメラの撮影範囲を算出する (ステップ S205)。そして、特定さ れた各被写体および各カメラの所在位置と、算出された各カメラの撮影範囲とに基づ いて、撮影範囲内にある被写体を特定する(ステップ S207)。ステップ S210では、こ うして特定された撮影範囲内の被写体により、各撮影映像において撮影されている 被写体を特定することとした。このようにしたので、撮影されている被写体を正確に特 定すること力 Sでさる。
[0081] (5)また、各撮影映像における撮影障害物の存在の有無を判定し (ステップ S208)、 その判定結果にも基づいてステップ S211における被写体の特定を行うこととしたの で、撮影されてレ、る被写体をより一層正確に特定することができる。
[0082] (6)さらに、各撮影映像における撮影状態の良否を判定し (ステップ S209)、その判 定結果にも基づいてステップ S211における被写体の特定を行うこととしたので、撮 影されている被写体をさらに一層正確に特定することができる。
[0083] (7)映像編集部 104dが実行する映像編集処理により、編集対象とする被写体を選 択し (ステップ S301)、記録装置 105に蓄積された複数の撮影映像のいずれかから 、選択された被写体が撮影されている複数の映像部分を抽出する (ステップ S306、 S311、 S312)。こうして抽出された複数の映像部分を順次挿入して映像を編集する ことにより、選択された被写体についての編集映像を作成する (ステップ S313)ことと した。このようにしたので、運動会において子供達の親がそれぞれ撮影者となって自 分の子供を撮影した映像のように、複数の撮影者が同一施設内で撮影した映像を共 有化する際に、使!、勝手の良レ、システムを提供することができる。
[0084] (8)施設内における各被写体および各カメラの所在位置を特定し (ステップ S 103)、 その情報を記録装置 105に記録しておく(ステップ S 104)。こうして記録された各被 写体および各カメラの所在位置に基づ!/、て、各撮影映像にお!/、て撮影されて!/、る被 写体を特定し (ステップ S210)、特定された被写体を表す被写体情報を記録する (ス テツプ S211)。こうして記録された被写体情報に基づいて、選択された被写体がい ずれかの撮影映像にお!/、て撮影されて!/、るか否かを判定し(ステップ S307、 S308) 、その判定結果により、ステップ S311または S312において、選択された被写体が撮 影されている映像部分を抽出することとした。このようにしたので、選択された被写体 が撮影されている映像部分を確実に抽出することができる。
[0085] (9)前回の映像切替から所定時間以内であるか否かを判定し (ステップ S304)、所 定時間以内である場合は、前回と同じ撮影映像から、現在選択中の基準時刻から次 の基準時刻までの映像部分を抽出する(ステップ S306)。こうして同一の撮影映像か ら所定時間以上の連続する映像部分を抽出することとしたので、少なくともその所定 時間が経過するまでは、編集映像にぉレ、て映像の切り替わり(カメラの切り替わり)が 起こらず、切り替えが頻繁すぎて見づらレ、編集映像となることを防止できる。
[0086] (10)選択された被写体がいずれかの撮影映像に撮影されているか否かを判定し (ス テツプ S307)、いずれの撮影映像においても撮影されていないときには、予め定めら れた全体撮影映像から映像部分を抽出し (ステップ S309)、その映像部分をステツ プ S313において編集映像に揷入することとした。このようにしたので、編集対象とさ れた被写体がレ、ずれの撮影映像にもおレ、ても撮影されてレ、なレ、場合であっても、ィ ベントに合わせた適当な映像を編集映像に揷入することができる。
[0087] (11)選択された被写体が同一時間内に複数の撮影映像にお!/、て撮影されて!/、るか 否かを判定し (ステップ S308)、複数の撮影映像において撮影されている場合には、 その複数の撮影映像のいずれかを優先すべきと判定する(ステップ S310)。ステップ S312では、こうして優先すべきと判定された撮影映像から映像部分を抽出することと した。このようにしたので、編集対象とされた被写体が複数の撮影映像に撮影されて いる場合であっても、その中で最も適した撮影映像から映像部分を抽出することがで きる。
[0088] (12)ステップ S310では、カメラと被写体の位置関係または各撮影映像の写り具合 に基づいて、複数の撮影映像のいずれかを優先すべきと判定することとしたので、映 像部分を抽出するのに最も適した撮影映像を確実に判定することができる。
[0089] (13)ステップ S301で被写体を選択するときに、各被写体とユーザとの対応関係を 表したユーザ情報を予め登録しておき、いずれかのユーザから編集映像の作成要求 があると、登録されているユーザ情報に基づいて、そのユーザについて編集対象と する被写体を選択することができる。このようにすれば、ユーザが他人の子供などそ のユーザに無関係な人物を許可なく編集対象に指定して、その人物の編集映像を 無断で作成することを防止できる。
[0090] (14)映像編集処理にお!/、て抽出される映像部分の撮影時刻の範囲を、映像編集 時間として設定する (ステップ S302)。このとき、予め登録されたイベントプログラム情 報に基づいて映像編集時間を設定することができる。このようにしたので、ユーザは 映像編集時間を間単に設定することができる。
[0091] (15)課金部 104eが実行する課金処理により、いずれかのユーザを対象ユーザとし て選択し (ステップ S401)、その対象ユーザに対して作成された編集映像に対する 当該対象ユーザの課金額を算出する (ステップ S404)。また、当該対象ユーザ以外 の他のユーザに対して作成された編集映像に対する当該対象ユーザの受領金額を 算出する(ステップ S406)こととした。このようにしたので、他ユーザの撮影映像の利 用や、他ユーザに対する撮影映像の提供に応じて、ユーザに課金または受領金の 支払いを行うことができる。
[0092] (16)ステップ S404では、対象ユーザに対して作成された編集映像において他のュ 一ザの撮影映像が揷入されている時間に応じて、当該対象ユーザの課金額を算出 することとした。このようにしたので、他ユーザの撮影映像の利用状況に応じた適切な 課金額を算出することができる。
[0093] (17)ステップ S406では、対象ユーザ以外の他のユーザに対して作成された編集映 像において当該対象ユーザの撮影映像が揷入されている時間に応じて、当該対象 ユーザの受領金額を算出することとした。このようにしたので、他ユーザに対する撮影 映像の提供状況に応じた適切な受領金額を算出することができる。
[0094] (18)スケジュール管理部 104bが実行するスケジュール管理処理により、施設内に 存在する複数の被写体のうち出番が近い被写体の撮影者に対して警告を行うことと した。このようにしたので、撮影者はイベントのスケジュールを覚えていなくても、撮影 タイミングを逃すことなく目的とする被写体を確実に撮影することができる。その結果 、運動会において子供達の親がそれぞれ撮影者となって自分の子供を撮影した映 像のように、複数の撮影者が同一施設内で撮影した映像を共有化する際に、使い勝 手の良いシステムを提供することができる。
[0095] (19)次のイベントプログラムの開始時間に近づいたか否かを判定し(ステップ S 112) 、次のイベントプログラムが開始する所定時間前になつたら、そのイベントプログラム に出場する予定の被写体を特定し (ステップ S 113)、これにより出番が近い被写体を 判断することとした。このようにしたので、適切なタイミングで出番が近い被写体を判 断すること力 Sでさる。
[0096] (20)ステップ S 112では、予め登録されたイベントプログラムごとの出場者登録情報 に基づいて、次のイベントプログラムに出場する予定の被写体を特定することとした。 このようにしたので、次のイベントプログラムに出場する予定の被写体を簡単かつ確 実に特定することができる。
[0097] (21)ステップ S114において警告情報を送信するときに、カメラ 103に特定の動作を 指示する制御信号を送信することにより、撮影者に対して警告を行うことができる。あ るいは、ステップ S 114において警告情報を送信するときに、予め登録された撮影者 が所持する携帯電話のメールアドレスにメールを送信することにより、撮影者に対し て警告を行うこともできる。これらいずれかのようにすることで、撮影者にとって分かり やすレ、警告とすること力できる。
[0098] なお、以上説明した実施の形態では、カメラ 103によって撮影された全ての撮影映 像を映像収集部 104cにより収集して共有化することとしたが、事前に共有化に同意 したユーザが撮影した映像のみを対象としてもよい。このとき、撮影映像の著作権の 帰属に関する取り決めや、他人の撮影映像を商用目的には使用できないことなどを 事前に契約事項で定めておくことが好ましい。あるいは、撮影者が共有化するか否か をその都度選択できるようにしてもょレ、。
[0099] また、撮影映像を一旦カメラ 103に記録しておき、後でユーザが自宅のパーソナル コンピュータ等から制御装置 104に送信することで、撮影映像を制御装置 104に収 集することとしてもよい。このとき、撮影映像のうちどの部分を制御装置 104に送信し て共有化するかをユーザが選択できるようにしてもょレ、。
[0100] 上記の実施の形態では、図 4〜7のフローチャートに示した処理を全て制御装置 10 4において実行することとした力 S、このうち一部をカメラ 103において実行することとし てもよい。たとえば、位置特定処理によって特定された被写体位置およびカメラ位置 の情報を制御装置 104から各カメラ 103へ逐次送信し、その情報に基づいて、図 5の フローチャートで説明したような映像判定処理をカメラ 103において実行することもで きる。このようにした場合、カメラ 103から撮影映像と被写体情報を制御装置 104へ送 信することにより、図 6のフローチャートに示す映像編集処理を制御装置 104の映像 編集部 104dにおいて実行することができる。なお、その場合には被写体情報をメタ データとして撮影映像データ内に埋め込むこととしてもよい。
[0101] 上記の実施の形態では、幼稚園や保育園、小学校等の施設において、運動会な どのイベントにおいて親が撮影者となって自分の子供を撮影し、その撮影映像を共 有化する映像共有システムを例に説明したが、これ以外の場合にも適用することがで きる。たとえば、自分の子供以外を被写体として撮影する場合に用いてもよいし、ある いは公園、体育館、遊園地、観光施設などの様々な施設において使用してもよい。こ れ以外にも様々な使用形態が考えられる。
[0102] 第 2の実施の形態
図 12は、本発明の第 2の実施形態による撮影支援システムの構成を示すブロック 図である。この撮影支援システムは、主に幼稚園や保育園、小学校等の施設におい て、撮影者が特定の被写体を容易に探し出せるようにするためのものである。この撮 影支援システムを用いることにより、たとえば運動会などのイベントにおいて親が撮影 者となって自分の子供を撮影するときに、自分の子供がどこにレ、るかを容易に探すこ とができるようになる。
[0103] 図 12の撮影支援システム 200は、 ICタグ 101と、 ICタグ受信機 102と、カメラ 103と 、制御装置 104と、管理情報記録メモリ 106とで構成される。なお、 ICタグ受信機 10 2、制御装置 104および管理情報記録メモリ 106は施設内に予め設置されている。一 方、 ICタグ 101およびカメラ 103は、レンタルまたは販売により、撮影支援システム 20 oのユーザである子供と撮影者に提供される。
[0104] 前述のとおり、 ICタグ 101は、カメラ 103により被写体とされる子供達(園児、児童な ど)が各自 1つずつ所持している。例えば、名札、帽子、靴、園児服、体操服などに I Cタグ 101を装着しておき、これらのものを身に着けることによって子供達に ICタグ 10 1を所持させる。さらに、カメラ 103を所持している撮影者 (親など)も、各自 ICタグ 10 1を所持している。この場合、子供と同様に ICタグ 101を撮影者の衣服などに装着し てもよいし、あるいはカメラ 103に装着してもよい。すなわち、図 12では ICタグ 101を 代表して 1つのブロックで表している力 実際には子供と撮影者の数に応じた複数の I Cタグ 101が撮影支援システム 200に含まれる。
[0105] ICタグ 101には、 ICタグ 101の各々を一意に識別するための固有のタグ番号がそ れぞれ付与されている。このタグ番号は、タグ情報の一部として ICタグ受信機 102に 送信される。すなわち各 ICタグ 101は、各々に固有の識別情報としてタグ情報を送 信する。
[0106] なお、撮影者である親とその子供がそれぞれ所持している ICタグ 101のタグ番号は 、その撮影者が所持するカメラ 103において予め登録されている。具体的には、複数 の ICタグ 101と一つのカメラ 103がセットにされてレンタルまたは販売によりユーザに 提供される。このセットに含まれる複数の ICタグ 101のうち、一つは撮影者である親が 所持するためのものであり、残りは被写体とされる子供が所持するためのものである。 このセットにおいて、カメラ 103には同じセットに含まれる ICタグ 101のタグ番号が予 め登録されている。なお、撮影者が所持する ICタグ 101のタグ番号も被写体のものと して登録するようにしてもょレ、。
[0107] 前述のように ICタグ受信機 102は、撮影支援システム 200が用いられる施設内に 所定間隔ごとに設置される。具体的には、園庭や校庭の地中などに所定の間隔を空 けて (例えば lmおきに)碁盤の目状に埋め込まれて設置される。すなわち、この ICタ グ受信機 102も図 12では代表して 1つのブロックで表している力 実際には複数の I Cタグ受信機 102が撮影支援システム 200に含まれている。また、各 ICタグ受信機 1 02には、それぞれの ICタグ受信機 102を一意に識別するための受信機番号が付加 されている。そして、各 ICタグ受信機 102の設置位置と受信機番号とを対応付けた 受信機管理情報が後述する管理情報記録メモリ 106に記録されている。
[0108] 上記のように施設内に所定間隔ごとに設置された ICタグ受信機 102のいずれかの 上を子供や撮影者が通過すると、その ICタグ受信機 102は、通過した人物が所持し ている ICタグ 101から無線通信によりタグ情報を読み込んで、そのタグ情報と自身の 受信機番号とを制御装置 104へ出力する。制御装置 104では、後述するように、タグ 情報に含まれるタグ番号を特定し、さらに受信機番号に基づいてその受信機の設置 位置を特定することで、 ICタグ 101を所持する人物 (すなわち、子供または撮影者) の施設内における所在位置をそれぞれ特定することができる。換言すると、 ICタグ受 信機 102により受信された ICタグ 101の各々に固有の識別情報と、その ICタグ 101 力もの識別情報を受信した ICタグ受信機 102の設置位置とに基づいて、被写体であ る子供の所在位置や、撮影者が所持するカメラ 103の施設内における所在位置を特 定すること力 Sでさる。
[0109] 図 13は、図 2と同じく、園庭や校庭における ICタグ受信機 102の設置例を示す図 である。図 13においては、 ICタグ受信機 102の設置位置を白丸で示している。この 図 13に示す例では、 ICタグ受信機 102は施設内に等間隔で設置されている。なお、 ICタグ受信機 102の設置間隔は必ずしも図 13のように等間隔である必要はない。
[0110] カメラ 103は、撮影者の操作に応じて撮影を行い、その撮影画像を記録する。さら にカメラ 103は、前述の予め登録された同一セット内の ICタグ 101のタグ番号、すな わち撮影者 (親)と被写体 (子供)がそれぞれ所持している ICタグ 101のタグ番号を制 御装置 104に送信することにより、被写体とカメラ 103自身の位置情報を制御装置 1 04から受信する。そして、受信したこれらの位置情報からカメラ 103に対する被写体 の相対位置を算出し、その相対位置に基づいて、後述するような方法で被写体の位 置情報をファインダ内に表示して撮影者に提供する。
[0111] なお、被写体が所持する ICタグ 101のタグ番号として複数のタグ番号が登録されて いる場合、すなわち撮影対象として複数の子供がいる場合は、撮影者がカメラ 103を 操作することにより、その複数のタグ番号のうち被写体としたい子供が所持している I Cタグ 101のタグ番号を選択する。こうして撮影者に選択されたタグ番号が付与され た ICタグ 101を所持する子供が被写体に指定され、そのタグ番号が制御装置 104に 送信される。
[0112] 上記のようにして複数の子供のいずれかを被写体に指定する場合、撮影者から近 い方を優先的に被写体に指定してもよい。あるいは、予め運動会の競技プログラムな どのスケジュール情報を登録しておき、その中でいつ子供が出場するかを設定する ことにより、出場競技の開始時間に近づいたらその子供を自動的に被写体に指定す ることとしてもよい。さらに、複数の子供とカメラ 103との位置関係を示す位置マップ画 面を表示するようにしてもよい。なお、被写体に指定されなかった子供については、 その位置情報を液晶ディスプレイのサブ画面などに表示することとしてもよい。
[0113] また、撮影者はカメラ 103に予め登録されたタグ番号のみを被写体が所持する ICタ グ 101のタグ番号として指定することができ、登録されていないタグ番号は指定でき ない。すなわち、カメラ 103に予め登録されたタグ番号に基づいて、カメラ 103により 撮影者に位置情報を提供する被写体が選択される。これにより、撮影者である親は 自分の子供を間違いなく被写体に指定できると共に、他人の子供を許可なく被写体 に指定できなレ、ようになってレ、る。
[0114] なお、施設内に複数の撮影者がいる場合は、その撮影者ごとにカメラ 103が所持さ れる。すなわち、このカメラ 103も図 12では代表して 1つのブロックで表しているが、 実際には複数のカメラ 103が撮影支援システム 200に含まれることがある。
[0115] 制御装置 104は、例えばパソコンやサーバなどのコンピュータ装置であり、施設内 の複数箇所に設置された ICタグ受信機 102とは、施設内に敷設された LAN等を介 して接続されている。また、カメラ 103とは無線 LANなどの無線通信回線を介して接 続され、管理情報記録メモリ 106とは所定のインタフェースを介して接続される。
[0116] この制御装置 104は、 ICタグ受信機 102からタグ情報と受信機番号が入力されると 、上述したように管理情報記録メモリ 106に記録されている受信機管理情報に基づ いて、入力された受信機番号に対応する ICタグ受信機 102の設置位置を特定すると 共に、入力されたタグ情報に基づいて、そのタグ情報を発信した ICタグ 101のタグ番 号を特定する。こうして特定された ICタグ受信機 102の設置位置と ICタグ 101のタグ 番号から、そのタグ番号が付与された ICタグ 101を所持する人物(子供または撮影 者)が施設内のどこにいるかを特定する。そして、特定された各人物の所在位置の情 報をタグ番号ごとに記録しておき、カメラ 103からタグ番号の送信があると、それに応 じてそのタグ番号に対応する人物の所在位置をカメラ 103に送信する。
[0117] 次に、カメラ 103の構成を図 14のブロック図により説明する。カメラ 103は、可変光 学系 1、光学部品 2、撮像素子 3、アナログ信号処理部 4、 A/D変換部 5、タイミング 制御部 6、画像処理部 7、操作部 8、制御部 9、通信部 10、メモリ 11、圧縮/伸長部 1 2、表示画像生成部 13、液晶ディスプレイ 14、メモリカード用インタフェース部 15、撮 影情報表示部 17、ファインダ 18および縦横検出部 19を備える。これら各構成のうち 、 A/D変換部 5、画像処理部 7、制御部 9、通信部 10、メモリ 11、圧縮/伸長部 12 、表示画像生成部 13、メモリカード用インタフェース部 15、撮影情報表示部 17およ び縦横検出部 19は、バス 20を介して相互に接続されている。
[0118] 可変光学系 1は、複数の光学レンズ群よりなる撮影レンズや、絞り、シャッター等に よって構成されている。可変光学系 1の撮影レンズの焦点距離は、制御部 9の制御に よって調節される。光学部品 2は、光学フィルタやカバーガラスなどによって構成され る。被写体からの光束が可変光学系 1と光学部品 2を通過することにより、撮像素子 3 上に被写体像が結像される。
[0119] 撮像素子 3は、可変光学系 1によって結像される被写体像を撮像し、撮像された被 写体像に対応する画像信号 (撮像信号)を出力する。撮像素子 3は、複数の画素か ら構成される矩形形状の撮像領域を有し、各画素に蓄積された電荷に対応するアナ ログ信号である画像信号を、画素単位で順次、アナログ信号処理部 4に出力する。 撮像素子 3は、例えば単板式カラー CCD (Charge Coupled Device)などで構成され
[0120] アナログ信号処理部 4は、内部に CDS (相関 2重サンプリング)回路や、 AGC (ォー トゲインコントロール)回路などを有し、入力された画像信号に対して所定のアナログ 処理を行う。 A/D変換部 5は、アナログ信号処理部 4で処理された画像信号をデジ タル画像データに変換する。
[0121] タイミング制御部 6は、制御部 9により制御され、撮像素子 3、アナログ信号処理部 4 、 A/D変換部 5、画像処理部 7の各動作のタイミングを制御する。画像処理部 7は、 例えば、画像処理専用の 1チップ ·マイクロプロセッサで構成され、 A/D変換部 5に よって画像信号から変換された画像データに対して所定の画像処理を行う。操作部
8は、各種の操作ボタンやスィッチ類を有している。操作部 8からの出力は制御部 9に 入力され、その操作内容が認識される。
[0122] 通信部 10は、データのフォーマット変換や暗号化、変復調、周波数変換など所定 の通信処理を行い、制御装置 104との間で無線通信を行う。この無線通信により、前 述のように撮影者と被写体がそれぞれ所持する ICタグ 101のタグ番号を制御装置 10 4へ送信し、それに応じて制御装置 104から返信される被写体とカメラ 103の位置情 報を受信する。
[0123] メモリ 11にはフラッシュメモリが用いられており、カメラ 103の制御用ソフトウェアや、 前述のようにカメラ 103において予め登録された同一セット内の ICタグ 101のタグ番 号などが記録されている。このメモリ 11に記録されたタグ番号力 撮影者と被写体が それぞれ所持する ICタグ 101のタグ番号として制御装置 104へ送信される。圧縮/ 伸張部 12は、画像データに対して所定の圧縮処理や伸張処理を必要に応じて行う 。なお、圧縮処理とは画像データのデータ量を圧縮するための処理であり、伸張処 理とは圧縮された画像データのデータ量を元のデータ量に戻すための処理である。
[0124] 表示画像生成部 13は、液晶ディスプレイ 14に表示させるための画像を生成する。
液晶ディスプレイ 14は、表示画像生成部 13において生成された画像を表示する。こ れにより、カメラ 103の操作状態に応じて各種の操作画面を表示したり、撮像素子 3 で撮像した被写体像やメモリカード 16に格納された画像データに基づく再生画像を 表示したりする。
[0125] メモリカード用インタフェース部 15は、カメラ 103内にセットされたメモリカード(カー ド状のリムーバブルメモリ) 16とのインタフェースをとる。メモリカード 16は画像データ を記録するための着脱可能な不揮発性メモリである。撮影時に生成された画像デー タがメモリカード 16に記録されることにより、カメラ 103において撮影画像が記録され
[0126] 撮影情報表示部 17は、撮影に関する様々な情報、たとえばシャッタースピード、絞 り値、オートフォーカスエリアなどの情報をファインダ 18に表示する。ファインダ 18に は、撮像素子 3上に結像される被写体像と同じファインダ像が表示される。このフアイ ンダ像により、撮影者は撮影時の構図を確認することができる。さらに、上記のような 撮影に関する情報が撮影情報表示部 17によってファインダ 18に表示される。この情 報のうちオートフォーカスエリアはファインダ像に重ねて表示される。これにより撮影 時のピント調節領域が示され、撮影者は被写体像のどの部分に合わせてピント調節 が行われるかを知ることができる。
[0127] 撮影情報表示部 17は、前述の撮影に関する情報の一つとして、カメラ 103に対す る被写体の相対位置に基づいた被写体の位置情報をファインダ 18に表示する。この 被写体の位置情報の表示内容については、後で詳しく説明する。なお、カメラ 103に 対する被写体の相対位置は、前述のように制御装置 104から受信する被写体とカメ ラ 103自身の位置情報によって算出される。縦横検出部 19は、撮影者がカメラ 103 を縦方向と横方向のどちらで構えている力、を検出する。この検出結果は制御部 9に 出力される。
[0128] 以上説明したような構成のカメラ 103において、撮影可能状態でシャッター操作が 行われると、制御部 9は、可変光学系 1を制御してピント調節を行うとともに、タイミン グ制御部 6を介して、撮像素子 3、アナログ信号処理部 4、 A/D変換部 5に対するタ イミング制御を行い、被写体の撮影を行う。なお、被写体の種類などによって複数の 撮影モードを選択可能とし、撮影モードに応じてタイミング制御を変化させてもよ!/、。
[0129] 撮像素子 3は、可変光学系 1により撮像領域に結像された被写体像に対応する画 像信号を生成する。その画像信号は、アナログ信号処理部 4で所定のアナログ信号 処理が施され、アナログ処理後画像信号として A/D変換部 5へ出力される。 A/D 変換部 5では、アナログ処理後の画像信号をデジタル化し、画像データとして、画像 処理部 7に供給する。
[0130] 画像処理部 7は、上記のようにして供給された画像データに対して、補間、階調変 換ゃ輪郭強調などの画像処理を行う。このような画像処理が完了した画像データは、 必要に応じて圧縮/伸長部 12で所定の圧縮処理が施された後、撮影画像データと して、メモリカード用インタフェース部 15を介してメモリカード 16に記録される。なお、 画像処理が完了した撮影画像データは、補間処理が完了し、各画素には RGBのす ベての色成分の色情報が存在するものとする。以上説明したようにして撮影画像が 取得され、その撮影画像データがメモリカード 16に記録される。
[0131] 図 15は、カメラ 103を背面方向から見たときの外観図の例である。カメラ 103の背 面には、液晶ディスプレイ 14およびファインダ 18が配置されている。撮影者はフアイ ンダ 18を司見くと見えるファインダ像により、撮影時の構図を確認することができる。な お、カメラ 103の背面には操作部 8を構成する各種の操作ボタンや操作スィッチ類も 配置されて!/、る力 その説明につ!/、ては省略する。
[0132] 図 16は、撮影支援システム 200を用いてカメラ 103により撮影を行う際に、カメラ 10 3において実行される処理を示すフローチャートである。この処理はカメラ 103の制御 部 9によって実行される。
[0133] ステップ S1では、被写体を選択する。図 17は、ステップ S1において被写体を選択 する際に液晶ディスプレイ 14に表示される画面例を示している。この図 17の画面例 では、カメラ 103に予め登録されているタグ番号のうち、被写体とされる子供が所持し ている ICタグ 101のタグ番号が「ID 1001」および「ID 1002」と表示されている。こ のタグ番号のいずれかを撮影者が選択することにより、被写体の選択が行われる。す なわち、この例では 2人の子供が ICタグ 101をそれぞれ所持しており、そのうちいず れかが撮影者により被写体として選択される。なお、 ICタグ 101を所持している子供 がー人しか!/、な!/、場合は、その子供を自動的に被写体とすることでステップ S 1の処 理を省略してもよい。
[0134] ステップ S2では、通信部 10を用いて、ステップ S1において選択された被写体が所 持している ICタグ 101のタグ番号、および撮影者が所持している ICタグ 101のタグ番 号を制御装置 104へ送信する。これらのタグ番号は前述のようにメモリ 11に記録され ている。
[0135] ステップ S3では、ステップ S2で送信したタグ番号に応じて制御装置 104から送信さ れる被写体とカメラ 103の位置情報を通信部 10を用いて受信することにより、被写体 位置情報およびカメラ位置情報を取得する。このとき制御装置 104は、前述のように I Cタグ受信機 102から入力されるタグ情報と受信機番号に基づいて特定したタグ番 号ごとの所在位置のいずれかを、被写体位置情報とカメラ位置情報としてカメラ 103 に送信する。すなわち、ステップ S1で選択された被写体が所持する ICタグ 101のタ グ番号をステップ S2でカメラ 103から送信すると、それに対して制御装置 104から当 該タグ番号の所在位置の情報が送信される。この所在位置によって被写体位置が表 される。また、撮影者が所持する ICタグ 101のタグ番号をステップ S2でカメラ 103か ら送信すると、それに対して制御装置 104から当該タグ番号の所在位置の情報が送 信される。この所在位置によってカメラ位置が表される。
[0136] ステップ S4では、ステップ S3で取得した被写体位置情報およびカメラ位置情報に 基づいて、カメラ 103に対する被写体の相対的な位置を算出する。すなわち、カメラ 103の位置を基準点として、その基準点から見て被写体がどの方向に位置しており、 その基準点から被写体までの距離がどの程度である力、を求める。
[0137] なお、上記のステップ S3および S4の処理を制御装置 104において実行することと してもよい。すなわち、カメラ 103はステップ S2において被写体と撮影者が所持する I Cタグ 101のタグ番号を制御装置 104へ送信する。制御装置 104は、このタグ番号に より被写体とカメラ 103の位置を特定し、その位置関係によりカメラ 103に対する被写 体の相対位置を算出して、その算出結果をカメラ 103に送信する。このようにしてもよ い。
[0138] ステップ S5では、カメラ 103の撮影方向を検出する。ここでは、たとえばカメラ 103 に内蔵された方位検出センサや姿勢検出センサなどを用いて、カメラ 103がどちらを 向いているかを検出することにより撮影方向を検出する。なお、必ずしも 3次元の撮 影方向を検出する必要はなぐカメラ 103がどちらの方角を向いている力、、すなわち 水平面に対する撮影方向が少なくとも分かればよい。
[0139] ステップ S6では、ステップ S4において算出された被写体の相対位置と、ステップ S 5において検出された撮影方向とに基づいて、カメラ 103の撮影範囲内に被写体が あるか否かを判定する。このとき、ステップ S5で検出された撮影方向を中心に、カメラ 103の画角や撮影レンズのズーム量などに基づいて定められる所定の範囲を撮影 範囲とする。この撮影範囲内の方向に被写体が位置しているか否かを判定すること により、撮影範囲内に被写体があるか否かを判定する。なお、ステップ S 5において水 平面に対する撮影方向のみが検出された場合は、カメラ 103が撮影者によって水平 に構えられているものとすればよい。この判定の結果、撮影範囲内に被写体がある場 合はステップ S7へ進み、撮影範囲内に被写体がない場合はステップ S12へ進む。 以下、ステップ S7へ進んだ場合から先に説明する。
[0140] ステップ S6からステップ S7へ進んだ場合、すなわち撮影範囲内に被写体がある場 合は、ステップ S7において、その撮影範囲内における被写体の位置を表示する。こ こでは、被写体に応じた位置のオートフォーカスエリアをファインダ 18において表示 することにより、被写体位置の表示が行われる。
[0141] ファインダ 18における被写体位置の表示例を図 18に示す。図 18 (a)は被写体 30 が撮影範囲の中心付近に位置している場合の表示例であり、図 18 (b)は被写体 30 が撮影範囲の右端付近に位置している場合の表示例であり、図 18 (c)は被写体 30 が撮影範囲の中心からやや左寄りに位置している場合の表示例である。このように、 被写体 30の位置に合わせてオートフォーカスエリア 31をファインダ像に重ねて縦一 列に表示することにより、撮影範囲内における被写体 30の位置を表示する。なお、こ のとき表示されるオートフォーカスエリア 31が撮影時のピント調節領域を示すもので はないことが分かるように、ピント調節領域を示す場合とは違う色で表示したり、ある いは点滅表示したりすることによって異なる表示形態とすることが好ましい。
[0142] ステップ S8では、ピント調節に用いるオートフォーカスエリアの選択を行う。ここでは 、ステップ S7で被写体位置を示すために表示されたオートフォーカスエリアを、ピント 調節用のオートフォーカスエリアとして選択する。次のステップ S9では、ステップ S8 で選択されたオートフォーカスエリア内の被写体に合わせてピント調節を行う。たとえ ば、図 18の縦一列のオートフォーカスエリアにおいてそれぞれのエリア内における被 写体までの距離を算出し、そのうちステップ S4で算出されたカメラ 103から被写体ま での距離に最も近いものに合わせて、ピント調節を行う。
[0143] ステップ S10では、ステップ S9のピント調節処理の結果に基づいて、ステップ S8で 選択されたオートフォーカスエリア内に被写体が存在しているか否かを判定する。た とえば、ステップ S9のピント調節時に各オートフォーカスエリアにおいて求められた被 写体までの距離力 S、いずれもステップ S4で被写体位置を算出したときに求められた カメラ 103から被写体までの距離と大きく異なっているような場合には、選択されたォ 一トフォーカスエリア内に被写体が存在して!/、な!/、と判定してステップ S 11へ進む。 そうでない場合は、選択されたオートフォーカスエリア内に被写体が存在していると判 定してステップ S 13へ進む。
[0144] ステップ S10からステップ S11へ進んだ場合、ステップ S11では、ステップ S4で被 写体位置を算出したときに求められたカメラ 103から被写体までの距離に合わせてピ ント調節を行う。このように、選択されたオートフォーカスエリア内に被写体が存在して いないとステップ S10において判定された場合は、制御装置 104から受信した被写 体位置情報およびカメラ位置情報により算出された被写体の相対位置に基づいてピ ント調節を行う。これにより、被写体がオートフォーカスエリア内にいなくても、適切に カメラ 103のピントを調節することができる。ステップ S11を実行したら、ステップ S13 へ進む。
[0145] ステップ S 13では、撮影者によってシャッターボタンが押されたか否かを判定する。
シャッターボタンが押された場合はステップ S 14へ進み、ステップ S 14において撮影 処理を行って撮影画像を取得した後、その撮影画像を次のステップ S15においてメ モリカード 16に記録する。こうしてカメラ 103による撮影が行われる。ステップ S 15を 実行したらステップ S3へ戻り、上記のような処理を繰り返す。
[0146] 一方、ステップ S13においてシャッターボタンが所定時間以上押されなかった場合 は、ステップ S 14および S 15の処理を実行せずにステップ S3へ戻り、上記のような処 理を繰り返す。これにより、所定時間ごとに被写体位置の表示が更新される。
[0147] 次にステップ S6からステップ S 12へ進んだ場合について説明する。この場合すな わち撮影範囲内に被写体がない場合は、ステップ S 12において、撮影範囲に対する 被写体の方向を表示する。ここでは、ファインダ 18において被写体の方向を示す矢 印を表示することにより、撮影範囲の外にある被写体方向の表示が行われる。
[0148] ファインダ 18における被写体方向の表示例を図 19に示す。図 19 (a)は被写体が 撮影範囲に対して右方向に位置している場合の表示例であり、図 19 (b)は被写体が 撮影範囲に対して左方向に位置している場合の表示である。このように、撮影範囲に 対して被写体が位置している方向に矢印 32を表示することにより、撮影範囲外にお ける被写体の位置 (方向)を表示する。このとき、被写体がどれだけ離れているかに 応じて矢印 32の点滅速度を変化させることにより、その離れ度合いが分かるようにし てもよい。
[0149] なお、図 19の矢印 32ではなくオートフォーカスエリアを用いて被写体の方向を表示 するようにしてもよい。この場合、ステップ S8で撮影範囲内にある被写体を表示する とさとは異なる表示形 とすること力 S好まし!/、。
[0150] 図 19にはカメラ 103を横に構えた場合の被写体方向の表示例を示している力 カメ ラ 103を縦に構えた場合はファインダ 18の向きが右または左方向に 90度回転するた め、図 19とは異なる表示とする必要がある。その場合の表示例を図 20に示す。図 20
(a)は被写体が撮影範囲に対して右方向に位置している場合の表示例であり、図 20
(b)は被写体が撮影範囲に対して左方向に位置している場合の表示である。このとき 被写体の方向を示すために表示される矢印 33は、カメラ 103を横に構えた場合に表 示される図 19の矢印 32とは異なる。このように、撮影者がカメラ 103を構えた向きに 応じて、ファインダ 18における被写体方向の表示が縦表示または横表示のいずれか に切り替えられる。このとき図 14の縦横検出部 19において、撮影者がカメラ 103を縦 または横のどちらで構えているかが検出される。
[0151] 以上ではステップ S12において被写体方向を表示する場合の縦表示と横表示の切 り替えについて説明した力 ステップ S7においても同様に、ファインダ 18における被 写体位置の表示を縦表示または横表示の!/、ずれかに切り替えることができる。すな わち、撮影者がカメラ 103を縦に構えた場合は、それに応じて、縦向きのファインダ 1 8においてもオートフォーカスエリア 31が縦一列に表示されるように、オートフォー力 スエリア 31の表示配置を変化させる。このようにすることが好ましい。
[0152] ステップ S12を実行したら、ステップ S 11へ進んで前述のような処理を実行すること により、ステップ S4で被写体位置を算出したときに求められたカメラ 103から被写体 までの距離に合わせてピント調節を行う。これにより、撮影範囲外に被写体がある場 合であっても、適切にカメラ 103のピントを調節することができる。
[0153] 以上説明した第 2の実施の形態によれば、次のような作用効果を奏することができ る。 (1) ICタグ 101から固有の識別情報として送信されるタグ情報に基づいてステツ プ S4で求められるカメラ 103に対する被写体の相対位置に基づいて、カメラ 103によ り、ステップ S7または S12において被写体の位置または方向をファインダ 18におい て表示することで、その被写体の位置情報を撮影者に提供することとした。このように したので、運動会において親が自分の子供を撮影するときなどのように撮影者が特 定の被写体を探して撮影する際に、その被写体の位置情報を提供して撮影者を支 援すること力でさる。
[0154] (2)施設内に複数の ICタグ受信機 102を設置し、その ICタグ受信機 102により受信 された被写体が所持する ICタグ 101のタグ情報と、そのタグ情報を受信した ICタグ受 信機 102の設置位置とに基づいて、制御装置 104により、施設内における被写体の 所在位置を特定する。そして、制御装置 104により特定された被写体の所在位置と カメラ 103の所在位置の情報をカメラ 103において取得し (ステップ S3)、これらの情 報に基づいて、カメラ 103に対する被写体の相対位置を求める(ステップ S4)こととし た。このようにしたので、撮影者に提供する被写体の位置情報を精度よく求めること ができる。
[0155] (3)撮影者が所持する ICタグ 101から送信されて ICタグ受信機 102により受信され たタグ情報と、そのタグ情報を受信した ICタグ受信機 102の設置位置とに基づいて、 制御装置 104により、施設内におけるカメラ 103の所在位置を特定することとした。こ のようにしたので、撮影者に提供する被写体の位置情報をさらに精度よく求めること ができる。
[0156] (4)カメラ 103により、被写体が撮影範囲内にあるか否かを判定し (ステップ S6)、そ の判定結果に応じて、撮影者に提供する被写体の位置情報を変化させる。具体的に は、被写体が撮影範囲内にあると判定した場合は、その撮影範囲内における被写体 の位置を表示し (ステップ S7)、被写体が撮影範囲内にないと判定した場合は、その 撮影範囲に対する被写体の方向を表示する (ステップ S 12)こととした。このようにした ので、被写体が撮影範囲内にある場合とない場合とで、それぞれの場合において適 切な内容により被写体の位置情報を提供することができる。
[0157] (5)撮影範囲内における被写体の位置をステップ S7で表示するときに、ファインダ像 に重ねて表示されるオートフォーカスエリアの一部を用いて表示することとしたので、 撮影時に見やすく分かりやすい表示とすることができる。
[0158] (6)撮影範囲に対する被写体の方向をステップ S 12で表示するときに、その方向を 示す図形をファインダに表示することとしたので、撮影時に見やすく分かりやすレ、表 示とすること力 Sでさる。
[0159] (7)ステップ S7または S12において被写体の位置または方向を表示するときに、撮 影者がカメラ 103を構えた向きに応じて、縦表示または横表示のいずれかに切り替え ることとした。このようにしたので、カメラ 103を縦横いずれの向きで構えた場合にも見 やす!/、表示とすること力 Sできる。
[0160] (8)ステップ S4において求められた被写体の相対位置に基づいて、カメラ 103のピ ント調節を行う (ステップ S11)こととした。このとき、被写体が撮影範囲内にある場合 は、その撮影範囲内にある被写体に合わせてオートフォーカスエリアを用いた通常の ピント調節を行い (ステップ S9)、被写体が撮影範囲内にない場合は、ステップ S 11 の処理を実行することとした。このようにしたので、撮影範囲外に被写体がある場合で あっても、適切にカメラ 103のピントを調節することができる。
[0161] (9)カメラ 103に予め登録された被写体が所持する ICタグ 101のタグ番号の情報に 基づいて、カメラ 103により撮影者に位置情報を提供する被写体を選択することとし た。このようにしたので、撮影者である親は自分の子供を間違いなく被写体に指定で きると共に、他人の子供を許可なく被写体に指定できないようにすることができる。
[0162] 第 3の実施の形態
次に、以上説明した実施形態とは別の本発明の一実施形態による撮影支援システ ムについて説明する。図 21は、本実施の形態による撮影支援システムの構成を示す ブロック図である。この撮影支援システム 300は、赤外線送信機 201およびカメラ 20 2によって構成されている。
[0163] 赤外線送信機 201は、図 12に示す ICタグ 101の代わりに用いられるものであり、 IC タグ 101と同様に、カメラ 202により被写体とされる子供達が各自 1つずつ所持してい る。なお、本実施形態において赤外線送信機 201は被写体のみが所持していればよ ぐ撮影者は所持する必要がない。すなわち、図 21では赤外線送信機 201を代表し て 1つのブロックで表している力 実際には子供の数に応じた複数の赤外線送信機 2 01が撮影支援システム 300に含まれる。この赤外線送信機 201にも、 ICタグ 101と 同様にそれぞれ固有の識別番号が付与されて!/、る。この識別番号を含む赤外線信 号を所定の時間間隔でカメラ 202へ送信する。すなわち各赤外線送信機 201は、各 々に固有の識別情報として赤外線信号を送信する。
[0164] カメラ 202は、図 12に示すカメラ 103と同様に撮影者によって所持されるカメラであ り、撮影者の操作に応じて撮影を行い、その撮影画像を記録する。さらにカメラ 202 は、赤外線送信機 201から送信される赤外線信号を受信することにより、その赤外線 送信機 201に付与された識別番号を認識すると共に、その赤外線信号が送信されて きた方向を検出する。これにより、カメラ 202に対して被写体がどの方向に位置してい るのかを検出することができる。そして、第 2の実施の形態において上記に説明した のと同様に、被写体の方向をファインダ内に表示して撮影者に提供する。なお、施設 内に複数の撮影者がいる場合は、その撮影者ごとにカメラ 202が所持される。すなわ ち、このカメラ 202も図 21では代表して 1つのブロックで表している力 実際には複数 のカメラ 202が撮影支援システム 300に含まれることがある。
[0165] 以上説明したように、撮影支援システム 300は複数の赤外線送信機 201およびカメ ラ 202によって構成されており、図 12の ICタグ受信機 102や制御装置 104、管理情 報記録メモリ 106のように、施設内に予め特別な設備を設置する必要がない。そのた め、第 2の実施の形態で説明した撮影支援システム 200よりも低コストで簡単に構成 すること力 Sでさる。
[0166] 次に、カメラ 202の構成を図 22のブロック図により説明する。このブロック図は、通 信部 10が赤外線受信部 10aとなった点以外については、図 14のカメラ 103のブロッ ク図と同じである。したがって以下では赤外線受信部 10aのみについて説明し、他の 構成については説明を省略する。
[0167] 赤外線受信部 10aは、赤外線送信機 201から送信される赤外線信号を受信する。
赤外線受信部 10aにお!/、て受信された赤外線信号は制御部 9へ出力され、制御部 9 において、その赤外線信号を送信した赤外線送信機 201に付与された識別番号が 認識される。さらに赤外線受信部 10aは、赤外線信号が送信されてきた方向、すなわ ち赤外線送信機 201の方向を検出する。そのため赤外線受信部 10aは、たとえば撮 像素子 3と同様の複数画素からなる CCDおよびその CCD上に結像するための赤外 泉レンズなどを有して!/、る。 [0168] 図 23は、撮影支援システム 300を用いてカメラ 202により撮影を行う際に、カメラ 20 2において実行される処理を示すフローチャートである。この処理はカメラ 202の制御 部 9によって実行される。
[0169] ステップ S21では、図 16のステップ S 1で説明したのと同様の方法により被写体を選 択する。次のステップ S22では、赤外線受信部 10aを用いて、ステップ S21において 選択された被写体が所持している赤外線送信機 201から送信される赤外線信号を 受信する。このとき、赤外線受信部 10aにおいて受信された赤外線信号が、選択した 被写体の所持する赤外線送信機 201から送信されたものであるか否かを、その赤外 線信号に含まれる識別番号により判別する。これにより該当する赤外線信号のみを 使用し、それ以外の赤外線信号は使用しないようにする。すなわち、ステップ S22以 降の処理は、被写体選択時に選択した識別番号を含む赤外線信号のみに基づ!/、て 実行され、それ以外の赤外線信号が受信されても無視される。
[0170] ステップ S23では、ステップ S22で受信した赤外線信号に基づいて、カメラ 202に 対する被写体の相対位置として、その被写体のカメラ 202に対する方向を算出する。 ここでは、赤外線受信部 10aにおいて検出される赤外線信号の送信方向により、被 写体の方向を求める。なお、図 16のステップ S4とは異なり、このステップ S23では力 メラ 202の基準軸(たとえばレンズ中心軸)に対する被写体の相対的な方向が算出さ れる。すなわち、カメラ 202の基準軸から被写体がどれだけ離れた方向に位置してい るかが求められる。
[0171] ステップ S24では、ステップ S23において算出された被写体方向に基づいて、カメ ラ 202の撮影範囲内に被写体があるか否かを判定する。この判定は図 16のステップ S6とは異なり、カメラ 202の撮影方向を用いずに行われる。すなわち、カメラ 202の 基準軸をレンズ中心軸とすれば、ステップ S23においてレンズ中心軸力、ら被写体が どれだけ離れた方向に位置しているかが求められる。このレンズ中心軸に対する被 写体方向の範囲が、カメラ 202の画角や撮影レンズのズーム量などに基づいて定め られる撮影範囲内にあるか否かを判定することにより、撮影範囲内に被写体があるか 否かを判定することができる。この判定の結果、撮影範囲内に被写体がある場合はス テツプ S25へ進み、撮影範囲内に被写体がない場合はステップ S28へ進む。 [0172] ステップ S24力、らステップ S25へ進んだ、場合、ステップ S25、 S26および S27では、 図 16のステップ S7〜S9と同様の処理を行う。すなわちステップ S25では、図 18のよ うにして撮影範囲内の被写体位置に応じたオートフォーカスエリアをファインダ 18に おいて表示する。ステップ S26では、ステップ S25で表示されたオートフォーカスエリ ァをピント調節用のオートフォーカスエリアとして選択する。ステップ S27では、ステツ プ S26で選択されたオートフォーカスエリア内の被写体に合わせてピント調節を行う 。ステップ S27を実行したら、ステップ S29へ進む。
[0173] 一方、ステップ S24からステップ S28へ進んだ場合、ステップ S28では図 16のステ ップ S 12と同様に、ファインダ 18において図 19または図 20のようにして被写体方向 を示す矢印を表示する。ステップ S28を実行したら、ステップ S27の実行後と同様に ステップ S 29へ進む。
[0174] ステップ S29、 S30および S31では、図 16のステップ S13〜S15と同様の処理を実 行する。すなわちステップ S29では撮影者によってシャッターボタンが押されたか否 力、を判定し、シャッターボタンが押された場合はステップ S 30において撮影処理を行 い、取得した撮影画像をステップ S31においてメモリカード 16に記録する。ステップ S 29においてシャッターボタンが所定時間以上押されなかった場合はこれらの処理を 実行しない。その後ステップ S22へ戻り、上記のような処理を繰り返す。
[0175] 以上説明した第 3の実施の形態によれば、第 2の実施の形態で説明した作用効果 に加えて、さらに次の作用効果を奏することができる。
(1)カメラ 202の赤外線受信部 10aにより、被写体が所持する赤外線送信機 201から 固有の識別情報として送信される赤外線信号を受信し (ステップ S22)、受信した赤 外線信号およびその受信方向に基づいて、カメラ 202に対する被写体の相対位置と して被写体の方向を求める(ステップ S23)。このようにしたので、低コストで簡単なシ ステムにより撮影者に提供する被写体の位置情報を求めることができる。
[0176] なお、以上説明した第 3の実施の形態では、被写体が所持する赤外線送信機 201 から赤外線信号を送信し、その赤外線信号をカメラ 202において受信することにより 、カメラ 202に対する被写体の方向を検出することとした。しかし、赤外線信号以外に もたとえば電波やレーザ光、超音波などを信号に用いることもできる。その信号がど の方向から送信されたかをカメラにおいて検出できる限り、どのような信号であっても よい。
[0177] また、上記の各実施の形態では、幼稚園や保育園、小学校等の施設において、運 動会などのイベントにおいて親が撮影者となって自分の子供を撮影するときに、その 撮影を支援する撮影支援システムを例に説明した力 これ以外の場合にも適用する ことができる。たとえば、 自分の子供以外を被写体として撮影する場合に用いてもよ いし、あるいは公園、体育館、遊園地、観光施設などの様々な施設において使用し てもよ!/、。これ以外にも様々な使用形態が考えられる。
[0178] 上記の各実施の形態では使用するカメラをそれぞれ一種類のものとした力 機能の 異なる様々なカメラを使用できるようにしてもよい。たとえば、被写体が撮影範囲内に ある場合はその位置を表示せずに、撮影範囲外にある場合にのみ被写体の方向を 表示するようなカメラや、あるいはファインダではなく液晶ディスプレイに被写体の位 置や方向を表示するようなカメラなどを同時に使用できるようにすることができる。な お、第 2の実施の形態においてこのようにすると、制御装置 104から受信する必要の ある情報がカメラの種類ごとに異なる場合もありうる。その場合は、制御装置 104から は各カメラに共通の情報を送信し、各カメラではその情報を取捨選択することにより、 自身が対応する情報のみを利用すればよ!/、。
[0179] 以上説明した各実施の形態や各種の変形例はあくまで一例であり、発明の特徴が 損なわれない限り、本発明はこれらの内容に限定されない。
[0180] 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
日本国特許出願 2006年第 238977号(2006年 9月 4日出願)
日本国特許出願 2006年第 238978号(2006年 9月 4日出願)
日本国特許出願 2006年第 238979号(2006年 9月 4日出願)
日本国特許出願 2006年第 241579号(2006年 9月 6日出願)

Claims

請求の範囲
[1] 様々な映像を蓄積してその蓄積された映像を複数のユーザに利用させる映像共有 システムにおいて、
施設内に存在する複数の被写体のうちいずれかを撮影する複数のカメラと、 前記複数のカメラにより撮影された各撮影映像を収集する映像収集部と、 前記各撮影映像にお!/、て撮影されて!/、る被写体を撮影映像ごとに特定する被写 体特定部と、
前記映像収集部により収集された各撮影映像と、前記被写体特定部により特定さ れた被写体を表す被写体情報とを蓄積する蓄積部とを備える映像共有システム。
[2] 請求項 1に記載の映像共有システムにおレ、て、
前記施設内における各被写体および各カメラの所在位置を特定する位置特定部を さらに備え、
前記被写体特定部は、前記位置特定部により特定された各被写体および各カメラ の所在位置に基づ!/、て、前記各撮影映像にお!、て撮影されて!、る被写体を特定す る映像共有システム。
[3] 請求項 2に記載の映像共有システムにおいて、
前記複数の被写体および前記複数のカメラのいずれかを使用して撮影を行う複数 の撮影者によってそれぞれ所持され、各々が固有の識別情報を送信する複数の送 信部と、
前記施設内にそれぞれ設置され、前記送信部から送信される識別情報を受信する 複数の受信部とをさらに備え、
前記位置特定部は、前記受信部により受信された識別情報と、その識別情報を受 信した受信部の設置位置とに基づいて、前記施設内における各被写体および各カメ ラの所在位置を特定する映像共有システム。
[4] 請求項 2または 3に記載の映像共有システムにおいて、
前記複数のカメラから、撮影方向、焦点距離、ズーム量または画角のうち少なくとも いずれかを含む撮影情報を収集する撮影情報収集部と、
前記撮影情報収集部により収集された撮影情報に基づいて各カメラの撮影範囲を 算出する撮影範囲算出部とをさらに備え、
前記被写体特定部は、前記位置特定部により特定された各被写体および各カメラ の所在位置と、前記撮影範囲算出部により算出された各カメラの撮影範囲とに基づ V、て、前記各撮影映像にお!/、て撮影されて!/、る被写体を特定する映像共有システム
[5] 請求項 4に記載の映像共有システムにおいて、
前記各撮影映像における撮影障害物の存在の有無を判定する障害物判定部をさ らに備え、
前記被写体特定部は、さらに前記障害物判定部の判定結果に基づいて、前記各 撮影映像にお!/、て撮影されて!、る被写体を特定する映像共有システム。
[6] 請求項 4または 5に記載の映像共有システムにおいて、
前記各撮影映像における撮影状態の良否を判定する撮影良否判定部をさらに備 え、
前記被写体特定部は、さらに前記撮影良否判定部の判定結果に基づいて、前記 各撮影映像にお!/、て撮影されて!、る被写体を特定する映像共有システム。
[7] 様々な映像を蓄積してその蓄積された映像を複数のユーザに利用させる映像共有 システムにおいて、
施設内に存在する複数の被写体のうちいずれかが撮影されている複数の撮影映 像を蓄積する蓄積部と、
編集対象とする被写体を選択する被写体選択部と、
前記蓄積部により蓄積された複数の撮影映像のいずれかから、前記被写体選択部 により選択された被写体が撮影されている複数の映像部分を抽出する抽出部と、 前記抽出部により抽出された複数の映像部分を順次挿入して映像を編集すること により、前記選択された被写体についての編集映像を作成する編集部とを備える映 像共有システム。
[8] 請求項 7に記載の映像共有システムにおいて、
前記施設内における各被写体および前記複数の撮影映像を撮影した複数のカメラ の所在位置をそれぞれ特定する位置特定部と、 前記位置特定部により特定された各被写体および各カメラの所在位置に基づいて 、前記蓄積部により蓄積された各撮影映像において撮影されている被写体を特定す る被写体特定部と、
前記被写体特定部により特定された被写体を表す被写体情報を記録する被写体 情報記録部とをさらに備え、
前記抽出部は、前記被写体情報記録部により記録された被写体情報に基づ!/、て、 前記選択された被写体が撮影されている映像部分を抽出する映像共有システム。
[9] 請求項 8に記載の映像共有システムにおいて、
前記複数の被写体および前記複数のカメラのいずれかを使用して撮影を行う複数 の撮影者によってそれぞれ所持され、各々が固有の識別情報を送信する複数の送 信部と、
前記施設内にそれぞれ設置され、前記送信部から送信される識別情報を受信する 複数の受信部とをさらに備え、
前記位置特定部は、前記受信部により受信された識別情報と、その識別情報を受 信した受信部の設置位置とに基づいて、前記施設内における各被写体および各カメ ラの所在位置をそれぞれ特定する映像共有システム。
[10] 請求項 7〜9のいずれか一項に記載の映像共有システムにおいて、
前記抽出部は、同一の撮影映像から予め定められた所定時間以上の連続する映 像部分を抽出する映像共有システム。
[11] 請求項 7〜; 10のいずれか一項に記載の映像共有システムにおいて、
前記編集部は、前記選択された被写体が!/、ずれの撮影映像にお!/、ても撮影され ていないときに、予め定められた全体撮影映像を揷入する映像共有システム。
[12] 請求項 7〜; 11のいずれか一項に記載の映像共有システムにおいて、
前記選択された被写体が同一時間内に複数の撮影映像において撮影されている 場合に、その複数の撮影映像のいずれかを優先すべきと判定する優先判定部をさら に備え、
前記抽出部は、前記優先判定部により優先すべきと判定された撮影映像力 映像 部分を抽出する映像共有システム。
[13] 請求項 12に記載の映像共有システムにおいて、
前記優先判定部は、カメラと被写体の位置関係または各撮影映像の写り具合に基 づレ、て、 V、ずれかの撮影画像を優先すべきと判定する映像共有システム。
[14] 請求項 7〜; 13のいずれか一項に記載の映像共有システムにおいて、
各被写体とユーザとの対応関係を表したユーザ情報を登録するユーザ情報登録部 をさらに備え、
前記被写体選択部は、いずれかのユーザから編集映像の作成要求があると、前記 ユーザ情報登録部により予め登録されたユーザ情報に基づいて、そのユーザについ て編集対象とする被写体を選択する映像共有システム。
[15] 請求項 7〜; 14のいずれか一項に記載の映像共有システムにおいて、
予め登録されたイベントプログラム情報に基づいて、前記抽出部により抽出される 映像部分の撮影時刻の範囲を設定する時刻範囲設定部をさらに備える映像共有シ ステム。
[16] 請求項 7〜; 15のいずれか一項に記載の映像共有システムにおいて、
いずれかのユーザに対して前記編集部により作成された編集映像に対する当該ュ 一ザの課金額を算出する課金額算出部と、
当該ユーザ以外の他のユーザに対して前記編集部により作成された編集映像に対 する当該ユーザの受領金額を算出する受領金額算出部とをさらに備える映像共有シ ステム。
[17] 請求項 16に記載の映像共有システムにおいて、
前記課金額算出部は、当該ユーザに対して作成された編集映像において他のュ 一ザの撮影映像が揷入されている時間に応じて、当該ユーザの課金額を算出する 映像共有システム。
[18] 請求項 16または 17に記載の映像共有システムにおいて、
前記受領金額算出部は、当該ユーザ以外の他のユーザに対して作成された編集 映像において当該ユーザの撮影映像が揷入されている時間に応じて、当該ユーザ の受領金額を算出する映像共有システム。
[19] 様々な映像を蓄積してその蓄積された映像を複数のユーザに利用させる映像共有 システムにおいて、
施設内に存在する複数の被写体のうちいずれかを撮影する複数のカメラと、 前記複数のカメラにより撮影された各撮影映像を収集する映像収集部と、 前記映像収集部により収集された各撮影映像を蓄積する蓄積部と、
前記複数の被写体のうち出番が近い被写体の撮影者に対して警告を行うスケジュ ール管理部とを備える映像共有システム。
[20] 請求項 19に記載の映像共有システムにおいて、
前記スケジュール管理部は、次のイベントプログラムが開始する所定時間前になつ たら、そのイベントプログラムに出場する予定の被写体を特定することにより、出番が 近レ、被写体を判断する映像共有システム。
[21] 請求項 19または 20に記載の映像共有システムにおいて、
前記スケジュール管理部は、予め登録されたイベントプログラムごとの出場者登録 情報に基づいて、次のイベントプログラムに出場する予定の被写体を特定する映像 共有システム。
[22] 請求項 19〜21のいずれか一項に記載の映像共有システムにおいて、
前記スケジュール管理部は、前記カメラに特定の動作を指示する制御信号を送信 することにより警告を行う映像共有システム。
[23] 請求項 19〜21のいずれか一項に記載の映像共有システムにおいて、
前記スケジュール管理部は、予め登録された前記撮影者が所持する携帯電話のメ ールアドレスにメールを送信することにより警告を行う映像共有システム。
[24] 1または 2以上の被写体によってそれぞれ所持され、各々が固有の識別情報を送 信する単数または複数の送信部と、
前記被写体を撮影するためのカメラとを備え、
前記送信部から送信される識別情報に基づいて求められる前記カメラに対する前 記被写体の相対位置に基づいて、前記カメラにより前記被写体の位置情報を撮影者 に提供する撮影支援システム。
[25] 請求項 24に記載の撮影支援システムにおいて、
施設内にそれぞれ設置され、前記送信部から送信される識別情報を受信する複数 の受信部と、
前記受信部により受信された識別情報と、その識別情報を受信した受信部の設置 位置とに基づいて、前記施設内における前記被写体の所在位置を特定する被写体 位置特定部と、
前記施設内における前記カメラの所在位置を特定するカメラ位置特定部と、 前記被写体位置特定部により特定された被写体の所在位置と、前記カメラ位置特 定部により特定されたカメラの所在位置とに基づいて、前記カメラに対する前記被写 体の相対位置を求める相対位置算出部とをさらに備える撮影支援システム。
[26] 請求項 25に記載の撮影支援システムにおいて、
前記送信部は、さらに前記撮影者によって所持され、
前記カメラ位置特定部は、前記撮影者によって所持された送信部から送信されて 前記受信部により受信された識別情報と、その識別情報を受信した受信部の設置位 置とに基づいて、前記施設内における前記カメラの所在位置を特定する撮影支援シ ステム。
[27] 請求項 25または 26に記載の撮影支援システムにおいて、
前記カメラは、前記被写体が撮影範囲内にあるか否力、を判定し、その判定結果に 応じて、撮影者に提供する被写体の位置情報を変化させる撮影支援システム。
[28] 請求項 27に記載の撮影支援システムにおいて、
前記被写体が撮影範囲内にあると判定した場合、前記カメラは、その撮影範囲内 における被写体の位置を表示することにより、前記被写体の位置情報を撮影者に提 供する撮影支援システム。
[29] 請求項 28に記載の撮影支援システムにおいて、
前記カメラは、撮影時のオートフォーカス領域を示すためにファインダ像に重ねて 表示されるオートフォーカスエリアの一部を用いて、撮影範囲内における被写体の位 置を表示する撮影支援システム。
[30] 請求項 27〜29のいずれか一項に記載の撮影支援システムにおいて、
前記被写体が撮影範囲内にないと判定した場合、前記カメラは、その撮影範囲に 対する被写体の方向を表示することにより、前記被写体の位置情報を撮影者に提供 する撮影支援システム。
[31] 請求項 30に記載の撮影支援システムにおいて、
前記カメラは、撮影範囲に対する被写体の方向を示す図形をファインダに表示する 撮影支援システム。
[32] 請求項 28〜31のいずれか一項に記載の撮影支援システムにおいて、
前記カメラは、前記被写体の位置または方向を表示するときに、撮影者がそのカメ ラを構えた向きに応じて、縦表示または横表示のいずれかに切り替える撮影支援シ ステム。
[33] 請求項 25〜32のいずれか一項に記載の撮影支援システムにおいて、
前記カメラは、前記相対位置算出部により求められた被写体の相対位置に基づい て、ピント調節を行う撮影支援システム。
[34] 請求項 33に記載の撮影支援システムにおいて、
前記カメラは、前記被写体が撮影範囲内にある場合は、その撮影範囲内にある被 写体に合わせてピント調節を行い、
前記被写体が撮影範囲内にない場合は、前記相対位置算出部により求められた 被写体の相対位置に基づいてピント調節を行う撮影支援システム。
[35] 請求項 24に記載の撮影支援システムにおいて、
前記カメラは、前記送信部から送信される識別情報を受信するための受信部と、そ の受信部により受信された識別情報およびその受信方向に基づいて、そのカメラに 対する前記被写体の相対位置を求める相対位置算出部とを備える撮影支援システ ム。
[36] 請求項 35に記載の撮影支援システムにおいて、
前記カメラは、前記被写体が撮影範囲内にあるか否力、を判定し、その判定結果に 応じて、撮影者に提供する被写体の位置情報を変化させる撮影支援システム。
[37] 請求項 36に記載の撮影支援システムにおいて、
前記被写体が撮影範囲内にあると判定した場合、前記カメラは、その撮影範囲内 における被写体の位置を表示することにより、前記被写体の位置情報を撮影者に提 供する撮影支援システム。
[38] 請求項 37に記載の撮影支援システムにおいて、
前記カメラは、撮影時のオートフォーカス領域を示すためにファインダ像に重ねて 表示されるオートフォーカスエリアの一部を用いて、撮影範囲内における被写体の位 置を表示する撮影支援システム。
[39] 請求項 36〜38のいずれか一項に記載の撮影支援システムにおいて、
前記被写体が撮影範囲内にないと判定した場合、前記カメラは、その撮影範囲に 対する被写体の方向を表示することにより、前記被写体の位置情報を撮影者に提供 する撮影支援システム。
[40] 請求項 39に記載の撮影支援システムにおいて、
前記カメラは、撮影範囲に対する被写体の方向を示す図形をファインダに表示する 撮影支援システム。
[41] 請求項 37〜40のいずれか一項に記載の撮影支援システムにおいて、
前記カメラは、前記被写体の位置または方向を表示するときに、撮影者がそのカメ ラを構えた向きに応じて、縦表示または横表示のいずれかに切り替える撮影支援シ ステム。
[42] 請求項 24〜41のいずれか一項に記載の撮影支援システムにおいて、
前記カメラに予め登録された前記被写体が所持する送信部の情報に基づ!/、て、前 記カメラにより撮影者に位置情報を提供する被写体を選択する撮影支援システム。
[43] 請求項 24〜42の!/、ずれか一項に記載の撮影支援システムにお!/、て用いられる力 メラ。
PCT/JP2007/067217 2006-09-04 2007-09-04 Système de partage de vidéo, système de support d'imagerie et caméra WO2008029803A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US12/310,674 US8339500B2 (en) 2006-09-04 2007-09-04 Video sharing system, photography support system, and camera

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2006238978A JP4984753B2 (ja) 2006-09-04 2006-09-04 映像共有システム
JP2006238977A JP4720687B2 (ja) 2006-09-04 2006-09-04 映像共有システム
JP2006-238977 2006-09-04
JP2006-238979 2006-09-04
JP2006-238978 2006-09-04
JP2006238979A JP4670776B2 (ja) 2006-09-04 2006-09-04 映像共有システム
JP2006241579A JP2008066963A (ja) 2006-09-06 2006-09-06 撮影支援システム、カメラ
JP2006-241579 2006-09-06

Publications (1)

Publication Number Publication Date
WO2008029803A1 true WO2008029803A1 (fr) 2008-03-13

Family

ID=39157230

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/067217 WO2008029803A1 (fr) 2006-09-04 2007-09-04 Système de partage de vidéo, système de support d'imagerie et caméra

Country Status (2)

Country Link
US (1) US8339500B2 (ja)
WO (1) WO2008029803A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10728443B1 (en) 2019-03-27 2020-07-28 On Time Staffing Inc. Automatic camera angle switching to create combined audiovisual file
US10963841B2 (en) 2019-03-27 2021-03-30 On Time Staffing Inc. Employment candidate empathy scoring system
US11023735B1 (en) 2020-04-02 2021-06-01 On Time Staffing, Inc. Automatic versioning of video presentations
US11127232B2 (en) 2019-11-26 2021-09-21 On Time Staffing Inc. Multi-camera, multi-sensor panel data extraction system and method
US11144882B1 (en) 2020-09-18 2021-10-12 On Time Staffing Inc. Systems and methods for evaluating actions over a computer network and establishing live network connections
US11423071B1 (en) 2021-08-31 2022-08-23 On Time Staffing, Inc. Candidate data ranking method using previously selected candidate data
US11727040B2 (en) 2021-08-06 2023-08-15 On Time Staffing, Inc. Monitoring third-party forum contributions to improve searching through time-to-live data assignments
US11907652B2 (en) 2022-06-02 2024-02-20 On Time Staffing, Inc. User interface and systems for document creation

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD609714S1 (en) 2007-03-22 2010-02-09 Fujifilm Corporation Electronic camera
US8224899B2 (en) 2008-04-17 2012-07-17 Eloy Technology, Llc Method and system for aggregating media collections between participants of a sharing network
JP5517895B2 (ja) * 2009-11-25 2014-06-11 パナソニック株式会社 端末装置
US9942591B2 (en) * 2010-05-14 2018-04-10 Highlight Broadcast Network, Llc Systems and methods for providing event-related video sharing services
JP2012004739A (ja) * 2010-06-15 2012-01-05 Sony Corp 情報処理装置、情報処理方法、及びプログラム
EP2479684B1 (en) * 2011-01-21 2013-09-25 NTT DoCoMo, Inc. Method and evaluation server for evaluating a plurality of videos
US8587672B2 (en) * 2011-01-31 2013-11-19 Home Box Office, Inc. Real-time visible-talent tracking system
US9055276B2 (en) * 2011-07-29 2015-06-09 Apple Inc. Camera having processing customized for identified persons
CN103366352B (zh) 2012-03-30 2017-09-22 北京三星通信技术研究有限公司 用于产生背景被虚化的图像的设备和方法
CN103581698B (zh) * 2012-07-31 2017-05-24 联想(北京)有限公司 终端设备以及视频数据发布方法
JP5945966B2 (ja) * 2013-03-29 2016-07-05 ブラザー工業株式会社 携帯端末装置、携帯端末用プログラム、サーバ、及び画像取得システム
KR102085766B1 (ko) * 2013-05-30 2020-04-14 삼성전자 주식회사 촬영 장치의 자동 초점 조절 방법 및 장치
CA2912836A1 (en) 2013-06-05 2014-12-11 Snakt, Inc. Methods and systems for creating, combining, and sharing time-constrained videos
CA2919170A1 (en) * 2013-08-13 2015-02-19 Navigate Surgical Technologies, Inc. System and method for focusing imaging devices
US20150104004A1 (en) 2013-10-10 2015-04-16 Elwha Llc Methods, systems, and devices for delivering image data from captured images to devices
US10013564B2 (en) 2013-10-10 2018-07-03 Elwha Llc Methods, systems, and devices for handling image capture devices and captured images
US20150106195A1 (en) * 2013-10-10 2015-04-16 Elwha Llc Methods, systems, and devices for handling inserted data into captured images
US10346624B2 (en) 2013-10-10 2019-07-09 Elwha Llc Methods, systems, and devices for obscuring entities depicted in captured images
US10185841B2 (en) 2013-10-10 2019-01-22 Elwha Llc Devices, methods, and systems for managing representations of entities through use of privacy beacons
US9799036B2 (en) 2013-10-10 2017-10-24 Elwha Llc Devices, methods, and systems for managing representations of entities through use of privacy indicators
KR102226820B1 (ko) * 2014-08-20 2021-03-11 삼성전자주식회사 데이터 공유 방법 및 그 전자 장치
US9473687B2 (en) * 2014-12-23 2016-10-18 Ebay Inc. Modifying image parameters using wearable device input
US20170034470A1 (en) * 2015-08-02 2017-02-02 Cfkk, Llc Systems and methods and apparatuses for capturing concurrent multiple perspectives of a target by mobile devices
KR102520225B1 (ko) * 2016-06-30 2023-04-11 삼성전자주식회사 전자 장치 및 전자 장치의 이미지 촬영 방법
US10284907B2 (en) * 2016-10-07 2019-05-07 Disney Enterprises, Inc. Device, system, and method for game enhancement using cross-augmentation
JP6343779B1 (ja) * 2017-04-28 2018-06-20 株式会社コナミデジタルエンタテインメント サーバ装置、及びそれに用いられるコンピュータプログラム
CN109496432A (zh) * 2017-11-06 2019-03-19 深圳市大疆创新科技有限公司 流媒体直播方法及系统
US11486712B2 (en) * 2020-05-15 2022-11-01 Sony Corporation Providing video of space to calibrate user location relative to desired destination
WO2022014226A1 (ja) * 2020-07-13 2022-01-20 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム
CN111800644B (zh) 2020-07-14 2022-10-14 深圳市人工智能与机器人研究院 一种视频分享、获取方法、服务器、终端设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0974505A (ja) * 1995-09-05 1997-03-18 Canon Inc 撮像装置
JP2002024229A (ja) * 2000-07-03 2002-01-25 Fuji Photo Film Co Ltd 本人画像提供システム
JP2002297753A (ja) * 2001-03-30 2002-10-11 Fujitsu Ltd 画像データ提供システム
JP2003289465A (ja) * 2002-03-28 2003-10-10 Fuji Photo Film Co Ltd 撮影システム及び撮影方法
JP2004247913A (ja) * 2003-02-13 2004-09-02 Sony Corp 撮像装置及び映像データ蓄積装置及び撮像システム
JP2004297134A (ja) * 2003-03-25 2004-10-21 Fuji Photo Film Co Ltd 合成画像提供システム、画像合成装置ならびにプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6608563B2 (en) * 2000-01-26 2003-08-19 Creative Kingdoms, Llc System for automated photo capture and retrieval
JP2002010250A (ja) 2000-06-19 2002-01-11 Sega Corp 画像表示システム
US20020085762A1 (en) * 2000-11-02 2002-07-04 Image Id Ltd. Mass event image identification
US7301569B2 (en) 2001-09-28 2007-11-27 Fujifilm Corporation Image identifying apparatus and method, order processing apparatus, and photographing system and method
EP1450549B1 (en) * 2003-02-18 2011-05-04 Canon Kabushiki Kaisha Photographing apparatus with radio information acquisition means and control method therefor
JP2005099439A (ja) 2003-09-25 2005-04-14 Fuji Photo Film Co Ltd 自動撮影システム
JP2005341298A (ja) 2004-05-27 2005-12-08 Canon Inc ネットワークシステム
JP4426623B2 (ja) * 2005-06-01 2010-03-03 パイオニア株式会社 映像配信装置、映像配信方法、映像配信プログラム、および記録媒体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0974505A (ja) * 1995-09-05 1997-03-18 Canon Inc 撮像装置
JP2002024229A (ja) * 2000-07-03 2002-01-25 Fuji Photo Film Co Ltd 本人画像提供システム
JP2002297753A (ja) * 2001-03-30 2002-10-11 Fujitsu Ltd 画像データ提供システム
JP2003289465A (ja) * 2002-03-28 2003-10-10 Fuji Photo Film Co Ltd 撮影システム及び撮影方法
JP2004247913A (ja) * 2003-02-13 2004-09-02 Sony Corp 撮像装置及び映像データ蓄積装置及び撮像システム
JP2004297134A (ja) * 2003-03-25 2004-10-21 Fuji Photo Film Co Ltd 合成画像提供システム、画像合成装置ならびにプログラム

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11457140B2 (en) 2019-03-27 2022-09-27 On Time Staffing Inc. Automatic camera angle switching in response to low noise audio to create combined audiovisual file
US10963841B2 (en) 2019-03-27 2021-03-30 On Time Staffing Inc. Employment candidate empathy scoring system
US11961044B2 (en) 2019-03-27 2024-04-16 On Time Staffing, Inc. Behavioral data analysis and scoring system
US11863858B2 (en) 2019-03-27 2024-01-02 On Time Staffing Inc. Automatic camera angle switching in response to low noise audio to create combined audiovisual file
US10728443B1 (en) 2019-03-27 2020-07-28 On Time Staffing Inc. Automatic camera angle switching to create combined audiovisual file
US11127232B2 (en) 2019-11-26 2021-09-21 On Time Staffing Inc. Multi-camera, multi-sensor panel data extraction system and method
US11783645B2 (en) 2019-11-26 2023-10-10 On Time Staffing Inc. Multi-camera, multi-sensor panel data extraction system and method
US11636678B2 (en) 2020-04-02 2023-04-25 On Time Staffing Inc. Audio and video recording and streaming in a three-computer booth
US11184578B2 (en) 2020-04-02 2021-11-23 On Time Staffing, Inc. Audio and video recording and streaming in a three-computer booth
US11861904B2 (en) 2020-04-02 2024-01-02 On Time Staffing, Inc. Automatic versioning of video presentations
US11023735B1 (en) 2020-04-02 2021-06-01 On Time Staffing, Inc. Automatic versioning of video presentations
US11720859B2 (en) 2020-09-18 2023-08-08 On Time Staffing Inc. Systems and methods for evaluating actions over a computer network and establishing live network connections
US11144882B1 (en) 2020-09-18 2021-10-12 On Time Staffing Inc. Systems and methods for evaluating actions over a computer network and establishing live network connections
US11727040B2 (en) 2021-08-06 2023-08-15 On Time Staffing, Inc. Monitoring third-party forum contributions to improve searching through time-to-live data assignments
US11966429B2 (en) 2021-08-06 2024-04-23 On Time Staffing Inc. Monitoring third-party forum contributions to improve searching through time-to-live data assignments
US11423071B1 (en) 2021-08-31 2022-08-23 On Time Staffing, Inc. Candidate data ranking method using previously selected candidate data
US11907652B2 (en) 2022-06-02 2024-02-20 On Time Staffing, Inc. User interface and systems for document creation

Also Published As

Publication number Publication date
US8339500B2 (en) 2012-12-25
US20100002084A1 (en) 2010-01-07

Similar Documents

Publication Publication Date Title
WO2008029803A1 (fr) Système de partage de vidéo, système de support d'imagerie et caméra
US9467610B2 (en) Image capturing system, image capturing device, and image capturing method
US8760518B2 (en) Photographing apparatus, photographing system and photographing method
CN103369234B (zh) 服务器、客户终端和系统
WO2011102232A1 (ja) 電子機器、撮像装置、画像再生方法、画像再生プログラム、画像再生プログラムを記録した記録媒体および画像再生装置
CN106575027A (zh) 摄像装置及其被摄体跟踪方法
JP2010183609A (ja) 無線多重記録装置システム
JP2009044602A (ja) 撮像装置、撮像システム及び撮像方法
JP2009077157A (ja) 撮影制御方法、撮像装置、撮影意図判定装置、及び撮影システム
JP4720687B2 (ja) 映像共有システム
JP4670776B2 (ja) 映像共有システム
KR20140115984A (ko) 촬상 장치, 통신 방법 및 기억 매체 및 통신 시스템
JP6950793B2 (ja) 電子機器およびプログラム
CN113302906B (zh) 图像处理设备、图像处理方法和存储介质
JP4984753B2 (ja) 映像共有システム
WO2020095647A1 (ja) 画像処理装置、画像処理サーバー、画像処理方法、コンピュータプログラム及び記憶媒体
JP4110271B2 (ja) 画像提供システム及び方法
JP4172380B2 (ja) 識別情報記録装置および方法ならびに撮影システム
JP7282519B2 (ja) 画像処理装置または画像処理サーバー
JP2003018070A (ja) 被撮影者に映像を送信するシステム
JP5141222B2 (ja) 撮影装置、撮影制御方法及びプログラム
JP2002112222A (ja) 画像配信装置、利用者端末、画像配信プログラムを記録した記録媒体
JP7233886B2 (ja) 画像処理装置
JP2020077951A (ja) 画像処理装置
JP2008066963A (ja) 撮影支援システム、カメラ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07806672

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12310674

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07806672

Country of ref document: EP

Kind code of ref document: A1