JP6557410B2 - ビデオコンテンツの選択 - Google Patents

ビデオコンテンツの選択

Info

Publication number
JP6557410B2
JP6557410B2 JP2018515483A JP2018515483A JP6557410B2 JP 6557410 B2 JP6557410 B2 JP 6557410B2 JP 2018515483 A JP2018515483 A JP 2018515483A JP 2018515483 A JP2018515483 A JP 2018515483A JP 6557410 B2 JP6557410 B2 JP 6557410B2
Authority
JP
Japan
Prior art keywords
video content
camera
tag
cameras
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018515483A
Other languages
English (en)
Other versions
JP2018534826A (ja
Inventor
ユッハ サロカンネル
ユッハ サロカンネル
ユッカ レウナマキ
ユッカ レウナマキ
Original Assignee
ノキア テクノロジーズ オーユー
ノキア テクノロジーズ オーユー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア テクノロジーズ オーユー, ノキア テクノロジーズ オーユー filed Critical ノキア テクノロジーズ オーユー
Publication of JP2018534826A publication Critical patent/JP2018534826A/ja
Application granted granted Critical
Publication of JP6557410B2 publication Critical patent/JP6557410B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/02Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using radio waves
    • G01S3/14Systems for determining direction or deviation from predetermined direction
    • G01S3/46Systems for determining direction or deviation from predetermined direction using antennas spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/917Television signal processing therefor for bandwidth reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Camera Data Copying Or Recording (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本明細書は録画されたビデオコンテンツの選択に関するものである。
背景
オーディオ/ビデオの記録及び編集の分野では、データサイズの比較的大きなファイルを処理する必要が度々ある。データ量が大きくなってしまう記録装置の配置からオーディオ/ビデオコンテンツを取得する場合、ある特定の問題が発生する。この問題は、信頼性が高く、効率的で使いやすい方法で大容量のデータを管理することに対し、新しい挑戦をもたらす。
摘要
第1の態様において、本明細書は、ポジショニングタグのユーザ選択を検出すること、前記選択されたポジショニングタグに関連する方向情報及びタイムスタンプ情報を読み出すこと、前記選択されたタグに関連する方向情報を、記録エリアからビデオコンテンツをキャプチャするよう構成されるカメラ配列の方向情報と比較すること、前記記録エリアからビデオコンテンツをキャプチャするように構成される前記カメラ配列の1つ以上のカメラによってキャプチャされたビデオコンテンツを特定すること、を開示する。ここで、前記選択されたタグに関連するスタンプ情報に関する期間にわたって該タグの位置に関係する前記記録エリアのセクションから、前記1つ以上のカメラがビデオコンテンツをキャプチャしていた場合に、前記特定することが行われる。
前記キャプチャされたビデオコンテンツの前記選択部分には、カメラから取得されたビデオコンテンツを含めることができる。ここで、カメラはタグが位置していることが決定されるエリアをカバーするように配置されている。
前記キャプチャされたビデオコンテンツの前記選択部分には、前記カメラ(タグが位置していることが決定されるエリアをカバーするように配置されているカメラ)に隣接するカメラから取得されたビデオコンテンツを含めることができる。
本方法はさらに、前記キャプチャされたビデオコンテンツの前記選択部分に割り当てられるビットレートを増やすことを含む。
本方法はさらに、前記キャプチャされたビデオコンテンツの残り部分に割り当てられるビットレートを減らすことを含む。
前記方向情報及びタイムスタンプ情報は、前記キャプチャされたビデオコンテンツとは別のファイルに保存することができる。
1つ以上のカメラを特定することには、1つ以上の立体画像用カメラのペアを特定することを含む。
本方法はさらに、記録装置、再生装置、リモートサーバの1つから選択されたビデオコンテンツを読み出すことを含む。
本方法はさらに、1つ以上の特定のカメラから取得したビデオコンテンツを含むキャプチャされたビデオコンテンツの一部を表示させることを含む。
前記ポジショニングタグのユーザ選択の検出には、複数のポジショニングタグのユーザ選択の検出を含んでもよい。
本方法はさらに、前記複数のポジショニングタグに対応するカメラから取得されたビデオコンテンツを含む、前記キャプチャされたビデオコンテンツの一部を分割スクリーンフォーマットで表示される。
各カメラでキャプチャされた前記ビデオコンテンツは、複合的なデータファイルの一部又は個別ファイルとして記録される。
前記方向情報には方位角を含むことができる。
前記方向情報には仰角を含むことができる。
第2の態様では、本明細書はコンピュータプログラムを説明する。このコンピュータプログラムがコンピューティング装置で実行された場合、コンピューティング装置は第1の態様を実行する。
第3の態様において、本明細書は装置の説明を行う。本装置は少なくとも1つのプロセッサと、コンピュータ可読命令を有する少なくとも1つのメモリを備える。そして、前記少なくとも1つのプロセッサによって、前記コンピュータ可読命令が実行されると、前記装置に少なくとも、ポジショニングタグのユーザ選択を検出させ、前記選択されたポジショニングタグに関連する方向情報及びタイムスタンプ情報を読み出させ、前記選択されたタグに関連する方向情報を、記録エリアからビデオコンテンツをキャプチャするよう構成されるカメラ配列の方向情報と比較させ、前記記録エリアからビデオコンテンツをキャプチャするように構成される前記カメラ配列の1つ以上のカメラによってキャプチャされたビデオコンテンツを特定させる。ここで、前記選択されたタグに関連する前記スタンプ情報に関する期間にわたって該タグの位置に関係する前記記録エリアのセクションから、前記1つ以上のカメラが、ビデオコンテンツをキャプチャしていた場合、前記特定が行われる。
第4の態様において、本明細書はコンピュータ可読コードを有するコンピュータ可読媒体の説明を行う。このコンピュータ可読コードが少なくとも1つのプロセッサによって実行された場合、ポジショニングタグのユーザ選択を検出すること、前記選択されたポジショニングタグに関連する方向情報及びタイムスタンプ情報を読み出させること、前記選択されたタグに関連する方向情報を、記録エリアからビデオコンテンツをキャプチャするよう構成されるカメラ配列の方向情報と比較させること、前記記録エリアからビデオコンテンツをキャプチャするように構成される前記カメラ配列の1つ以上のカメラによってキャプチャされたビデオコンテンツを特定させること、を遂行させる。ここで、前記選択されたタグに関連する前記スタンプ情報に関する期間にわたって該タグの位置に関係する前記記録エリアのセクションから、前記1つ以上のカメラがビデオコンテンツをキャプチャしていた場合に、前記特定が行われる。
第5の態様において、本明細書は装置の説明を行う。この装置は、ポジショニングタグのユーザ選択を検出する手段と、前記選択されたポジショニングタグに関連する方向情報及びタイムスタンプ情報を読み出す手段と、前記選択されたタグに関連する方向情報を、記録エリアからビデオコンテンツをキャプチャするよう構成されるカメラ配列の方向情報と比較する手段と、前記記録エリアからビデオコンテンツをキャプチャするように構成される前記カメラ配列の1つ以上のカメラによってキャプチャされたビデオコンテンツを特定する手段と、前記1つ以上のカメラから取得された前記特定されたビデオコンテンツを、表示用に選択する手段とを備える。ここで、前記選択されたタグに関連する前記スタンプ情報に関する期間にわたって該タグの位置に関係する前記記録エリアのセクションから、前記1つ以上のカメラが、ビデオコンテンツをキャプチャしていた場合、前記特定が行われる。
本明細書に記載した方法、装置、コンピュータ可読命令をより詳細に理解するために、次の添付図面と合わせて以下の説明を参照されたい。
レコーディング環境を示したものである。 記録装置と編集/再生装置とを示した図面である。 コントローラの図面である。 カメラの図面である。 携帯型タグの図面である。 記録装置で実行されるステップを示すフローチャートを記載したフローチャートである。 再生装置で実行されるステップを示すフローチャートを記載したフローチャートである。 記憶媒体を示す。 他の実施形態によるカメラ配列を示す。 他の実施形態によるカメラ配列を示す。
詳細説明
本発明の実施形態は、記録デバイスの視野領域にあるポジショニングタグに関する方向データをキャプチャすると同時に、記録デバイスの配置にわたってビデオ及び/またはオーディオをキャプチャするためのシステムを提供する。方向データは、その後のビデオの処理過程/編集過程の少なくとも一過程で使用することができ、その結果、記録デバイスの配置によってキャプチャされた多重ストリームを効率的に処理することができる。さらに、ビデオが視聴者によってその後に視聴される場合、ポジショニングタグの無線送信から測定された相対位置に基づくビデオの一部として、特定のビューを強調することができる。
本発明の実施形態は、無線検出されたオブジェクトの相対位置を記録すること、及び、その位置をビデオ及び/またはオーディオデータにキャプチャされたエリアと関連付けることを含む。方向無線情報の記録は、ビデオ及び/またはオーディオレコーディングファイルに追加することができる。代替として、方向無線情報とタイムスタンプとを含む独立したファイルを記録することができ、この場合、そのファイルを同時に記録したビデオ及び/またはオーディオファイルとマッチングさせる。
図1は、レコーディング環境の一例を示す。記録装置10は、ビデオカメラ11の球状の配置と筐体とを含む。記録装置と称される一方、この装置はビデオコンテンツを記録してストレージ媒体に保存すると同時に、ライブビデオストリームをキャプチャするよう構成される。実施形態では、ビデオコンテンツが保存される場所は、記録装置自体でもよいし、ビデオ編集用コンピュータまたはリモートサーバでもよい。ビデオカメラ11は、仰角及び方位角の両方に関して360°にわたるビデオ撮影可能な範囲を提供するように配置される。すなわち、球全体にわたるものであり、ビデオ球体と称してもよい。他の実施形態では、半球状の範囲または球状のエリアの一部のみをカバーするカメラを含む配置とすることもできることに留意すべきである。
カメラ11のそれぞれは、カメラアレイ10を囲む三次元空間の一部分をキャプチャするよう構成される。図1に示す記録装置10は、6つのカメラ11a〜11fを備える。カメラ11fは、図1には示されていないが、図2には図示されている。
ポジショニングタグ20(例えば、BLE(Bluetooth Low Energy)タグ)は、図1に示されている。この例では、ポジショニングタグ20はユーザの時計の一部である。他の非限定的な例では、ポジショニングタグ20が動物の首輪に取り付けられ、野生動物のドキュメンタリービデオをキャプチャする手助けをしたり、または、ポジショニングタグ20を携帯電話またはキーホルダーに組み込むことも可能である。
記録装置10及びポジショニングタグ20は、適合するあらゆるタイプの無線送信/変換技術を使用して操作するよう構成されうる。適合する技術タイプには、BR/EDR(Bluetooth Basic Rate / Enhanced Data Rate)及びBLE(Bluetooth Low Energy)が含まれるがこれに限定されない。BLE(Bluetooth Low Energy)は、Bluetoothコア仕様Ver4.0の構成要素として、Bluetooth SIGによって公表された比較的新しい無線通信技術である。適合する他の技術タイプとして、例えば、IEEE 802.11 and IEEE 802.15.4に基づく技術が含まれる。BLEの使用は、その比較的低いエネルギー消費のために特に便利である。なぜなら、殆どの携帯電話機その他の携帯型電子機器はBLE技術を使用した通信が可能であるためである。
ポジショニングタグ20によって送信される信号/ポジショニングパケットは、HAIP(the High Accuracy Indoor Positioning)ソリューションに従う。HAIPは、例えば、http://www.in-location-alliance.comで公表されている。
本明細書に記載の実施形態では、BLEメッセージ及びHAIPシステムを使用するが、代替として、IEEE 802.15.4等の低電力無線技術を使用してもよい。
記録装置10は、球状座標のシステムの原点であるとみなされる。ポジショニングタグ20は、このように図1に示すX−Y平面の方位角θ、及び、Z軸に対する仰角φによって定義することができる。後述する詳細にあるように、ポジショニングタグ20は一定間隔で無線メッセージを送信する。これら無線メッセージは、記録装置10によって受信される。そして、記録装置10は受信パケットに関する到達の方位角及び仰角を定義する。記録装置10はさらに、受信パケットに関するRSSI(受信信号強度表示)を定義することができる。この情報は適当なフォーマットに保存することができる。
図2は、記録装置10と編集及び/または再生装置15とを示した図面である。記録装置10はコントローラ13を備える。コントローラ13は記録装置10を制御する。コントローラ13は、タグ20から受信したパケットからの到達角度情報を決定するように構成される。
図2に示す例示的な実装では、コントローラ13は、ビデオ/オーディオ記録システムの中心に搭載される。本実施形態では6つのカメラがあり、1つのレンズを備える各カメラ、及び1つのコントローラ13を備える。カメラレコーディングの出力は、コントローラ13によって保管された1つ以上のファイルに保存される。ここで、このファイルのフォーマットは未加工または特定の処理がなされている。個々のカメラの出力は、コントローラ13によって保存される個別のファイルに保存することができる。代替として、カメラの出力を、コントローラ13によって保存される単独の合成ファイルに連結することも可能である。また、方向データは1つ以上のファイルに保存される。ここで、このファイルのフォーマットは、未加工または特定の処理がなされている。ビデオデータ及び方向データは、記録装置10に局所的に保存しても、分散して保存してもよい。例えば、リモートサーバ170に保存し、再生装置15によってリモートアクセスすることが可能である。代替として、記録済み媒体及び方向データを再生装置15自体にアップロードしてもよい。
記録装置10は通信モジュール14を備えてもよい。通信モジュール14はRFアンテナ及びRF送受信機を備え、記録装置10及びリモートサーバ170(又はコンピュータ15)の間の無線通信を可能にする。ここで、リモートサーバ170(又はコンピュータ15)は、ビデオ編集機能を有している。記録装置10は、Wi-Fi等の無線ネットワークを介して通信可能に構成されている。代替として、記録装置10がビデオ編集機能を有するコンピュータとの有線リンク(図示せず)を備えてもよい。
記録装置10は、ユーザ入出力部12を備えてもよい。ユーザ入出力部12は、スクリーン及びキーボードを備えていてもよい。ここでキーボードは、タッチスクリーンに組み込まれていてもよい。ユーザ入出力部12を使用することで、ユーザが1つ以上のカメラ11の操作と、記録装置10の再生機能とを制御することが可能となる。ユーザ入出力部12によってユーザは、選択された1つ以上のカメラからの再生を制御することが可能となる。図7を参照して後述するように、ユーザは 装置10のスクリーンに表示されたユーザインタフェースから1つ以上のタグ20を選択可能である。そして、タグ位置に関係するビデオコンテンツの部分選択は装置10で実施されうる。
スクリーンは1つ以上のカメラからのライブ映像を観るために使用することができる。ユーザは1つ以上のタグ20を選択し、カメラからのライブ映像を観ることができる。このカメラは、選択されたタグと関連する。選択されたビデオコンテンツは装置10、再生装置15、リモートサーバ170に保存することができる。
編集及び/または再生装置15は、プロセッサ150及び記憶装置151を備えるコンピュータであってもよい。記憶装置151は、揮発性メモリ152及び不揮発性メモリ153を備える。不揮発性メモリ153は、OS(operating system)154と、保存されたビデオの編集用ソフトウェア155を有していてもよい。不揮発性メモリ153はさらに方向データファイル156を備える。方向データファイル156には、コントローラ13から受信した方向データが保存される。ビデオファイル157はまた、コントローラ13から受信したビデオストリームデータと共に保存することができる。代替として、ビデオファイルをリモートサーバ170で保存することができる。ビデオストリームデータは個別のファイルとして保存することができる。そして、各ビデオファイルは各カメラの出力を含む。代替として、方向データをビデオファイルの中に含ませることができる。編集及び/または再生装置15は、RF送受信機158及びRFアンテナ159をさらに備え、記録装置10及びサーバ170との無線通信を可能にする。再生装置15は、スクリーン、キーボード、スピーカー等の入出力コンポーネント160を備えるコンピュータであってもよい。ユーザは、記録装置10から受信したライブストリーム等のビデオコンテンツを観ることができる。代替として、ビデオコンテンツを再生装置15またはリモートサーバ170に保存しておき、再生することができる。
図3は、コントローラ13の例示的なブロック図である。コントローラ13はプロセッサ300とストレージデバイス310とを備える。ストレージデバイス310は不揮発性メモリ320を備え、この不揮発性メモリ320にはコンピュータ可読コード320Aが保存される。不揮発性メモリには、Bluetoothモジュール320Bが備わっている。本発明の実施形態では、コンピュータ可読コード320Aが、コントローラ13の特定の機能によって保存や実行を行うことを可能にする。Bluetoothモジュール320Bは要求されるコードを含み、受信したBluetoothメッセージはBluetooth標準規格に従って処理されうる。ストレージデバイス310は揮発性メモリ330も備える。
プロセッサ300は、到達方位角情報及び到達仰角情報を処理するように構成されている。プロセッサ300は、方向データを1つ以上のカメラから取得した配信ビデオに適用することができる。代替として、プロセッサ300は、1つ以上のカメラから取得した方向データ及び配信ビデオをリモートサーバに出力することができる。
コントローラ13は、RFスイッチ341に接続する方位角アンテナアレイ340、送受信機342、到達方位角(AoA)推定モジュール343を備える。コントローラ13はさらに、RFスイッチ351に接続する仰角アンテナアレイ350、送受信機352、到達仰角(AoA)推定モジュール353を備える。
到達角度(AoA)の推定は、受信機内の信号のコピー(物理的に別々になっている多重のアンテナによって送信されたもの)の測定時間差に基づくものである。時間差は様々な伝搬チャネル長に依存する。そして通常、実際の推定処理は、結果として生じる信号のコピーの位相差等、信号に対する二次的な影響に基づく。到達角度の位置決めは、数十センチまたは2°程度の方向予測の位置決め精度を提供することが示されている。
プロセッサ300とアンテナ340、350との間のリンクは双方向性があり、送受信機342、352、及びアンテナ340、350はRF通信のために使用することができる。
コントローラ13は、クロック360及びタイムスタンプ機能も備えている。コントローラ13は、受信パケットのRSSIデータを測定及び記録するように構成されうる。
コントローラ13は参照値を保存し、方位角及び仰角を均等に監視することを可能にする。ストレージデバイス310は、方位角及び仰角における0°の相対的位置を定義する情報を保存することができる。これらの基準点から、特定のカメラによって網羅されるエリアを定義することができる。例えば、カメラ11aは方位角0〜60°、仰角0〜60°を網羅するとして定義されうる。カメラ11及びコントローラ13は、集積記録装置10を形成することができ、ここで、相対位置情報がカメラ11及び/またはコントローラ13のメモリに保存される。代替的な実施形態では、カメラ11及び/またはコントローラ13にコンパスを備えてその方向を決定し、又は/且つ、ジャイロスコープを備えて幾何学的位置を決定してもよい。
図4は、カメラ11の1つのブロック図である。カメラ11はカメラモジュール400を備える。カメラモジュール400はビデオカメラコンポーネントを備える。このビデオカメラコンポーネントは、具体的には、レンズ、CCDアレイ、画像プロセッサを備える技術であることが知られている。各カメラ11は、コントローラ13によって制御されてもよい。いくつかの実施形態では、カメラ11は通信モジュール14からの命令を受信する。同様に、この通信モジュール14は、ビデオ編集用コンピュータから無線で命令を受信する。代替として、各カメラ11がRFアンテナと送受信機を備え、各コントローラがビデオ編集用コンピュータからの命令を直接受信し、このビデオ編集用コンピュータによって制御されてもよい。カメラ11はさらに、プロセッサ402とストレージデバイス403とを備える。ストレージデバイスは、不揮発性メモリ404及び揮発性メモリ405を備える。不揮発性メモリには、コンピュータ可読命令404Aが備わっている。クロック405をカメラに設け、タイムラインを記録済みビデオコンテンツに適用してもよい。各カメラのクロックをコントローラ13に同期させ、正確な時間管理を提供するよう保証することも可能である。カメラ11はさらに、オーディオコンテンツをキャプチャするマイクロホン406を備えてもよい。カメラは別途、ビデオプロセッサ及びオーディオプロセッサを備えていてもよい。代替として、ビデオ及びオーディオ処理機能を一つのマルチメディアプロセッサに組み込んでもよく、また、図4に示すように、カメラモジュール400及びマイクロホン406の処理機能をプロセッサ402で実現してもよい。
図5は、ポジショニングタグ20の1つのブロック図である。ポジショニングタグ20は、BLE advertisement メッセージ等の無線メッセージを送信するための送受信機200、及びアンテナ201を備える。ポジショニングタグ20はさらに、プロセッサ210とストレージデバイス222とを備える。ストレージデバイスは、不揮発性メモリ220及び揮発性メモリ221を備える。不揮発性メモリには、Bluetoothモジュール220A及びプログラム命令220Bが備わっている。本発明の実施形態では、プログラム命令220Bによって、ポジショニングタグ20の特定の機能を保存したり、実行したりすることを可能にする。Bluetoothモジュール220Aは要求されるコードを含み、BluetoothメッセージがBluetooth標準規格に従って送信される。
いくつかの実施形態では、ポジショニングタグ20は、携帯電話機、スマートウォッチ、電子メガネ等の移動体通信機器の構成要素を形成することができる。この場合、移動体通信機器は入力部230を備えることができ、この入力部230によってユーザは無線メッセージに含まれる付加的情報を入力することができる。例えば、ユーザは自分の名前を含ませることができる。他の例では、ポジショニングタグ20がスマートウォッチ又は携帯電話機の一部として備わり、BLEadvertisement メッセージ等の無線メッセージにあるデータフィールドとして送信されるユーザの心拍を記録することができる。
図6は、ビデオ録画時の記録装置10の動作を示すフローチャートである。
処理6.1では、任意であるが、コントローラ13は記録装置10の近傍にあるポジショニングデバイス20からの情報を収集することができる。ポジショニングデバイス20は、センサデータを含む無線メッセージを送信できる。このセンサデータは、近傍にあるポジショニングデバイス20の存在を記録装置10に通知する。無線メッセージは、ポジショニングデバイス20に関するセンサ情報を含むことができる。センサ情報は、例えば、ユーザが装着している装置(例えば、スマートウォッチ、電子メガネ等)のユーザ固有情報を含むことができる。ポジショニングデバイス20との接続を介したセンサデータの収集は、記録中または記録後に行うことも可能である。
さらに、コントローラ13に多重無線送受信機または多重接続機能を備えることで、例えば、ビデオ撮影をしながら競争相手の心拍を記録することもできる。追加データは、方向ファイルとして同一のファイルに保存されるか、または、別のファイルに保存される。別のファイルで保存することの利点は、迅速に検索できることにある。検索は、特定の固有情報のみに関連する検索レコードに基づいて検索されうる。
処理6.2では、記録が開始される。記録を開始する指示はコンピュータに入力され、そのコンピュータは記録装置10と無線通信することができる。代替として、記録装置10は、ボタン、タッチスクリーン等の入力機能を備えることができる。ビデオは、図1に示した球体状のカメラ11のそれぞれによって記録することができる。ビデオは、wmv、mov、mpegその他の適切なフォーマットでビデオファイルフォーマットに保存することができる。オーディオデータは、ビデオと同一のデータファイル、または別のファイルに記録することができる。オーディオファイルフォーマットの例としては、wav、mp3その他の適切なファイルフォーマットが使用可能である。
処理6.3では、記録装置10が、図1に示したポジショニングタグ20等のポジショニングタグから無線メッセージを受信する。無線メッセージは識別子を含むことができ、これによって、パケットを送信したポジショニングタグを識別することができる。無線メッセージはまたさらに、テキスト等のフィールドを含むことができる。例えば、メッセージにポジショニングタグ20によって取得した心拍情報を含ませることも可能である。
処理6.4では、到達方位角および/または到達仰角を決定する。受信信号からの信号源の方向推定は、多重アンテナの素子を用いて実行される。到達方位角及び到達仰角の推定は、コントローラ13で(図3の物理的に離れている多重のアンテナ素子340、350によって受信した)信号のコピーの測定時間差に基づくものである。時間差は様々な伝搬チャネル長に依存する。そして通常、実際の推定処理は、結果として生じる信号のコピーの位相差等、信号に対する二次的な影響に基づく。
ポジショニングタグ20は無線メッセージを送信し、コントローラ13はパケットの受信中にアンテナの切り替えを実施する。コントローラ13は無線メッセージを解析し、パケットの受信中、振幅及び位相のサンプリングを実施する。コントローラ13は、アンテナの配置情報と共に振幅及び位相のサンプルを利用して、ポジショニングタグ20からのパケットのAoA(到達角度)を推定することができる。
処理6.5は任意のステップである。受信したパケットのRSSI値が測定され、記録される。処理6.6では、受信したパケットにタイムスタンプが付される。処理6.7では、処理6.4、6.5、6.6で取得されたデータを保存する。データは、ビデオファイルの一部として保存される。代替として、データを別のファイルで保存することもできる。データを別のファイルに保存することは、ビデオファイルメタデータにデータを追加することをサポートするビデオフォーマットに依存しないため、有利である。
[表1]方向データファイルのコンテンツの例
Figure 0006557410
例示的な方向データは、検出された方向信号の送信機(すなわち、ポジショニングタグ20)の識別子、測定された方向角及び仰角、RSSIの値を含む。それぞれの角度及び対応するRSSIの値は、タイムスタンプに関連する。受信した方向データパケットに適用されたタイムスタンプは、ビデオ記録に対応一致し、観測されたタグはビデオストリームと照合一致させることができる。
表1に示すファイルコンテンツが表す実施形態では、記録装置10を包囲する球状の空間のあらゆる箇所(すなわち、方位角及び仰角の両方において0°〜360°の範囲)に設置されたタグ20から受信した無線メッセージが、1つのファイルに記録される。本例では、1つのコントローラ13が各カメラ11に接続して使用される。他の実施形態では、各カメラ11が個別のコントローラ13と接続し、カメラによって記録されるセクタ内のタグ検出イベントに関連するデータを含むファイルを、各コントローラで保持してもよい。代替として、タグ検出に関連するデータを含む1つのファイルを(ビデオ編集用コンピュータ等の)中央処理装置によって作成してもよい。このファイルは、記録装置10を包囲する球状の空間の各セクタに関連するタグデータのファイルに基づくものである。
コントローラからの方向情報及びカメラ情報を記録することで、送信機を一体化したカメラレコーディング(360°記録)に取り入れることができる。コントローラは受信したパケット全部又はそれらの一部からデータを収集することができる。
ビデオ/オーディオデータの一部と方向データとの間のリンクは、方向性を有する電波圏(directional radio sphere)とビデオ/オーディオ記録球体との間の関係をマッチングさせるためのセッティングに基づくと言ってよい。各カメラは球体の特定部分をビデオに記録する。カメラがカバーする球体の部分は重複していてもよい。様々な実施形態において、カメラを記録範囲に隙間なく配置することが可能である。カメラがカバーする球体の一部は、電波圏(方向性を有する球体)(radio/directional sphere)の特定の部分と合致する。所望の無線送信機が特定の方位角及び仰角で検出された場合、対応する1つまたは複数のカメラがON状態に切り替わるか、または、それらのフォーカスが無線/方向検出に従って調節される。
図7は、ユーザがビデオコンテンツを再生及び編集したい場合に実行される動作を示す。ビデオコンテンツは、記録装置10のスクリーンにライブ配信することができる。この場合、図7に示す後続のステップは、記録装置10で実行される。代替として、ビデオコンテンツを再生装置15のスクリーンにライブ配信してもよい。この場合、図7に示す後続のステップは、再生装置15で実行される。
他の実施形態では、ビデオコンテンツを記録したのち、再生のために再生装置15、記録装置10、またはリモートサーバ170等のローカルに保存してもよい。選択されたビデオコンテンツは、再生装置15または記録装置10に保存することができる。
この事例では、記録装置10は球状の記録エリア全域でビデオコンテンツをキャプチャしている。図1に示すカメラ配列からのビデオコンテンツを含むビデオストリームのデータサイズは、結果的に大変大きくなる可能性がある。再生及び編集する間、ユーザは特定のタグの方向に基づくビデオを視聴することを選択できる。様々なカメラからキャプチャされたビデオコンテンツを興味のあるタグに関連する方向データとマッチングさせることで、処理が必要なビデオデータの量を削減することができる。
処理7.1でユーザは、ビデオコンテンツの再生中に追跡したい1つ以上のポジショニングタグ20を選択する。この選択は様々な方法で実現できる。例えば、ユーザにはタグのリストが表示されるユーザインタフェースが提供されてもよい。表示用に選択されたタグは、方向データファイル156から取得することができる。方向データファイル156にはタグ識別子が含まれており、ユーザに提示される。ユーザは、追跡したいタグを少なくとも1つ選択する。
処理7.2では、再生装置15または記録装置10が、選択されたポジショニングタグ20に関連する方向性データ及びタイムスタンプデータに対応する方向データファイル156を検索する。選択されたポジショニングタグ20に関連する方向データ及びタイムスタンプデータが読み出される。
処理7.3では、再生装置15は選択されたタグ20の方向データを各カメラ11に関連する方向情報と比較する。処理7.4では、1つ以上のカメラが特定される。このカメラは球体状の記録エリアのセクションからビデオコンテンツを記録している。ここで、そのセクションは選択されたタグの位置に関係する。
処理7.5では、特定された1つ以上のカメラからのビデオコンテンツを含んだビデオコンテンツの一部が選択される。そして、1つ以上のカメラ11からのビデオコンテンツが読み出される。さらに、タイムスタンプを解析し、特定のカメラのビデオコンテンツのタイムラインと比較することで、ポジショニングタグがある、特定のカメラで記録された領域で一定期間に記録されたコンテンツのみが読み出される。
そして、処理7.5で選択されたコンテンツの一部をユーザに見せることができる。いくつかの実施形態では、表示させたいポジショニングタグをユーザが複数選択できる。ユーザが、別のカメラによってカバーされるポジションングタグを選択したと判断した場合、そのタグを同時に分割スクリーンフォーマットに表示してもよい。一例では、アイスホッケー選手がウェアラブルなポジショニングタグを装着している。ユーザは、視聴するアイスホッケー選手2名を選択する。この2名のアイスホッケー選手を同一のカメラでカバーできないと判断した場合、この2名の選手は分割スクリーンフォーマットに表示される。
選択されたタグが設置された領域をカバーするカメラからのビデオコンテンツを読み出すと同様、選択されたタグが位置している領域をカバーするカメラに隣接するカメラからのビデオコンテンツを取得してもよい。タグは移動性が高く、ビデオ撮影範囲を迅速に移動できると便利である。
ユーザに選択されるポジショニングタグが、ビデオ撮影範囲の種々のセクタ間を移動する場合、そのポジショギングタグが一定期間設置された領域をカバーしているカメラからのみ、ビデオコンテンツデータを読み取ることができる。この場合、タグが設置された領域をカバーしないカメラからのビデオコンテンツデータにアクセスする必要がない。
本発明の実施形態は、ビデオ/オーディオ及び無線方向の記録を使って、記録された題材の一部のみを視聴またはダウンロードすることを可能にする。無線方向の情報は送信機の方向に基づいており、送信機はオブジェクト(例えば、人間、動物、装置)に取り付けられる。したがって、ビデオ/オーディオのレコードフォーカス領域は、ポジショニングタグ20から受信した所望の無線送信機の識別情報及びその他のデータを選択することに基づく。ユーザが追跡したい無線信号オブジェクトを決定すると、例えば、タグをカバーするカメラのビットレートを増加させる等して、高画質でこのオブジェクト(及びその近傍)を配信してもよい。他のタグまたは方向は低画質で配信して帯域幅をセーブし、ストリーミング機能を向上させることができる。さらに、選択されたタグを示さないカメラからのビデオ配信は、全くダウンロードまたは配信させないことで帯域幅をセーブすることも可能である。
また、特定時刻の特定のオブジェクトのビデオ記録は、そのオブジェクトに関連する識別子と方向情報とを用いて効果的に検索及び視聴できる。検索スピードは、方向情報の記録を保存する軽サイズの別ファイルにすることによって早くすることができる。代替として、方向情報をビデオファイルの一部として保存してもよい。
図9は、他の実施形態による記録装置90を示す。記録装置90は、記録デバイスの円形アレイを含む。一般に、記録装置90の操作は、記録装置10の操作と同様である。一方、円形アレイは単一面に配置され、カメラ91のそれぞれがカメラ配列90を囲む三次元空間の一部分をキャプチャするよう構成される。360°のビデオ記録を提供できるカメラ配列の一例として、GoPro360のカメラ配列がある。このような配置は、カメラの円形アレイの記録エリア内に、記録すべき領域がある場合に利点がある。単一面の配置は、半円等の特定の円形をカバーできることに留意すべきである。
次の表2は、位置タグの検出中に作成されるファイルの例である。
[表2]
Figure 0006557410
カメラ91の全てが同一平面に設置されているため、仰角情報を収集する必要がない。よって、ファイルサイズは小さくなる。記録装置90の中に含まれるコントローラ92は、到達角度を計算して方位角を決定するのみでよい。よって、コントローラに要求される処理は、仰角も決定する場合より少ない。
図10は、他の実施形態による記録装置1000を示す。記録装置1000はカメラのペア1001の配置を備える。カメラの各ペア1001は、第1のカメラ1001a及び第2のカメラ1002bで構成されている。第1のカメラ1001aは左目で見る画像をキャプチャするように構成され、第2のカメラ1001bは右目で見る画像をキャプチャするように構成される。記録装置1000はコントローラを備え、左目でみる画像と右目でみる画像を組み合わせて立体的な画像を形成する。各ペア1001の両方のカメラからキャプチャされた画像であることが必要なため、立体的ビデオを形成することを含む処理は比較的集中的なものとなることが理解されよう。その後の立体的ビデオの編集もまた、比較的集中的な処理である。カメラのペアの配置は、球状または円形状であってもよい。球状の配置の場合、仰角及び方位角双方のデータを記録してもよい。円形状の配置の場合、方位角のみのデータを記録してもよい。
本実施形態では、方向データの保存は前述と同様の方法で広く実行される。
コントローラ1002は参照値を保存し、方位角を(球状の配置の場合は仰角も)を均等に監視することを可能にする。制御モジュールは、方位角及び仰角における0°の方角を定義する情報を保存することができる。これらの基準点から、特定のカメラのペアによって網羅されるエリアを定義することができる。例えば、第1のカメラペアは方位角0〜60°、仰角0〜60°を網羅するとして定義することができる。カメラのペア及びコントローラ1002は、集積記録装置を形成することができ、ここで、方角情報がカメラ及び/またはコントローラ1002のメモリに保存される。代替的な実施形態では、カメラ及び/またはコントローラ1002がコンパスを備えてその方向を決定し、又は/且つ、ジャイロスコープを備えて幾何学的位置を決定することを可能にする。
様々な実施形態(特に、カメラ配列が立体的なビデオコンテンツを記録するようにされている場合)の利点として、高い解像度を有するフィードを管理できること等がある。例えば、前述の配置にあるカメラは、最大約6Kの解像度を有することができる。異なるカメラからのフィードを編集する場合、いくつかの高帯域フィードの間での切り替えが必要になる場合がある。これは、カメラのペアを含む球状のカメラ配列を有する実施形態で、特に当てはまる。再生装置15での大容量フィードの間の切り替えは、より広い帯域を必要とする。さらに、フィードがリモートサーバに保存され、無線接続を介した再生装置15によってリモートアクセスされる場合、大容量フィードの間の切り替えが帯域管理及びコストの面で困難になるおそれがある。本実施形態は、検索が必要な大容量フィードを最小限のサイズにしておくことができるという利点をもたらす。
コンピュータ可読命令、ソフトウェア、OSは、装置11、13、14、15、20、92、1002に事前にプログラミングされていてもよい。代替として、コンピュータ可読命令、ソフトウェア、OSを、磁気的なキャリア信号を介して装置11、13、14、15、20、92、1002に送信してもよいし、コンピュータプログラム製品、CD−ROM又はDVD等のメモリデバイスまたは記録装置等の物理的エンティティ(図8参照)からコピーしてもよい。コンピュータ可読命令、ソフトウェア、OSは、デバイス/装置11、13、14、15、20、92、1002が前述の機能を実行できるようなロジック及びルーチンを提供することができる。
本明細書で使用する「メモリ」という用語は、その他の意味であることを明示しない限り、不揮発性メモリ及び揮発性メモリの両方を含むメモリに関連することを意味する。ただし、本用語はまた、1つ以上の揮発性メモリのみ、1つ以上の不揮発性メモリ、1つ以上の揮発性メモリ及び不揮発性メモリも含むことができる。揮発性メモリの例には、RAM、DRAM、SDRAM等が含まれる。不揮発性メモリの例には、ROM、PROM、EEPROM、フラッシュメモリ、光学式ストレージ、磁気的ストレージ等が含まれる。
本開示の実施形態は、ソフトウェア、ハードウェア、アプリケーション・ロジック、又はこれらの結合として実装されうる。ソフトウェア、アプリケーションロジック、及び/またはハードウェアは、メモリ又はコンピュータメディアに存在してもよい。例示的実施形態においては、アプリケーション・ロジック、ソフトウェア、または命令セットは、種々の標準的なコンピュータ可読媒体の何れかに保持される。本出願の文脈において「コンピュータ可読媒体」はメディアや手段であって、命令を実行するコンピュータのようなシステムや装置、デバイスによって又はそれと共に使用される命令を含むことや格納すること、通信すること、伝達すること、送信することの何れかが可能な如何なるメディアや手段であってもよい。
コンピュータ可読媒体はコンピュータ可読記憶媒体を備えてもよい。それは、コンピュータのような、命令を実行するシステムや装置、デバイスによってまたはそれと共に使用される命令を含むか格納しうる、如何なる触れることが可能な媒体や手段であってもよい。
本開示の前述の態様の様々な実施形態によれば、上記態様のいずれかによるコンピュータプログラムは、コンピュータプログラム製品に実装することができ、このコンピュータプログラム製品は触ることが可能なコンピュータ可読媒体を含む。また、このコンピュータ可読媒体は上述の機能を実装するプロセッサで使用可能な、本明細書で具現化されたコンピュータプログラムを有する。
「コンピュータ可読記憶媒体」や「コンピュータプログラム製品」、「有形物として具現化されたコンピュータプログラム」等の用語や、「プロセッサ」、「プロセッシング回路」等の用語は、様々なアーキテクチャを有するコンピュータのみならず、特殊回路もカバーするものと理解すべきである。こうしたコンピュータのアーキテクチャには、シングル/マルチプロセッサ・アーキテクチャや、直列/並列アーキテクチャ等がある。特殊回路にはフィールドプログラマブルゲートアレイ(FPGA)や特定用途向け集積回路(ASIC)、シグナルプロセッシングデバイス、その他の処理回路等がある。コンピュータプログラムや命令、コード等の用語は、プログラマブルプロセッサやファームウェア用のソフトウェアも意味するものと理解すべきである。こうしたものとして、プロセッサに対する命令や、固定機能デバイス、ゲートアレイ、プログラマブルロジックデバイス等の構成設定といったハードウェアデバイスのプログラマブルコンテンツ等がある。
例として、限定的ではないが、「コンピュータ可読媒体」等は非一時的なコンピュータ可読ストレージ媒体を意味する場合があり、このコンピュータ可読ストレージ媒体は、RAM、ROM、EEPROM、CD−ROM、その他の光学式ストレージ、磁気的ディスクストレージ、その他の磁気的ストレージデバイス、フラッシュメモリを含む。また、このコンピュータ可読ストレージ媒体は、命令またはデータ構造の形式で要求されるプログラムコードを保存するように使用可能で、かつ、コンピュータによってアクセス可能なあらゆるその他の媒体を含む。しかし、「コンピュータ可読ストレージ媒体」及びデータストレージ媒体は、接続、搬送波、信号その他の一時的メディアを含まず、非一時的、有形のストレージ媒体を意味すると理解すべきである。
命令は1つ以上のプロセッサによって実行される。ここで、プロセッサには、1つ以上のデジタル信号プロセッサ(DSP)、汎用のマイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレー(FPGA)その他これに相当する集積回路または個別論理回路等がある。そのため、本明細書で使用される用語「プロセッサ」は、前述の構造または本明細書に記載した技術を実装するために適したその他のあらゆる構造を意味する。さらに、いくつかの態様では、本明細書に記載された機能が専用のハードウェア及び/又はソフトウェアモジュールで提供される場合がある。さらに、1つ以上の回路または論理要素の中で、技術が完全に実装される場合がある。
必要に応じて、本出願で開示した様々なステップが異なる順序で、及び/又は同時に実行されてもよい。さらに必要に応じて、前述のステップの1つ又は複数が任意選択できたり、統合されたりしてもよい。
本開示の様々な態様が独立請求項に記載されているが、前述の実施形態からの特定事項の他の組合せ、および/または独立請求項の特定事項を備える従属請求項を、請求項に明記された単なる組合せとは別に、本開示の他の態様が備えてもよい。

Claims (17)

  1. ポジショニングタグのユーザ選択を検出することと;
    選択されたタグに関連する方向情報及びタイムスタンプを読み出すことと;
    前記選択されたタグに関連する方向情報を、記録エリアからビデオコンテンツをキャプチャするように構成されるカメラ配列の方向情報と比較することと;
    前記記録エリアからビデオコンテンツをキャプチャするように構成される前記カメラ配列の1つ以上のカメラによってキャプチャされたビデオコンテンツを特定することと;
    前記1つ以上のカメラから取得した前記特定されたビデオコンテンツを、表示用に選択することと;
    を含み、ただし前記特定することは、前記選択されたタグに関連するタイムスタンプ情報に関する期間にわたって前記選択されたタグの位置と関係する前記記録エリアのセクションから、前記1つ以上のカメラがビデオコンテンツをキャプチャしていた場合に行われる、方法。
  2. 前記キャプチャされたビデオコンテンツの前記選択された部分は、前記タグが位置していることが決定されるエリアをカバーするように配置されたカメラから取得されたビデオコンテンツを含む、請求項1に記載の方法。
  3. 前記キャプチャされたビデオコンテンツの前記選択された部分は、前記タグが位置していることが決定されるエリアをカバーするように配置されたカメラに隣接するカメラから取得されたビデオコンテンツを含む、請求項1又は2に記載の方法。
  4. 前記キャプチャされたビデオコンテンツの前記選択された部分に割り当てられるビットレートを増やすことをさらに含む、請求項1から3の何れかに記載の方法。
  5. 前記キャプチャされたビデオコンテンツの残り部分に割り当てられるビットレートを減らすことをさらに含む、請求項4に記載の方法。
  6. 前記方向情報及び前記タイムスタンプ情報は、前記キャプチャされたビデオコンテンツとは別のファイルに保存される、請求項1から5の何れかに記載の方法。
  7. 1つ以上のカメラを特定することは、1つ以上の立体画像用カメラのペアを特定することを含む、請求項1から6の何れかに記載の方法。
  8. 記録デバイス、再生デバイス、リモートサーバのうちの何れか1つから、前記選択されたビデオコンテンツを読み出すことをさらに含む、請求項1から7の何れかに記載の方法。
  9. 前記1つ以上の特定のカメラから取得したビデオコンテンツを含む前記キャプチャされたビデオコンテンツの一部を表示させることをさらに含む、請求項1から8の何れかに記載の方法。
  10. 前記ポジショニングタグのユーザ選択を検出することは、複数のポジショニングタグのユーザ選択を検出することを含む、請求項1から9の何れかに記載の方法。
  11. 前記複数のポジショニングタグに対応する前記カメラから取得されたビデオコンテンツを含む前記キャプチャされたビデオコンテンツの一部を分割スクリーンフォーマットで表示させることをさらに含む、請求項10に記載の方法。
  12. 各カメラでキャプチャされた前記ビデオコンテンツは、複合的なデータファイルの一部又は個別ファイルとしてキャプチャされる、請求項1から11の何れかに記載の方法。
  13. 前記方向情報は方位角情報を含む、請求項1から12の何れかに記載の方法。
  14. 前記方向情報は仰角情報を含む、請求項1から13の何れかに記載の方法。
  15. コンピューティング装置の処理手段で実行されたときに、前記コンピューティング装置に、請求項1から14の何れかに記載の方法を遂行させる命令を含む、コンピュータプログラム。
  16. 処理手段及び記憶手段を備える装置であって、前記記憶手段はプログラム命令を格納し、前記プログラム命令は前記処理手段で実行されると、前記装置に、請求項1から14の何れかに記載の方法を遂行させるように構成される、装置。
  17. ポジショニングタグのユーザ選択を検出する手段と;
    前記選択されたタグに関連する方向情報及びタイムスタンプ情報を読み出す手段と;
    前記選択されたタグに関連する方向情報を、記録エリアからビデオコンテンツをキャプチャするように構成されるカメラ配列の方向情報と比較する手段と;
    前記記録エリアからビデオコンテンツをキャプチャするように構成される前記カメラ配列の1つ以上のカメラによってキャプチャされた前記ビデオコンテンツを特定する手段と;
    前記1つ以上のカメラから取得した前記特定されたビデオコンテンツを表示用に選択する手段と;
    を備え、ここで前記ビデオコンテンツの特定は、前記選択されたタグに関連するタイムスタンプ情報に関する期間にわたって前記選択されたタグの位置と関係する前記記録エリアのセクションから、前記1つ以上のカメラがビデオコンテンツをキャプチャしていた場合に行われる、装置。
JP2018515483A 2015-09-23 2015-09-23 ビデオコンテンツの選択 Active JP6557410B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/FI2015/050633 WO2017051063A1 (en) 2015-09-23 2015-09-23 Video content selection

Publications (2)

Publication Number Publication Date
JP2018534826A JP2018534826A (ja) 2018-11-22
JP6557410B2 true JP6557410B2 (ja) 2019-08-07

Family

ID=58385959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018515483A Active JP6557410B2 (ja) 2015-09-23 2015-09-23 ビデオコンテンツの選択

Country Status (5)

Country Link
US (1) US10468066B2 (ja)
EP (1) EP3354007B1 (ja)
JP (1) JP6557410B2 (ja)
CN (1) CN108293091B (ja)
WO (1) WO2017051063A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106454321A (zh) * 2016-10-26 2017-02-22 深圳市道通智能航空技术有限公司 全景视频的处理方法、装置及系统
US11288937B2 (en) 2017-06-30 2022-03-29 Johnson Controls Tyco IP Holdings LLP Security camera system with multi-directional mount and method of operation
US11361640B2 (en) 2017-06-30 2022-06-14 Johnson Controls Tyco IP Holdings LLP Security camera system with multi-directional mount and method of operation
US10313413B2 (en) 2017-08-28 2019-06-04 Banjo, Inc. Detecting events from ingested communication signals
US11025693B2 (en) 2017-08-28 2021-06-01 Banjo, Inc. Event detection from signal data removing private information
US10581945B2 (en) 2017-08-28 2020-03-03 Banjo, Inc. Detecting an event from signal data
US10324948B1 (en) 2018-04-27 2019-06-18 Banjo, Inc. Normalizing ingested signals
US10257058B1 (en) 2018-04-27 2019-04-09 Banjo, Inc. Ingesting streaming signals
US20190251138A1 (en) 2018-02-09 2019-08-15 Banjo, Inc. Detecting events from features derived from multiple ingested signals
US20190104282A1 (en) * 2017-09-29 2019-04-04 Sensormatic Electronics, LLC Security Camera System with Multi-Directional Mount and Method of Operation
US10313865B1 (en) 2018-04-27 2019-06-04 Banjo, Inc. Validating and supplementing emergency call information
US10970184B2 (en) 2018-02-09 2021-04-06 Banjo, Inc. Event detection removing private information
US10261846B1 (en) 2018-02-09 2019-04-16 Banjo, Inc. Storing and verifying the integrity of event related data
US10585724B2 (en) 2018-04-13 2020-03-10 Banjo, Inc. Notifying entities of relevant events
US10324935B1 (en) 2018-02-09 2019-06-18 Banjo, Inc. Presenting event intelligence and trends tailored per geographic area granularity
JPWO2019187493A1 (ja) * 2018-03-26 2021-04-22 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10904720B2 (en) 2018-04-27 2021-01-26 safeXai, Inc. Deriving signal location information and removing private information from it
US10353934B1 (en) 2018-04-27 2019-07-16 Banjo, Inc. Detecting an event from signals in a listening area
US10327116B1 (en) * 2018-04-27 2019-06-18 Banjo, Inc. Deriving signal location from signal content
US10963841B2 (en) 2019-03-27 2021-03-30 On Time Staffing Inc. Employment candidate empathy scoring system
US10728443B1 (en) 2019-03-27 2020-07-28 On Time Staffing Inc. Automatic camera angle switching to create combined audiovisual file
TWI699545B (zh) * 2019-06-14 2020-07-21 群光電子股份有限公司 電子裝置、追蹤系統及追蹤方法
US10582343B1 (en) 2019-07-29 2020-03-03 Banjo, Inc. Validating and supplementing emergency call information
US11127232B2 (en) 2019-11-26 2021-09-21 On Time Staffing Inc. Multi-camera, multi-sensor panel data extraction system and method
US11023735B1 (en) 2020-04-02 2021-06-01 On Time Staffing, Inc. Automatic versioning of video presentations
US11144882B1 (en) 2020-09-18 2021-10-12 On Time Staffing Inc. Systems and methods for evaluating actions over a computer network and establishing live network connections
CN113709542B (zh) * 2020-10-09 2023-09-19 天翼数字生活科技有限公司 一种交互式全景视频播放的方法和系统
US11727040B2 (en) 2021-08-06 2023-08-15 On Time Staffing, Inc. Monitoring third-party forum contributions to improve searching through time-to-live data assignments
US11423071B1 (en) 2021-08-31 2022-08-23 On Time Staffing, Inc. Candidate data ranking method using previously selected candidate data
US11907652B2 (en) 2022-06-02 2024-02-20 On Time Staffing, Inc. User interface and systems for document creation

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6034716A (en) 1997-12-18 2000-03-07 Whiting; Joshua B. Panoramic digital camera system
EP1099343A4 (en) 1998-05-13 2007-10-17 Infinite Pictures Inc PANORAMIC FILMS SIMULATING A DISPLACEMENT IN A MULTI-DIMENSIONAL SPACE
US20020021353A1 (en) 2000-06-09 2002-02-21 Denies Mark Streaming panoramic video
US7839926B1 (en) 2000-11-17 2010-11-23 Metzger Raymond R Bandwidth management and control
JP4736381B2 (ja) * 2003-11-27 2011-07-27 ソニー株式会社 撮像装置及び方法、監視システム、プログラム並びに記録媒体
JP2007043225A (ja) * 2005-07-29 2007-02-15 Univ Of Electro-Communications 撮像画像処理装置及び撮像画像処理方法
WO2007036842A2 (en) 2005-09-30 2007-04-05 Koninklijke Philips Electronics N.V. Method and apparatus for capturing metadata for a content item
EP2479991A3 (en) 2006-12-04 2014-01-08 Lynx System Developers, Inc. Autonomous systems and methods for still and moving picture production
US8665333B1 (en) * 2007-01-30 2014-03-04 Videomining Corporation Method and system for optimizing the observation and annotation of complex human behavior from video sources
JP2008227877A (ja) * 2007-03-13 2008-09-25 Hitachi Ltd 映像情報処理装置
JP4933354B2 (ja) * 2007-06-08 2012-05-16 キヤノン株式会社 情報処理装置、及び情報処理方法
US10642364B2 (en) * 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US9185361B2 (en) 2008-07-29 2015-11-10 Gerald Curry Camera-based tracking and position determination for sporting events using event information and intelligence data extracted in real-time from position information
US20130176403A1 (en) 2011-08-16 2013-07-11 Kenneth Varga Heads up display (HUD) sensor system
CA2775963C (en) * 2009-10-19 2015-06-23 Intergraph Technologies Company Data search, parser, and synchronization of video and telemetry data
US9031971B2 (en) 2010-07-23 2015-05-12 Qualcomm Incorporated Flexible data download models for augmented reality
US20130002879A1 (en) * 2011-07-01 2013-01-03 Sensormatics Electronics, Llc Systems and methods for tracking a commodity
JP6282793B2 (ja) 2011-11-08 2018-02-21 サターン ライセンシング エルエルシーSaturn Licensing LLC 送信装置、表示制御装置、コンテンツ送信方法、記録媒体、及びプログラム
WO2013076720A1 (en) * 2011-11-27 2013-05-30 Spoton-Video Ltd. A system and methods for personalizing an image
US20130300832A1 (en) 2012-05-14 2013-11-14 Sstatzz Oy System and method for automatic video filming and broadcasting of sports events
JP6267961B2 (ja) * 2012-08-10 2018-01-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 映像提供方法および送信装置
EP3028472B1 (en) 2013-07-29 2020-02-26 Koninklijke KPN N.V. Providing tile video streams to a client
CN104580872A (zh) * 2013-10-20 2015-04-29 郁杰夫 一种自动定位追踪摄影系统和自动定位追踪摄影方法
EP3353565B1 (en) 2015-09-23 2021-08-04 Nokia Technologies Oy Video recording method and apparatus

Also Published As

Publication number Publication date
CN108293091B (zh) 2020-07-07
CN108293091A (zh) 2018-07-17
US20180268868A1 (en) 2018-09-20
WO2017051063A1 (en) 2017-03-30
JP2018534826A (ja) 2018-11-22
EP3354007A1 (en) 2018-08-01
US10468066B2 (en) 2019-11-05
EP3354007A4 (en) 2019-05-08
EP3354007B1 (en) 2023-03-01

Similar Documents

Publication Publication Date Title
JP6557410B2 (ja) ビデオコンテンツの選択
US10720183B2 (en) Method and electronic device for generating multiple point of view video
US10681335B2 (en) Video recording method and apparatus
US20180103197A1 (en) Automatic Generation of Video Using Location-Based Metadata Generated from Wireless Beacons
JP2018515818A (ja) ビデオデータ管理方法、装置、端末、サーバ、プログラム及び記録媒体
CN107078816B (zh) 音频/视频广播内容播放切换的方法和相应的装置
US20150139601A1 (en) Method, apparatus, and computer program product for automatic remix and summary creation using crowd-sourced intelligence
US20150189176A1 (en) Domain aware camera system
JP2013223235A (ja) 無線通信装置、メモリ装置、無線通信システム、無線通信方法、およびプログラム
US20160323483A1 (en) Automatically generating notes and annotating multimedia content specific to a video production
US8478308B2 (en) Positioning system for adding location information to the metadata of an image and positioning method thereof
US20150208000A1 (en) Personalized media remix
JP2018061213A (ja) 監視映像解析システム及び監視映像解析方法
CN103957502A (zh) 位置服务程序选择方法、装置及终端
US20140063057A1 (en) System for guiding users in crowdsourced video services
US20170019585A1 (en) Camera clustering and tracking system
JP6149400B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2016103049A (ja) 情報処理装置、システム、制御方法、及びプログラム
US11394931B2 (en) Multimedia capture and editing using wireless sensors
US20180184180A1 (en) Media feed synchronisation
GB2556922A (en) Methods and apparatuses relating to location data indicative of a location of a source of an audio component
WO2018222532A1 (en) Rfid based zoom lens tracking of objects of interest
KR20180035046A (ko) IoT 식별값을 이용한 보안 시스템 및 방법
JP2015109026A (ja) 画像検索装置および通信端末
WO2017081356A1 (en) Selecting a recording device or a content stream derived therefrom

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190711

R150 Certificate of patent or registration of utility model

Ref document number: 6557410

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250