JP5564946B2 - 映像提供システム、および映像提供方法 - Google Patents
映像提供システム、および映像提供方法 Download PDFInfo
- Publication number
- JP5564946B2 JP5564946B2 JP2009533185A JP2009533185A JP5564946B2 JP 5564946 B2 JP5564946 B2 JP 5564946B2 JP 2009533185 A JP2009533185 A JP 2009533185A JP 2009533185 A JP2009533185 A JP 2009533185A JP 5564946 B2 JP5564946 B2 JP 5564946B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- video
- terminal
- unit
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/63—Scene text, e.g. street names
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00127—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
- H04N1/00204—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
- H04N1/00244—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server with a server, e.g. an internet server
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00127—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
- H04N1/00323—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a measuring, monitoring or signaling apparatus, e.g. for transmitting measured information to a central location
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/327—Initiating, continuing or ending a single-mode communication; Handshaking therefor
- H04N1/32765—Initiating a communication
- H04N1/32771—Initiating a communication in response to a request, e.g. for a particular document
- H04N1/32776—Initiating a communication in response to a request, e.g. for a particular document using an interactive, user-operated device, e.g. a computer terminal, mobile telephone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
- H04N21/25808—Management of client data
- H04N21/25841—Management of client data involving the geographical location of the client
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41407—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/16—Analogue secrecy systems; Analogue subscription systems
- H04N7/173—Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00127—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
- H04N1/00281—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
- H04N1/00307—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a mobile telephone apparatus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/0077—Types of the still picture apparatus
- H04N2201/0084—Digital still camera
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Computer Graphics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
はじめに、第1実施形態について説明する。本実施形態において本発明の映像提供システムは、物体特定システムと物体情報提示システムとを備える。物体特定システムは、ユーザーにより指定された目標物体2を特定する。物体情報提示システムは、物体特定システムにて特定された目標物体2に関する情報を端末3へ提示する。まず、物体特定システムについて説明する。
図1は、本実施形態における物体特定システムの構成を示している。物体特定システムは、物体群1と、端末3と、位置情報サーバ11と、インターネット14を備える。
ユーザーは、この端末視線5を使用して物体群1のうちから目標物体2を指定する。端末3は、ユーザーによって持ち運びが可能である。ユーザーが、端末3を移動させることによって、端末3の位置または向きが変化する。端末3の位置または向きが変化することで、端末3の端末視点4や端末視線5が変化する。
次に、物体特定システムの動作方法について説明する。図2は、本実施形態における物体特定システムが、目標物体2を特定する動作方法を示している。
次に、図4を使用して、本実施形態における物体特定システムの動作方法において、候補物体群111から目標物体2を特定する計算方法、候補小ブロック群232から目標小ブロック22を特定する計算方法について説明する。本説明において、物体群1と小ブロック群222、候補物体群111と候補小ブロック群232、目標物体2と目標小ブロック22は、明確に区別する。
数式(12)は、端末3の端末視線5と、端末視点4から候補物体群111の各物体aへの視線、との両者の一致度合いを表す。数式(12)の解が0になると両者の視線は一致している。数式(12)の解が0になる物体aが存在しない場合、数式(12)の解が0に最も近い物体aが、視線の一致度合いが最も高い。本発明において、特定部7は、数式(12)の解が0になる物体a、あるいは数式(12)の解が0である物体aが存在しない場合、数式(12)の解が0に最も近い物体aを、特定するべき目標物体2とする。また、特定部7は、数式(12)の解が0になる物体a、あるいは数式(12)の解が0に最も近い物体aが複数存在する場合、複数の物体aのうちで端末3からの距離である数式(6)の絶対値が最小である物体aを、特定するべき目標物体2とする。
数式(13)は、端末3の端末視線5と、端末視点4から候補小ブロック群232の各小ブロックabへの視線、との両者の一致度合いを表す。数式(13)の解が0になると両者の視線は一致している。数式(13)の解が0になる小ブロックabが存在しない場合、数式(13)の解が0に最も近い小ブロックabが、視線の一致度合いが最も高い。本発明において、特定部7は、数式(13)の解が0になる小ブロックab、あるいは数式(13)の解が0となる小ブロックabが存在しない場合、数式(13)の解が0に最も近い小ブロックabを、特定するべき目標小ブロック22とする。また、特定部7は、数式(13)の解が0になる小ブロックab、あるいは数式(13)の解が0に最も近い小ブロックabが複数存在する場合、複数の小ブロックabのなかで端末3からの距離である数式(10)の絶対値が最小である小ブロックabを、特定するべき目標小ブロック22とする。
「目標物体2の視線の近さ>目標小ブロック22の視線の近さ」である場合、つまり目標物体2を求める数式(12)の解より目標小ブロック22を求める数式(13)の解のほうがより0に近い場合、特定部7は、目標小ブロック22を求める解とする。
「目標物体2の視線の近さ<目標小ブロック22の視線の近さ」である場合、つまり目標物体2を求める数式(12)の解のほうが目標小ブロック22を求める数式(13)の解よりも0に近い場合、特定部7は、目標物体2を求める解とする。
また、本計算方法は、先に物体aを特定し、その後その物体に含まれる小ブロックabを特定する方法としてもよい。これにより物体に比べ数量として多数となる小ブロックabの演算回数を削減できる。
次に、第1実施形態の第1変形例として、物体の位置情報に立体情報を使用する場合の説明を行う。本実施形態において、特定部7は、物体内に一点だけ設定された座標を元に、目標物体2の特定を行っている。特定部7は、これを物体の立体情報を使用して特定を行ってもよい。
次に、本実施形態における物体情報提示システムについて説明する。以下の説明において、特に明示がない場合には、物体群1には小ブロック群222を含み、候補物体群111には候補小ブロック群232を含み、物体には小ブロックを含み、目標物体2は目標小ブロック22である場合を含むものとする。また、以下の説明において、前述の第1実施形態の第1から第3変形例はいずれも含まれるものする。
次に、本実施形態における物体情報提示システムの動作方法について説明する。図9Aおよび図9Bは、物体情報提示システムの動作方法を示している。
本実施形態において、情報生成部18はアクセスログを取る。アクセスログは、何時、どのユーザーがアクセスを行ったかに関する情報や、ユーザーが物体情報一覧から何を選択したかといった情報に関する。情報生成サーバ17が取ったアクセスログは、情報記憶部21に保存される。目標物体2の関係者は、情報記憶部21に保存されたアクセスログを閲覧、集計することでユーザーの興味行動を確認することができる。
次に、第1実施形態の第4変形例として、情報生成サーバ17の検索情報としてURL(Uniform Resource Locator)を使用する場合を説明する。
本実施形態において、位置情報サーバ11の位置情報記憶部12は、情報生成サーバ17の検索情報として、それぞれの物体と対応づけたIPアドレスをデータベースに保存している。この検索情報をURL形式で保存してもよい。この場合は、新たにDNS(Domain Name System)サーバ(図示せず)を設置することでURLとIPアドレスを結びつければよい。
本実施形態において、物体特定システムは、ユーザーの入力部6への物体特定指示の入力をトリガに物体特定動作を開始している。これを特定部7が定期的に物体特定動作を行う動作方法としてもよい。これにより、ユーザーが端末視点4と端末視線5を変化させた場合に、変化後の端末視線5が指定する目標物体2を、ユーザーの物体特定指示を待たずに特定することができる。
本実施形態において、表示映像を生成する際に表示映像生成部20が、映像内の人物の顔に対してモザイクを施してもよい。この場合、表示映像生成部20は、映像取得部23から取得したカメラ映像から顔検出技術を用いて人間の顔の輪郭を特定する。表示映像生成部20は、特定した人間の顔全体にモザイクを施す。表示映像生成部20は、モザイクを施した表示映像を情報生成部18へ出力する。これにより、目標物体2の内部にいる人間のプライバシーを保護することが可能である。
本実施形態において、端末3が、端末視線5方向にカメラ備える場合、端末3の出力部100に表示映像を出力する際に、そのカメラにて撮影された端末視線5方向の外界映像に表示映像をスーパーインポーズさせてもよい。例えば、表示映像が内部映像である場合、目標物体2の外界映像に重ねて目標物体2の内部映像を出力させることができる。これによりユーザーは透視をしているような効果をより強く感じることが可能となる。
なお、以下において特に明示がない場合には、物体群1には小ブロック群222を含み、候補物体群111には候補小ブロック群232を含み、物体には小ブロックを含み、目標物体2は目標小ブロック22である場合を含むものとする。
[第2実施形態の構成説明]
まず、第2実施形態として、映像取得用カメラが複数台備えられる場合の表示映像生成について説明する。本実施形態において、目標物体2は、内部に、映像取得部23の映像取得用カメラを複数備える。表示映像生成部20は、ユーザーがそれぞれの映像取得用カメラの映像を選択することが可能となるように、カメラ選択用の表示映像を生成する。例えば、端末3の表示部15への出力を、映像取得用カメラの台数で表示領域を分割しそれぞれの領域に映像取得用カメラの映像を表示する表示映像を生成する。ユーザーは、分割された領域から好みの映像取得用カメラの映像を判断し端末3の入力部6で選択する。出力部100にはユーザーが選択した映像取得用カメラの映像が出力される。
図13Aおよび図13Bは、第2実施形態の動作方法を示している。出力部100へ物体情報一覧が出力されるまでの動作方法は、第1実施形態と同様である。端末3は、ユーザーからのキー入力待ちへ移行している(S55)。
[第3実施形態の構成説明]
次に、第3実施形態として、複数の映像取得用カメラから、端末視線5に最も近い、一つの映像取得用カメラを選択して表示映像を生成する場合を説明する。図14は、第3実施形態における目標物体2の内部に設置された複数の映像取得用カメラを示している。
次に、第3実施形態における動作方法を説明する。図15Aおよび図15Bは第3実施形態の動作方法を示している。本説明では、「視点視線近似カメラ」を選択し「視点視線近似カメラ映像」を表示映像として生成する場合を説明する。「視点近似カメラ」、または「視線近似カメラ」を選択する場合の動作方法は、後述の動作方法の説明「視点視線近似カメラを特定(S149)」において、映像取得用カメラの特定方法が前述のとおり(パターン(A)、またはパターン(B))に変更となる。出力部100へ物体情報一覧が出力されるまでは、第1実施形態と同様である。端末3はユーザーからのキー入力待ちへ移行している(S55)。
次に、第3実施形態の第1変形例として、特定部7にて本実施形態の計算を行う場合を説明する。本実施形態において、情報生成サーバ17の表示映像生成部20が、近似カメラを計算している。これを端末3の特定部7で計算する動作方法としてもよい。この場合、端末3の特定部7が、情報生成サーバ17の情報記憶部21から、それぞれの映像取得用カメラのカメラの位置情報とカメラの向き情報を取得して計算する。
[第4実施形態の構成説明]
次に、第4実施形態として、目標物体2内部を、任意の端末視点4から任意の端末視線5方向に見る映像である任意視点映像を表示映像として生成する場合を説明する。本実施形態において、映像取得用カメラは複数台設置される。また、情報生成サーバ17の表示映像生成部20は、前述の端末3の特定部7と同様の計算方法をさらに備える。
図16Aおよび図16Bは、第4実施形態の動作方法を示している。図16Aおよび図16Bを使用して第4実施形態の動作方法を説明する。出力部100へ物体情報一覧が出力されるまでは第1実施形態と同様である。端末3は、ユーザーからのキー入力待ちへ移行している(S55)。
次に、第4実施形態の第1変形例として、端末視点4と端末視線5の計算部位について変形例を説明する。本実施形態において、情報生成サーバ17の表示映像生成部20が、端末視点4または端末視線5を計算している。これを端末3の特定部7が計算する動作方法としてもよい。情報生成サーバ17の表示映像生成部20は、端末3の情報取得部24から取得した端末視点4と端末視線5に基づいて任意視点映像を生成する動作方法とすればよい。
例えば、ユーザーは、第2実施形態により小ブロックである特定のビルのフロアを、カメラを選択して映像を取得してから、第4実施形態により任意視点映像に切り替えて、ユーザーが変化させる視線に合わせて物体内を自由に見まわした後に、さらに、視線を高層部の展望台に移動させ、第3実施形態によりユーザーの位置からは見ることのできないビルの向こう側を、視線を変えながら見渡すといったことが可能である。
これによりユーザーは物体の内部やその先を自由に透視しているような効果を存分に味わうことが可能となるのである。
Claims (17)
- 複数の物体のうちから特定するべき目標物体をユーザーが指し示す視線を有し、前記複数の物体のうちから前記視線の指し示す前記目標物体を特定する端末と、
前記目標物体の内部を撮影した映像である内部映像、または前記ユーザーからは目視することのできない前記目標物体から前記目標物体の外部周辺を撮影した映像である外部映像を取得して、前記内部映像または前記外部映像から前記端末が出力する映像である表示映像を生成する情報生成サーバと、
前記複数の物体の各々の三次元の位置情報である物体位置情報と、前記目標物体に対応する情報生成サーバにアクセスするための情報である検索情報とを、それぞれ前記各物体に対応付けて保存する位置情報サーバと、
を備え、
前記端末は、前記端末の位置と前記端末の向きと前記物体位置情報に基づいて、前記視線の先に存在する前記目標物体を特定して、特定した前記目標物体の前記検索情報に基づいて前記目標物体に対応する前記情報生成サーバにアクセスして、前記情報生成サーバから前記目標物体の前記表示映像を取得して、前記表示映像を、前記視線の先にある特定した前記目標物体の前記内部映像または前記外部映像に限定して、表示する
映像提供システム。 - 請求項1に記載の映像提供システムであって、
前記端末は、
前記端末の前記位置を表す端末位置情報を検出する位置センサと、
前記端末の前記向きを表す端末向き情報を検出する向きセンサと、
前記端末位置情報と、前記端末向き情報と、前記物体位置情報に基づいて前記目標物体を特定する特定部と、
前記検索情報に基づいて前記目標物体に対応する前記情報生成サーバにアクセスして、前記目標物体の前記表示映像を取得して出力する情報取得部と、
前記表示映像を表示する出力部と
を備える映像提供システム。 - 請求項2に記載の映像提供システムであって、
前記端末は、
ユーザーの映像を取得するユーザー映像取得用カメラを
さらに備え、
前記特定部は、前記ユーザー映像取得用カメラで取得されたユーザーの顔の映像から顔と両目を検出して、前記顔の映像と前記端末位置情報とに基づいて前記両目を結んだ中心点に前記ユーザーの位置を表すユーザー位置を設定して、前記ユーザー位置と前記端末位置情報と前記物体位置情報とに基づいて前記目標物体を特定する
映像提供システム。 - 請求項2または請求項3に記載の映像提供システムであって、
前記情報生成サーバは、
前記内部映像または前記外部映像を取得する一つ以上の映像取得用カメラを備える映像取得部と、
前記内部映像または前記外部映像から前記表示映像を生成する表示映像生成部と、
前記情報取得部からの要求に基づいて前記表示映像生成部へ情報生成を命令する情報生成部と
を備える映像提供システム。 - 請求項4に記載の映像提供システムであって、
前記映像取得部の前記映像取得用カメラは、
カメラの位置を表すカメラ位置情報を検出するカメラ位置センサと、
カメラの向きを表すカメラ向き情報を検出するカメラ向きセンサと
をさらに備え、
前記表示映像生成部は、前記端末位置情報または前記端末向き情報またはその両方を取得して、前記カメラ位置情報または前記カメラ向き情報またはその両方と、前記端末位置情報または前記端末向き情報またはその両方とに基づいて、複数の前記映像取得用カメラのうちから最も前記端末の前記視線に近い前記映像取得用カメラである近似カメラを特定して、前記近似カメラの取得する前記内部映像または前記外部映像から前記表示映像を生成する
映像提供システム。 - 請求項4に記載の映像提供システムであって、
前記表示映像生成部は、前記内部映像または前記外部映像に基づいて前記目標物体の内部または外部の3次元形状を推定して、前記端末位置情報が表す前記位置から、前記端末向き情報が表す前記向き方向に、前記3次元形状を見た映像である任意視点映像を、前記表示映像として生成する
映像提供システム。 - 請求項4乃至請求項6のいずれかに記載の映像提供システムであって、
前記各物体は、内部を一つ以上の空間的範囲である小ブロックにさらに分割され、
前記位置情報サーバは、前記小ブロックの三次元的な位置情報である小ブロック位置情報と、前記小ブロックに対応する情報生成サーバへアクセスするための情報である検索情報とをさらにデータベースに保存し、
前記特定部は、前記小ブロックのうちから特定するべき小ブロックである目標小ブロックを特定し、
前記情報取得部は、前記特定部が特定した前記目標小ブロックに対応する前記情報生成サーバにアクセスして、前記目標小ブロックの前記表示映像を取得して、
前記出力部は、前記表示映像を出力する
映像提供システム。 - 請求項4乃至請求項7のいずれかに記載の映像提供システムであって、
前記情報生成サーバは、
前記物体に関連した情報である関連情報を保存する情報記憶部
をさらに備え、
前記情報記憶部は、前記関連情報として前記映像取得部の取得する前記内部映像または前記外部映像を予め保存し、
前記表示映像生成部は、前記情報記憶部に前記保存された内部映像または外部映像から前記表示映像を生成する映像提供システム。 - (a)特定システムが、複数の物体のうちからユーザーが特定したい物体である目標物体を指し示すために端末に設定された視線により指し示される前記目標物体を特定するステップと、
(b)前記端末の情報取得部が、特定した前記目標物体に対応する情報生成サーバにアクセスするステップと、
(c)取得する前記目標物体の内部の映像である内部映像、または前記ユーザーからは目視できない前記目標物体から外部を撮影した映像である外部映像を、前記視線の先にある特定した前記目標物体の前記内部映像または前記外部映像に限定して、前記端末の出力部が表示するステップと
を備える映像提供方法。 - 請求項9に記載の映像提供方法であって、前記ステップ(a)は、
(a1)入力部が、物体特定指示を検出するステップと、
(a2)特定部が、前記端末の位置である端末位置情報を取得するステップと、
(a3)前記特定部が、前記端末の向きである端末向き情報を取得するステップと、
(a4)前記特定部が、前記目標物体の位置情報である物体位置情報を取得するステップと、
(a5)前記特定部が、前記端末位置情報と、前記端末向き情報と、前記物体位置情報に基づき前記目標物体を特定するステップと
を含む映像提供方法。 - 請求項10に記載の映像提供方法であって、前記ステップ(a)は、
(a11)前記特定部が、前記端末の位置である前記端末位置情報を取得するステップと、
(a12)前記端末が、前記端末のユーザー映像取得用カメラの取得する映像からユーザーの顔と両目を検出するステップと、
(a13)前記端末が、前記顔の映像と、前記端末位置情報とに基づいて、前記ユーザーの両目を結んだ線の中心点に、前記ユーザーの位置を表すユーザー位置を設定するステップと、
(a14)前記特定部が、前記ユーザー位置と前記端末位置情報と前記物体位置情報に基づいて前記目標物体を特定するステップと
を含む映像提供方法。 - 請求項10または請求項11に記載の映像提供方法であって、前記ステップ(b)は、
(b1)特定部が、前記目標物体の物体位置情報に基づいて、前記目標物体に対応する前記情報生成サーバにアクセスするための情報である検索情報を、取得するステップと、
(b2)情報取得部が、前記検索情報に基づいて、前記情報生成サーバにアクセスするステップと、
(b3)前記情報取得部が、前記情報生成サーバから、前記ユーザーの取得する情報を選択するための出力表示である物体情報一覧を取得するステップと、
(b4)前記端末の前記出力部が、前記物体情報一覧を表示するステップと
を含む映像提供方法。 - 請求項12に記載の映像提供方法であって、前記ステップ(c)は、
(c1)前記目標物体に設置された一つ以上の映像取得用カメラが、前記内部映像または前記外部映像を取得するステップと、
(c2)表示映像生成部が、前記内部映像または前記外部映像から前記端末へ出力するための映像である表示映像を生成するステップと、
(c3)前記表示映像を前記端末の前記出力部が表示するステップと
を含む映像提供方法。 - 請求項13に記載の映像提供方法であって、前記ステップ(c1)は、
(c1−1)前記特定部が、前記端末位置情報を取得するステップと、
(c1−2)前記特定部が、前記端末向き情報を取得するステップと、
(c1−3)前記表示映像生成部が、前記映像取得用カメラの位置を示すカメラ位置情報または前記映像取得用カメラの向きを示すカメラ向き情報またはその両方と、前記端末位置情報または前記端末向き情報またはその両方とに基づいて、複数の前記映像取得用カメラのうちで最も前記端末の前記視線に近い前記映像取得用カメラである近似カメラを特定するステップと、
(c1−4)前記表示映像生成部が、前記近似カメラから前記内部映像または前記外部映像を取得するステップと
を含む映像提供方法。 - 請求項13に記載の映像提供方法であって、前記ステップ(c2)は、
(c2−1)前記情報取得部が、前記端末位置情報を取得するステップと、
(c2−2)前記情報取得部が、前記端末向き情報を取得するステップと、
(c2−3)前記表示映像生成部が、前記映像取得用カメラから取得する前記内部映像または前記外部映像から、前記目標物体の内部または外部の3次元形状を推定するステップと、
(c2−4)前記表示映像生成部が、前記端末位置情報が示す前記端末の前記位置から、前記端末向き情報が示す前記端末の前記向きの方向に、前記3次元形状を見た映像である任意視点映像を前記表示映像として生成するステップと、
(c2−5)前記任意視点映像を、前記端末の前記出力部が表示するステップと
を含む映像提供方法。 - 請求項10に記載の映像提供方法であって、
前記ステップ(a4)は、
前記特定部が、前記物体の内部はさらに一つ以上の空間的範囲である小ブロックに分割され、前記小ブロックの三次元的な位置情報である小ブロック位置情報を取得するステップ
を含み、
前記ステップ(a5)は、
物体特定システムが、前記端末位置情報と、前記端末向き情報と、前記小ブロック位置情報に基づき目標小ブロックを特定するステップ
を含む映像提供方法。 - 請求項13に記載の映像提供方法であって、
前記ステップ(c1)は、
前記表示映像生成部が、前記内部映像または前記外部映像を保存するステップ
を含み、
前記ステップ(c2)は、
前記表示映像生成部が、前記保存された内部映像または前記保存された外部映像から前記表示映像を生成するステップ
を含む映像提供方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009533185A JP5564946B2 (ja) | 2007-09-20 | 2008-09-18 | 映像提供システム、および映像提供方法 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007244530 | 2007-09-20 | ||
JP2007244530 | 2007-09-20 | ||
JP2009533185A JP5564946B2 (ja) | 2007-09-20 | 2008-09-18 | 映像提供システム、および映像提供方法 |
PCT/JP2008/066888 WO2009038149A1 (ja) | 2007-09-20 | 2008-09-18 | 映像提供システム、および映像提供方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2009038149A1 JPWO2009038149A1 (ja) | 2011-02-10 |
JP5564946B2 true JP5564946B2 (ja) | 2014-08-06 |
Family
ID=40467959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009533185A Active JP5564946B2 (ja) | 2007-09-20 | 2008-09-18 | 映像提供システム、および映像提供方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8531514B2 (ja) |
JP (1) | JP5564946B2 (ja) |
WO (1) | WO2009038149A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016114464A (ja) * | 2014-12-15 | 2016-06-23 | ソフトバンク株式会社 | 画像生成システム、画像生成方法、画像データ送信サーバ、画像データ送信方法、及び、画像データ送信プログラム |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010218489A (ja) * | 2009-03-19 | 2010-09-30 | Sanyo Electric Co Ltd | デジタルサイネージシステム |
US20110055023A1 (en) * | 2009-08-28 | 2011-03-03 | Yahoo! Inc. | Above the fold |
JP5568929B2 (ja) * | 2009-09-15 | 2014-08-13 | ソニー株式会社 | 表示装置および制御方法 |
JP2011090400A (ja) * | 2009-10-20 | 2011-05-06 | Sony Corp | 画像表示装置および方法、並びにプログラム |
JP5617246B2 (ja) * | 2010-01-12 | 2014-11-05 | ソニー株式会社 | 画像処理装置、物体選択方法及びプログラム |
US20110169947A1 (en) * | 2010-01-12 | 2011-07-14 | Qualcomm Incorporated | Image identification using trajectory-based location determination |
JP5682170B2 (ja) * | 2010-08-04 | 2015-03-11 | カシオ計算機株式会社 | 表示制御装置、画像配信サーバ、表示端末、画像配信システム、及び、プログラム |
US9286819B2 (en) * | 2011-05-10 | 2016-03-15 | Panasonic Intellectual Property Management Co., Ltd. | Display device, display method, integrated circuit, and program |
US8850075B2 (en) * | 2011-07-06 | 2014-09-30 | Microsoft Corporation | Predictive, multi-layer caching architectures |
US9356848B2 (en) * | 2011-09-05 | 2016-05-31 | Nec Corporation | Monitoring apparatus, monitoring method, and non-transitory storage medium |
US9020278B2 (en) * | 2012-06-08 | 2015-04-28 | Samsung Electronics Co., Ltd. | Conversion of camera settings to reference picture |
US20140146038A1 (en) * | 2012-11-28 | 2014-05-29 | International Business Machines Corporation | Augmented display of internal system components |
USD742896S1 (en) * | 2013-10-25 | 2015-11-10 | Microsoft Corporation | Display screen with graphical user interface |
US20150334162A1 (en) * | 2014-05-13 | 2015-11-19 | Citrix Systems, Inc. | Navigation of Virtual Desktop Content on Devices |
CN104991906B (zh) * | 2015-06-17 | 2020-06-02 | 百度在线网络技术(北京)有限公司 | 信息获取方法、服务器、终端及数据库构建方法、装置 |
JP6802170B2 (ja) * | 2015-08-28 | 2020-12-16 | 日本電気株式会社 | 影響度測定装置、影響度測定方法およびコンピュータプログラム |
KR102022971B1 (ko) * | 2017-10-18 | 2019-09-19 | 한국전자통신연구원 | 영상의 객체 처리 방법 및 장치 |
JP7072378B2 (ja) * | 2017-12-13 | 2022-05-20 | キヤノン株式会社 | 画像生成装置およびその制御方法、画像生成システム、プログラム |
JP2020065301A (ja) * | 2020-01-27 | 2020-04-23 | パナソニックIpマネジメント株式会社 | 情報処理装置、情報処理方法、カメラ、受信装置、受信方法、端末 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000276613A (ja) * | 1999-03-29 | 2000-10-06 | Sony Corp | 情報処理装置および情報処理方法 |
JP2005316914A (ja) * | 2004-03-31 | 2005-11-10 | Tsukuba Multimedia:Kk | 映像レイヤーリンク対応映像誘導システム |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5736982A (en) * | 1994-08-03 | 1998-04-07 | Nippon Telegraph And Telephone Corporation | Virtual space apparatus with avatars and speech |
JPH1040485A (ja) | 1996-07-23 | 1998-02-13 | Nohmi Bosai Ltd | 留守宅監視装置 |
CA2375837C (en) * | 1999-06-18 | 2010-02-02 | Swisscom Mobile Ag | Method and device for detecting data concerning the viewing of video information and the relaying of this information to a central data processing installation |
US6965324B1 (en) * | 2000-10-21 | 2005-11-15 | Robert W. Suggs, Sr. | Automotive picture and data acquisition center and method |
JP3811071B2 (ja) | 2002-01-15 | 2006-08-16 | 富士通株式会社 | ユーザ端末 |
JP2003296213A (ja) * | 2002-04-03 | 2003-10-17 | Sony Corp | 情報授受方法および情報授受システム |
US7646372B2 (en) * | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
US7206022B2 (en) * | 2002-11-25 | 2007-04-17 | Eastman Kodak Company | Camera system with eye monitoring |
JP4354708B2 (ja) | 2003-01-15 | 2009-10-28 | 独立行政法人科学技術振興機構 | 多視点カメラシステム |
US7963652B2 (en) * | 2003-11-14 | 2011-06-21 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
JP4479267B2 (ja) * | 2004-02-18 | 2010-06-09 | 株式会社日立製作所 | 監視カメラ映像配信システム |
US8421872B2 (en) * | 2004-02-20 | 2013-04-16 | Google Inc. | Image base inquiry system for search engines for mobile telephones with integrated camera |
US7751805B2 (en) * | 2004-02-20 | 2010-07-06 | Google Inc. | Mobile image-based information retrieval system |
US7565139B2 (en) * | 2004-02-20 | 2009-07-21 | Google Inc. | Image-based search engine for mobile phones with camera |
JP2006105640A (ja) * | 2004-10-01 | 2006-04-20 | Hitachi Ltd | ナビゲーション装置 |
JP4632793B2 (ja) * | 2005-01-12 | 2011-02-16 | 京セラ株式会社 | ナビゲーション機能付き携帯型端末機 |
US20060250322A1 (en) * | 2005-05-09 | 2006-11-09 | Optics 1, Inc. | Dynamic vergence and focus control for head-mounted displays |
US7728869B2 (en) * | 2005-06-14 | 2010-06-01 | Lg Electronics Inc. | Matching camera-photographed image with map data in portable terminal and travel route guidance method |
JP4624889B2 (ja) * | 2005-08-30 | 2011-02-02 | 富士フイルム株式会社 | 顔検出方法および装置並びにプログラム |
US7499586B2 (en) * | 2005-10-04 | 2009-03-03 | Microsoft Corporation | Photographing big things |
JP2006134340A (ja) | 2005-11-14 | 2006-05-25 | Fujitsu Ltd | サーバ |
JP4640825B2 (ja) * | 2006-02-23 | 2011-03-02 | 富士フイルム株式会社 | 特定向き顔判定方法および装置並びにプログラム |
KR100820639B1 (ko) * | 2006-07-25 | 2008-04-10 | 한국과학기술연구원 | 시선 기반 3차원 인터랙션 시스템 및 방법 그리고 3차원시선 추적 시스템 및 방법 |
JP5245257B2 (ja) * | 2006-11-22 | 2013-07-24 | ソニー株式会社 | 画像表示システム、表示装置、表示方法 |
CN101681525A (zh) * | 2007-06-08 | 2010-03-24 | 电子地图有限公司 | 产生多视点全景图的方法及设备 |
JP4924264B2 (ja) * | 2007-07-24 | 2012-04-25 | セイコーエプソン株式会社 | 画像処理装置、画像処理方法、および、コンピュータプログラム |
US20090251311A1 (en) * | 2008-04-06 | 2009-10-08 | Smith Patrick W | Systems And Methods For Cooperative Stimulus Control |
US8098894B2 (en) * | 2008-06-20 | 2012-01-17 | Yahoo! Inc. | Mobile imaging device as navigator |
-
2008
- 2008-09-18 JP JP2009533185A patent/JP5564946B2/ja active Active
- 2008-09-18 WO PCT/JP2008/066888 patent/WO2009038149A1/ja active Application Filing
- 2008-09-18 US US12/679,277 patent/US8531514B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000276613A (ja) * | 1999-03-29 | 2000-10-06 | Sony Corp | 情報処理装置および情報処理方法 |
JP2005316914A (ja) * | 2004-03-31 | 2005-11-10 | Tsukuba Multimedia:Kk | 映像レイヤーリンク対応映像誘導システム |
Non-Patent Citations (5)
Title |
---|
CSND200400789003; 高井 昌彰: '複合現実感によるビデオ監視支援システム' 映像情報インダストリアル 第35巻 第7号, 20030701, p.23-28, 産業開発機構(株) * |
CSNG200501354011; 村松 孝治ほか: '多視点カメラによる監視システムの状況把握効率向上' 映像情報メディア学会誌 第59巻 第6号, 20050601, p.909-912, (社)映像情報メディア学会 * |
JPN6008065413; 高井 昌彰: '複合現実感によるビデオ監視支援システム' 映像情報インダストリアル 第35巻 第7号, 20030701, p.23-28, 産業開発機構(株) * |
JPN6008065415; 村松 孝治ほか: '多視点カメラによる監視システムの状況把握効率向上' 映像情報メディア学会誌 第59巻 第6号, 20050601, p.909-912, (社)映像情報メディア学会 * |
JPN6008065416; 携帯電話用「カメラ機能を利用した空間検索技術」を開発〜モバイルアプリケーション市場にポインティング・ , 20070713, NECマグナスコミュニケーションズ株式会社 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016114464A (ja) * | 2014-12-15 | 2016-06-23 | ソフトバンク株式会社 | 画像生成システム、画像生成方法、画像データ送信サーバ、画像データ送信方法、及び、画像データ送信プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20100214400A1 (en) | 2010-08-26 |
JPWO2009038149A1 (ja) | 2011-02-10 |
WO2009038149A1 (ja) | 2009-03-26 |
US8531514B2 (en) | 2013-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5564946B2 (ja) | 映像提供システム、および映像提供方法 | |
US9661214B2 (en) | Depth determination using camera focus | |
US10264207B2 (en) | Method and system for creating virtual message onto a moving object and searching the same | |
JP5776201B2 (ja) | 情報処理装置、情報共有方法、プログラム及び端末装置 | |
EP2945136B1 (en) | Mobile terminal and method for controlling the mobile terminal | |
US9721388B2 (en) | Individual identification character display system, terminal device, individual identification character display method, and computer program | |
JP6496671B2 (ja) | 情報処理装置、端末装置、情報処理方法及びプログラム | |
TW201013158A (en) | Mobile imaging device as navigator | |
US20090241039A1 (en) | System and method for avatar viewing | |
JP2011159163A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5651372B2 (ja) | 投稿情報制御装置、投稿情報制御システム及び投稿情報制御方法 | |
CA3087871A1 (en) | Apparatus, systems, and methods for tagging building features in a 3d space | |
JP6145563B2 (ja) | 情報表示装置 | |
JP5854714B2 (ja) | 表示制御装置、表示制御装置の制御方法、プログラム | |
CN104501798A (zh) | 一种基于增强现实ip地图的网络对象定位追踪方法 | |
JP7001711B2 (ja) | カメラ撮影画像を用いる位置情報システム、及びそれに用いるカメラ付き情報機器 | |
WO2018103544A1 (zh) | 一种在图像中展现业务对象数据的方法和装置 | |
JP2004274653A (ja) | 移動端末及びコンピュータ・ソフトウエア | |
JP2010028806A (ja) | 位置管理サーバおよび通信システムならびに通信端末装置、情報提供装置および通信システム | |
JP5432000B2 (ja) | 情報提示システム及びプログラム | |
JP6889304B1 (ja) | 拡張現実表示システム、拡張現実表示方法、及びコンピュータプログラム | |
JP6435640B2 (ja) | 混雑度推定システム | |
JP2013098588A (ja) | 画像処理装置、画像処理方法 | |
CN110580275A (zh) | 地图显示方法及装置 | |
JP2019164001A (ja) | 情報提供システム、サーバ装置、端末用プログラム、及び情報提供方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130527 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130726 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140228 Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140520 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140602 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5564946 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |