JP5564946B2 - 映像提供システム、および映像提供方法 - Google Patents

映像提供システム、および映像提供方法 Download PDF

Info

Publication number
JP5564946B2
JP5564946B2 JP2009533185A JP2009533185A JP5564946B2 JP 5564946 B2 JP5564946 B2 JP 5564946B2 JP 2009533185 A JP2009533185 A JP 2009533185A JP 2009533185 A JP2009533185 A JP 2009533185A JP 5564946 B2 JP5564946 B2 JP 5564946B2
Authority
JP
Japan
Prior art keywords
information
video
terminal
unit
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009533185A
Other languages
English (en)
Other versions
JPWO2009038149A1 (ja
Inventor
大晃 清水
仁 今岡
慶一 蝶野
史博 安達
聡 中澤
新 石黒
雅之 湯口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2009533185A priority Critical patent/JP5564946B2/ja
Publication of JPWO2009038149A1 publication Critical patent/JPWO2009038149A1/ja
Application granted granted Critical
Publication of JP5564946B2 publication Critical patent/JP5564946B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00204Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
    • H04N1/00244Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server with a server, e.g. an internet server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00323Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a measuring, monitoring or signaling apparatus, e.g. for transmitting measured information to a central location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/327Initiating, continuing or ending a single-mode communication; Handshaking therefor
    • H04N1/32765Initiating a communication
    • H04N1/32771Initiating a communication in response to a request, e.g. for a particular document
    • H04N1/32776Initiating a communication in response to a request, e.g. for a particular document using an interactive, user-operated device, e.g. a computer terminal, mobile telephone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25841Management of client data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00307Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a mobile telephone apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、映像提供システムに関し、特にユーザーが端末を使用して任意に指し示す物体の内部映像または外部映像を端末へ出力する映像提供システムに関する。
ユーザーは、屋外環境でのモバイル情報端末を用いた情報取得に際して困難を伴なう。ユーザーは、通常、建物等の目標物体の名称等を予め認識した上で情報を取得しようとする。そのため、ユーザーは、検索のキーとして目標物体の名称等を用いて情報を取得することができる。しかし、ユーザーは、屋外環境においてユーザーの位置から見渡すことが可能な範囲に存在する目標物体の情報を入手したいと考える場合がある。あるいは、ユーザーは、目前に存在する目標物体の情報を入手したいと考える場合がある。このような場合、ユーザーは、情報検索のためのキーを持ち合わせていない。そのため、ユーザーは、正確な情報の検索が難しく、情報取得に困難を伴う。
センサー機能は、屋外環境における快適な情報取得を実現するための重要な要素である。近年、高精度な小型GPS(Global Positioning System)モジュールが、普及している。例えば、ユーザーナビゲーションサービスは、情報端末に搭載した小型GPSが検出する位置情報と、サーバーに保存された地図情報やサービス情報によって提供される。これにより、ユーザーは、屋外環境においてもユーザーの現在位置をキーとして情報を検索することが可能となり、周辺の情報を入手することができる。
また、モバイル通信のブロードバンド化は、他の重要な要素として挙げられる。有線、無線の通信技術の進歩は、無線LAN端末や第3世代携帯電話を広く普及させ、高速なデータ通信を可能としている。モバイル情報端末は、高速なデータ転送が可能となったことで、テレビ電話等の大容量データを必要とするアプリケーションの提供を可能としている。
このような要素の進歩は、モバイル環境でのより快適な情報取得の実現を可能にしている。それに伴って、ユーザーは、より多様な情報取得形態を望んでいくと考えられる。モバイル環境における情報取得形態について、多くの検討がなされている。これら多様な情報取得形態に関連する技術が、以下のように公開されている。
特開2002−238080号公報は、携帯電話を用いた情報サービスの提供に当たり、ユーザーの端末位置から所定距離範囲にあるビルに関する情報や、視界内の特定のビル内の店舗のサービス情報などを取得でき、また、ユーザーの移動方向を適格に把握できるようにするユーザー端末を開示している。特開2002−238080号公報のユーザー端末は、検出部と送信部と受信部と表示部を備える。検出部は、端末の緯度、経度、高度、方位および傾斜角度を有する位置情報を検出する。送信部は、検出部にて検出された位置情報をサーバに対して送信する。受信部は、送信部の送信した位置情報について、サーバが送信した3次元空間に対応する物体の緯度、経度、高度およびバブル径からなる複数の3次元空間検索範囲情報のうち、位置情報を含む少なくとも一つの3次元空間情報に対応するサービス情報を受信する。表示部は、受信部にて受信されたサービス情報を表示する。
また、特開2006−134340号公報は、携帯電話を用いた情報サービスの提供に当たり、ユーザーの端末位置から所定距離範囲にあるビルに関する情報や、視界内の特定のビル内の店舗のサービス情報などを取得でき、また、ユーザーの移動方向を適格に把握できるようにするサーバを開示している。特開2006−134340号公報のサーバは、データベースと抽出部と提供部を備える。データベースは、3次元空間における空間範囲情報と提供するサービス情報を得るための検索情報とを対応づけられたバブルデータを保持する。抽出部は、ユーザー端末から送信された位置情報に基づいてデータベースが保持する空間範囲情報のうち位置情報を含む特定空間範囲情報に対応する特定検索情報を抽出する。提供部は、抽出部にて抽出された特定検索情報に対応する特定サービス情報をユーザ端末に提供する。
また、特開平10−040485号公報は、自分に通報、自分の目で確認、および外出先から遠隔制御を行うことが可能な留守宅監視装置を開示している。特開平10−040485号公報の留守宅監視装置は、火災感知器と通報処理部と監視カメラと監視処理部とを備える。火災感知器は、煙等の火災に基づく物理的現象の変化を感知して受信先に火災信号を送出する。通報処理部は、通報先記憶部と通報データ記憶部を備える。通報先記憶部は予め携帯端末の通報先を保存する。通報データ記憶部は、通報データを保存する。通報処理部は、火災感知器からの火災信号に基づいて、通報先記憶部に設定された通報先の携帯端末を、公衆回線を介して呼び出し、携帯端末を呼び出したときに通報データ記憶部に設定された通報データを送出する。監視カメラは、予め設定された情報端末から公衆回線を介して呼び出しを受けるときに監視カメラの画像を情報端末に送出する。監視処理部は、情報端末からカメラ制御信号を受信するときにカメラ制御信号に基づいて監視カメラに制御出力を行う。
しかし、これらの発明においては、ユーザーが端末を使用して任意に指定する目標物体の内部映像または外部映像を、ユーザーに透視しているような感覚を与えながら提供することはできない。
本発明の目的は、ユーザーが端末を使用して任意に指定する目標物体の内部映像または外部映像を、目標物体の透視を行っているかような感覚を与えながらユーザーへ提供することが可能な映像提供システムを実現することである。
本発明の映像提供システムは、複数の物体のうちから特定するべき目標物体をユーザーが指し示す視線を有し、複数の物体のうちから視線の指し示す目標物体を特定する端末と、目標物体の内部を撮影した映像である内部映像、またはユーザーからは目視することのできない目標物体から目標物体の外部周辺を撮影した映像である外部映像を取得して、内部映像または外部映像から端末が出力する映像である表示映像を生成する情報生成サーバと、複数の物体の各々の三次元の位置情報である物体位置情報と、目標物体に対応する情報生成サーバにアクセスするための情報である検索情報とを、それぞれ各物体に対応付けて保存する位置情報サーバと、 を備え、端末は、端末の位置と端末の向きと物体位置情報に基づいて、視線の先に存在する目標物体を特定して、特定した目標物体の検索情報に基づいて目標物体に対応する情報生成サーバにアクセスして、情報生成サーバから目標物体の表示映像を取得して、表示映像を表示する。
本発明の物体特定システムは、複数の物体のうちから特定するべき目標物体をユーザーが指し示すユーザー視線を有し、ユーザー視線により指し示された目標物体を特定する端末と、複数の物体の各々の三次元の位置情報である物体位置情報を各物体に対応付けて保存する位置情報サーバとを備え、ユーザー視線は、ユーザーの位置を示すユーザー位置と端末の位置を表す端末位置と結んだ直線であり、端末は、ユーザー視線の先に存在する目標物体を、ユーザー位置と端末位置と物体位置情報とに基づいて特定する。
本発明の映像提供方法は、(a)複数の物体のうちからユーザーが特定したい物体である目標物体を指し示すために端末に設定された視線により指し示される目標物体を特定するステップと、(b)特定した目標物体に対応する情報生成サーバにアクセスするステップと、(c)取得する目標物体の内部の映像である内部映像、またはユーザーからは目視できない目標物体から外部を撮影した映像である外部映像を端末の出力部に表示するステップとを備える。
本発明の物体特定方法は、(ア)端末の位置を表す端末位置情報を取得するステップと、(イ)端末の備えるユーザー映像取得用カメラの取得する映像から、ユーザの顔と両目を検出するステップと、(ウ)顔の映像と端末位置情報に基づいてユーザーの両目を結んだ線の中心点にユーザーの位置を表すユーザー位置を設定するステップと、(エ)目標物体の位置情報である物体位置情報を取得するステップと、(オ)ユーザー位置と端末位置情報と物体位置情報に基づいて、複数の物体のうちからユーザー視線の指し示す特定するべき目標物体を特定するステップとを備える。
本発明によれば、ユーザーが端末を使用して任意に指定する目標物体の内部映像または外部映像を、目標物体の透視を行っているかような感覚を与えながらユーザーへ提供することが可能な映像提供システムを実現できる。
上記発明の目的、効果、特徴は、添付される図面と連携して実施の形態の記述から、より明らかになる。
図1は、第1実施形態における物体特定システムの構成を示す図である。 図2は、第1実施形態における物体特定システムの動作フローである。 図3は、第1実施形態における物体群と、候補物体群と、目標物体と、検索範囲情報との関係を示す図である。 図4は、第1実施形態における目標物体と端末視点4と端末視線5との関係を示す図である。 図5は、第1実施形態における位置情報サーバ11に記録された物体と小ブロックの位置情報データの一例を示した図である。 図6は、第1実施形態の第3変形例におけるユーザー視点44とユーザー視線55の概念図である。 図7は、第1実施形態における物体情報提示システムの構成を示す図である。 図8は、第1実施形態における位置情報サーバに記録された物体と小ブロックの位置情報データとIPアドレスデータの一例を示した図である。 図9Aは、第1実施形態における物体情報提示システムの動作フローである。 図9Bは、第1実施形態における物体情報提示システムの動作フローである。 図10Aは、第1実施形態における物体情報一覧から「宣伝情報取得」を選択した場合の物体情報提示システムの動作フローである。 図10Bは、第1実施形態における物体情報一覧から「情報提示モード終了」を選択した場合の物体情報提示システムの動作フローである。 図10Cは、第1実施形態における物体情報一覧から「他の物体特定」を選択した場合の物体情報提示システムの動作フローである。 図11は、第1実施形態における情報提供中にキー入力があった場合の物体情報提示システムの動作フローである。 図12は、第1実施形態における図9Aから図11までの動作フローの接続関係を示す図である。 図13Aは、第2実施形態における映像提供システムの動作フローである。 図13Bは、第2実施形態における映像提供システムの動作フローである。 図14は、第3実施形態における目標物体2内に設置された映像取得用カメラの概念図である。 図15Aは、第3実施形態における映像提供システムの動作フローである。 図15Bは、第3実施形態における映像提供システムの動作フローである。 図16Aは、第4実施形態における映像提供システムの動作フローである。 図16Bは、第4実施形態における映像提供システムの動作フローである。
以下、添付図面を参照して本発明の映像提供システムを説明する。
第1実施形態において映像提供システム全体を説明し、その後提供する映像の提供形態の違いによる第2実施形態から第4実施形態までを説明する。
(第1実施形態)
はじめに、第1実施形態について説明する。本実施形態において本発明の映像提供システムは、物体特定システムと物体情報提示システムとを備える。物体特定システムは、ユーザーにより指定された目標物体2を特定する。物体情報提示システムは、物体特定システムにて特定された目標物体2に関する情報を端末3へ提示する。まず、物体特定システムについて説明する。
[物体特定システムの構成説明]
図1は、本実施形態における物体特定システムの構成を示している。物体特定システムは、物体群1と、端末3と、位置情報サーバ11と、インターネット14を備える。
はじめに、物体群1の説明を行う。物体群1は、映像を取得する対象となる物体のN個(Nは整数)の集合である。物体群1の各物体の各々は、例えば、ビルのような建物である。物体は、例えば、ビル1棟毎に設定される。目標物体2は、物体群1の内から指定される1つの物体である。目標物体2は、ユーザーにより後述する端末3の端末視線5を使用して指定される。候補物体群111は、目標物体2を特定するための候補として、物体群1から抽出されるn個(nはNを最大とする整数)の物体である。
また、物体群1のそれぞれの物体は、物体の一部である小ブロックを備える。小ブロックは、例えば、物体である建物内の各フロア毎、あるいは各フロアの各店舗毎に設定される。なお、物体の中に小ブロックが設定されない場合もある。小ブロック群222は、物体群1のN個の物体が備えるM個(Mは整数)の小ブロックの全ての集合である。目標小ブロック22は、小ブロック群222の内から指定される1つの小ブロックである。目標小ブロック22は、ユーザにより後述する端末3の端末視線5を使用して指定される。候補小ブロック群232は、目標小ブロック22を特定するための候補として、小ブロック群222から抽出されるm個(mはMを最大とする整数)の小ブロックである。
なお、以下において、特に明示しない場合には、物体群1には小ブロック群222を含み、候補物体群111には候補小ブロック群232を含み、物体には小ブロックを含み、目標物体2は目標小ブロック22である場合を含むものとする。
次に、端末3の説明を行う。端末3は、目標物体2を指定する。また、端末3は、指定した目標物体2の内部映像を出力する。端末3は、端末3の特定の場所に端末視点4を備える。端末3は、端末視点4から端末3の特定の方向に向けて端末視線5を備える。端末視点4は、端末3の現在位置を表している。端末視線5は、端末3の指し示す向きを表している。
ユーザーは、この端末視線5を使用して物体群1のうちから目標物体2を指定する。端末3は、ユーザーによって持ち運びが可能である。ユーザーが、端末3を移動させることによって、端末3の位置または向きが変化する。端末3の位置または向きが変化することで、端末3の端末視点4や端末視線5が変化する。
なお、端末視線5は、概念的なものであり可視性の有無は問わない。例えば、端末視線5が可視性を有さない場合、端末3は、端末3の一部に印を付しておく。ユーザーは、その印を指定したい物体のある方向に向けて、物体群1のうちから目標物体2を指定してもよい。
端末3は、入力部6と、位置センサ9と、向きセンサ10と、通信部8と、特定部7を備える。入力部6は、例えばユーザーの指示入力用のボタンである。ユーザーは、入力部6から後述する各種指示を入力する。位置センサ9は、例えばGPSモジュールである。位置センサ9は、衛星情報の受信部を備え、端末3の位置情報を検出する。向きセンサ10は、例えば磁気角度センサである。向きセンサ10は、端末3の基準座標に対する向き情報を検出する。通信部8は、例えば携帯電話機の通信モジュールである。通信部8は、アンテナを含む無線部を備え、移動体ネットワークの基地局と無線通信を行う。通信部8は、インターネット14のようなネットワークを経由して、位置情報サーバ11の通信部13と通信が可能である。特定部7は、目標物体2を特定する。特定部7は、ユーザーが入力部6へ入力した目標物体特定指示を受けて、位置センサ9から端末3の位置情報と、向きセンサ10から端末3の向き情報を取得する。特定部7は、検出された位置情報に基づき端末3の位置を定める。この定められた位置が、端末視点4となる。特定部7は、検出された向き情報に基づき端末の向きを定める。この定められた向きは、端末3が端末視点4から指し示す方向であり、端末視線5となる。特定部7は、端末3の位置情報と、端末3の向き情報と、位置情報サーバ11から取得する候補物体群111の位置情報とに基づいて、後述する計算方法によって、ユーザーが端末視線5を使用して指定した目標物体2を特定する。
次に、位置情報サーバ11の説明を行う。位置情報サーバ11は、通信部13と、位置情報記憶部12とを備える。通信部13は、インターネット14のようなネットワークを経由して端末3と通信を可能である。位置情報記憶部12は、物体の位置情報をそれぞれの物体に対応づけて記録したデータベースを有している。位置情報記憶部12は、端末3の特定部7からの要求に基づいて、データベースに記録された物体群1の位置情報のうちから、目標物体2の候補となる候補物体群111の位置情報を抽出する。位置情報記憶部12は、抽出した候補物体群111の位置情報を、通信部13を介して端末3の特定部7へ送信する。
端末3と位置情報サーバ11は、端末3の通信部8と位置情報サーバ11の通信部13を使用して、例えばインターネット14のようなネットワークを介して接続され、互いに通信できる。なお、インターネット14は、公知の技術によるため説明を省略する。
また、端末3と位置情報サーバ11は、CPU(Central Processing Unit)、ハードディスク、ROM(Read Only Memory)、RAM(Random Access Memory)等により実現される(図示せず)。端末3、及び位置情報サーバ11の機能は、ソフトウェアにより実現される。記録媒体70は、端末3、及び位置情報サーバ11の機能を実現するためのプログラムを記録している。端末3、及び位置情報サーバ11の機能がソフトウェアによって実現される場合、記録媒体70に記録されたプログラムが、端末3、及び位置情報サーバ11へ導入されることにより、端末3、及び位置情報サーバ11が実現される。なお、端末3、及び位置情報サーバ11の機能は、ハードウェアにより実現することも可能である。以上が、物体特定システムの構成の説明である。
[物体特定システムの動作説明]
次に、物体特定システムの動作方法について説明する。図2は、本実施形態における物体特定システムが、目標物体2を特定する動作方法を示している。
まず、ユーザーが、端末3の特定方向に設定された端末視線5を使用して、物体群1のうちから目標物体2を指定する(S1)。ユーザーは、目標物体2を指定した状態で、端末3の入力部6から目標物体特定指示を入力する(S2)。入力部6は、目標物体特定指示を検出して、特定部7へ通知する(S3)。
特定部7は、入力部6からの通知を受けて、位置センサ9から端末3の位置情報を取得する(S4)。また、特定部7は、向きセンサ10から端末3の向き情報を取得する(S5)。特定部7は、端末3の位置情報と向き情報とに基づいて、端末視点4と端末視線5を設定する(S6)。特定部7は、端末3の位置情報と予め設定された検索範囲情報とを含めた候補物体抽出要求を、通信部8を介して位置情報サーバ11へ送信する(S7)。
位置情報サーバ11の位置情報記憶部12は、通信部13を介して候補物体抽出要求を受信する(S8)。位置情報記憶部12は、候補物体抽出要求に含まれた端末3の位置情報と検索範囲情報に基づいて、データベースに保存されている物体群1から、候補物体群111を抽出する(S9)。位置情報記憶部12は、候補物体群111を、候補物体群111の位置情報と共に通信部13を介して端末3へ送信する(S10)。
端末3の特定部7は、通信部8を介して候補物体群111の位置情報を受信する(S11)。特定部7は、候補物体群111の位置情報と、端末3の位置情報及び端末3の向き情報とに基づいて、後述する計算方法によって、ユーザーの指定する目標物体2を特定する(S12)。
以上が、物体特定システムの動作方法の説明である。このような動作方法により、物体特定システムは、ユーザーの指定する目標物体2を特定することができる。
なお、上述の検索範囲情報は、位置情報サーバ11の位置情報記憶部12のデータベースに保存されている物体群1の位置情報から、候補物体群111の位置情報を抽出する場合に使用する検索範囲パラメータである。
図3は、物体群1、候補物体群111、及び目標物体2と、検索範囲情報との、それぞれの関係を示している。検索範囲情報は、例えば、「端末3を中心点とする半径100Mの範囲」というように指定する。この場合、位置情報記憶部12は、端末3の位置情報に基づき、データベースに保存された物体群1の位置情報の内から、端末3を中心とした半径100Mの円内に位置する物体を候補物体群111として抽出する。
検索範囲情報の指定方法は、上述の指定の方法には限定しない。検索範囲情報は、例えば、端末3の向き情報から、ある角度幅と端末3からの距離を指定してもよい。また、検索範囲情報は、二次元での指定に限らず、三次元での指定でも構わない。このような場合、端末3は、図2の(S7)において、候補物体抽出要求に含まれる検索範囲情報の項目を変更すればよい。端末3は、検索範囲情報に、端末3の位置情報に加えて向き情報含めて送信する。このように、端末3は、検索範囲情報の指定方法に対応して、検索に必要な情報を送信する。
また、検索範囲情報は、位置情報サーバ11の位置情報記憶部12に予め設定されてもよい。この場合、検索範囲情報は、端末3に関わらず一律に設定する方法が考えられる。この他、位置情報記憶部12が、端末3毎の識別子に対応させた検索範囲情報を保存して、端末3毎に異なる検索範囲情報を選択する方法としてもよい。さらに、端末3の入力部6において、ユーザーが目標物体特定指示を入力する度に、同じに検索範囲情報を入力する方法でもよい。
[物体特定システムの計算方法の説明]
次に、図4を使用して、本実施形態における物体特定システムの動作方法において、候補物体群111から目標物体2を特定する計算方法、候補小ブロック群232から目標小ブロック22を特定する計算方法について説明する。本説明において、物体群1と小ブロック群222、候補物体群111と候補小ブロック群232、目標物体2と目標小ブロック22は、明確に区別する。
図4は、端末3と目標物体2の位置関係を座標に示した図である。図4において基準座標(x,y,z)を取る。本実施形態ではx軸正方向を南、y軸正方向を東、z軸を高度とし、z軸の負方向を地上向きとする。x軸正方向に時計周りの回転角度をθ(z=0かつy軸正方向をθ=0度とする。)、y軸正方向に時計周りの回転角度をφ(z=0かつx軸正方向をφ=0度とする。)、z軸正方向に時計周りの回転角度をψ(y=0かつx軸正方向をψ=0度とする)とする。
位置情報サーバ11の位置情報記憶部12のデータベースは、物体群1のN個の物体それぞれに対する基準座標からの位置情報(xa,ya,za)(a=1〜Nまでの整数)を記録している。また、位置情報記憶部12のデータベースは、N個の物体の内部がそれぞれ最大でM個の小ブロックで区切られている場合、 (xab,yab,zab)(b=1〜Mまでの整数)で表される基準座標からそれぞれM個の小ブロックまでの位置情報を記録している。図4では、例として、目標物体2の中に小ブロック1(xa1,ya1,za1)、小ブロック2(xa2,ya2,za2)が存在している。図5に位置情報記憶部12のデータベースに保存されている物体及び小ブロックのデータの一例を示す。なお、データの保存形式はこの例に限定しない。
位置センサ9の出力は、端末視点4の基準座標からの位置(x0,y0,z0)を示す。向きセンサ10からの出力は、端末3の基準座標からの向き(θ0,φ0,ψ0)を示す。端末視線5の単位ベクトルを数式(1)として、端末3の初期の向き(θ0,φ0,ψ0)=(0,0,0)における端末視線5の単位ベクトルの初期値を数式(2)とすると、端末3の向きが(θ0,φ0,ψ0)になった場合の端末視線5の単位ベクトル数式(1)は、数式(3)と表される。
Figure 0005564946
また、端末視点4からN個の物体の各々までの位置ベクトルを数式(4)とする。また、数式(4)の単位ベクトルを式(5)とする。位置ベクトルである数式(4)は、数式(6)で表される。これを単位ベクトル化した数式(5)は、数式(7)で表される。
Figure 0005564946
次に、端末視点4からN個の物体内部のM個の小ブロックまでの位置ベクトルを数式(8)とする。また数式(8)の単位ベクトルを数式(9)とする。位置ベクトルである数式(8)は、数式(10)で表される。これを単位ベクトル化した数式(9)は、数式(11)で表される。
Figure 0005564946
特定部7は、目標物体2を特定するために、前述の数式(3)と数式(7)を用いて、以下の数式(12)の計算を行う。特定部7は、候補物体群111であるN個の物体aの全てに対して本計算を行う。
Figure 0005564946
数式(12)は、端末3の端末視線5と、端末視点4から候補物体群111の各物体aへの視線、との両者の一致度合いを表す。数式(12)の解が0になると両者の視線は一致している。数式(12)の解が0になる物体aが存在しない場合、数式(12)の解が0に最も近い物体aが、視線の一致度合いが最も高い。本発明において、特定部7は、数式(12)の解が0になる物体a、あるいは数式(12)の解が0である物体aが存在しない場合、数式(12)の解が0に最も近い物体aを、特定するべき目標物体2とする。また、特定部7は、数式(12)の解が0になる物体a、あるいは数式(12)の解が0に最も近い物体aが複数存在する場合、複数の物体aのうちで端末3からの距離である数式(6)の絶対値が最小である物体aを、特定するべき目標物体2とする。
また、特定部7は、目標小ブロック22を特定するために、前述の数式(3)と数式(11)を用いて、以下の数式(13)の計算を行う。特定部7は、候補小ブロック群232であるn×m個の小ブロックの全て対して本計算を行う。なお、特定部7は、b=0の場合、物体aの中に小ブロックが存在しないので計算は行わない。
Figure 0005564946
数式(13)は、端末3の端末視線5と、端末視点4から候補小ブロック群232の各小ブロックabへの視線、との両者の一致度合いを表す。数式(13)の解が0になると両者の視線は一致している。数式(13)の解が0になる小ブロックabが存在しない場合、数式(13)の解が0に最も近い小ブロックabが、視線の一致度合いが最も高い。本発明において、特定部7は、数式(13)の解が0になる小ブロックab、あるいは数式(13)の解が0となる小ブロックabが存在しない場合、数式(13)の解が0に最も近い小ブロックabを、特定するべき目標小ブロック22とする。また、特定部7は、数式(13)の解が0になる小ブロックab、あるいは数式(13)の解が0に最も近い小ブロックabが複数存在する場合、複数の小ブロックabのなかで端末3からの距離である数式(10)の絶対値が最小である小ブロックabを、特定するべき目標小ブロック22とする。
上記の手法では、目標物体2のaと、目標小ブロック22のaとが異なる場合がある。この場合、特定部7は、数式(12)で求まる目標物体2の視線の近さと、数式(13)で求まる目標小ブロック22の視線の近さを比較する。つまり、特定部7は、数式(12)の解と数式(13)の解とのどちらが0に近いかを比較する。
「目標物体2の視線の近さ>目標小ブロック22の視線の近さ」である場合、つまり目標物体2を求める数式(12)の解より目標小ブロック22を求める数式(13)の解のほうがより0に近い場合、特定部7は、目標小ブロック22を求める解とする。
「目標物体2の視線の近さ<目標小ブロック22の視線の近さ」である場合、つまり目標物体2を求める数式(12)の解のほうが目標小ブロック22を求める数式(13)の解よりも0に近い場合、特定部7は、目標物体2を求める解とする。
また、本計算方法は、先に物体aを特定し、その後その物体に含まれる小ブロックabを特定する方法としてもよい。これにより物体に比べ数量として多数となる小ブロックabの演算回数を削減できる。
以上が、物体特定システムによる目標物体2及び目標小ブロック22を特定するための計算方法の説明である。このような計算方法により、物体特定システムは、ユーザーが指定する目標物体2または目標小ブロック22を特定できる。
以下において、特に明示がない場合には、物体群1には小ブロック群222を含み、候補物体群111には候補小ブロック群232を含み、物体には小ブロックを含み、目標物体2は目標小ブロック22である場合を含む。
[物体特定システムの変形例の説明]
次に、第1実施形態の第1変形例として、物体の位置情報に立体情報を使用する場合の説明を行う。本実施形態において、特定部7は、物体内に一点だけ設定された座標を元に、目標物体2の特定を行っている。特定部7は、これを物体の立体情報を使用して特定を行ってもよい。
この場合、位置情報サーバ11の位置情報記憶部12は、立方体のビルを8点の頂点座標を持つ立方体情報として記録する。また、位置情報記憶部12は、8つの頂点座標がそれぞれ他のどの頂点座標と接続されるかを記録する。これによって、立方体のビルは、8つの頂点座標で囲まれた範囲として特定することができる。位置情報サーバ11の位置情報記憶部12は、物体毎の8点の頂点座標と、それぞれの頂点座標の接続関係を、物体群1と関係付けた位置情報としてデータベースに保存する。特定部7は、物体群1のうちで端末視線5が立体情報を通過する物体を、候補物体群111として抽出する。特定部7は、このようにして抽出した候補物体群111うちで、最も端末視点4からの距離が近いものを目標物体2と特定する。
次に、第1実施形態の第2変形例として、位置情報サーバ11にて物体特定を行う場合の説明を行う。本実施形態において、端末3の特定部7が、目標物体2の特定するための計算を実行している。この計算は、位置情報サーバ11が実行してもよい。この場合、位置情報サーバ11は、端末3の特定部7と同様の処理を行う位置情報サーバ11の特定部(図示せず)を追加で備える。特定部7は、候補物体抽出要求に替わり物体特定要求を位置情報サーバ11に送信する。特定部7は、端末3の位置情報と端末3の向き情報を物体特定要求に含めて、位置情報サーバ11の特定部へ送信する。これにより、端末3あるいは位置情報サーバ11のいずれでも、目標物体2の特定が可能となる。
次に、第1実施形態の第3変形例として、視線設定方法の変形例の説明を行う。本実施形態において、ユーザーは、端末視線5を使用して目標物体2を指定している。ユーザーは、端末視線5に換えて、ユーザ視点44と端末視点4に基づいて設定されるユーザー視線55を使用して目標物体2を指定してもよい。
図6にユーザ視点44とユーザー視線55の概念図を示す。この場合、端末3は、端末3の表示部15と同じ側の面、つまりユーザーと向き合う面にユーザー映像取得用カメラ50を備える。端末3の表示部15の中心点が、端末視点4となる。また、ユーザーの両目を結んだ線の中心点が、ユーザ視点44である。さらに、ユーザ視点44と端末視点4とを結んだ直線の延長が、ユーザー視線55である。ユーザーは、このユーザー視線55を使用して目標物体2を指定する。
ユーザーは、端末3から予め定めた一定距離を離した位置から、ユーザーの顔の画像をユーザー映像取得用カメラ50にて予め撮影する。端末3は、撮影されたユーザーの顔の画像から、ユーザーの顔とユーザーの両目を検出する。端末3は、検出した顔の大きさとユーザーの両目のデータを特定部7へ保存する。画像から検出したユーザーの顔の画像は、端末3から一定距離を離した位置の、ユーザーの顔の大きさである。端末3は、この顔の大きさを基準として、ユーザ視点44と端末視点4との距離を検出する。また、端末3は、画像から検出した両目の画像に基づき、両目の中心点にユーザ視点44を設定する。端末3は、ユーザー視点44の検出に当たって、端末3の位置センサ9と端末視点4の位置の誤差と、端末3の位置センサ9とユーザー映像取得用カメラ50の位置の誤差を補正する。
ユーザーは、両目の間のユーザ視点44から、表示部15の中心点の端末視点4を、覗く形で、端末3の表示部15の裏面に延びるユーザー視線55を使用して目標物体2を指定する。つまり、ユーザーは、ユーザーの両目の間に設定したユーザ視点44と、端末3の表示部15の中心点に設定した端末視点4を結ぶ線であって、表示部15の裏面へ延びる線の延長であるユーザー視線55を使用して目標物体2を指定する。端末3は、ユーザー映像取得用カメラ50に映るユーザーの映像からユーザ視点44を設定し、設定したユーザー視点44と端末視点4とを結ぶ線からユーザー視線55を設定する。
特定部7は、入力部6からユーザーの物体特定指示を通知されると、位置センサ9から端末3の位置情報を取得する。特定部7は、端末3の位置情報と、位置センサ9と表示部15の中心点との位置の誤差と、に基づいて端末視点4を設定する。特定部7は、ユーザー映像取得用カメラ50に映るユーザーの顔の映像から、顔と両目を検出する。特定部7は、検出した両目の位置と、ユーザーの顔の大きさと、登録されているユーザーの顔の大きさと、位置センサ9からの端末3の位置情報と、位置センサ9とユーザー映像取得用カメラ50の位置の誤差とに基づいてユーザ視点44を設定する。特定部7は設定したユーザ視点44と端末視点4からユーザー視線55を設定する。
このように、ユーザーは、ユーザー視点44とユーザー視線55を用いることによって、ユーザーの感覚により近い方法で目標物体2の指定が可能となる。また、ユーザーは、端末3の表示部15を通して目標物体2の指定を行うため、透視を行っているかのような感覚を一層強く得ることができる。
以上が、物体特定システムの説明である。以下の説明において、特に明示がない限り、目標物体2を特定する物体特定システムの動作方法は同じである。
[物体情報提示システムの構成説明]
次に、本実施形態における物体情報提示システムについて説明する。以下の説明において、特に明示がない場合には、物体群1には小ブロック群222を含み、候補物体群111には候補小ブロック群232を含み、物体には小ブロックを含み、目標物体2は目標小ブロック22である場合を含むものとする。また、以下の説明において、前述の第1実施形態の第1から第3変形例はいずれも含まれるものする。
図7に、物体情報提示システムの構成を示す。本実施形態において物体情報提示システムは、図1の物体特定システムを構成する物体群1と、端末3と、位置情報サーバ11と、インターネット14に加え、情報生成サーバ17をさらに備える。
まず、物体群1の説明を行う。物体群1は、それぞれ内部に映像取得部23をさらに備える。映像取得部23は、情報生成サーバ17の表示映像生成部20と有線通信または無線通信を使用して接続される。映像取得部23は、映像取得用カメラを備え物体の内部映像を取得する。映像取得部23は、取得した物体の内部映像を映像生成部20へ送信する。映像取得部23と映像取得用カメラは、一体であってもよいし、別々に設置されるものでもよい。映像取得部23と映像取得用カメラが別々に設置される場合は、その間を有線通信または無線通信を利用して接続する。
次に、端末3の説明を行う。端末3は、入力部6と位置センサ9と向きセンサ10と通信部8と特定部7に加え、情報取得部24と出力部100をさらに備える。
入力部6は、出力部100に出力された情報を選択する等、後述する操作のための入力手段をさらに備える。通信部8は例えば携帯電話機の通信モジュールであり、その場合は無線部を備え無線通信を行い、さらにインターネット14のようなネットワークを経由して位置情報サーバ11と、さらに情報生成サーバ17とも通信が可能である。
特定部7は、前述のとおり、動作方法により目標物体2を特定する。さらに、特定部7は、特定した目標物体2の情報を保有する情報生成サーバ17のIP(Internet Protocol)アドレスを、位置情報サーバ11の位置情報記憶部12からさらに取得し、取得した情報生成サーバ17のIPアドレスを情報取得部24へ通知する。
情報取得部24は、情報生成サーバ17から、特定部7が特定した目標物体2の内部映像を取得する。情報取得部24は、特定部7から通知されるIPアドレスを元に、特定部7が特定した目標物体2の情報を保有する情報生成サーバ17へ、通信部8を介してアクセスする。情報取得部24は、アクセスした情報生成サーバ17から、目標物体2の内部映像を取得する。情報取得部24は、目標物体の2の内部映像を出力部100へ出力する。
出力部100は、情報取得部24が情報生成サーバ17から取得した映像映像を出力する。出力部100は表示部15と音声発生部16を備える。表示部15は、例えばLCD(Liquid Crystal Display)モニターである。表示部5は、情報取得部24から入力する画像情報または内部映像を表示する。音声発声部16は、例えばスピーカである。音声発声部16は、情報取得部24から入力する音声情報を出力する。以下の説明において特に明示がない限り、出力部100への出力は、表示部15への出力、または音声発声部16への出力、あるいはその両方への出力を含む。
次に、位置情報サーバ11の説明を行う。位置情報サーバ11は、位置情報記憶部12と通信部13を備える。位置情報記憶部12は、データベースに前述した物体群1の三次元的な位置情報に加えて、それぞれの物体に対応する情報生成サーバ17のIPアドレスを、それぞれの物体に対応付けた形でさらに保存している。
図8は、位置情報記憶部12のデータベースに保存されている物体および小ブロックのデータの一例を示している。なお、データの保存形式は、この例に限定しない。位置情報記憶部12は、端末3の特定部7からの要求に応じて、データベースに保存されている物体群1の三次元的な位置情報を検索して、候補物体群111の位置情報を抽出する。さらに位置情報記憶部12は、端末3の特定部7からの要求に応じて、目標物体2の情報を保有する情報生成サーバ17に対応するIPアドレスを抽出する。位置情報記憶部12は、抽出した候補物体111の位置情報と情報生成サーバ17のIPアドレスとを、通信部13を介して端末3の特定部7へ送信する。
次に、情報生成サーバ18の説明を行う。情報生成サーバ17は、目標物体2の内部映像を端末3へ送信する。本実施形態において、情報生成サーバ17は、N個の物体群1とその一部分であるM個の小ブロック群222のそれぞれに対応して設置される。情報生成サーバ17は、表示映像生成部20と情報記憶部21と情報生成部18と通信部19を備える。
表示映像生成部20は、目標物体2の内部映像から、端末3へ送信する表示映像を生成する。表示映像生成部20は、目標物体2に設置された映像取得部23が送信する内部映像を受信する。表示映像生成部20は、受信した内部映像から端末3へ送信するための表示映像を、情報生成部18の要求に応じて生成する。表示映像生成部20は、生成した表示映像を情報生成部18へ出力する。
情報記憶部21は、目標物体2の後述する関連情報をデータベースに保存している。情報記憶部21は、情報生成部18からの要求に応じて、データベースから目標物体2の関連情報を抽出する。情報記憶部21は、抽出した目標物体2の関連情報を、情報生成部18に出力する。
情報生成部18は、端末3の情報取得部24からの要求を受け付けて、要求に応じて応答する。情報生成部18は、端末3の情報取得部24からの要求を、通信部19を介して受信する。情報生成部18は、受信した要求に応じて表示映像生成部20へ表示映像の生成を命令する。あるいは、情報生成部18は、情報記憶部21へ情報の抽出を命令する。情報生成部18は、表示映像生成部20が出力した表示映像、あるいは情報記憶部21が出力した関連情報を、通信部19を介して端末3の情報取得部24へ送信する。
通信部19は、インターネット14を経由して端末3と通信が可能である。
端末3と位置情報サーバ11と情報生成サーバ17は、端末3の通信部8と、位置情報サーバ11の通信部13と、情報生成サーバ17の通信部19とを使用してインターネット14を介して接続され互いに通信できる。
また、端末3、位置情報サーバ11、情報生成サーバ17の機能は、CPU、ハードディスク、ROM、RAM等により実現される(図示せず)。端末3、位置情報サーバ11、及び情報生成サーバ17の機能は、ソフトウェアにより実現される。記録媒体70は、端末3、位置情報サーバ11に加えて、情報生成サーバ17の機能を実現するためのプログラムを記録している。端末3、位置情報サーバ11、及び情報生成サーバ17の機能がソフトウェアによって実現される場合、記録媒体70に記録されたプログラムが、端末3、位置情報サーバ11、及び情報生成サーバ17へ導入されることにより、端末3、位置情報サーバ11、及び情報生成サーバ17が実現される。なお、端末3、位置情報サーバ11、及び情報生成サーバ17の機能は、ハードウェアにより実現することも可能である。以上が、本実施形態における物体情報提示システムの構成の説明である。
[物体情報提示システムの動作説明]
次に、本実施形態における物体情報提示システムの動作方法について説明する。図9Aおよび図9Bは、物体情報提示システムの動作方法を示している。
まず、端末3は、ユーザーから目標物体特定指示の入力待ち状態にある(S40)。ユーザーが、端末3の端末視線5を使用して物体群1の内の目標物体2を指定する(S41)。ユーザーが、端末視線5にて目標物体2を指定した状態で端末3の入力部6から目標物体特定指示を入力する(S42)。物体特定システムは、前述した動作方法(図2のS3〜S12)により目標小ブロック22を特定する(S43)。端末3の特定部7は、特定した目標物体2に対応する情報生成サーバ17のIPアドレスを取得するために、目標物体2の位置情報を含めたIPアドレス通知要求を、通信部8を介して位置情報サーバ11へ送信する(S44)。位置情報サーバ11の位置情報記憶部12は、通信部13を介してIPアドレス通知要求を受信する(S45)。位置情報記憶部12は、目標物体2の位置情報に基づいて、データベースから目標物体2の位置情報に対応する情報生成サーバ17のIPアドレスを抽出する(S46)。位置情報記憶部12は、情報生成サーバ17のIPアドレスを、通信部13を介して端末3の特定部7へ送信する(S47)。端末3の特定部7は、通信部8を介して情報生成サーバ17のIPアドレスを受信する(S48)。特定部7は、情報生成サーバ17のIPアドレスを情報取得部24へ通知する。情報取得部24は、情報生成サーバ17のIPアドレスに基づいて、情報生成サーバ17の情報生成部18へ通信部8を介して目標物体2の物体情報一覧提示要求を送信する(S49)。情報生成サーバ17の情報生成部18は、通信部19を介して、物体情報一覧提示要求を受信する(S50)。情報生成部18は、情報記憶部21のデータベースに保存されている物体情報一覧の提示を命令する。情報記憶部21は、データベースから物体情報一覧を抽出し、情報生成部18へ応答する。情報生成部18は、物体情報一覧を入力する(S51)。情報生成部18は、物体情報一覧を、通信部19を介して端末3の情報取得部24へ送信する(S52)。端末3の情報取得部24は、通信部8を介して物体情報一覧を受信する(S53)。情報取得部24は、物体情報一覧を出力部100へ情報を出力する(S54)。端末3は、ユーザーからのキー入力待ちへ移行する(S55)。
ユーザーは、出力部100に出力された物体情報一覧から、好みの情報項目(この場合は内部映像を表示するモードである「内部映像取得」を選択したとする。)を選択し、端末3の入力部6から入力する(S56)。入力部6は、ユーザーの内部映像取得指示の入力を検出し、情報取得部24へ通知する(S57)。情報取得部24は、内部映像取得指示の検出を通知されると、内部映像提供要求を、通信部8を介して情報生成サーバ17の情報生成部18へ送信する(S58)。情報生成サーバ17の情報生成部18は、通信部19を介して内部映像提供要求を受信する(S59)。情報生成部18は、表示映像生成部20へ内部映像生成を命令する。表示映像生成部20は、目標物体2に設置されている映像取得部23の映像取得用カメラから、内部映像の取得を開始する(S60)。表示映像生成部20は、内部映像から表示映像を生成する。表示映像生成部23は、表示映像を情報生成部18へ出力する(S61)。情報生成部18は、表示映像生成部20から入力する表示映像を、通信部19を介して端末3の情報取得部24へ送信する(S62)。端末3の情報取得部24は、通信部8を介して、目標物体2の表示映像を受信する(S63)。情報取得部24は、表示映像を出力部100へ出力する(S64)。情報生成部18は、キー入力待ちへと移行する(S65)。
ここで、前述した情報生成サーバ17の情報記憶部21が出力する物体情報一覧は、ユーザーが得たい情報を選択するための表示画面である。物体情報一覧で選択できる項目には、前述の「内部映像取得」の他に、例えば、物体の関連情報を提示するモードである「宣伝情報取得」や、情報提示モードを終了するための「情報提示モードの終了」や、他の物体を特定するための「他の物体特定」といった項目が存在する。
「宣伝情報取得」で得ることができる宣伝情報は、例えば目標小ブロック22が飲食店であるような場合、当該店舗の割引クーポンや、メニューリストや、プロモーションビデオや、口コミ情報といった情報が考えられる。これらの情報は、文字データや音声データまたは映像データとして、予め情報生成サーバ17の情報記憶部21に保存されている。
また、物体情報一覧には、例えば各項目に予め番号が対応付けられていてもよい。ユーザーが、物体情報一覧の各項目に対応する項目番号を、入力部6から入力すると、入力部6はユーザーからの入力を検出し、入力部6は、入力検出を項目番号と共に情報取得部24へ通知する。情報取得部24は、入力部6から通知された項目番号と共に、情報生成サーバ17へ処理の要求を行う。
次に、図10A、図10Bおよび図10Cを使用して、ユーザーが端末3の出力部100へ出力された物体情報一覧から、「宣伝情報取得」を選択した場合と、「情報提示モードの終了」を選択した場合、および「他の物体特定」を選択した場合のそれぞれの動作方法について説明する。
まず、ユーザーが、物体情報一覧から「宣伝情報取得」を選択した場合の動作方法を説明する。図10Aは、「宣伝情報取得」を選択した場合の動作方法を示している。
前述より端末3は、ユーザーからのキー入力待ちへ移行している(S55)。ユーザーは、端末3の出力部100に出力された物体情報一覧から、「宣伝情報取得」を選択して入力部6に入力する(S71)。入力部6は、宣伝情報取得指示を検出して、情報取得部24へ通知する(S72)。情報取得部24は、入力部6から宣伝情報取得指示の検出通知を受けると、情報生成サーバ17の情報生成部18へ宣伝情報提示要求を、通信部8を介して送信する(S73)。情報生成サーバ17の情報生成部18は、宣伝情報提示要求を、通信部19を介して受信する(S74)。情報生成部18は、情報記憶部21へ宣伝情報抽出を命令する。情報記憶部21は、保存されている宣伝情報を抽出して情報生成部18へ応答する(S75)。情報生成部18は、端末3の情報取得部24へ宣伝情報を、通信部19を介して送信する(S76)。端末3の情報取得部24は、宣伝情報を、通信部8を介して受信する(S77)。情報生成部18は、受信した宣伝情報を出力部100へ出力する(S78)。情報生成部18は、キー入力待ちへ移行する(S79)。
次に、ユーザーが、物体情報一覧から「情報提示モード終了」を選択した場合の動作方法を説明する。図10Bは「情報提示モード終了」を選択した場合の動作方法を示している。
前述より端末3は、ユーザーからのキー入力待ちへ移行している(S55)。ユーザーは、端末3の出力部100に出力された物体情報一覧から、「情報提示モード終了」を選択して入力部6に入力する(S81)。入力部6は、情報提示モード終了指示を検出し、情報取得部24へ通知する(S82)。情報取得部24は、入力部6から情報提示モード終了指示検出の通知を受けると、情報生成サーバ17の情報生成部18へ情報提示停止要求を、通信部8を介して送信する(S83)。情報生成サーバ17の情報生成部18は、情報提示停止要求を、通信部19を介して受信する(S84)。情報生成部18は、宣伝情報あるいは内部映像の送信中であれば、送信を停止する(S85)。情報生成部18は、端末3の情報取得部24へ情報提示停止応答を、通信部19を介して送信する(S86)。端末3の情報取得部24は、情報提示停止応答を、通信部8を介して受信する(S87)。情報取得部24は、ユーザーから入力部6への入力待ちへ移行する(S40)。
次に、ユーザーが、物体情報一覧から「他の物体特定」を選択した場合の動作方法を説明する。図10Cは「他の物体特定」を選択した場合の動作方法を示している。
前述より端末3は、ユーザーからのキー入力待ちへ移行している(S55)。ユーザーは、端末3の出力部100に出力された物体情報一覧から、「他の物体特定」を選択して入力部6に入力する(S91)。入力部6は、他物体特定指示を検出し、情報取得部24へ通知する(S92)。情報取得部24は、入力部6から他物体特定指示検出の通知を受けると、情報生成サーバ17の情報生成部18へ情報提示停止要求を、通信部8を介して送信する(S93)。情報生成サーバ17の情報生成部18は、通信部19を介して情報停止要求を受信する(S94)。情報生成部18は、宣伝情報あるいは内部映像を送信中であれば送信中の情報を停止する(S95)。情報生成部18は、端末3の情報取得部24へ情報提示停止応答を、通信部19を介して送信する(S96)。端末3の情報取得部24は、情報提示停止応答を、通信部8を介して受信する(S97)。情報取得部24は、ユーザーの物体特定指示を促すために、例えば「他の物体を選んでキーを入力してください」といった案内表示を、出力部100へ出力する(S98)。端末3は、ユーザーから入力部6への、物体特定指示の入力待ちへ移行する(S40)。ユーザーは、出力部100に出力された案内表示を確認する(S99)。ユーザーは、端末視線5を使用して新たに目標物体2を指定する(S100)。ユーザーが、入力部6から目標物体特定指示を入力すると、物体特定システムが前述の物体特定動作に入る。その後の動作は(S41)へ戻る。
以上が、ユーザーが端末3の出力部100へ出力された物体情報一覧から、「宣伝情報取得」を選択した場合、「情報提示モードの終了」を選択した場合、および「他の物体特定」を選択した場合のそれぞれの動作方法である。
次に、情報取得部24が、端末3の出力部100に内部映像や宣伝情報といった情報の出力中(S65、S79)に、ユーザーが入力部6の「いずれかのキー入力」を行った場合について説明する。ユーザーが、入力部6のいずれかのキーを押すと、出力部100の出力は、内部映像や宣伝情報から物体情報一覧に切り換わる。ユーザーは、出力部100へ新たに出力された物体情報一覧から項目を選択することができる。図11は、出力部100へ情報の出力中に、ユーザーから入力部6の「いずれかのキー入力」が行われた場合の動作方法示している。
端末3は、ユーザーからのキー入力待ちへ移行している。ユーザーが、入力部6のいずれかのキーを入力する(S111)。入力部6は、キー入力を検出する(S112)。入力部6は、情報取得部24にキー入力検出を通知する。情報取得部24は、入力部6からキー入力検出の通知を受けると、情報生成サーバ17の情報生成部18へ物体情報一覧提示要求を、通信部8を介して送信する(S113)。情報生成サーバ17の情報生成部18は、物体情報一覧提示要求を、通信部19を介して受信する(S114)。情報生成部18は、送信中の情報を停止する(S115)。情報生成部18は、情報記憶部21に物体情報一覧提示を命令する。情報記憶部21は、データベースから物体情報一覧を抽出する(S116)。情報記憶部21は、抽出した物体情報一覧を情報生成部18へ応答する。情報生成部18は、情報記憶部21から取得した物体情報一覧を、端末3の情報取得部24へ、通信部19を介して送信する(S117)。端末3の情報取得部24は、物体情報一覧を、通信部8を介して受信する(S118)。情報取得部24は、物体情報一覧を出力部100へ出力する(S119)。その後端末3はキー入力待ちへ移行する(S55)。
以上が、出力部100へ情報の出力中に、ユーザーから入力部6のいずれかのキー入力が行われた場合の動作方法である。
次に、図12は、本実施形態における物体情報提示システムの上記の図9Aから図11までの動作方法について、それぞれの動作方法の接続関係から動作方法の全体像を示した図である。これにより物体特定システムと物体情報提示システムを含む映像提供システムの動作方法の全体像を掴むことができる。
以上が本実施形態における物体情報提示システムの動作方法の説明である。これらの動作方法によって、ユーザーは目標物体2の内部映像を端末3の出力部100で確認することが可能となる。
[物体情報システムの他の機能説明]
本実施形態において、情報生成部18はアクセスログを取る。アクセスログは、何時、どのユーザーがアクセスを行ったかに関する情報や、ユーザーが物体情報一覧から何を選択したかといった情報に関する。情報生成サーバ17が取ったアクセスログは、情報記憶部21に保存される。目標物体2の関係者は、情報記憶部21に保存されたアクセスログを閲覧、集計することでユーザーの興味行動を確認することができる。
また、本実施形態において、端末3を1台用いた場合について説明した。しかし、複数のユーザーが、別々の端末3を用いて、別々の物体を同時に特定し、物体情報提示を要求することが考えられる。また、複数のユーザーが、別々の端末3を用いて、任意の時刻に、別々の物体を特定し、物体情報提示を要求することが考えられる。本発明の映像提供システムは、このような場合においても有効である。この場合、複数の端末3が、同時刻に位置情報サーバ11へアクセスする。位置情報サーバ11は、一定時間毎にそれぞれ端末3からのアクセス処理を行うタイムシェアリングによって、同時アクセスを実現できる。
また、本実施形態において、複数のユーザーが、別々の端末3を用いて同時に同じ物体を特定し、同じ物体の情報提示要求を行うことが考えられる。また、複数のユーザーが、任意の時刻に、同じ物体を特定し、同じ物体の情報提示要求を行うことが考えられる。本発明の映像提供システムは、このような場合においても有効である。この場合、同時刻に複数の端末3が位置情報サーバ11や同一物体に対応する情報生成サーバ17にアクセスすることが考えられる。位置情報サーバ11や情報生成サーバ17は、一定時間毎にそれぞれ端末3からのアクセス処理を行うタイムシェアリングによって、同時アクセスを実現できる。
以上が、本実施形態における物体情報提示システムの説明である。以下に、本実施形態における変形例を説明する。
[物体情報提示システムの変形例の説明]
次に、第1実施形態の第4変形例として、情報生成サーバ17の検索情報としてURL(Uniform Resource Locator)を使用する場合を説明する。
本実施形態において、位置情報サーバ11の位置情報記憶部12は、情報生成サーバ17の検索情報として、それぞれの物体と対応づけたIPアドレスをデータベースに保存している。この検索情報をURL形式で保存してもよい。この場合は、新たにDNS(Domain Name System)サーバ(図示せず)を設置することでURLとIPアドレスを結びつければよい。
次に、第1実施形態の第5変形例として、情報生成サーバ17を集約設置する場合を説明する。本実施形態において、情報生成サーバ17は、物体群1にそれぞれの物体内に設置している。これを例えばIDC(Internet Data Center)等のデータセンタに集約して設置してもよい。
この場合、情報生成サーバ17は、複数の目標物体2に対応する情報を保存する。また、情報生成サーバ17は、複数の物体内の映像取得部23に対応して、複数の物体内の映像取得部23と接続される。映像取得部23は、映像取得部23の通信部(図示せず)をさらに備える。映像取得部23の通信部は、情報生成サーバ17の通信部19と、例えばインターネット14のようなネットワークを介して通信を行う。情報生成サーバ17の情報記憶部21は、映像取得部23のIPアドレスをデータベースにさらに保存する。
端末3の情報取得部24は、情報生成サーバ17の情報生成部18へ、どの物体の映像を要求するのかを通知するために、物体ID等の識別情報を含めた内部映像提供要求を送信する。情報生成部18は、情報取得部24から内部映像提供要求を受けて、表示映像生成部20に物体IDにより指定された物体の映像取得開始を命令する。表示映像生成部20は情報記憶部21から映像取得部23のIPアドレスを取得して、通信部19を介して映像取得部23から内部映像を取得する。
次に、第1実施形態の第6変形例として、目標物体2の外部映像を表示映像とする場合を説明する。本実施形態において、端末3の出力部100に出力する表示映像は、目標物体2の内部映像である。この表示映像は、目標物体2から外部周辺を撮影した映像である外部映像であってもよい。
この場合、映像取得部23の映像取得用カメラは、目標物体2の外部を見渡せる位置に設置される。映像取得部23の映像取得用カメラは、目標物体2から目標物体2の外部周辺を撮影した映像である外部映像を取得する。表示映像生成部20は、取得した外部映像から表示映像を生成する。これにより、ユーザーは、例えば、ユーザーの目の前に建物がある場合、外部映像により建物の向こう側の映像を見ることができる。また、目標小ブロック22が例えば展望台のような高所に位置する場合、展望台の各方位に向けて映像取得用カメラを設置して、後述する第2実施形態から第4実施形態を適用することで、ユーザーは、端末3からの指示により目標小ブロック22位置からの各方位の展望映像を見ることができる。
次に、第1実施形態の第7変形例として、表示映像に保存映像を使用する場合を説明する。本実施形態において、端末3の出力部100へ出力する表示映像は、映像取得部23の映像取得用カメラが取得したリアルタイム映像である。この表示映像は、予め映像取得部23の映像取得用カメラが取得する内部映像を保存した保存映像を使用してもよい。
この場合、情報生成サーバ17の情報記憶部21は、映像取得部23の映像取得用カメラが取得した内部映像を予め保存する。目標物体2の所有者あるいは使用者である関係者は、映像取得部23の映像取得用カメラが取得する内部映像を情報記憶部21に保存するための保存設定を、情報生成サーバ17の表示映像生成部20に予め設定する。
この保存設定とは、保存映像を取得する時間帯、時間、保存しておく期間、取得するタイミング、あるいは複数カメラがある場合はどのカメラの映像を取得するか、といった内容に関する。表示映像生成部20は、保存設定の内容に従って、映像取得部23の映像取得用カメラが取得する内部映像を、情報記憶部21へ保存する。
また、目標物体2の関係者は、保存映像を使用する条件の設定である使用条件設定を、表示映像生成部20に設定する。この使用条件設定とは、保存映像を使用する時間帯等に関する。表示映像生成部20は、使用条件設定に従って、情報記憶部21に保存されている保存映像を使用するのか、あるいは映像取得部23から取得したリアルタイムの映像を使用するのか、を選択する。表示映像生成部20は、選択した映像から表示映像を生成して、情報生成部18へ送信する。
これにより、例えば、目標小ブロック22が飲食店である場合などで、当該飲食点が営業を行っていない定休日や深夜帯等に映像提示要求があったとしても、保存映像を使用することにより内部映像の提供が可能となる。保存した映像を使用する場合には、表示映像生成部20は「営業時間中の映像です。」といったコメントを映像内に含めて生成することも可能である。
次に、第1実施形態の第8変形例として、定期的に物体特定動作を行う場合を説明する。
本実施形態において、物体特定システムは、ユーザーの入力部6への物体特定指示の入力をトリガに物体特定動作を開始している。これを特定部7が定期的に物体特定動作を行う動作方法としてもよい。これにより、ユーザーが端末視点4と端末視線5を変化させた場合に、変化後の端末視線5が指定する目標物体2を、ユーザーの物体特定指示を待たずに特定することができる。
この場合、位置情報サーバ11に保存される物体群1の位置情報は、前述の第1実施形態の第1変形例で説明した立体情報を使用する。端末3の特定部7は、定期的(例えば1S間隔)に、位置センサ9から端末3の位置情報と、向きセンサ10から端末3の向き情報を取得する。特定部7は、取得した端末3の位置情報と向き情報に基づき、端末視点4と端末視線5を設定する。特定部7は、端末視線5が現在指定している目標物体2の立体情報から外れると、端末視線5が次に指定している目標物体2の特定を開始する。
図12に示す動作フローにより動作方法を説明する。特定部7が目標物体2を特定して、情報取得部24は出力部100に物体情報一覧を出力する(S54)。その後、端末3は、(S55)、(S56)、(S71)、のいずれかの状態にある。この状態において端末3の特定部7は、定期的に端末3の位置情報と向き情報を取得し、物体特定動作(図2のS3〜S12)を行う。これにより、ユーザーが端末3を移動させて端末視線5の指定する先が現在指定している目標物体2から別の目標物体2へ変化すると、端末3は、出力部100に出力される情報を、変化後の目標物体2の情報へ即座に切替えることができる。そのため、ユーザーは、端末3をどの方向に向けても、端末視線5の指定する目標物体2の情報を得ることができる。
例えば、物体情報一覧に「連続物体特定モード」を用意する。このモードは、特定した目標物体2の内部映像を、特にユーザーの操作を待たずに出力部100へ出力するモードである。ユーザーが端末3を様々な方向に向けても端末視線5の先の目標物体2が変化するに従って、端末3は、変化後の目標物体2の内部映像を出力部100へ次々に出力できる、そのため、ユーザーは、透視を行っているような感覚をより強く得ることが可能となる。
なお、端末視線5が通過する物体の立体情報で囲まれた範囲が存在しない場合には、表示部15や音声発声部16に「物体が存在しません」とメッセージを出力することも可能である。また、この際に、例えば、端末3の端末視線5方向にカメラが取りつけられている場合には、メッセージを出力する代わりにそのカメラで得られた外界の映像を表示してもよい。
次に、第1実施形態の第9変形例として、表示映像にモザイクを施す場合を説明する。
本実施形態において、表示映像を生成する際に表示映像生成部20が、映像内の人物の顔に対してモザイクを施してもよい。この場合、表示映像生成部20は、映像取得部23から取得したカメラ映像から顔検出技術を用いて人間の顔の輪郭を特定する。表示映像生成部20は、特定した人間の顔全体にモザイクを施す。表示映像生成部20は、モザイクを施した表示映像を情報生成部18へ出力する。これにより、目標物体2の内部にいる人間のプライバシーを保護することが可能である。
次に、第1実施形態の第10変形例として、表示映像を外界の映像にスーパーインポーズさせる場合を説明する。
本実施形態において、端末3が、端末視線5方向にカメラ備える場合、端末3の出力部100に表示映像を出力する際に、そのカメラにて撮影された端末視線5方向の外界映像に表示映像をスーパーインポーズさせてもよい。例えば、表示映像が内部映像である場合、目標物体2の外界映像に重ねて目標物体2の内部映像を出力させることができる。これによりユーザーは透視をしているような効果をより強く感じることが可能となる。
以上が、本発明の第1実施形態の説明である。ユーザーは、目標物体2の内部映像あるいは外部映像を端末3の出力部100にて確認が可能となり、透視しているかのような効果を得ることができる。
次に、表示映像の生成方法が異なる3つ場合について、それぞれの実施形態に分けて説明を行う。以下に説明する実施形態において、目標物体2を特定する物体特定システムの動作方法は第一実施形態と同様である。また、特定した目標物体2に対応する物体情報システム17にアクセスして、物体情報一覧を取得するまでの物体情報提示システムの動作方法は第一実施形態と同様である。さらに、以下の説明において、上記第1実施形態の第1変形例から第10変形例までの変形例はいずれも含まれるものする。
なお、以下において特に明示がない場合には、物体群1には小ブロック群222を含み、候補物体群111には候補小ブロック群232を含み、物体には小ブロックを含み、目標物体2は目標小ブロック22である場合を含むものとする。
(第2実施形態)
[第2実施形態の構成説明]
まず、第2実施形態として、映像取得用カメラが複数台備えられる場合の表示映像生成について説明する。本実施形態において、目標物体2は、内部に、映像取得部23の映像取得用カメラを複数備える。表示映像生成部20は、ユーザーがそれぞれの映像取得用カメラの映像を選択することが可能となるように、カメラ選択用の表示映像を生成する。例えば、端末3の表示部15への出力を、映像取得用カメラの台数で表示領域を分割しそれぞれの領域に映像取得用カメラの映像を表示する表示映像を生成する。ユーザーは、分割された領域から好みの映像取得用カメラの映像を判断し端末3の入力部6で選択する。出力部100にはユーザーが選択した映像取得用カメラの映像が出力される。
[第2実施形態の動作説明]
図13Aおよび図13Bは、第2実施形態の動作方法を示している。出力部100へ物体情報一覧が出力されるまでの動作方法は、第1実施形態と同様である。端末3は、ユーザーからのキー入力待ちへ移行している(S55)。
情報取得部24は、情報生成サーバ17の情報生成部18より受信した物体情報一覧を、出力部100へ出力して(S54)、端末3は、ユーザーからのキー入力待ちへ移行している(S55)。ユーザーは、物体情報一覧から内部映像取得を選択し入力部6へ入力する(S121)。入力部6は、ユーザーの内部映像取得指示の入力を検出し、情報取得部24へを通知する(S122)。情報取得部24は、入力部6からの内部映像取得指示の検出を通知されると、通信部8を介して情報生成サーバ17の情報生成部18へ内部映像提供要求を送信する(S123)。情報生成サーバ17は、通信部19を介して内部映像提供要求を受信する(S124)。情報生成部18は、表示映像生成部20へ内部映像生成を命令する。内部映像生成命令を受けた表示映像生成部20は、目標物体2に設置されている映像取得部23へ、複数の映像取得用カメラから映像の取得を開始する(S125)。表示映像生成部20は、映像取得部23の複数の映像取得用カメラから取得した映像からカメラ選択用表示映像を生成する。表示映像生成部20は、カメラ選択用表示映像を情報生成部18へ送信する(S126)。情報生成部18は、カメラ選択用表示映像を端末3の情報取得部24へ通信部19を介して送信する(S127)。端末3の情報取得部24は、通信部8を介してカメラ選択用表示映像を受信する(S128)。情報取得部24は、カメラ選択用表示映像を出力部100の表示部15へ出力する(S129)。端末3は、ユーザーからの入力待ちに移行する(S130)。
ユーザーは、出力部100に出力されたカメラ選択用表示映像から好みのカメラの映像を選択する。例えば、カメラ選択用の表示映像には分割された表示領域毎に予め設定番号が付与してあり、ユーザーは好みの映像領域に対応する設定番号をカメラ選択指示として入力部6へ入力する(S131)。入力部6は、カメラ選択指示の入力を検出し、入力された設定番号と共にカメラ選択指示の検出を情報取得部24に通知する(S132)。情報取得部24は、入力部6から設定番号と共にカメラ選択指示の検出を通知されると、通信部8を介して情報生成サーバ17の情報生成部18へ設定番号を含めた選択カメラ映像提供要求を送信する(S133)。情報生成サーバ17の情報生成部18は、通信部19を介して選択カメラ映像提供要求を受信する(S134)。情報生成部18は、選択カメラ映像提供要求に含まれる設定番号から選択された映像取得用カメラを判断する。情報生成部18は、表示映像生成部20へカメラ映像提供を命令する。表示映像生成部20は、情報生成部18からの命令を受けると、選択された映像取得部23の映像取得用カメラから内部映像の取得を開始する(S135)。表示映像生成部20は、映像取得部23から取得した内部映像から表示映像を生成し情報生成部18へ出力する(S136)。情報生成部18は、表示映像生成部20から取得した表示映像を、通信部19を介して端末3の情報取得部24へ送信する(S137)。情報取得部24は、通信部8を介して表示映像を受信する(S138)。情報取得部24は、表示映像を出力部100へ出力する(S139)。端末3はキー入力待ちへ移行する(S140)。
以上が第2実施形態の説明である。本実施形態により、ユーザーは、複数のカメラから好みに合わせて1つのカメラを選択し、またはカメラを切り替えて目標物体2の内部映像を取得することが可能となる。
(第3実施形態)
[第3実施形態の構成説明]
次に、第3実施形態として、複数の映像取得用カメラから、端末視線5に最も近い、一つの映像取得用カメラを選択して表示映像を生成する場合を説明する。図14は、第3実施形態における目標物体2の内部に設置された複数の映像取得用カメラを示している。
本実施形態において、映像取得用カメラは、目標物体2に複数設置される。複数の映像取得用カメラは、それぞれ映像取得用カメラの位置を示すカメラ視点と、映像取得用カメラの向きを示すカメラ視線をそれぞれさらに備える。カメラ視線は、映像取得用カメラのカメラ視点から内部映像を撮影している方向を表している。映像取得部23の映像取得用カメラは、カメラ位置センサ(図示せず)とカメラ向きセンサ(図示せず)をさらに備える。カメラ位置センサは、端末3の位置センサ9と同様の機能を有し、映像取得用カメラの基準座標からの位置情報を検出する。カメラ向きセンサは端末3の向きセンサ10と同様の機能を有し、映像取得用カメラの基準座標からの向き情報を検出する。カメラ位置センサが、検出する映像取得用カメラの位置情報に基づきカメラ視点が設定される。また、カメラ向きセンサが、検出する映像取得用カメラの向き情報に基づき、カメラ視線が設定される。
カメラ位置センサとカメラ向きセンサは、映像取得用カメラが設置される際に、映像取得用カメラの位置情報と映像取得用カメラの向き情報を検出する。映像取得用カメラは、映像取得用カメラの位置情報と映像取得用カメラの向き情報を、情報生成サーバ17の情報記憶部21へ送信する。情報記憶部21は、映像取得用カメラの位置情報と、映像取得用カメラの向き情報を、映像取得用カメラに対応させてデータベースに記録する。
本実施形態において、複数の映像取得用カメラから一つのカメラを選択する選択方法は、3通りある。第一にパターン(A)として、端末視点4とカメラ視点を結んだ線にて定まる端末カメラ視線が、端末視線5に最も近い映像取得用カメラを選択する方法。第二にパターン(B)として、端末視線5と最も近いカメラ視線を持つ映像取得用カメラを選択する方法。第三にパターン(C)として、パターン(A)の方法で端末カメラ視線が端末視線5に近い映像取得用カメラから順に昇順で点数を付与し、また、パターン(B)の方法で端末視線5に近い映像取得用カメラから順に昇順で点数を付与する。それぞれの点数を合計した合計点から、最も端末視線5に近い映像取得用カメラ(この場合は、合計点数が最も小さいカメラ)を選択する方法。以上の3通りの選択方法がある。
本実施形態において、パターン(A)によって選択される映像取得用カメラを「視点近似カメラ」と呼び、視点近似カメラの取得する映像から生成した表示映像を「視点近似カメラ映像」と呼ぶ。また、パターン(B)によって選択される映像取得用カメラを「視線近似カメラ」と呼び、視線近似カメラの取得する映像から生成した表示映像を「視線近似カメラ映像」と呼ぶ。さらに、パターン(C)によって選択される映像取得用カメラを「視点視線近似カメラ」と呼び、視線視点近似カメラが取得する映像から生成した表示映像を「視点視線近似カメラ映像」と呼ぶ。また、視点近似カメラ、視線近似カメラ、および視線視点近似カメラを、まとめて呼ぶ場合には「近似カメラ」と呼び、視点近似カメラ映像、視線近似カメラ映像、および視点視線近似カメラ映像をまとめて呼ぶ場合には「近似カメラ映像」と呼ぶ。
本実施形態において、情報生成サーバ17の表示映像生成部20は、端末3の特定部7と同様に、第1実施形態にて前述した、目標物体2を特定するための計算方法をさらに備える。
パターン(A)において、表示映像生成部20は、端末3の位置情報と、端末3の向き情報と、映像取得用カメラの位置情報に基づき、視点近似カメラを前述の計算方法で算出して特定する。表示映像生成部20は、特定した視点近似カメラを選択して、視点近似カメラから内部映像を取得する。表示映像生成部20は、視点近似カメラから取得する内部映像から表示映像である視点近似カメラ映像を生成する。
パターン(B)において、表示映像生成部20は、端末3の向き情報と映像取得用カメラの向き情報に基づき、視線近似カメラを前述の計算方法で算出して特定する。表示映像生成部20は、特定した視線近似カメラを選択して、視線近似カメラから内部映像を取得する。表示映像生成部20は、視線近似カメラ映像から取得する内部映像から表示映像である視線近似カメラ映像を生成する。
パターン(C)において、まず、表示映像生成部20は、端末3の位置情報と、端末3の向き情報と、映像取得用カメラの位置情報情報に基づき、パターン(A)の方法により、端末カメラ視線が端末視線5に近い順で、映像取得用カメラに点数Lを付与する(例えば、一番近いものから昇順に1、2、・・・l)。次に、パターン(B)の方法により表示映像生成部20は、端末3の向き情報と映像取得用カメラの向き情報に基づき、映像取得用カメラのカメラ視線が、端末3の端末視線5に近い順に点数Kを付与する(例えば、一番近いものから昇順に1、2、・・・k)。
表示映像生成部20は、点数Lと点数Kを加算して点数αを算出し、点数αが最小となるものを視点視線近似カメラとして特定する。最小となるαが複数存在する場合は、例えば、最小のαを持つ映像取得用カメラのうち点数Lが最小のものを視点視線近似カメラとして特定してもよい。また、これを点数Lが最小の映像取得用カメラではなく、点数Kが最小の映像取得用カメラを視点視線近似カメラとして特定してもよい。表示映像生成部20は、特定した視点視線近似カメラを選択して、視点視線近似カメラから内部映像を取得する。表示映像生成部20は、視点視線近似カメラ映像から取得する内部映像から表示映像である視点視線近似カメラ映像を生成する。
パターン(A)では、端末視線5の指し示す方向に近い映像取得用カメラが選択可能となる。パターン(B)では、端末視線5の指し示す方向に近い方向を撮影する映像取得用カメラが選択可能となる。パターン(C)では、端末視線5の指し示す方向に近く、かつ端末視線5と近い方向を撮影する映像取得用カメラが選択可能となる。これらのパターンはユーザーの要望に合わせて選択させてもよいし、また段階的に組み合せてもよい。状況に応じて使い分けることで、より強く透視しているような効果を得ることができる。なお、前述の近似カメラの特定は、目標物体2の特定後に行われる。特定された目標物体2は固定的に選択された状態で、目標物体2の中に設置された複数の映像取得用カメラから視線近似カメラの特定が行われる。
端末3が動くことで、端末視点4または端末視線5またはその両方が変化する。端末3の情報取得部24は、定期的に位置センサ9から端末3の位置情報を取得し、また、定期的に向きセンサ10から端末3の向き情報を取得する。端末3の情報取得部24は、新たに取得した端末3の位置情報と端末3の向き情報を、情報生成サーバ17の表示映像生成部20へ新たに送信する。表示映像生成部20は、新たに受信した端末3の位置情報と端末3の向き情報に基づき、近似カメラを前述の方法(パターンA,パターンBまたはパターンC)で新たに特定する。表示映像生成部20は、新たに特定した近似カメラが、現在選択している近似カメラと同一か否かの判定を行う。表示映像生成部20は、判定の結果、近似カメラが異なる場合には、新たに特定した近似カメラを新たに選択する。
表示映像生成部20は、新たに選択した近似カメラの取得する内部映像から、表示映像である近似カメラ映像を新たに生成する。表示映像部20は、新たに生成した近似カメラ映像を情報生成部18へ出力する。情報生成部18は、新たな近似カメラ映像を、通信部19を介して端末3の情報取得部24へ送信する。端末3の情報取得部24は、通信部8を介して、情報生成部18の送信した新たな近似カメラ映像を受信する。情報取得部24は、端末3の出力部100へ、新たな近似カメラ映像を出力する。
なお、映像取得部23の映像取得用カメラのカメラ位置センサとカメラ向きセンサは、定期的にカメラの位置とカメラの向きを検出してもよい。映像取得部23は、検出したカメラの位置とカメラの向きを情報生成サーバ17の情報記憶部21へ送信する。情報記憶部21は、データベースに保存しているカメラの位置とカメラの向きを更新する。これにより、設置されている映像取得用カメラが移動された場合にも、移動後のカメラ位置情報とカメラ向き情報を把握できる。
[第3実施形態の動作説明]
次に、第3実施形態における動作方法を説明する。図15Aおよび図15Bは第3実施形態の動作方法を示している。本説明では、「視点視線近似カメラ」を選択し「視点視線近似カメラ映像」を表示映像として生成する場合を説明する。「視点近似カメラ」、または「視線近似カメラ」を選択する場合の動作方法は、後述の動作方法の説明「視点視線近似カメラを特定(S149)」において、映像取得用カメラの特定方法が前述のとおり(パターン(A)、またはパターン(B))に変更となる。出力部100へ物体情報一覧が出力されるまでは、第1実施形態と同様である。端末3はユーザーからのキー入力待ちへ移行している(S55)。
ユーザーは、物体情報一覧から視点視線近似カメラ映像取得を選択し入力部6へ入力する(S141)。入力部6は、視点視線近似カメラ映像取得指示の入力を検出する(S142)。入力部6は、視点視線近似カメラ映像取得指示の検出を情報取得部24へ通知する。情報取得部24は、入力部6からの通知を受けて、端末3の位置センサ9から端末3の位置情報を取得し(S143)、端末3の向きセンサ10から端末3の向き情報を取得する(S144)。情報取得部24は、端末3の位置情報と端末3の向き情報とを含めた視点視線近似カメラ映像提供要求を、通信部8を介して情報生成サーバ17の情報生成部18へ送信する(S145)。情報生成部18は、通信部19を介して、視点視線近似カメラ映像提供要求を受信する(S146)。情報生成部18は、表示映像生成部20へ視点視線近似カメラ映像生成命令を、端末3の位置情報と端末3の向き情報と共に通知する。表示映像生成部20は、取得した端末3の位置情報と端末3の向き情報に基づき、端末視点4と端末視線5を求める(S147)。表示映像生成部20は、映像取得用カメラのそれぞれについて、情報記憶部21のデータベースに保存されているカメラの位置情報とカメラの向き情報とに基づき、それぞれの映像取得用カメラのカメラ視点とカメラ視線を求める(S148)。表示映像生成部20は、端末視点4と端末視線5と、それぞれの映像取得用カメラのカメラ視点とカメラ視線に基づき、視点視線近似カメラを特定する(S149)。表示映像生成部20は、特定した視点視線近似カメラを選択して内部映像を取得する(S150)。表示映像部20は、視点視線近似カメラの取得する内部映像から表示映像として視点視線近似カメラ映像を生成する(S151)。表示映像生成部20は、視点視線近似カメラ映像を情報生成部18へ出力する。情報生成部18は、視点視線近似カメラ映像を、通信部19を介して端末3の情報取得部24へ送信する(S152)。端末3の情報取得部24は、通信部8を介して視点視線近似カメラ映像を受信する(S153)。情報取得部24は、視点視線近似カメラ映像を出力部100へ出力する(S154)。
端末3が動くことで端末視点4または端末視線5またはその両方が変化する。端末3の情報取得部24は、定期的に(例えば1秒毎に)位置センサ9から端末3の位置情報を新たに取得し(S155)、向きセンサ10から端末3の向き情報を新たに取得する(S156)。情報取得部24は、新たに取得した端末3の位置情報と、新たに取得した端末3の向き情報を含めた視点視線近似カメラ映像提供要求を、通信部8を介して情報生成サーバ17の情報生成部18へ、新たに送信する(S157)。情報生成部18は、視点視線近似カメラ映像提供要求を、情報取得部24から通信部19を介して、新たに受信する(S158)。情報生成部18は、新たに受信した、端末3の新たな位置情報と、端末3の新たな向き情報を、表示映像生成部20に通知する。表示映像生成部20は、新たに受信した端末3の位置と端末3の向きに基づいて、端末視点4と端末視線5を新たに設定する(S159)。表示映像生成部20は、情報記憶部21に保存されているそれぞれの映像取得用カメラの位置とカメラ向き情報とに基づき、カメラ視点とカメラ視線を設定する(S160)。表示映像生成部20は、新たに設定した端末視点4と端末視線5と、それぞれのカメラ視点とカメラ視線とに基づき、前述の計算方法にて視点視線近似カメラを新たに特定する(S161)。表示映像生成部20は、新たに特定した視点視線近似カメラが、表示映像生成部20が現在選択している視点視線近似カメラと同一か否かを判定する(S162)。表示映像生成部20は、判定の結果が同一であった場合は現在選択している視点視線近似カメラは変更しない。この場合は、現在選択している視点視線近似カメラを選択した状態のまま、定期的に端末3にて端末3の位置情報と端末3の向き情報を検出する動作へ戻る(S155)。表示映像生成部20は、判定の結果が異なる場合には、新たに特定した視点視線近似カメラを新たに選択する(S164)。表示映像生成部20は、新たに選択した視点視線近似カメラの取得する内部映像から、新たな視点視線近似カメラ映像を生成する(S165)。表示映像生成部20は、生成した新たな視点視線近似カメラ映像を情報生成部18へ出力する。情報生成部18は、表示映像生成部20が生成した新たな視点視線近似カメラ映像を、通信部19を介して端末3の情報取得部24へ送信する(S166)。端末3の情報取得部24は、通信部8を介して新たな視点視線近似カメラ映像を受信する(S167)。情報取得部24は、新たな視点視線近似カメラ映像を出力部100へ出力する(S168)。この後、情報取得部24は、定期的に端末3の位置を取得し(S155)、端末3の向きを取得し(S156)、その情報に基づいて視点視線近似カメラを特定する動作を繰り返す。以上が第3実施形態の動作方法の説明である。
[第3実施形態の変形例の説明]
次に、第3実施形態の第1変形例として、特定部7にて本実施形態の計算を行う場合を説明する。本実施形態において、情報生成サーバ17の表示映像生成部20が、近似カメラを計算している。これを端末3の特定部7で計算する動作方法としてもよい。この場合、端末3の特定部7が、情報生成サーバ17の情報記憶部21から、それぞれの映像取得用カメラのカメラの位置情報とカメラの向き情報を取得して計算する。
また、情報生成サーバ17が、端末3の特定部7と同じ機能を持つ情報生成サーバ17の特定部(図示せず)をさらに備えてもよい。この場合は、特定部7から受信する端末3の位置情報と端末3の向き情報に基づき、情報生成サーバ17の特定部7が計算を行う。
次に、第3実施形態の第2変形例として、映像取得用カメラの選択方法の変形例を説明する。本実施形態において情報取得部24は、定期的に取得する端末3の位置情報と向き情報を元に、新たに近似カメラを特定する再計算を行っている。これをユーザーが入力部6において行うキー入力に基づき、情報取得部24が再計算を開始する動作としてもよい。この場合は、例えば端末3の表示部15に出力される表示映像に「カメラ再選択」というような項目を表示しておく。ユーザーは、入力部6から「カメラ再選択」の項目を選択する。入力部6は、カメラ再選択指示を検出し情報取得部24へ通知する。この後の動作は前述のとおりである。
以上が、第3実施形態の説明である。本実施形態によりユーザーは端末3の位置や向きを変化させて、ユーザーの要望に沿った映像取得用カメラを選択し、物体の内部映像を取得することが可能となる。ユーザーは、ユーザーの意思に沿って内部映像を確認することが可能なため、物体の内部を透視しているような効果を、より強く得ることができる。
(第4実施形態)
[第4実施形態の構成説明]
次に、第4実施形態として、目標物体2内部を、任意の端末視点4から任意の端末視線5方向に見る映像である任意視点映像を表示映像として生成する場合を説明する。本実施形態において、映像取得用カメラは複数台設置される。また、情報生成サーバ17の表示映像生成部20は、前述の端末3の特定部7と同様の計算方法をさらに備える。
本実施形態において、複数台の映像取得用カメラは、ある距離間隔で目標物体2内の一方の面が全て撮影されるように設置されている。表示映像生成部20は、それぞれの映像取得用カメラの映像を、特開2004−220312号公報に開示される技術に従い、同時刻の1コマの全画素について他のカメラの画素との対応点を求め、さらに3次元形状を推定する。なお、映像取得用カメラの配置方法については、これに限定しない。
情報生成サーバ17の表示映像生成部20は、端末3から受信する端末3の位置情報と向き情報から端末視点4と端末視線5の初期値を設定する。複数カメラ映像から生成された3次元形状は、初期値の端末視点4での初期値の端末視線5を法線とする2次元平面に透視投影される。表示映像生成部20は、端末視点4から端末視線5向きに3次元形状を見る映像を表示映像として生成する。本実施形態において、このようにして生成された表示映像を任意視点映像と呼ぶ。ユーザーは、端末3の表示部15において、目標物体2の内部映像として、端末視点4から端末視線5の方向に3次元形状を見た任意視点映像を確認することができる。3次元形状推定および任意視点映像生成は、映像取得用カメラの1コマ毎または数コマに一回の割合で定期的に実行される。
なお、本実施形態において、複数の映像取得用カメラから3次元形状を推定して任意視点映像を生成しているが、これを3次元形状推定が可能な3Dカメラを用いることで、1台の映像取得用カメラのみでも任意視点映像の生成が可能となる。映像取得用カメラに3Dカメラを用いることで3次元形状を推定できる。この3次元形状を端末視点4から端末視線5の向きに見ることで任意視点映像を生成することも可能である。以下の説明においては複数の映像取得用カメラを使用した場合を説明するが、3次元形状の推定には、1台の3Dカメラの映像から生成される場合も含む。
端末3が動くことで端末視点4または端末視線5またはその両方が変化する。端末3の情報取得部24は、定期的に位置センサ9から位置情報を向きセンサ10から向き情報を取得して、情報生成サーバ17の情報生成部18に送信する。情報生成サーバ17の表示映像生成部20は、新たに端末3から受信する端末3の位置情報と向き情報から端末視点4と端末視線5を新たに設定する。
表示映像生成部20は、新たに設定した端末視点4と端末視線5が初期値から変化すると、これに応じて新たな端末視点4から新たな端末視線5の向きに3次元形状を見た任意視点映像を新たに生成する。これによりユーザーは、端末3の位置と向きを変化させることによって、任意の端末視点4からの任意の端末視線5向きに見た任意視点映像を見ることが可能となる。
[第4実施形態の動作説明]
図16Aおよび図16Bは、第4実施形態の動作方法を示している。図16Aおよび図16Bを使用して第4実施形態の動作方法を説明する。出力部100へ物体情報一覧が出力されるまでは第1実施形態と同様である。端末3は、ユーザーからのキー入力待ちへ移行している(S55)。
ユーザーは、物体情報一覧から任意視点映像取得指示を入力部6から入力する(S171)。端末3の入力部6は、ユーザーからの任意視点映像取得指示の入力を検出し情報取得部24へ通知する(S172)。端末3の情報取得部24は、入力部6からの通知を受けて位置センサ9から端末3の位置を取得し(S173)、向きセンサ10から端末3の向きを取得する(S174)。情報取得部24は、端末3の位置情報と端末3の向き情報を含めた任意視点映像提供要求を、通信部8を介して情報生成サーバ17の情報生成部18へ送信する(S175)。情報生成サーバ17の情報生成部18は、通信部19を介して任意視点映像提供要求を受信する(S176)。情報生成部18は、表示映像生成部20へ、任意視点映像生成を、任意視点映像提供要求に含まれる端末3の位置情報と端末3の向き情報と共に命令する。表示映像生成部20は、情報生成部18からの命令を受けて、受信した端末3の位置情報と端末3の向き情報に基づいて、端末視点4と端末視線5を設定する。表示映像生成部20は、設定した端末視点4と端末視線5を初期値として記憶する(S177)。表示映像生成部20は、映像取得部23の複数の映像取得用カメラから映像の取得を開始する(S178)。表示映像生成部20は、複数の映像取得用カメラの映像から、特開2004−220312号公報に従い、同時刻の1コマの全画素について他のカメラの画素との対応点を求め3次元形状を推定する。(S179)表示映像生成部20は、映像取得部23の3次元形状を、初期値の端末視点4から初期値の端末視線5方向に見た任意視点映像を生成する(S180)。表示映像生成部20は、任意視点映像を情報生成部18へ出力する。情報生成部18は、任意視点映像を、通信部19を介して端末3の情報取得部24へ送信する(S181)。情報取得部24は、通信部8を介して任意視点映像を受信する(S182)。情報取得部24は、任意視点映像を出力部100へ出力する(S183)。
端末3が動くことで端末視点4または端末視線5またはその両方が変化する。情報取得部24は、定期的に(例えば1秒毎に)位置センサ9から端末3の位置を新たに取得し(S184)、向きセンサ10から端末3の向きを新たに取得する(S185)。情報取得部24は、新たに取得した端末3の位置情報と新たに取得した向き情報とを含めた任意視点映像提供要求を、通信部8を介して情報生成サーバ17の情報生成部18へ、新たに送信する(S186)。情報生成サーバ17の情報生成部18は、任意視点映像提供要求を、通信部19を介して新たに受信する(S187)。表示映像生成部20は、情報生成部18が新たに受信した端末3の新たな位置情報と端末3の新たな向き情報に基づき、端末視点4と端末視線5を新たに設定する(S188)。表示映像生成部20は、新たな端末視点4と新たな端末視線5に基づき、新たな端末視線4から新たな端末視線5の向きに3次元形状を見た任意視点映像を新たに生成する(S189)。表示映像生成部20は、新たに生成した任意視点映像を、情報生成部18へ出力する。情報生成部18は、新たな任意視点映像を、通信部19を介して端末3の情報取得部24へ送信する(S190)。端末3の情報取得部24は、通信部8を介して新たな任意視点映像を受信する(S191)。情報取得部24は、新たな任意視点映像を、出力部100へ出力する(S192)。なお、1台の3Dカメラで内部映像を撮影する場合には、前述の(S178)、(S179)が、「映像取得用カメラの映像から3次元形状を推定する。」となる。以上が第4実施形態の動作方法の説明である。
[第4実施形態の変形例の説明]
次に、第4実施形態の第1変形例として、端末視点4と端末視線5の計算部位について変形例を説明する。本実施形態において、情報生成サーバ17の表示映像生成部20が、端末視点4または端末視線5を計算している。これを端末3の特定部7が計算する動作方法としてもよい。情報生成サーバ17の表示映像生成部20は、端末3の情報取得部24から取得した端末視点4と端末視線5に基づいて任意視点映像を生成する動作方法とすればよい。
また、情報生成サーバ17に端末3の特定部7と同じ機能を持つ情報生成サーバ17の特定部(図示せず)を追加で備えてもよい。この場合、端末3から受信した端末3の位置と端末3の向きに基づいて情報生成サーバ17の特定部が、端末視点4と端末視線5を計算して表示映像生成部20へ通知する動作方法にすればよい
次に、第4実施形態の第2変形例として、端末3の位置情報と向き情報の取得方法の変形例を説明する。本実施形態において、情報取得部24は、定期的に取得する位置情報と向き情報を元に、再度の計算を行っているがこれをユーザーが入力部6において行うキー入力に基づいて再計算を開始してもよい。この場合は例えば出力部100に出力する表示映像に「位置と向きを変える」というような項目を表示しておく。ユーザーは入力部6から「位置と向きを変える」項目を選択することで情報取得部24が位置情報と向き情報を再取得し前述の動作方法により出力部100に新たな端末視点4から新たな端末視線5方向へ見た任意視点映像が出力される。
以上が、第4実施形態の説明である。本実施形態によりユーザーは、端末3の位置と向きを変化させることによって、物体の内部映像を、任意の端末視点4からの任意の端末視線5向きに見た任意視点映像を確認することが可能となる。ユーザーは、ユーザーの要望に沿って物体内部の映像を確認することが可能となるため、物体内部を透視しているかのような効果をより強く得ることができる。
本発明の全ての実施形態において、端末3の表示部15は、端末視線5の指し示す方向とは逆方向の面に、つまりユーザーと向き合う面に設置することが好ましい。これによりユーザーは端末3を通して物体の映像を見ることができる。さらに、表示部15の中心点に端末視点4を設けた場合は、ユーザーは表示部15から見た物体の映像を見ることができる。ユーザーは、端末3の周囲に実際の物体の表面を含む風景が目視できるため、より強く透視しているような効果を得られる。この場合、端末3の位置センサ9と端末視点4との位置の違いから位置情報の誤差が発生するため、予め位置情報の誤差を反映させれば端末視点4の正確な位置が特定できる。
最後に、本発明の第1実施形態から第4実施形態の全ての実施形態は、それぞれ個々に実現するのみではなく、各実施形態を組み合せて実施することも可能である。例えば目標物体2の内部に複数の映像取得用カメラが設置してある場合であれば、ユーザーが、端末3の入力部6から、実施形態毎による異なった表示映像の生成方法を選択してもよい。
例えば、ユーザーは、第2実施形態により小ブロックである特定のビルのフロアを、カメラを選択して映像を取得してから、第4実施形態により任意視点映像に切り替えて、ユーザーが変化させる視線に合わせて物体内を自由に見まわした後に、さらに、視線を高層部の展望台に移動させ、第3実施形態によりユーザーの位置からは見ることのできないビルの向こう側を、視線を変えながら見渡すといったことが可能である。
これによりユーザーは物体の内部やその先を自由に透視しているような効果を存分に味わうことが可能となるのである。
以上の映像提供システムにより、ユーザーが端末3の特定方向に設定される端末視線5またはユーザーがユーザーの位置と端末3の位置から決まるユーザー視線55を利用して任意に指定する目標物体2の特定が可能となり、また特定した目標物体2の映像をユーザーの要望により変化する端末視線5またはユーザー視線55に沿って生成して提供することが可能となり、ユーザーは、物体を自由に透視しているかのような感覚を得ながら情報を取得することが可能となる。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
なお、この出願は、2007年9月20日に出願された日本出願特願2007−244530を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (17)

  1. 複数の物体のうちから特定するべき目標物体をユーザーが指し示す視線を有し、前記複数の物体のうちから前記視線の指し示す前記目標物体を特定する端末と、
    前記目標物体の内部を撮影した映像である内部映像、または前記ユーザーからは目視することのできない前記目標物体から前記目標物体の外部周辺を撮影した映像である外部映像を取得して、前記内部映像または前記外部映像から前記端末が出力する映像である表示映像を生成する情報生成サーバと、
    前記複数の物体の各々の三次元の位置情報である物体位置情報と、前記目標物体に対応する情報生成サーバにアクセスするための情報である検索情報とを、それぞれ前記各物体に対応付けて保存する位置情報サーバと、
    を備え、
    前記端末は、前記端末の位置と前記端末の向きと前記物体位置情報に基づいて、前記視線の先に存在する前記目標物体を特定して、特定した前記目標物体の前記検索情報に基づいて前記目標物体に対応する前記情報生成サーバにアクセスして、前記情報生成サーバから前記目標物体の前記表示映像を取得して、前記表示映像を、前記視線の先にある特定した前記目標物体の前記内部映像または前記外部映像に限定して、表示する
    映像提供システム。
  2. 請求項1に記載の映像提供システムであって、
    前記端末は、
    前記端末の前記位置を表す端末位置情報を検出する位置センサと、
    前記端末の前記向きを表す端末向き情報を検出する向きセンサと、
    前記端末位置情報と、前記端末向き情報と、前記物体位置情報に基づいて前記目標物体を特定する特定部と、
    前記検索情報に基づいて前記目標物体に対応する前記情報生成サーバにアクセスして、前記目標物体の前記表示映像を取得して出力する情報取得部と、
    前記表示映像を表示する出力部と
    を備える映像提供システム。
  3. 請求項2に記載の映像提供システムであって、
    前記端末は、
    ユーザーの映像を取得するユーザー映像取得用カメラを
    さらに備え、
    前記特定部は、前記ユーザー映像取得用カメラで取得されたユーザーの顔の映像から顔と両目を検出して、前記顔の映像と前記端末位置情報とに基づいて前記両目を結んだ中心点に前記ユーザーの位置を表すユーザー位置を設定して、前記ユーザー位置と前記端末位置情報と前記物体位置情報とに基づいて前記目標物体を特定する
    映像提供システム。
  4. 請求項2または請求項3に記載の映像提供システムであって、
    前記情報生成サーバは、
    前記内部映像または前記外部映像を取得する一つ以上の映像取得用カメラを備える映像取得部と、
    前記内部映像または前記外部映像から前記表示映像を生成する表示映像生成部と、
    前記情報取得部からの要求に基づいて前記表示映像生成部へ情報生成を命令する情報生成部と
    を備える映像提供システム。
  5. 請求項4に記載の映像提供システムであって、
    前記映像取得部の前記映像取得用カメラは、
    カメラの位置を表すカメラ位置情報を検出するカメラ位置センサと、
    カメラの向きを表すカメラ向き情報を検出するカメラ向きセンサと
    をさらに備え、
    前記表示映像生成部は、前記端末位置情報または前記端末向き情報またはその両方を取得して、前記カメラ位置情報または前記カメラ向き情報またはその両方と、前記端末位置情報または前記端末向き情報またはその両方とに基づいて、複数の前記映像取得用カメラのうちから最も前記端末の前記視線に近い前記映像取得用カメラである近似カメラを特定して、前記近似カメラの取得する前記内部映像または前記外部映像から前記表示映像を生成する
    映像提供システム。
  6. 請求項4に記載の映像提供システムであって、
    前記表示映像生成部は、前記内部映像または前記外部映像に基づいて前記目標物体の内部または外部の3次元形状を推定して、前記端末位置情報が表す前記位置から、前記端末向き情報が表す前記向き方向に、前記3次元形状を見た映像である任意視点映像を、前記表示映像として生成する
    映像提供システム。
  7. 請求項乃至請求項6のいずれかに記載の映像提供システムであって、
    前記各物体は、内部を一つ以上の空間的範囲である小ブロックにさらに分割され、
    前記位置情報サーバは、前記小ブロックの三次元的な位置情報である小ブロック位置情報と、前記小ブロックに対応する情報生成サーバへアクセスするための情報である検索情報とをさらにデータベースに保存し、
    前記特定部は、前記小ブロックのうちから特定するべき小ブロックである目標小ブロックを特定し、
    前記情報取得部は、前記特定部が特定した前記目標小ブロックに対応する前記情報生成サーバにアクセスして、前記目標小ブロックの前記表示映像を取得して、
    前記出力部は、前記表示映像を出力する
    映像提供システム。
  8. 請求項4乃至請求項7のいずれかに記載の映像提供システムであって、
    前記情報生成サーバは、
    前記物体に関連した情報である関連情報を保存する情報記憶部
    をさらに備え、
    前記情報記憶部は、前記関連情報として前記映像取得部の取得する前記内部映像または前記外部映像を予め保存し、
    前記表示映像生成部は、前記情報記憶部に前記保存された内部映像または外部映像から前記表示映像を生成する映像提供システム。
  9. (a)特定システムが、複数の物体のうちからユーザーが特定したい物体である目標物体を指し示すために端末に設定された視線により指し示される前記目標物体を特定するステップと、
    (b)前記端末の情報取得部が、特定した前記目標物体に対応する情報生成サーバにアクセスするステップと、
    (c)取得する前記目標物体の内部の映像である内部映像、または前記ユーザーからは目視できない前記目標物体から外部を撮影した映像である外部映像を、前記視線の先にある特定した前記目標物体の前記内部映像または前記外部映像に限定して、前記端末の出力部が表示するステップと
    を備える映像提供方法。
  10. 請求項9に記載の映像提供方法であって、前記ステップ(a)は、
    (a1)入力部が、物体特定指示を検出するステップと、
    (a2)特定部が、前記端末の位置である端末位置情報を取得するステップと、
    (a3)前記特定部が、前記端末の向きである端末向き情報を取得するステップと、
    (a4)前記特定部が、前記目標物体の位置情報である物体位置情報を取得するステップと、
    (a5)前記特定部が、前記端末位置情報と、前記端末向き情報と、前記物体位置情報に基づき前記目標物体を特定するステップと
    を含む映像提供方法。
  11. 請求項10に記載の映像提供方法であって、前記ステップ(a)は、
    (a11)前記特定部が、前記端末の位置である前記端末位置情報を取得するステップと、
    (a12)前記端末が、前記端末のユーザー映像取得用カメラの取得する映像からユーザーの顔と両目を検出するステップと、
    (a13)前記端末が、前記顔の映像と、前記端末位置情報とに基づいて、前記ユーザーの両目を結んだ線の中心点に、前記ユーザーの位置を表すユーザー位置を設定するステップと、
    (a14)前記特定部が、前記ユーザー位置と前記端末位置情報と前記物体位置情報に基づいて前記目標物体を特定するステップと
    を含む映像提供方法。
  12. 請求項10または請求項11に記載の映像提供方法であって、前記ステップ(b)は、
    (b1)特定部が、前記目標物体の物体位置情報に基づいて、前記目標物体に対応する前記情報生成サーバにアクセスするための情報である検索情報を、取得するステップと、
    (b2)情報取得部が、前記検索情報に基づいて、前記情報生成サーバにアクセスするステップと、
    (b3)前記情報取得部が、前記情報生成サーバから、前記ユーザーの取得する情報を選択するための出力表示である物体情報一覧を取得するステップと、
    (b4)前記端末の前記出力部が、前記物体情報一覧を表示するステップと
    を含む映像提供方法。
  13. 請求項12に記載の映像提供方法であって、前記ステップ(c)は、
    (c1)前記目標物体に設置された一つ以上の映像取得用カメラが、前記内部映像または前記外部映像を取得するステップと、
    (c2)表示映像生成部が、前記内部映像または前記外部映像から前記端末へ出力するための映像である表示映像を生成するステップと、
    (c3)前記表示映像を前記端末の前記出力部が表示するステップと
    を含む映像提供方法。
  14. 請求項13に記載の映像提供方法であって、前記ステップ(c1)は、
    (c1−1)前記特定部が、前記端末位置情報を取得するステップと、
    (c1−2)前記特定部が、前記端末向き情報を取得するステップと、
    (c1−3)前記表示映像生成部が、前記映像取得用カメラの位置を示すカメラ位置情報または前記映像取得用カメラの向きを示すカメラ向き情報またはその両方と、前記端末位置情報または前記端末向き情報またはその両方とに基づいて、複数の前記映像取得用カメラのうちで最も前記端末の前記視線に近い前記映像取得用カメラである近似カメラを特定するステップと、
    (c1−4)前記表示映像生成部が、前記近似カメラから前記内部映像または前記外部映像を取得するステップと
    を含む映像提供方法。
  15. 請求項13に記載の映像提供方法であって、前記ステップ(c2)は、
    (c2−1)前記情報取得部が、前記端末位置情報を取得するステップと、
    (c2−2)前記情報取得部が、前記端末向き情報を取得するステップと、
    (c2−3)前記表示映像生成部が、前記映像取得用カメラから取得する前記内部映像または前記外部映像から、前記目標物体の内部または外部の3次元形状を推定するステップと、
    (c2−4)前記表示映像生成部が、前記端末位置情報が示す前記端末の前記位置から、前記端末向き情報が示す前記端末の前記向きの方向に、前記3次元形状を見た映像である任意視点映像を前記表示映像として生成するステップと、
    (c2−5)前記任意視点映像を、前記端末の前記出力部が表示するステップと
    を含む映像提供方法。
  16. 請求項10に記載の映像提供方法であって、
    前記ステップ(a4)は、
    前記特定部が、前記物体の内部はさらに一つ以上の空間的範囲である小ブロックに分割され、前記小ブロックの三次元的な位置情報である小ブロック位置情報を取得するステップ
    を含み、
    前記ステップ(a5)は、
    物体特定システムが、前記端末位置情報と、前記端末向き情報と、前記小ブロック位置情報に基づき目標小ブロックを特定するステップ
    を含む映像提供方法。
  17. 請求項13に記載の映像提供方法であって、
    前記ステップ(c1)は、
    前記表示映像生成部が、前記内部映像または前記外部映像を保存するステップ
    を含み、
    前記ステップ(c2)は、
    前記表示映像生成部が、前記保存された内部映像または前記保存された外部映像から前記表示映像を生成するステップ
    を含む映像提供方法。
JP2009533185A 2007-09-20 2008-09-18 映像提供システム、および映像提供方法 Active JP5564946B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009533185A JP5564946B2 (ja) 2007-09-20 2008-09-18 映像提供システム、および映像提供方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2007244530 2007-09-20
JP2007244530 2007-09-20
JP2009533185A JP5564946B2 (ja) 2007-09-20 2008-09-18 映像提供システム、および映像提供方法
PCT/JP2008/066888 WO2009038149A1 (ja) 2007-09-20 2008-09-18 映像提供システム、および映像提供方法

Publications (2)

Publication Number Publication Date
JPWO2009038149A1 JPWO2009038149A1 (ja) 2011-02-10
JP5564946B2 true JP5564946B2 (ja) 2014-08-06

Family

ID=40467959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009533185A Active JP5564946B2 (ja) 2007-09-20 2008-09-18 映像提供システム、および映像提供方法

Country Status (3)

Country Link
US (1) US8531514B2 (ja)
JP (1) JP5564946B2 (ja)
WO (1) WO2009038149A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016114464A (ja) * 2014-12-15 2016-06-23 ソフトバンク株式会社 画像生成システム、画像生成方法、画像データ送信サーバ、画像データ送信方法、及び、画像データ送信プログラム

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010218489A (ja) * 2009-03-19 2010-09-30 Sanyo Electric Co Ltd デジタルサイネージシステム
US20110055023A1 (en) * 2009-08-28 2011-03-03 Yahoo! Inc. Above the fold
JP5568929B2 (ja) * 2009-09-15 2014-08-13 ソニー株式会社 表示装置および制御方法
JP2011090400A (ja) * 2009-10-20 2011-05-06 Sony Corp 画像表示装置および方法、並びにプログラム
JP5617246B2 (ja) * 2010-01-12 2014-11-05 ソニー株式会社 画像処理装置、物体選択方法及びプログラム
US20110169947A1 (en) * 2010-01-12 2011-07-14 Qualcomm Incorporated Image identification using trajectory-based location determination
JP5682170B2 (ja) * 2010-08-04 2015-03-11 カシオ計算機株式会社 表示制御装置、画像配信サーバ、表示端末、画像配信システム、及び、プログラム
US9286819B2 (en) * 2011-05-10 2016-03-15 Panasonic Intellectual Property Management Co., Ltd. Display device, display method, integrated circuit, and program
US8850075B2 (en) * 2011-07-06 2014-09-30 Microsoft Corporation Predictive, multi-layer caching architectures
US9356848B2 (en) * 2011-09-05 2016-05-31 Nec Corporation Monitoring apparatus, monitoring method, and non-transitory storage medium
US9020278B2 (en) * 2012-06-08 2015-04-28 Samsung Electronics Co., Ltd. Conversion of camera settings to reference picture
US20140146038A1 (en) * 2012-11-28 2014-05-29 International Business Machines Corporation Augmented display of internal system components
USD742896S1 (en) * 2013-10-25 2015-11-10 Microsoft Corporation Display screen with graphical user interface
US20150334162A1 (en) * 2014-05-13 2015-11-19 Citrix Systems, Inc. Navigation of Virtual Desktop Content on Devices
CN104991906B (zh) * 2015-06-17 2020-06-02 百度在线网络技术(北京)有限公司 信息获取方法、服务器、终端及数据库构建方法、装置
JP6802170B2 (ja) * 2015-08-28 2020-12-16 日本電気株式会社 影響度測定装置、影響度測定方法およびコンピュータプログラム
KR102022971B1 (ko) * 2017-10-18 2019-09-19 한국전자통신연구원 영상의 객체 처리 방법 및 장치
JP7072378B2 (ja) * 2017-12-13 2022-05-20 キヤノン株式会社 画像生成装置およびその制御方法、画像生成システム、プログラム
JP2020065301A (ja) * 2020-01-27 2020-04-23 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、カメラ、受信装置、受信方法、端末

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276613A (ja) * 1999-03-29 2000-10-06 Sony Corp 情報処理装置および情報処理方法
JP2005316914A (ja) * 2004-03-31 2005-11-10 Tsukuba Multimedia:Kk 映像レイヤーリンク対応映像誘導システム

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5736982A (en) * 1994-08-03 1998-04-07 Nippon Telegraph And Telephone Corporation Virtual space apparatus with avatars and speech
JPH1040485A (ja) 1996-07-23 1998-02-13 Nohmi Bosai Ltd 留守宅監視装置
CA2375837C (en) * 1999-06-18 2010-02-02 Swisscom Mobile Ag Method and device for detecting data concerning the viewing of video information and the relaying of this information to a central data processing installation
US6965324B1 (en) * 2000-10-21 2005-11-15 Robert W. Suggs, Sr. Automotive picture and data acquisition center and method
JP3811071B2 (ja) 2002-01-15 2006-08-16 富士通株式会社 ユーザ端末
JP2003296213A (ja) * 2002-04-03 2003-10-17 Sony Corp 情報授受方法および情報授受システム
US7646372B2 (en) * 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7206022B2 (en) * 2002-11-25 2007-04-17 Eastman Kodak Company Camera system with eye monitoring
JP4354708B2 (ja) 2003-01-15 2009-10-28 独立行政法人科学技術振興機構 多視点カメラシステム
US7963652B2 (en) * 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
JP4479267B2 (ja) * 2004-02-18 2010-06-09 株式会社日立製作所 監視カメラ映像配信システム
US8421872B2 (en) * 2004-02-20 2013-04-16 Google Inc. Image base inquiry system for search engines for mobile telephones with integrated camera
US7751805B2 (en) * 2004-02-20 2010-07-06 Google Inc. Mobile image-based information retrieval system
US7565139B2 (en) * 2004-02-20 2009-07-21 Google Inc. Image-based search engine for mobile phones with camera
JP2006105640A (ja) * 2004-10-01 2006-04-20 Hitachi Ltd ナビゲーション装置
JP4632793B2 (ja) * 2005-01-12 2011-02-16 京セラ株式会社 ナビゲーション機能付き携帯型端末機
US20060250322A1 (en) * 2005-05-09 2006-11-09 Optics 1, Inc. Dynamic vergence and focus control for head-mounted displays
US7728869B2 (en) * 2005-06-14 2010-06-01 Lg Electronics Inc. Matching camera-photographed image with map data in portable terminal and travel route guidance method
JP4624889B2 (ja) * 2005-08-30 2011-02-02 富士フイルム株式会社 顔検出方法および装置並びにプログラム
US7499586B2 (en) * 2005-10-04 2009-03-03 Microsoft Corporation Photographing big things
JP2006134340A (ja) 2005-11-14 2006-05-25 Fujitsu Ltd サーバ
JP4640825B2 (ja) * 2006-02-23 2011-03-02 富士フイルム株式会社 特定向き顔判定方法および装置並びにプログラム
KR100820639B1 (ko) * 2006-07-25 2008-04-10 한국과학기술연구원 시선 기반 3차원 인터랙션 시스템 및 방법 그리고 3차원시선 추적 시스템 및 방법
JP5245257B2 (ja) * 2006-11-22 2013-07-24 ソニー株式会社 画像表示システム、表示装置、表示方法
CN101681525A (zh) * 2007-06-08 2010-03-24 电子地图有限公司 产生多视点全景图的方法及设备
JP4924264B2 (ja) * 2007-07-24 2012-04-25 セイコーエプソン株式会社 画像処理装置、画像処理方法、および、コンピュータプログラム
US20090251311A1 (en) * 2008-04-06 2009-10-08 Smith Patrick W Systems And Methods For Cooperative Stimulus Control
US8098894B2 (en) * 2008-06-20 2012-01-17 Yahoo! Inc. Mobile imaging device as navigator

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276613A (ja) * 1999-03-29 2000-10-06 Sony Corp 情報処理装置および情報処理方法
JP2005316914A (ja) * 2004-03-31 2005-11-10 Tsukuba Multimedia:Kk 映像レイヤーリンク対応映像誘導システム

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CSND200400789003; 高井 昌彰: '複合現実感によるビデオ監視支援システム' 映像情報インダストリアル 第35巻 第7号, 20030701, p.23-28, 産業開発機構(株) *
CSNG200501354011; 村松 孝治ほか: '多視点カメラによる監視システムの状況把握効率向上' 映像情報メディア学会誌 第59巻 第6号, 20050601, p.909-912, (社)映像情報メディア学会 *
JPN6008065413; 高井 昌彰: '複合現実感によるビデオ監視支援システム' 映像情報インダストリアル 第35巻 第7号, 20030701, p.23-28, 産業開発機構(株) *
JPN6008065415; 村松 孝治ほか: '多視点カメラによる監視システムの状況把握効率向上' 映像情報メディア学会誌 第59巻 第6号, 20050601, p.909-912, (社)映像情報メディア学会 *
JPN6008065416; 携帯電話用「カメラ機能を利用した空間検索技術」を開発〜モバイルアプリケーション市場にポインティング・ , 20070713, NECマグナスコミュニケーションズ株式会社 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016114464A (ja) * 2014-12-15 2016-06-23 ソフトバンク株式会社 画像生成システム、画像生成方法、画像データ送信サーバ、画像データ送信方法、及び、画像データ送信プログラム

Also Published As

Publication number Publication date
US20100214400A1 (en) 2010-08-26
JPWO2009038149A1 (ja) 2011-02-10
WO2009038149A1 (ja) 2009-03-26
US8531514B2 (en) 2013-09-10

Similar Documents

Publication Publication Date Title
JP5564946B2 (ja) 映像提供システム、および映像提供方法
US9661214B2 (en) Depth determination using camera focus
US10264207B2 (en) Method and system for creating virtual message onto a moving object and searching the same
JP5776201B2 (ja) 情報処理装置、情報共有方法、プログラム及び端末装置
EP2945136B1 (en) Mobile terminal and method for controlling the mobile terminal
US9721388B2 (en) Individual identification character display system, terminal device, individual identification character display method, and computer program
JP6496671B2 (ja) 情報処理装置、端末装置、情報処理方法及びプログラム
TW201013158A (en) Mobile imaging device as navigator
US20090241039A1 (en) System and method for avatar viewing
JP2011159163A (ja) 画像処理装置、画像処理方法及びプログラム
JP5651372B2 (ja) 投稿情報制御装置、投稿情報制御システム及び投稿情報制御方法
CA3087871A1 (en) Apparatus, systems, and methods for tagging building features in a 3d space
JP6145563B2 (ja) 情報表示装置
JP5854714B2 (ja) 表示制御装置、表示制御装置の制御方法、プログラム
CN104501798A (zh) 一种基于增强现实ip地图的网络对象定位追踪方法
JP7001711B2 (ja) カメラ撮影画像を用いる位置情報システム、及びそれに用いるカメラ付き情報機器
WO2018103544A1 (zh) 一种在图像中展现业务对象数据的方法和装置
JP2004274653A (ja) 移動端末及びコンピュータ・ソフトウエア
JP2010028806A (ja) 位置管理サーバおよび通信システムならびに通信端末装置、情報提供装置および通信システム
JP5432000B2 (ja) 情報提示システム及びプログラム
JP6889304B1 (ja) 拡張現実表示システム、拡張現実表示方法、及びコンピュータプログラム
JP6435640B2 (ja) 混雑度推定システム
JP2013098588A (ja) 画像処理装置、画像処理方法
CN110580275A (zh) 地图显示方法及装置
JP2019164001A (ja) 情報提供システム、サーバ装置、端末用プログラム、及び情報提供方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140228

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140602

R150 Certificate of patent or registration of utility model

Ref document number: 5564946

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150