JP5404956B2 - 情報配信装置、情報配信システム、情報配信方法及び携帯通信機 - Google Patents

情報配信装置、情報配信システム、情報配信方法及び携帯通信機 Download PDF

Info

Publication number
JP5404956B2
JP5404956B2 JP2013123046A JP2013123046A JP5404956B2 JP 5404956 B2 JP5404956 B2 JP 5404956B2 JP 2013123046 A JP2013123046 A JP 2013123046A JP 2013123046 A JP2013123046 A JP 2013123046A JP 5404956 B2 JP5404956 B2 JP 5404956B2
Authority
JP
Japan
Prior art keywords
information
image
display
unit
communication device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013123046A
Other languages
English (en)
Other versions
JP2014016986A (ja
Inventor
進 早川
俊彦 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2013123046A priority Critical patent/JP5404956B2/ja
Priority to US14/406,883 priority patent/US9584854B2/en
Priority to PCT/JP2013/066422 priority patent/WO2013187494A1/ja
Priority to CN201380030618.6A priority patent/CN104380271B/zh
Publication of JP2014016986A publication Critical patent/JP2014016986A/ja
Application granted granted Critical
Publication of JP5404956B2 publication Critical patent/JP5404956B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/44Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/006Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes
    • G09B29/007Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes using computer methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Computer Hardware Design (AREA)
  • Marketing (AREA)
  • Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、コンピュータから携帯通信装置へ情報を配信する情報配信装置、情報配信システム、情報配信方法及び携帯通信機に関する。
昨今、携帯端末の小型化、高機能化が進んでいる。それに伴い携帯端末が取り扱える情報の量も飛躍的に増えている。しかしながら、情報閲覧の方法は旧態依然としたものであり、閲覧性は高いとは言い難い。特に階層構造を持つデータの閲覧では、表示している階層(レイヤ)に対する操作以外に、階層間の移動(レイヤ切り替え)が必要となるが、直感的な閲覧方法は見出されていない。
特許文献1には情報提供サーバ、ディスプレイ及びビデオカメラを含むシステムにおいて、ディスプレイに表示されたコンテンツの中で、ユーザが詳細情報を求める部分にフラッシュ光等を与えると、それを撮影したビデオカメラ画像から、情報提供サーバはフラッシュ光が当たった位置を検出し、その位置に表示されている内容について、より詳細な情報を表示装置に表示するシステムが記載されている。
特開2005−56054号公報
しかしながら、特許文献1に記載のシステムは、表示装置と共にビデオカメラを、携帯端末にはフラッシュ光を発する発光素子を必要とする。また、表示装置は同時に一人のユーザしか利用できない。
本発明は、上述のごとき事情に鑑みてなされたものであり、ディスプレイの画面を参照する各ユーザが自分の注視位置を直感的に指定可能で、各ユーザが指定する画面上の位置を検出し、その位置に応じた情報を各ユーザに提供可能な情報配信装置、情報配信システム、情報配信方法及び携帯通信機を提供することを目的とする。
本発明に係る情報配信装置は、記憶装置に記憶した階層構造を持つ情報をディスプレイ信する配信部を備えた情報配信装置において、前記携帯通信機が撮像した、前記ディスプレイに表示された前記情報の一部に対応した画像、並びに前記携帯通信機及び前記ディスプレイ間の距離を前記携帯通信機より受信する受信部と、該受信部が受信した画像に基づいて、階層構造を持つ情報を前記記憶装置より読み出す読み出し部と、読み出した情報を前記携帯通信機に送信する送信部とを備え、前記受信部が受信した距離に基づいて、前記読み出し部は前記記憶装置より読み出す前記情報の階層を定め、及び/又は前記送信部は前記携帯通信機に送信する前記情報の階層を定めるようにしてあることを特徴とする。
本発明にあっては、携帯通信機で撮像した画像に基づいて、情報配信装置は階層構造を持つ情報を読み出し、携帯通信機に送信する。ユーザは、ディスプレイに表示された情報の中で注視した部分を、携帯通信機で撮影するという直感的な操作で指定し、注視した部分に関連する情報を得ることが可能となる。
また、携帯通信機とディスプレイまでの距離に基づいて、読み出し部より読み出す情報の階層及び/又は携帯通信機に送信する情報の階層を定めるようにしてあるので、携帯通信機をディスプレイに近づけたり、遠ざけたりすることにより、携帯通信機に表示される情報の階層が変化することとなる。ユーザは直感的な操作により、情報の階層を切り替えることが可能となる。
本発明に係る情報配信装置は、前記配信部は、各々異なる階層構造を持つ情報を複数のディスプレイに配信するようにしてあり、各ディスプレイで表示されるべき画像及び前記携帯通信機より受信した画像のマッチングを行うことにより、前記携帯通信機が画像を撮像したディスプレイを特定する第2特定部を備えることを特徴とする。
本発明にあっては、複数のディスプレイに情報を配信するので、より多くのユーザにサービスを提供することが可能となる。また、携帯通信機から受信画像とディスプレイに表示されるべき画像とのマッチングによりディスプレイを特定するので、ディスプレイに関する情報を入力させるなどの作業をユーザに行わせる必要がない。
本発明に係る情報配信システムは、階層構造を持つ情報を記憶した記憶装置と、前記情報を配信する配信部を有するコンピュータと、該コンピュータより配信された前記情報を表示するディスプレイと、前記コンピュータと通信する携帯通信機とを備えた情報配信システムにおいて、前記携帯通信機は、前記ディスプレイに表示された情報の一部を撮像する撮像部、該撮像部の合焦動作の結果から前記ディスプレイとの距離を算出する算出部、並びに前記撮像部により撮像した画像及び前記算出部により算出した距離を前記コンピュータに送信する送信部を有し、前記コンピュータは、前記携帯通信機が送信した前記画像及び距離を受信する受信部、該受信部が受信した画像に基づいて、階層構造を持つ情報を前記記憶装置より読み出す読み出し部、並びに読み出した情報を前記携帯通信機に送信する送信部を有し、前記受信部が受信した距離に基づいて、前記読み出し部は前記記憶装置より読み出す前記情報の階層を定め、及び/又は前記送信部は前記携帯通信機に送信する前記情報の階層を定めるようにしてあることを特徴とする。
本発明にあっては、携帯通信機で撮像した画像に基づいて、コンピュータは階層構造を持つ情報を読み出し、携帯通信機に送信する。ユーザは、ディスプレイに表示された情報の中で注視した部分を、携帯通信機で撮影するという直感的な操作で指定し、注視した部分に関連する情報を得ることが可能となる。
また、携帯通信機とディスプレイまでの距離に基づいて、読み出し部より読み出す情報の階層及び/又は携帯通信機に送信する情報の階層を定めるようにしてあるので、携帯通信機をディスプレイに近づけたり、遠ざけたりすることにより、携帯通信機に表示される情報の階層が変化することとなる。ユーザは直感的な操作により、情報の階層を切り替えることが可能となる。
本発明に係る情報配信方法は、コンピュータが、階層構造を持つ情報をディスプレイに配信し、前記ディスプレイに表示された前記情報の一部を撮像した画像並びに該画像を撮像した携帯通信機及び前記ディスプレイ間の距離を受信し、受信した画像の前記ディスプレイの表示面での位置を検出し、検出結果に基づいて、前記受信した画像に対応した階層構造を持つ情報を特定し、特定結果に基づいて、記憶装置より前記情報を読み出す際、受信した距離に基づいて読み出す階層を定め、又は特定結果に基づいて、前記記憶装置より前記情報を読み出し、受信した距離に基づいて送信する前記情報の階層を定め、読み出した情報を携帯通信機に送信することを特徴とする。
本発明にあっては、ユーザは、ディスプレイに表示された情報の中で注視した部分を、携帯通信機で撮影するという直感的な操作で指定し、注視した部分に関連する情報を得ることが可能となる。
また、携帯通信機とディスプレイまでの距離に基づいて、読み出し部より読み出す情報の階層及び/又は携帯通信機に送信する情報の階層を定めるようにしてあるので、携帯通信機をディスプレイに近づけたり、遠ざけたりすることにより、携帯通信機に表示される情報の階層が変化することとなる。ユーザは直感的な操作により、情報の階層を切り替えることが可能となる。
本発明に係る携帯通信機は、階層構造を持つ情報を表示したディスプレイを撮像し、前記情報の一部に対応する画像を撮像する撮像部と、該撮像部の合焦動作の結果からディスプレイとの距離を算出する算出部と、撮像した画像及び算出した距離を情報配信装置に送信する画像送信部と、送信した画像に基づいて、送信された前記情報を受信する受信部と、受信した前記情報を表示する表示部とを備え、送信された前記情報は前記距離に基づいて、前記情報の階層を定められたものであることを特徴とする。
本発明にあっては、ユーザは、ディスプレイに表示された情報の中で注視した部分を、携帯通信機で撮影するという直感的な操作で指定し、注視した部分に関連する情報を得ることが可能となる。
また、ディスプレイまでの距離に基づいて、情報の階層を定められた情報を受信し表示するので、携帯通信機をディスプレイに近づけたり、遠ざけたりすることにより、表示される情報の階層が変化することとなる。ユーザは直感的な操作により、情報の階層を切り替えることが可能となる。
本発明にあっては、コンピュータは、ディスプレイに表示された情報の一部を撮像した画像を携帯端末から受信し、受信した画像に基づいて、階層構造を持つ情報を読み出し、携帯端末に送信するようしてあるので、ユーザは、ディスプレイに表示された情報の中で注視した部分を直感的な操作で指定し、コンピュータはユーザが求める情報を的確に提供することが可能となる。
また、携帯通信機とディスプレイまでの距離に基づいて、読み出し部より読み出す情報の階層及び/又は携帯通信機に送信する情報の階層を定めるようにしてあるので、携帯通信機をディスプレイに近づけたり、遠ざけたりすることにより、携帯通信機に表示される情報の階層が変化することとなる。ユーザは直感的な操作により、情報の階層を切り替えることが可能となる。
実施の形態1に係る情報提供システムの概略構成を示す説明図である。 コンテンツサーバのハードウェア構成を示した説明図である。 携帯端末のハードウェア構成を示した説明図である。 コンテンツデータベースに記憶してある階層構造を持つコンテンツの一例を 示す説明図である。 情報提供システムの動作手順を示したフローチャートである。 コンテンツサーバと携帯端末との通信リンクを確立する手順を示したフローチャートである。 地図を配信する処理手順を示したフローチャートである。 ディスプレイに表示されている地図の一例を示す説明図である。 携帯端末に表示される地図の一例を示す説明図である。 携帯端末に表示される地図の他の例を示す説明図である。 地形レイヤを表示した場合の地図の一例を示す説明図である。 施設情報を表示した場合の画面の一例を示す説明図である。 携帯端末に表示される地図の他の例を示す説明図である。 施設情報をリスト表示している画面の一例を示す説明図である。 拡大鏡としての利用についての説明図である。 情報提供システムの動作手順を示したフローチャートである。 初期表示の一例を示す説明図である。 携帯端末の表示部に表示される画像の一例を示す説明図である。 情報提供システムの動作手順を示したフローチャートである。 ディスプレイに表示する広告映像の一例を示す説明図である。 コンテンツデータベースのデータ構造の一例を示す説明である。 情報提供システムの動作手順を示したフローチャートである。 ディスプレイに表示する案内図の一例を示す説明図である。 携帯端末をかざして店舗情報を取得する場合の説明図である。 実施の形態6に係る情報提供システムの概略構成を示す説明図である。 実施の形態7に係る情報提供システムの概略構成を示す説明図である。 コンテンツサーバのハードウェア構成を示した説明図である。 テレビジョン受信機のハードウェア構成を示した説明図である。 携帯端末のハードウェア構成を示した説明図である。 情報提供システムの動作手順を示したフローチャートである。 情報提供システムの動作手順を示したフローチャートである。
以下、本発明をその実施の形態を示す図面に基づき具体的に説明する。
実施の形態1
図1は、実施の形態1に係る情報提供システムの概略構成を示す説明図である。情報提供システムは、コンテンツサーバ1(コンピュータ)、ディスプレイ2、携帯端末3(携帯通信機)を含む。コンテンツサーバ1とディスプレイ2とは、DVI(Digital Visual
Interface)、HDMI(High Definition Multimedia Interface:登録商標)、VGA(Video Graphics Array)等の有線、またはUWB(Ultra Wide Band)方式、ワイヤレスUSB(Universal Serial Bus)、インテル(登録商標)WiDi(Wireless Display)等無線により接続されている。ディスプレイ2はコンテンツサーバ1が出力するコンテンツデータを表示する。コンテンツサーバ1と携帯端末3とは、USB、WiFi(wireless fidelity)、IEEE(Institute of Electrical and Electronic Engineers)1394、Bluetooth(登録商標)、WiMAX(Worldwide Interoperability for
Microwave Access)等を用いて通信を行う。
図2は、コンテンツサーバ1のハードウェア構成を示した説明図である。コンテンツサーバ1は制御部11、コンテンツデータベース12(記憶部)、画像処理部13、通信部14(送信部)を含む。制御部11はCPU(Central Processing Unit)11a、RAM
(Random Access Memory)11b、ROM(Read Only Memory)11cを含む。
CPU11aは、バスを介してハードウェア各部と接続されている。CPU11aはROM11cに記憶された制御プログラム(コンピュータプログラム)に従いハードウェア各部を制御する。RAM11bは例えばSRAM(Static RAM)、DRAM(Dynamic
RAM)、フラッシュメモリ等である。RAM11bは、CPU11aによる各種プログラムの実行時に発生する種々のデータを一時的に記憶する。コンテンツデータベース12は携帯端末3に提供する階層構造を持つコンテンツ(階層構造を持つ情報)を記憶して
いる。画像処理部13はディスプレイ2に表示する画像を生成し、ディスプレイ2に出力する。通信部14は携帯端末3と通信する機能及びネットワークNを介して、他のコンピュータと通信する機能を備える。ネットワークNはインターネット、WAN(Wide Area Network)、パケット交換網等である。
図3は携帯端末3のハードウェア構成を示した説明図である。携帯端末3は制御部31、カメラ部32(画像取得部)、加速度センサ33(測定部)、表示部34、操作部35、通信部36(送信部)を含む。制御部31はCPU31a、RAM31b、ROM31cを含む。
CPU31aは、バスを介してハードウェア各部と接続されている。CPU31aはROM31cに記憶された制御プログラムに従いハードウェア各部を制御する。RAM31bは例えばSRAM(Static RAM)、DRAM(Dynamic RAM)、フラッシュメモ
リ等である。RAM31bは、CPU31aによる各種プログラムの実行時に発生する種々のデータを一時的に記憶する。
カメラ部32は、カメラモジュール32a、AF(Auto Focus)機構32bを含む。カメラモジュール32aはレンズ系、撮像素子等を含み、画像を取得する。AF(Auto Focus)機構32bはカメラモジュール32aのレンズ系を制御し、自動的にピント合わせを行う。加速度センサ33は計測した携帯端末3の所定方向の加速度を微分することにより、携帯端末3の傾きを算出する。表示部34はカメラモジュール32aで撮像した画像、コンテンツサーバ1より送信されたコンテンツ、操作のためのボタン、メニュー等が表示される。操作部35は携帯端末3を操作するためのボタン、表示部34を操作に用いるためのタッチパネル等を含む。
通信部36はコンテンツサーバ1と通信を行う。携帯端末3からコンテンツサーバ1に送信するのは、カメラモジュール32aで撮像した画像、ディスプレイ2との距離、加速度センサ33の計測値から求めた携帯端末3の傾き角度、操作情報等である。コンテンツサーバ1から送信されるのは、コンテンツ画像等である。
図4はコンテンツデータベース12に記憶してある階層構造を持つコンテンツの一例を示す説明図である。図4に示すのは、地図を用いて施設案内を行うコンテンツである。コンテンツは3階層構造となっている。1階層目は地図情報d1と施設情報d2とからなる。地図情報d1は2階層目で1/10万の地図d11、1/5万の地図d12、1/1万の地図d13…というように縮尺毎の地図からなる。さらに3階層目では、地図レイヤd111、地形レイヤd112、天気レイヤd113、交通情報レイヤd114、航空写真レイヤd115、気温レイヤd116、風レイヤd117等からなる。施設情報d2は2階層目で各施設のデータd21となる。施設情報d2は各レコード間で親子関係を定義可能としてあり、階層構造のデータとなっている。
地図レイヤd111はベースとなる地図情報であり、都道府県界、市区町村境界、交通網(鉄道、駅、フェリー航路)、高速・有料道路、幹線道路、道路縁(二条線)等のラインデータ、主要建物データ、家屋データ、水面データ(海、河川、湖沼)、緑地データ等のポリゴンデータ、注記、道路番号等のポイントデータを含んでいる。
地形レイヤd112は等高線データを基に標高を色の濃淡や陰影により視覚的に表したポリゴンデータである。天気レイヤd113は天気予報を表示するためのポイントデータである。天気レイヤd113は属性データとして今日の天気、明日の天気等の情報を持つ。天気レイヤd113の地理情報(径度、緯度等)は固定データであるが、属性データである天気予報データは動的なデータである。天気予報データはネットワークNを介して、
他のサーバ等から取得する。
交通情報レイヤd114は道路の渋滞状況等を表示するラインデータである。交通情報レイヤd114は固定データとしての地理情報、動的なデータである渋滞状況を示す属性データを含む。固定データとしての地理情報の一例としては日本デジタル道路地図協会のDRM(Digital Road Map)データである。すべての道路がノードとリンクで表現されているため、統一的な処理が可能である。ノードとは交差点その他道路網表現上の結節点等である。リンクとはノードとノードの間の道路区間である。各ノードと各リンクにはIDが振られている。属性データはリンク毎に持つことにより、リンク毎に渋滞状況を表現することが可能となる。渋滞状況データはネットワークNを介して、他のサーバ等から取得する。この場合、他のサーバもDRMデータに対応していれば、リンクIDと渋滞状況を取得すれば良い。
航空写真レイヤd115は所謂オルソ画像と呼ばれる画像データからなる。オルソ画像とは航空写真に生じる歪みを補正した画像である。
気温レイヤd116は気温を表示するポイントデータである。風レイヤd117は風向き、風速を表示するポイントデータである。天気レイヤd113と同様に地理情報(径度、緯度等)は固定データであるが、属性データである気温、風向き、風速は動的なデータである。これらのデータはネットワークNを介して、他のサーバ等から取得する。
上記のレイヤのうち、航空写真レイヤd115はラスタデータであるが、他のレイヤについては、ベクタデータでもラスタデータでも良い。また、すべてのレイヤが全ての縮尺の地図に含まれている必要はなく、縮尺毎に適切なレイヤを選択しデータ作成を行なっても良い。さらに、ベースとなる地図レイヤd111は複数のデータが含まれているが、全ての縮尺の地図に同一のデータを含む必要はなく、縮尺毎に適切なデータを選択するしデータ作成を行なっても良い。
ベクタデータとした場合、データの精度が高く、表示時間が実用に耐えうる範囲内であれば、小縮尺(例えば1/10万)から大縮尺(1/500)の地図において共通のデータとしても良い。
施設情報d2は、No、緯度・経度、カテゴリー、施設名、親リンク、表示開始縮尺、映像情報、解説、営業時間、子リンクを含む。Noは施設のIDとなる順番号が記憶される。緯度・経度は施設の地理的位置を示す緯度と経度の値が記憶される。緯度の値として、北緯の場合は+、南緯の場合は−を付与する。経度の値として、東経の場合は+、西経の場合は−を付与する。正負の符号により北緯と南緯との区別、東経と西経との区別を容易に行うことが可能となる。カテゴリーは施設のカテゴリーを表す文字列が記憶される。カテゴリーを表す文字列は、例えば、山、湖、商業施設等である。
施設名は施設の名称を表す文字列が記憶される。親リンク、子リンクはデータの階層構造を表すための欄である。親リンクには階層が上位のレコードのIDが記憶される。子リンクには階層が下位のレコードのIDが記憶される。例えば、No0004のレコードは親リンクの値が0003なので、No0003のレコードが上位階層のレコードであることが分かる。従って、No0003のレコードの子リンクの欄には、No0004が記載されている。
親リンク、子リンクともに値0000は、対象となるレコードがないことを示す。例えば、Noが0002のレコードは親リンクの値が0000であるので、それよりも上位の階層のレコードはないことを示している。また、Noが0004のレコードは子リンクの
値が0000であるので、それよりも下位の階層のレコードはないことを示している。
表示開始縮尺は各レコードの情報を地図上に表示する最小縮尺の値を記憶する。例えば、No0001のレコードは、縮尺1/10万より表示を開始し、それよりも大きい縮尺では表示、それよりも小さい縮尺では非表示とすることを示している。
映像情報は施設に関する映像データを記憶する。図4の例では、データそのものではなく、jpgファイル名が記憶してある。
解説は、施設についての解説文が文章として記憶してある。
営業時間は、施設の営業時間が記憶してある。
次に、情報提供システムの動作について説明する。本実施の形態ではコンテンツサーバ1と携帯端末3とが無線通信を行うこととする。図5は情報提供システムの動作手順を示したフローチャートである。図6はコンテンツサーバ1と携帯端末3との通信リンクを確立する手順を示したフローチャートである。まず、コンテンツサーバ1と携帯端末3とが通信リンクを確立する(ステップS1)。図6に移り、コンテンツサーバ1のCPU11aは、携帯端末3をスキャンするコマンドを出力する(ステップS11)。CPU11aは携帯端末3からの応答の有無で、携帯端末3が見つかったか否かを判定する(ステップS12)。携帯端末3から応答があり、携帯端末3が見つかった場合(ステップS12でYES)、CPU11aは現在リンクを確立している携帯端末数が、最大可能リンク数未満であるか否かを調べる(ステップS13)。最大可能リンク数未満である場合(ステップS13でYES)、CPU11aは携帯端末3とのリンクを確立し(ステップS14)、処理を終了する。最大可能リンク数に達している場合(ステップS13でNO)、CPU11aは警告メッセージを携帯端末3に送信し(ステップS15)、処理を終了する。携帯端末3に表示する警告メッセージは、例えば、「同時にはxx人までしかご覧いただけません。申し訳ありませんがしばらくお待ちください」とする。携帯端末3から応答がなく、携帯端末3が見つからなかった場合(ステップS12でNO)、CPU11aはリンク切断を行い(ステップS16)、処理を終了する。CPU11aは、図6に示した処理を所定間隔、例えば5秒間隔で実行する。なお、図6では、ステップS14からS16の処理後は、いずれも処理を終了しているが、処理をステップS11に戻すようにしても良い。その場合は、CPU11aが他の処理を実行できるよう、図6に示した処理は、バックエンドで動作させる。
図5に戻り、ユーザは携帯端末3をディスプレイ2にかざし、ディスプレイ2に表示されている情報の中で、注視した部分の画像をカメラモジュール32aで撮影する。携帯端末3のCPU31aは、カメラモジュール32aを制御して画像を取り込むとともに、画像を取り込む際のAF機構32bの動作結果から携帯端末3とディスプレイ2との距離を取得する。また、加速度センサ33の計測結果より携帯端末3の傾きを、CPU31a(算出部)は算出する(ステップS2)。
携帯端末3のCPU31aは、取得した画像、距離、算出した傾きをコンテンツサーバ1に送信する(ステップS3)。コンテンツサーバ1のCPU11a(検出部)は、携帯端末3より受信した画像、距離、傾きを基に、受信した画像のディスプレイ2に表示された画像内での位置を検出する。その位置により、CPU11aはディスプレイ2に対する携帯端末3の位置と向き(相対的空間位置/向き)を算出する(ステップS4)。CPU11aは算出した位置/向きより、携帯端末3に送信すべき画像の範囲を特定する。CPU11a(特定部)その範囲に対応した情報を特定する。CPU11a(読み出し部)は、コンテンツデータベース12より特定した情報を読み出し、画像処理部13により画像を生成させる(ステップS5)。CPU11aは生成した画像を携帯端末3に送信する(ステップS6)。
なお、携帯端末3が加速度センサ33を備えていることは必須の条件ではなく、携帯端末3が加速度センサ33を備えていない場合は、携帯端末3より受信した画像とディスプレイ2に表示していた画像とにより、画像の回転ベクトル演算を行い、携帯端末3の傾きを算出すれば良い。
携帯端末3のCPU31aはコンテンツサーバ1より画像を受信する(ステップS7)。CPU31aは受信した画像を表示部34に表示し、ユーザからの操作を待つ(ステップS8)。ユーザが何らかの操作をした場合(ステップS8でYES)、CPU31aは終了操作であるか判定する(ステップS9)。終了操作である場合(ステップS9でYES)、CPU31aはコンテンツサーバ1との通信リンク等を行い、処理を終了する。終了操作でない場合(ステップS9でNO)、CPU31aは操作内容をコンテンツサーバ1に送信し(ステップS10)、処理をステップS2に戻す。所定時間経過してもユーザによる操作がなかった場合(ステップS8でNO)、CPU31aは処理をステップS2に戻す。以下、ステップS2以降を繰り返す。以上が情報提供システムの基本的な動作である。
次に、提供するコンテンツが地図とした場合の情報提供システムの動作について、説明する。以下の説明において、携帯端末3は加速度センサ33を持たないものとする。図7は地図を配信する処理手順を示したフローチャートである。コンテンツサーバ1のCPU11aは、携帯端末3から画像情報を取得する(ステップS21)。CPU11aは取得した画像情報を、ディスプレイ2に表示している地図情報と比較して、取得した画像情報の位置情報(経度、緯度)、携帯端末3の傾きを取得する(ステップS22)。取得した画像情報は、ディスプレイ2に表示した画像の一部分であるので、画像マッチングを行うことにより、取得した画像情報がディスプレイ2に表示した画像のどの部分であるかが分かる。それにより、取得した画像情報の位置情報(経度、緯度)、携帯端末3の傾きを求めることが可能となる。
次に、CPU11aは、携帯端末3とディスプレイ2との距離が変化したかを調べる(ステップS23)。ここで、CPU11aは、通信を行なっている携帯端末3よりディスプレイ2との距離を画像情報と共に取得し、RAM11b等に携帯端末3毎に記憶しているものとする。ディスプレイ2との距離は、携帯端末3に内蔵されたAF機構32bがピント合わせの際に得た焦点距離より、CPU31aが求めるものとする。
CPU11aは、画像情報と共に取得した携帯端末3とディスプレイ2との距離を、RAM11b等に記憶してある前回の距離と比較し、変化がないかを判定する。変化がある場合(ステップS23でYES)、CPU11aは処理をステップS24に移す。CPU11aは変化量に応じて、携帯端末3に送信する地図の縮尺を変更する。変化がない場合(ステップS23でNO)、CPU11aは処理をステップS25に移す。
CPU11aは、切替操作があったか否か判定する(ステップS25)。ここでいう切替操作とは表示されているレイヤを非表示にすること、非表示となっているレイヤを表示にすることをいう。そのような操作信号は画像情報と別に携帯端末3からコンテンツサーバ1に送信されるものとする。
切替操作があった場合(ステップS25でYES)、CPU11aは処理をステップS26に移す。CPU11aは、該当する地図レイヤの表示/非表示を切替える(ステップS26)。切替操作がなかった場合(ステップS25でNO)、CPU11aは処理をステップS27に移す。
CPU11aは、施設検索操作があったか否かを判定する(ステップS27)。施設検索操作とは、例えば、地図の表示範囲内に含まれる施設の情報を一覧表示することを言う
。施設検索操作があった場合(ステップS27でYES)、CPU11aは処理をステップS28に移す。CPU11aは、携帯端末3に表示する地図の表示範囲内に含まれる施設を空間検索により取得する。検索結果を基に施設情報リストを描画する(ステップS28)。施設検索操作がなかった場合(ステップS27でNO)、CPU11aは処理をステップS29へ移す。
CPU11aは、詳細表示操作があったか否かを判定する(ステップS29)。詳細表示操作とは、選択した施設の詳細情報を表示させるための操作を言う。例えば、リスト表示された施設情報を選択した場合や、地図上の施設アイコンを選択した場合である。詳細表示操作があった場合(ステップS29でYES)、CPU11aは選択された施設情報を描画する(ステップS30)。CPU11aは処理をステップS33へ移す。詳細表示操作がなかった場合(ステップS29でNO)、CPU11aは処理をステップS31へ移す。
CPU11aは、現在選択されている縮尺で、選択されている範囲の地図画像を描画する(ステップS31)。CPU11aは、地図の表示範囲内にある施設情報であって、表示開始縮尺が現在選択されている縮尺よりも小さいものの名称、アイコンを地図上に描画する(ステップS32)。
CPU11aは、画像の一部に、現在の表示内容に対応する仮想ボタン(施設検索ボタン、レイヤ切替メニュー等)を描画する(ステップS33)。CPU11aは、上述の処理にて作成した画像より携帯端末3の傾きに応じた画像を切り出す(ステップS34)。CPU11aは、切り出した画像を携帯端末3に送信する(ステップS35)。CPU11aは、処理を終了する。その後、再び、携帯端末3から画像が送信された場合、CPU11aは再びS21からの処理を行う。
次に、上述の処理を具体例に基づき説明する。図8はディスプレイ2に表示されている地図の一例を示す説明図である。地図上に描かれている矩形枠は、ユーザがカメラで撮影している範囲を描いたものである。携帯端末3のCPU31aは、ユーザ操作に従い、カメラモジュール32aに矩形枠の範囲を撮影させ、その画像を、通信部36を用いてコンテンツサーバ1に送信する。AF機構32bによるピント合わせの際に得た焦点距離、加速度センサ33から得た端末の傾きを、CPU31aはコンテンツサーバ1に送信しても良い。
コンテンツサーバ1のCPU11aは、受信した画像を基に、携帯端末3より送信された画像の位置(経度、緯度)、傾きを算出する(ステップS22)。算出した画像の位置、端末の傾きを基に、CPU11aは画像を切り出し(ステップS34)、携帯端末3に送信する(ステップS35)。図9は携帯端末3に表示される地図の一例を示す説明図である。図8に示した矩形枠の領域が、携帯端末3の表示部34に表示されている。
図10は携帯端末3に表示される地図の他の例を示す説明図である。図9が携帯端末3の表示部34に表示されている状態で、ユーザが、携帯端末3をディスプレイ2に近づけると共に、富二山が画面に中央になるように動かした場合を想定したものである。図9と図10とを比較すると、図10に示す地図は、図9に示す地図よりも縮尺が大きくなっている。また、富二山が地図の中央付近に表示されている。また、縮尺が大きくなることにより、山小屋の表示開始縮尺より大きな縮尺となったため、山小屋が地図に表示されている。すなわち、コンテンツサーバ1のCPU11aは、ディスプレイ2との距離が変化したことを検出し(ステップS23でYES)、表示する地図の縮尺を変更する(ステップS24)。
図10には、さらに、レイヤ切替のメニューの一例が表示されている。ここで、チェックが付いているレイヤが表示対象となっている。図10において、非表示となっている地形図を選択すると、図11に示す画面が表示される。図11は地形レイヤを表示した場合の地図の一例を示す説明図である。図10と表示している範囲は同様であるが、等高線が表示されている。CPU11aは、レイヤの切替操作を検知し(ステップS25)、選択された地形レイヤを非表示から表示に切り替える(ステップS26)。
なお、上述の説明において、レイヤ切替メニューは予め画面に表示されているものとして説明したが、それに限られない。ユーザが携帯端末3の操作部35にある特定のボタンを押下したときに、レイヤ切替メニューを表示することとしても良い。
図12は施設情報を表示した場合の画面の一例を示す説明図である。図10において、山小屋のアイコンをユーザが選択した場合、コンテンツサーバ1のCPU11aは詳細表示操作されたことを検知し(ステップS29でYES)、山小屋に関する情報を、コンテンツデータベース12の施設名欄、営業時間欄、解説欄から読み出し、その内容を描画する(ステップS30)。
図13は携帯端末3に表示される地図の他の例を示す説明図である。この例ではテーマパーク内の地図等、多くの施設が含まれている。ユーザにより施設検索ボタンが選択されると、コンテンツサーバ1のCPU11aは施設検索操作を検知し(ステップS27でYES)、地図の表示範囲内の施設を検索する。例えば、CPU11aは地図の4隅の緯度、経度を取得する。CPU11aは、それらの値とコンテンツデータベース12の施設情報d2各レコードの経度・緯度とを比較し、表示範囲内に含まれるレコードを抽出する。CPU11aは検索結果として施設名をリスト表示する。図14は施設情報をリスト表示している画面の一例を示す説明図である。地図画面の上に施設リストウィンドウが表示され、地図の表示範囲内に含まれる施設の名称がリスト表示されている。
上述の説明においては、携帯端末が複数台の場合の処理については、特に述べていないが、コンテンツサーバ1と複数台の携帯端末がリンクしている場合も同様であり、それぞれの携帯端末毎に、上記の処理を行えば良い。
上述のように、本実施の形態では、携帯端末3が撮影し送信した画像に基づき、コンテンツサーバ1はユーザが指定した位置を検出し、その位置に応じた情報をユーザが使用する携帯端末3に送信することが可能となる。
なお、上述の説明では、地図データはラスタデータである前提で説明したが、それに限られずベクトルデータであっても良い。ベクトルデータである場合は、携帯端末3に表示する画像をコンテンツサーバ1で生成するのではなく、携帯端末3で行なっても良い。コンテンツサーバ1は表示に必要な地図データを携帯端末3に送信し、携帯端末3は受信した地図データを用いて、画像を生成する。
実施の形態2
本実施の形態では、拡大鏡としての利用について説明する。図15は拡大鏡としての利用についての説明図である。図15Aはディスプレイ2に表示されている文字の例である。図15Bは図15Aで示した文字を拡大表示した例である。図15Aに示した「廣」という文字は画数が多く見づらいために、ユーザは携帯端末3をディスプレイ2にかざして文字を拡大表示させている。
図16は情報提供システムの動作手順を示したフローチャートである。携帯端末3のCPU31aは、通信部36を制御し、コンテンツサーバ1とリンクを確立する(ステップS1)。ユーザは携帯端末3をディスプレイ2にかざし、拡大したい部分をカメラモジュ
ール32aで撮影する。CPU31aは、カメラモジュール32aから画像を取り込むと共に、AF機構32bより得た焦点距離を基に、携帯端末3とディスプレイ2との距離を算出する(ステップS40)。CPU31aは画像と距離をコンテンツサーバ1に送信する(ステップS41)。コンテンツサーバ1のCPU11aは、受信した画像と距離を基に、携帯端末3がどの位置でディスプレイ2を撮影したのか、すなわち、ディスプレイ2のどの部分を携帯端末3は撮影したのかを求める(ステップS42)。CPU11aは求めた位置に基づき部分画像を、画像処理部13に生成させる(ステップS43)。CPU11aは生成した画像を携帯端末3に送信する(ステップS6)。
携帯端末3のCPU31aは画像を受信し、表示部34に表示する(ステップS7)。CPU31aは、所定時間ユーザから操作がないかを監視し(ステップS8)、操作があれば(ステップS8でYES)、CPU31aは終了操作であるか判定する(ステップS9)。終了操作である場合(ステップS9でYES)、CPU31aはコンテンツサーバ1との通信リンク等を行い、処理を終了する。終了操作でない場合(ステップS9でNO)、操作内容をコンテンツサーバ1に送信し(ステップS10)、処理をステップS40に戻す。操作がなければ(ステップS8でNO)、CPU31aは、処理をステップS40に戻す。
拡大鏡として利用する場合は、携帯端末3がディスプレイ2に近づいた場合は画像を拡大し、離れた場合は縮小して表示するようにする。
なお、文字を拡大する場合は、出力画像が傾くと見辛くなることも考えられるので、携帯端末3は傾きの計測をせず、傾きをコンテンツサーバ1に送信しないこととする。傾きを用いるか否かは、ユーザが切り替えられるようにしても良いし、携帯端末3のCPU31aが画像の内容を解析し、判定しても良い。または、コンテンツサーバ1が文字情報をディスプレイ2に表示している場合は、携帯端末3から受信した傾き情報は用いないこととしても良い。
以上のように、本実施の形態においては、ディスプレイ2に表示している画像の一部を、携帯端末3とディスプレイ2との距離に応じて、適切な倍率で拡大/縮小して携帯端末3に表示するので、ユーザは携帯端末3を拡大鏡として利用できる。特に文字を拡大表示する際には、フォントサイズを変更する等の処理を行えば、文字の形を保ったまま拡大表示されるので、画数が多い漢字でも字形が潰れずに、確認することが可能となる。
実施の形態3
本実施の形態では、表示するコンテンツ階層を自動的に切り替える。例として、人体の構造を示す図鑑とする。図17は初期表示の一例を示す説明図である。人体の右手部分が通常にディスプレイ2に表示されている。図18は携帯端末3の表示部34に表示される画像の一例を示す説明図である。図17に示した人体の右手部分が表示されているが、皮膚は表示されずに、骨格が表示されている。ディスプレイ2に携帯端末3をかざすことにより、皮膚を透過して骨格を眺めるというイメージである。この状態で携帯端末3をディスプレイ2に近づけると、骨格ではなく血管を表示するというように、表示するレイヤを自動的に切り替える。この場合において、画像の拡大/縮小は、携帯端末3とディスプレイ2との距離の変化により行うのではなく、ユーザの操作で行うものとする。例えば、操作部35が備える機械スイッチ、表示部34に表示した仮想ボタンが操作された場合に、画像の拡大/縮小を変化させれば良い。
図19は情報提供システムの動作手順を示したフローチャートである。携帯端末3のCPU31aは、通信部36を制御し、コンテンツサーバ1とリンクを確立する(ステップS1)。ユーザは携帯端末3をディスプレイ2にかざし、内部構造を参照したい部分をカメラモジュール32aで撮影する。CPU31aは、カメラモジュール32aから画像を
取り込むと共に、AF機構32bより得た焦点距離を基に、携帯端末3とディスプレイ2との距離を算出する(ステップS40)。CPU31aは画像と距離をコンテンツサーバ1に送信する(ステップS41)。コンテンツサーバ1のCPU11aは、受信した画像と距離を基に、携帯端末3がどの位置でディスプレイ2を撮影したのか、すなわち、ディスプレイ2のどの部分を携帯端末3は撮影したのかを求める(ステップS42)。CPU11aは求めた位置に基づき表示すべきレイヤを選択し、携帯端末3へ送信する画像を画像処理部13に生成させる(ステップS44)。今回の例では、皮膚を非表示にして、血管を表示する。CPU11aは生成した画像を携帯端末3に送信する(ステップS6)。
携帯端末3のCPU31aは画像を受信し、表示部34に表示する(ステップS7)。CPU31aは、所定時間ユーザから操作がないかを監視し(ステップS8)、操作があれば(ステップS8でYES)、CPU31aは終了操作であるか判定する(ステップS9)。終了操作である場合(ステップS9でYES)、CPU31aはコンテンツサーバ1との通信リンク等を行い、処理を終了する。終了操作でない場合(ステップS9でNO)、操作内容をコンテンツサーバ1に送信し(ステップS10)、処理をステップS40に戻す。操作がなければ(ステップS8でNO)、CPU31aは、処理をステップS40に戻す。例えば、ユーザの操作は画像の拡大/縮小である。
以上のように本実施の形態では、人体図鑑のように人体の構造を、階層構造データとして表現し、携帯端末3とディスプレイ2との距離により、人体の表面の皮膚から、血管、筋肉、骨格等人体の内部に至るまで、順次切り替えるので、ユーザは直感的な操作により、階層構造データを参照することが可能となる。
なお、携帯端末3とディスプレイ2との距離により、表示するレイヤを変化させることとしたが、それに限られない。表示するレイヤを固定とし、携帯端末3とディスプレイ2との距離により、画像を拡大/縮小するようにしても良い。この場合、ある特定のレイヤを細かく見ることが可能となる。
また、本実施の形態で扱うデータとして、CT(Computed Tomography)画像、MRI
(Magnatic Resonance Image)画像を採用しても良い。この場合において、携帯端末3とディスプレイ2との距離により、表示する断層を変化させるので、より直感的な操作感をユーザに提供することが可能となる。
実施の形態4
本実施の形態では、デジタルサイネージとしての利用について、説明する。図20はディスプレイ2に表示する広告画像の一例を示す説明図である。女性が肩からバックを下げて歩いている映像である。この映像の一部分には広告へのリンクが仮想的に貼られている。図20において点線の四角で囲った部分がリンクの貼られている領域である。領域fは、女性の顔部分に領域が設定されている。領域bは、バッグ部分に領域が設定されている。領域sは、ハイヒールの部分に領域が設定されている。
図21はコンテンツデータベース12のデータ構造の一例を示す説明である。コンテンツデータベース12は、画像データd3と広告コンテンツd4とを含む。画像データd3は、ID欄、名称欄、画像データ欄、リンク欄を含む。広告コンテンツd4は、親ID欄、領域ID欄、範囲欄、商品欄、広告欄、売り場欄を含む。ID欄はレコードを特定するための主キーを記憶する。名称欄は画像データの名称が記憶される。リンク欄は画像データとリンクが貼られている広告コンテンツd4の領域IDを記憶する。広告コンテンツd4の親ID欄は、広告コンテンツd4とリンクが貼られている画像データのIDを記憶する。領域ID欄は、広告コンテンツd4のIDが記憶される。範囲欄は、広告コンテンツd4を、画像データd3のどの部分にリンクさせるかを定義するための座標データを記憶する。本実施の形態では領域は矩形状であるので、対角線上の二点の座標値を記憶している。領域ID11の範囲欄には(x11,y11),(x21,y21)が記憶されている。
領域ID11を構成する4点の座標は、(x11,y11),(x21,y11),(x21,y21),(x11,y21)である。商品欄は広告コンテンツd4が扱っている商品の名称が記憶される。広告欄は広告コンテンツd4の実体である動画や静止画のファイル名が記憶される。売り場欄は、商品を販売している売り場案内データのファイル名が記憶されている。
図22は情報提供システムの動作手順を示したフローチャートである。携帯端末3のCPU31aは、通信部36を制御し、コンテンツサーバ1とリンクを確立する(ステップS1)。ディスプレイ2に図20で示した画像が表示されている。ユーザは携帯端末3により、例えば、女性の顔部分(領域f)を撮影する。携帯端末3のCPU31aは、カメラモジュール32aから画像を取得すると共に、AF機構32bより得た焦点距離を基に、携帯端末3とディスプレイ2との距離を算出する(ステップS40)。CPU31aは取得した画像と距離をコンテンツサーバ1に送信する(ステップS41)。コンテンツサーバ1のCPU11aは、携帯端末3から送信された画像と距離を受信する。受信した画像とディスプレイ2に表示している画像(walk_woman.jpg)とのマッチングを行い、撮影された箇所(領域f)を特定する(ステップS42)。ここでは、領域fの領域IDは、11である。CPU11aは、領域ID=11のレコードの広告欄から広告の実体ファイル名cosme.mpgを送信するコンテンツとして取得する(ステップS45)。コンテンツは
動画ファイルであるが、それに限られず静止画でも良い。CPU11aは、実体ファイルcosme.mpgを携帯端末3に送信する(ステップS46)。この際、売り場案内を表示させ
るための仮想ボタンを携帯端末3に表示させるようにしても良い。または、表示する画像内に売り場案内を表示するためのハイパーリンクを設定しても良い。
携帯端末3のCPU31aは広告実体ファイルcosme.mpgを受信し、表示部34に表示
する(ステップS47)。CPU31aは、所定時間ユーザから操作がないかを監視し(ステップS8)、操作があれば(ステップS8でYES)、CPU31aは終了操作であるか判定する(ステップS9)。終了操作である場合(ステップS9でYES)、CPU31aはコンテンツサーバ1との通信リンク等を行い、処理を終了する。終了操作でない場合(ステップS9でNO)、操作内容をコンテンツサーバ1に送信し(ステップS10)、処理をステップS40に戻す。操作がなければ(ステップS8でNO)、CPU31aは、処理をステップS40に戻す。ここでいう操作は例えば、画像内に設定された売り場案内へのリンクを選択する、売り場案内表示の仮想ボタンが選択する操作である。この場合、CPU31aは売り場案内情報をコンテンツサーバ1に要求する(ステップS10)。再び、ステップS40から同様な処理が行われる。コンテンツサーバ1のCPU11aは携帯端末3からの要求に従い、売り場案内データを携帯端末3に送信する(ステップS46)。携帯端末3のCPU31aは、受信した売り場案内データを表示部34に表示する(ステップS47)。
ユーザが携帯端末3により、女性の履くハイヒール部分を撮影した場合、領域ID13または14に対応する画像部分が撮影されたものと、CPU11aは判定するので、ハイヒールに関する広告が、携帯端末3の表示部34に表示される。また、ユーザの操作により、ハイヒールの売り場案内が表示部34に表示される。
以上のように、ディスプレイ2に表示された画像の中でユーザが注視した部分を画像として取得することで、ユーザに合わせた広告を配信することが可能となる。
本実施の形態において、広告をユーザに配信した回数を計測し、回数によって広告主に課金することとしても良い。また、ユーザが注視した部分を集計することにより、広告映像の中で、どの部分が最もユーザの目を引いたのかも明らかとなり、広告効果を確認することが可能となる。
実施の形態5
本実施の形態では、デパート、ショッピングモール等の案内図としての利用について、説明する。図23はディスプレイ2に表示する案内図の一例を示す説明図である。図23に示すように複数の店舗の配置が図示してある。図24は携帯端末3をかざして店舗情報を取得する場合の説明図である。図24Aは携帯端末3を店舗T1の部分にかざしている様子を示している。図24Bは携帯端末3に表示される店舗T1についての情報の一例を示している。ここでは、店舗T1で提供しているメニューが表示されている。
携帯端末3に表示されているボタンb1をユーザが押すと、店舗T1への経路を表示する。ユーザが情報を取得した店舗の履歴をコンテンツサーバ1で記憶しておくことにより店舗への関心度を図ることが可能となる。また、ボタンb1が押されて店舗への経路情報が取得された回数をコンテンツサーバ1で記憶しておくことにより、現状の案内図では行き方がわかりづらい店舗を明らかにすることができる。また、携帯端末3の画面に、店舗で利用できるクーポン券を取得するボタンを設けても良い。そのことにより、ユーザが店舗に立ち寄る動機となる。実施の形態4との相違は取り扱う情報の内容が異なるだけであり、情報提供システムの動作については同様であるので、説明を省略する。
実施の形態6
実施の形態6ではディスプレイ2ではなく、ポスター等の紙媒体に表示されている画像を用いる。図25は、実施の形態6に係る情報提供システムの概略構成を示す説明図である。本実施の形態に係る情報提供システムは、コンテンツサーバ1、携帯端末3、ポスター4を含む。コンテンツサーバ1、携帯端末3は、上述の実施の形態1と同様な構成であるので、以下では相違する点を主に説明する。
ポスター4は広告画像等を紙媒体に印字したものである。広告画像のデータは、コンテンツサーバ1のコンテンツデータベース12に記憶されている。例えば、上述の図25に示した画像がポスター4に印字されている場合、実施の形態4と同様に、ポスター4の一部分、例えばバックの部分を撮影し、撮影した画像をコンテンツサーバ1に送信すると、バックに関する広告情報が携帯端末3に送信される。このように、ポスター4に印字された画像であっても、情報提供システムの動作は、上述の実施の形態4と同様であるので、説明を省略する。
ポスター4を用いる場合、コンテンツサーバ1が表示内容を制御しているため携帯端末3から送信された画像と対比を行う画像は1つに特定される。しかしながら、ポスター4の画像である場合、コンテンツサーバ1が一つの画像データを保持しているときを除き、撮影されたポスターの特定が行えなければならない。そのためには、例えば、ポスター毎に背景色を変える、肉眼では認識できない透かしをポスター毎に変えて入れる等が考えられる。または、最初にポスターIDをユーザが文字入力、または2次元バーコードを読み取ることにより入力することにし、撮影画像と共にIDをコンテンツサーバ1に送信することとしても良い。それ以外にポスターを特定できるものであれば、どのような公知技術を用いても良いことは言うまでもないことである。
本実施の形態では、画像を表示するディスプレイが不要となるため、ディスプレイを用いる場合に比べて、低コストで運用することが可能となる。
なお、コンテンツサーバ1は画像処理部13を備え、携帯端末3に送信する画像の生成を画像処理部13で行うこととしたが、それに限られない。画像処理部13を備えず、制御部11により画像を生成しても良い。また、コンテンツサーバ1とは別体のハードウェアとして画像処理装置を別途用意し、画像生成を行なわせても良い。その場合、コンテン
ツサーバ1より画像生成に必要なデータを画像処理装置に送信し、画像処理装置は受信したデータを基に画像を生成し、生成した画像をコンテンツサーバ1に送信する。
実施の形態7
上述の実施の形態1から実施の形態5において、コンテンツサーバ1は、単一のディスプレイ2にコンテンツデータを表示させることを前提としている。コンテンツサーバ1と携帯端末3とは近接しており、近距離無線通信によりデータを送受信することを前提としている。しかし、それに限られるものではない。実施の形態7では、コンテンツサーバ1とテレビジョン受信機20(ディスプレイ2に相当)及び携帯端末3とは、ネットワークを介して接続されていることを前提とする。
図26は実施の形態7に係る情報提供システムの概略構成を示す説明図である。情報提供システムは、コンテンツサーバ1(コンピュータ)、テレビジョン受信機20(ディスプレイ)、携帯端末3(携帯通信機)、放送局5、公衆無線LANアクセスポイント6、携帯電話基地局7、インターネット等のネットワーク網N等を含む。
放送局5はネットワーク網Nを介してコンテンツサーバ1より受け取ったコンテンツデータを放送によりテレビジョン受信機20に伝搬させる。コンテンツデータは通常のテレビジョン放送として放送しても良いし、データ放送として放送しても良いし、ハイブリッドキャスト(Hybridcast:登録商標)にて放送しても良い。
コンテンツサーバ1と携帯端末3とは、有線ネットワークを介しての通信のほか、公衆無線LAN及び公衆無線LANアクセス又は携帯電話網及び携帯電話基地局7を介して、通信する。
図27はコンテンツサーバ1のハードウェア構成を示した説明図である。コンテンツサーバ1は制御部11、コンテンツデータベース12、画像処理部13、通信部14を含む。制御部11はCPU11a、RAM11b、ROM11cを含む。
コンテンツサーバ1の各部のうち、実施の形態1に係るコンテンツサーバ1と同様である部分は説明を省略する。実施の形態7では、コンテンツサーバ1はテレビジョン受信機20とのデータ送受信は、通信回線を介して行う。また、携帯端末3との通信も通信回線を介して行う。
図28はテレビジョン受信機20のハードウェア構成を示した説明図である。テレビジョン受信機20は、CPU21a、ROM21b、RAM21c、チューナ22、映像処理部23、表示部24、音声処理部25、音声出力部26、通信部27を含む。CPU21aは、バスを介してハードウェア各部と接続されている。CPU21aはROM21bに記憶された制御プログラム(コンピュータプログラム)に従いハードウェア各部を制御する。RAM21cは例えばSRAM(Static RAM)、DRAM(Dynamic RAM)、フラッシュメモリ等である。RAM21cは、CPU21aによる各種プログラムの実行時に発生する種々のデータを一時的に記憶する。
チューナ22は、放送局5からアンテナが受信した複数種類の電波から適宜の電波を選択し、選択した電波に含まれる映像データを動画データ及び音声データに分割して夫々映像処理部23及び音声処理部25へ出力する。ここで映像データとは、互いに同期している動画データ及び音声データを含むデータである。映像処理部23は、チューナ22又は通信部27から入力された動画データを、適宜の画像処理を施してから表示部24へ出力する。表示部24は、例えばカラーの液晶表示パネルを用いてなり、入力された動画データに基づく動画を、音声出力部26から出力される音声に同期して表示する。
音声処理部25は、チューナ22又は通信部27から入力された音声データを、適宜の音声処理を施してから音声出力部26に出力する。音声出力部26はスピーカを用いてなり、入力された音声データに基づく音声を、表示部24に表示される動画に同期して出力する。
テレビジョン受信機20は、放送波に搬送されたコンテツデータをチューナを介して、受け取る。インターネット等の通信回線により送信されたコンテンツデータは通信部27を介して受け取る。
図29は携帯端末3のハードウェア構成を示した説明図である。携帯端末3は制御部31、カメラ部32、加速度センサ33、表示部34、操作部35、通信部36を含む。制御部31はCPU31a、RAM31b、ROM31cを含む。
CPU31aは、バスを介してハードウェア各部と接続されている。CPU31aはROM31cに記憶された制御プログラムに従いハードウェア各部を制御する。RAM31bは例えばSRAM、DRAM、フラッシュメモリ等である。RAM31bは、CPU31aによる各種プログラムの実行時に発生する種々のデータを一時的に記憶する。
カメラ部32は、カメラモジュール32a、AF機構32bを含む。カメラモジュール32aはレンズ系、撮像素子等を含み、画像を取得する。AF機構32bはカメラモジュール32aのレンズ系を制御し、自動的にピント合わせを行う。加速度センサ33は計測した携帯端末3の所定方向の加速度を微分することにより、携帯端末3の傾きを算出する。表示部34はカメラモジュール32aで撮像した画像、コンテンツサーバ1より送信されたコンテンツ、操作のためのボタン、メニュー等が表示される。操作部35は携帯端末3を操作するためのボタン、表示部34を操作に用いるためのタッチパネル等を含む。
通信部36はネットワークN介して、コンテンツサーバ1と通信を行う。携帯端末3からコンテンツサーバ1に送信するのは、カメラモジュール32aで撮像した画像、ディスプレイ2との距離、加速度センサ33の計測値から求めた携帯端末3の傾き角度、操作情報等である。コンテンツサーバ1から送信されるのは、コンテンツ画像等である。
通信部36は、携帯電話基地局7やWiMaxのアクセスポイントを通じてネットワークNと接続され、コンテンツサーバ1と通信を行う。また、WiFiにより公衆無線LANに接続し、公衆無線LANからネットワークNを介して、コンテンツサーバ1と通信を行う。
次に、実施の形態7に係る情報提供システムの動作について説明する。図30、31は情報提供システムの動作手順を示したフローチャートである。ユーザ操作により、携帯端末3からコンテンツサーバに対して接続要求を送信する(ステップS50)。コンテンツサーバ1は携帯端末3から接続要求を受信する(ステップS51)。コンテンツサーバ1は新たなセッションを開始し、セッションIDを生成する(ステップS52)。セッションはコンテンツサーバ1が携帯端末3とのデータ送受信を管理するための仕組みであり、Webサーバで用いられるものと同様である。セッションIDはセッションを特定するIDであり、セッションIDによりコンテンツサーバ1は携帯端末3を特定する。
コンテンツサーバ1はセッションIDを含む、応答を携帯端末3に対して送信する(ステップS53)。
携帯端末3はコンテンツサーバ1からの応答を受信する(ステップS54)。携帯端末3は応答に含まれるセッションIDを取り出し、RAM31bに記憶する(ステップS55)。
ユーザは携帯端末3をテレビジョン受信機20にかざし、テレビジョン受信機20に表示されている情報の中で、注視した部分の画像をカメラモジュール32aで撮影する。携帯端末3のCPU31aは、カメラモジュール32aを制御して画像を取り込むとともに、画像を取り込む際のAF機構32bの動作結果から携帯端末3とテレビジョン受信機20との距離を取得する。また、加速度センサ33は計測結果より携帯端末3の傾きを算出する(ステップS56)。携帯端末3のCPU31aは、取得した画像、距離、算出した傾き、セッションIDをコンテンツサーバ1に送信する(ステップS57)。
コンテンツサーバ1のCPU11aは、携帯端末3より受信したデータに含まれるセッションIDを用いてセッション変数を取り出す(ステップS58)。コンテンツサーバ1のCPU11aはセッション変数を参照し、携帯端末3に対応したテレビジョン受信機20が特定済か否かを判定する(ステップS59)。テレビジョン受信機20が特定済である場合(ステップS59でYES)、すなわち、セッション変数にテレビジョン受信機を特定するための情報が含まれている場合、コンテンツサーバ1のCPU11aは処理をステップS63に移す。テレビジョン受信機20が特定済でない場合(ステップS59でNO)、コンテンツサーバ1のCPU11aは、携帯端末3より画像、距離、傾きを受信し、受信した距離、傾きを基に、受信した画像の補正を行う(ステップS60)。具体的には、傾いた画像を元に戻す補正と、画像の解像度を調整する補正である。この後に行うマッチングの精度を向上するためである。コンテツサーバ1は補正した画像と、テレビジョン受信機20に配信している画像とのマッチングを行う(ステップS61)。マッチングについては、公知の技術を用いれば良い。
コンテンツサーバ1のCPU11aは、マッチング結果より取得した画像を表示しているテレビジョン受信機20を特定し、セッションIDと特定したテレビジョン受信機20との対応付けをRAM11bに記憶する(ステップS62)。
ステップS62での特定結果又はセッションIDとテレビジョン受信機との対応付けを利用して、コンテンツサーバ1のCPU11aは、携帯端末3より受信した画像、距離、傾きを基に、受信した画像のテレビジョン受信機20に表示された画像内での位置を検出する。すなわち、受信した画像のテレビジョン受信機20の表示面での位置を検出する。その位置により、CPU11aはテレビジョン受信機20に対する携帯端末3の位置と向き(相対的空間位置/向き)を算出する(ステップS63)。CPU11aは算出した位置/向きより、携帯端末3に送信すべき画像の範囲を特定する。CPU11aはその範囲に対応した情報を特定する。CPU11a(読み出し部)は、コンテンツデータベース12より特定した情報を読み出し、画像処理部13により画像を生成させる(ステップS64)。CPU11aは生成した画像、セッションIDを携帯端末3に送信する(ステップS65)。
携帯端末3のCPU31aはコンテンツサーバ1より画像、セッションIDを受信する(ステップS66)。CPU31aは受信した画像を表示部34に表示し、ユーザからの操作を待つ(ステップS67)。ユーザが何らかの操作をした場合(ステップS67でYES)、CPU31aは終了操作であるか判定する(ステップS68)。終了操作である場合(ステップS68でYES)、CPU31aは処理を終了する。終了操作でない場合(ステップS68でNO)、CPU31aは操作内容をコンテンツサーバ1に送信し(ステップS69)、処理をステップS56に戻す。所定時間経過してもユーザによる操作がなかった場合(ステップS67でNO)、CPU31aは処理をステップS56に戻す。以下、ステップS56以降を繰り返す。以上が情報提供システムの基本的な動作である。
図31に示した処理ステップS67において、ユーザが所定の操作を所定時間行わなかった場合は、ステップS56に戻り、再度、携帯端末3は画像を取り込み、コンテンツサーバ1に画像等を送信することとした。しかしにそれに限らず、ユーザが明示的な操作をしない限り、待ち状態としても良い。明示的な操作とは、例えば、ユーザが撮影のためのシャッタボタンを押す操作である。
以上のように、実施の形態7において、コンテンツサーバ1とテレビジョン受信機20、携帯端末3との通信はネットワークを介して行うこととした。それにより、コンテンツサーバ1は複数のテレビジョン受信機20、携帯端末3へサービス提供が可能となる。コンテンツサーバ1を集中して管理可能となるので、管理が容易となる。また、コンテンツデータのメンテナンスが容易となる。
実施の形態1と同様に実施の形態7においても、地図を用いて施設案内を行うコンテンツの配信を行うことが可能である。さらに、実施の形態2〜実施の形態5に示したコンテンツの配信を行なっても良い。実施の形態1〜実施の形態5と実施の形態6との違いは、コンテンツサーバ1がテレビジョン受信機(ディスプレイ)と接続されている点である。それによる違いは、基本となる処理であり、図5と図30、31との違いである。応用的な処理であるコンテンツ配信については、同様であるので省略する。
各実施例で記載されている技術的特徴(構成要件)はお互いに組合せ可能であり、組み合わせすることにより、新しい技術的特徴を形成することができる。
上述した実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
1 コンテンツサーバ(コンピュータ)
11 制御部
11a CPU
11b RAM
11c ROM
12 コンテンツデータベース(記憶部)
13 画像処理部
14 通信部(送信部)
2 ディスプレイ
3 携帯端末(携帯通信機)
31 制御部
31a CPU
31b RAM
31c ROM
32 カメラ部
32a カメラモジュール
32b AF機構
33 加速度センサ(測定部)
34 表示部
35 操作部
36 通信部
N ネットワーク
5 放送局
6 公衆無線LANアクセスポイント
7 携帯電話基地局
20 テレビジョン受信機
21a CPU
21b ROM
21c RAM
22 チューナ
23 映像処理部
24 表示部
25 音声処理部
26 音声出力部
27 通信部

Claims (5)

  1. 記憶装置に記憶した階層構造を持つ情報をディスプレイ信する配信部を備えた情報配信装置において、
    記携帯通信機が撮像した、前記ディスプレイに表示された前記情報の一部に対応した画像、並びに前記携帯通信機及び前記ディスプレイ間の距離を前記携帯通信機より受信する受信部と、
    該受信部が受信した画像に基づいて、階層構造を持つ情報を前記記憶装置より読み出す読み出し部と、
    読み出した情報を前記携帯通信機に送信する送信部とを備え
    前記受信部が受信した距離に基づいて、前記読み出し部は前記記憶装置より読み出す前記情報の階層を定め、及び/又は前記送信部は前記携帯通信機に送信する前記情報の階層を定めるようにしてある
    ことを特徴とする情報配信装置。
  2. 前記配信部は、各々異なる階層構造を持つ情報を複数のディスプレイに配信するようにしてあり、
    各ディスプレイで表示されるべき画像及び前記携帯通信機より受信した画像のマッチングを行うことにより、前記携帯通信機が画像を撮像したディスプレイを特定する第2特定部を備える
    ことを特徴とする請求項1に記載の情報配信装置。
  3. 階層構造を持つ情報を記憶した記憶装置と、
    前記情報を配信する配信部を有するコンピュータと、
    該コンピュータより配信された前記情報を表示するディスプレイと、
    前記コンピュータと通信する携帯通信機と
    を備えた情報配信システムにおいて、
    前記携帯通信機は、
    前記ディスプレイに表示された情報の一部を撮像する撮像部、
    該撮像部の合焦動作の結果から前記ディスプレイとの距離を算出する算出部、
    並びに
    前記撮像部により撮像した画像及び前記算出部により算出した距離を前記コンピュータに送信する送信部を有し、
    前記コンピュータは、
    前記携帯通信機が送信した前記画像及び距離を受信する受信部、
    該受信部が受信した画像に基づいて、階層構造を持つ情報を前記記憶装置より読み出す読み出し部、
    並びに
    読み出した情報を前記携帯通信機に送信する送信部
    を有し、
    前記受信部が受信した距離に基づいて、前記読み出し部は前記記憶装置より読み出す前記情報の階層を定め、及び/又は前記送信部は前記携帯通信機に送信する前記情報の階層を定めるようにしてある
    ことを特徴とする情報配信システム。
  4. コンピュータが、
    階層構造を持つ情報をディスプレイに配信し、
    前記ディスプレイに表示された前記情報の一部を撮像した画像並びに該画像を撮像した携帯通信機及び前記ディスプレイ間の距離を受信し、
    受信した画像の前記ディスプレイの表示面での位置を検出し、
    検出結果に基づいて、前記受信した画像に対応した階層構造を持つ情報を特定し、
    特定結果に基づいて、記憶装置より前記情報を読み出す際、受信した距離に基づいて読み出す階層を定め、又は特定結果に基づいて、前記記憶装置より前記情報を読み出し、受信した距離に基づいて送信する前記情報の階層を定め、
    読み出した情報を携帯通信機に送信する
    ことを特徴とする情報配信方法。
  5. 階層構造を持つ情報を表示したディスプレイを撮像し、前記情報の一部に対応する画像を撮像する撮像部と、
    該撮像部の合焦動作の結果からディスプレイとの距離を算出する算出部と、
    撮像した画像及び算出した距離を情報配信装置に送信する画像送信部と、
    送信した画像に基づいて、送信された前記情報を受信する受信部と、
    受信した前記情報を表示する表示部とを備え
    送信された前記情報は前記距離に基づいて、前記情報の階層を定められたものである
    ことを特徴とする携帯通信機。
JP2013123046A 2012-06-15 2013-06-11 情報配信装置、情報配信システム、情報配信方法及び携帯通信機 Expired - Fee Related JP5404956B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013123046A JP5404956B2 (ja) 2012-06-15 2013-06-11 情報配信装置、情報配信システム、情報配信方法及び携帯通信機
US14/406,883 US9584854B2 (en) 2012-06-15 2013-06-14 Information distribution method, computer program, information distribution apparatus and mobile communication device
PCT/JP2013/066422 WO2013187494A1 (ja) 2012-06-15 2013-06-14 情報配信方法、コンピュータプログラム、情報配信装置及び携帯通信機
CN201380030618.6A CN104380271B (zh) 2012-06-15 2013-06-14 信息发布方法、信息发布装置及移动通信设备

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012136100 2012-06-15
JP2012136100 2012-06-15
JP2013123046A JP5404956B2 (ja) 2012-06-15 2013-06-11 情報配信装置、情報配信システム、情報配信方法及び携帯通信機

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013230495A Division JP5702845B2 (ja) 2012-06-15 2013-11-06 情報配信システム

Publications (2)

Publication Number Publication Date
JP2014016986A JP2014016986A (ja) 2014-01-30
JP5404956B2 true JP5404956B2 (ja) 2014-02-05

Family

ID=49758312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013123046A Expired - Fee Related JP5404956B2 (ja) 2012-06-15 2013-06-11 情報配信装置、情報配信システム、情報配信方法及び携帯通信機

Country Status (4)

Country Link
US (1) US9584854B2 (ja)
JP (1) JP5404956B2 (ja)
CN (1) CN104380271B (ja)
WO (1) WO2013187494A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5404956B2 (ja) * 2012-06-15 2014-02-05 シャープ株式会社 情報配信装置、情報配信システム、情報配信方法及び携帯通信機
US9294666B2 (en) * 2013-12-27 2016-03-22 Panasonic Intellectual Property Corporation Of America Communication method
CN107407987B (zh) 2015-03-02 2020-04-28 夏普株式会社 信息输出系统、控制方法以及存储有控制程序的计算机可读取的存储介质
WO2017124436A1 (zh) * 2016-01-22 2017-07-27 华为技术有限公司 通信的方法、移动终端、发布终端与通信系统
CN107592487A (zh) * 2017-09-06 2018-01-16 合肥庆响网络科技有限公司 图像处理装置
CN109246617B (zh) * 2018-09-21 2020-11-17 京东方科技集团股份有限公司 商品引导方法、商品引导装置及存储介质
US11625155B2 (en) * 2020-03-23 2023-04-11 Ricoh Company, Ltd. Information processing system, user terminal, method of processing information
US11907495B2 (en) * 2021-10-19 2024-02-20 Motorola Mobility Llc Electronic devices and corresponding methods utilizing ultra-wideband communication signals for user interface enhancement
US11606456B1 (en) * 2021-10-19 2023-03-14 Motorola Mobility Llc Electronic devices and corresponding methods utilizing ultra-wideband communication signals for user interface enhancement

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8285783B2 (en) * 2000-09-20 2012-10-09 Sony Corporation Distribution system and distribution method
US7016532B2 (en) * 2000-11-06 2006-03-21 Evryx Technologies Image capture and identification system and process
JP2003122757A (ja) 2001-10-10 2003-04-25 Sony Corp 検索案内システム、端末装置およびサーバ装置
JP2003315078A (ja) 2002-04-25 2003-11-06 Alpine Electronics Inc ナビゲーション装置
KR100474312B1 (ko) * 2002-12-12 2005-03-10 엘지전자 주식회사 디지털 카메라의 자동 주밍 방법
JP4046664B2 (ja) * 2003-08-01 2008-02-13 日本電信電話株式会社 携帯情報端末に対する情報提供システム、情報提供方法、情報提供プログラム、および、情報提供プログラムを記録した記録媒体
US20070159522A1 (en) * 2004-02-20 2007-07-12 Harmut Neven Image-based contextual advertisement method and branded barcodes
JP2006003963A (ja) 2004-06-15 2006-01-05 Hitachi Omron Terminal Solutions Corp 地域案内システム
JP4363642B2 (ja) * 2004-07-02 2009-11-11 富士フイルム株式会社 地図表示システム及びデジタルカメラ
JP4806907B2 (ja) 2004-07-22 2011-11-02 日産自動車株式会社 ナビゲーション装置、およびナビゲーション装置における地図の表示方法
US8547401B2 (en) * 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
EP1640879A1 (de) * 2004-09-28 2006-03-29 Swisscom Mobile AG Verfahren und Mittel zur Suche von Aufnahmedaten in einer Datenbank
US7775437B2 (en) * 2006-06-01 2010-08-17 Evryx Technologies, Inc. Methods and devices for detecting linkable objects
JP2008160631A (ja) * 2006-12-26 2008-07-10 Funai Electric Co Ltd 携帯機器
JP2008191868A (ja) * 2007-02-02 2008-08-21 Fujitsu Ltd 位置指定プログラムおよび携帯端末装置
US20080313037A1 (en) * 2007-06-15 2008-12-18 Root Steven A Interactive advisory system
US8229160B2 (en) * 2008-01-03 2012-07-24 Apple Inc. Systems and methods for identifying objects and providing information related to identified objects
JP2009230193A (ja) 2008-03-19 2009-10-08 Olympus Imaging Corp ポインティング装置としての機能を実現する撮影装置、表示装置、および情報システム
US9683853B2 (en) * 2009-01-23 2017-06-20 Fuji Xerox Co., Ltd. Image matching in support of mobile navigation
JP5434671B2 (ja) 2010-02-26 2014-03-05 富士通株式会社 画像表示装置、画像表示方法、および画像表示プログラム
US20110213664A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
CA2798925C (en) * 2010-05-10 2022-09-27 Park Assist Llc. Method and system for managing a parking lot based on intelligent imaging
US8348147B2 (en) * 2010-12-20 2013-01-08 Cisco Technology, Inc. Method and apparatus for tracking the location of a digital media player deployed in a network
US9088816B2 (en) * 2011-06-03 2015-07-21 Airborne Media Group, Inc. Venue-oriented social functionality via a mobile communication device
US9591149B2 (en) * 2012-04-30 2017-03-07 Qualcomm Incorporated Generation of a combined image of a presentation surface
US20130340006A1 (en) * 2012-06-14 2013-12-19 Mobitv, Inc. Eye-tracking navigation
JP5404956B2 (ja) * 2012-06-15 2014-02-05 シャープ株式会社 情報配信装置、情報配信システム、情報配信方法及び携帯通信機

Also Published As

Publication number Publication date
CN104380271B (zh) 2017-09-08
US9584854B2 (en) 2017-02-28
WO2013187494A1 (ja) 2013-12-19
CN104380271A (zh) 2015-02-25
JP2014016986A (ja) 2014-01-30
US20150201234A1 (en) 2015-07-16

Similar Documents

Publication Publication Date Title
JP5404956B2 (ja) 情報配信装置、情報配信システム、情報配信方法及び携帯通信機
US8264584B2 (en) Image capturing apparatus, additional information providing server, and additional information filtering system
EP3188132B1 (en) Display control device, display control method, and program
US11310419B2 (en) Service system, information processing apparatus, and service providing method
KR101617111B1 (ko) 무선 통신 디바이스들에 대한 핸즈-프리 증강 현실
CN102483824B (zh) 基于与经由定向设备信息发现的感兴趣点的交互的门户服务
US9906720B2 (en) Service system, information processing apparatus, and service providing method
JP5739874B2 (ja) 向きに基づいた検索システム及び方法
US20180301111A1 (en) Electronic device and method for displaying electronic map in electronic device
CN109962939B (zh) 位置推荐方法、装置、服务器、终端及存储介质
US20170328730A1 (en) Dynamic map synchronization
US20160370974A1 (en) Causation of Expansion of a Supplemental Content Overlay
US20130095855A1 (en) Method, System, and Computer Program Product for Obtaining Images to Enhance Imagery Coverage
US20030095681A1 (en) Context-aware imaging device
US20230368430A1 (en) Vehicle, pickup and dropoff location identification for ridesharing and delivery via augmented reality
CN104641399A (zh) 用于创建环境并用于共享环境中基于位置的体验的系统和方法
KR20110118727A (ko) 스트리트 레벨 이미지들 간의 전환을 나타내는 시스템 및 방법
JPWO2005066882A1 (ja) 文字認識装置、移動通信システム、移動端末装置、固定局装置、文字認識方法および文字認識プログラム
JP2010118019A (ja) 端末装置、配信装置、端末装置の制御方法、配信装置の制御方法、制御プログラムおよび記録媒体
JP2002334097A (ja) サービス提供システム、管理端末、移動体、サービス提供プログラム及びサービス提供方法
Sekhavat et al. The effect of tracking technique on the quality of user experience for augmented reality mobile navigation
US20140019378A1 (en) Evaluation system, method, and computer-readable recording medium
JP5702845B2 (ja) 情報配信システム
Speed Walking through time: use of locative media to explore historical maps
KR102443016B1 (ko) 증강 기술을 이용하여 광고를 구현하는 장치 및 방법

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131029

R150 Certificate of patent or registration of utility model

Ref document number: 5404956

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees