JP6892928B2 - 情報提供システム、情報提供方法および情報提供システム用管理装置 - Google Patents

情報提供システム、情報提供方法および情報提供システム用管理装置 Download PDF

Info

Publication number
JP6892928B2
JP6892928B2 JP2019544587A JP2019544587A JP6892928B2 JP 6892928 B2 JP6892928 B2 JP 6892928B2 JP 2019544587 A JP2019544587 A JP 2019544587A JP 2019544587 A JP2019544587 A JP 2019544587A JP 6892928 B2 JP6892928 B2 JP 6892928B2
Authority
JP
Japan
Prior art keywords
robot
image data
user
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019544587A
Other languages
English (en)
Other versions
JPWO2019065305A1 (ja
Inventor
茂憲 蛭田
茂憲 蛭田
大輔 村松
大輔 村松
史郎 北村
史郎 北村
修司 仲山
修司 仲山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JPWO2019065305A1 publication Critical patent/JPWO2019065305A1/ja
Application granted granted Critical
Publication of JP6892928B2 publication Critical patent/JP6892928B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9035Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/909Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25841Management of client data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Remote Sensing (AREA)
  • Computational Linguistics (AREA)
  • Computer Graphics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ロボットを介して取得した情報をユーザに提供する情報提供システム、情報提供方法および情報提供システム用管理装置に関する。
この種のシステムとして、従来、旅行者が携帯するロボットを介して旅行者が見た映像や会話のデータを取得するとともに、これら取得したデータをサーバに保存するようにしたシステムが知られている(例えば特許文献1参照)。このシステムによれば、旅行先での映像や会話のデータがロボットを介してサーバに保存されるので、ユーザ(旅行者)が後でそのデータを再生することができる。
特許文献1:特開2017−104532号公報
しかしながら、上記特許文献1記載のシステムでは、何らかの理由によりロボットが映像や会話のデータを取得し損ねると、ユーザに再生可能なデータを提供することができない。
本発明の一態様である情報提供システムは、画像データを取得する撮影部を有し、ユーザとともに移動するロボットと、ユーザまたはロボットの位置情報を時刻情報とともに取得する情報取得部と、撮影部により取得された画像データを、情報取得部により取得された位置情報および時刻情報に関連付けて記憶する記憶部と、記憶部に記憶された画像データの中から、ユーザにより指令された時刻および位置に対応する画像データを抽出するデータ抽出部と、データ抽出部で抽出された画像データに基づき画像を表示する表示部と、を備える。ロボットは、第1ユーザとともに移動する第1ロボットと、第2ユーザとともに移動する第2ロボットとを含み、記憶部は、第1ロボットの前記撮影部により取得された画像データと第2ロボットの前記撮影部により取得された画像データとを記憶し、データ抽出部は、記憶部に記憶された第1ロボットの撮影部により取得された画像データの中に、第1ユーザにより指令された時刻および位置に対応する画像データが存在しないとき、記憶部に記憶された第2ロボットの撮影部により取得された画像データの中から、第1ユーザにより指令された時刻および位置に対応する画像データを抽出する。
本発明の他の態様は、画像データを取得する撮影部を有するとともにユーザとともに移動するロボットを介して情報を提供する情報提供方法であり、ユーザまたはロボットの位置情報を時刻情報とともに取得し、撮影部により取得された画像データを、取得された位置情報および時刻情報に関連付けて記憶部に記憶し、記憶部に記憶された画像データの中から、ユーザにより指令された時刻および場所に対応する画像データを抽出し、抽出された画像データに基づき画像を表示することを含む。ロボットは、第1ユーザとともに移動する第1ロボットと、第2ユーザとともに移動する第2ロボットとを含み、画像データを記憶することは、第1ロボットの撮影部により取得された画像データと第2ロボットの撮影部により取得された画像データとを記憶することを含み、画像データを抽出することは、記憶部に記憶された第1ロボットの撮影部により取得された画像データの中に、第1ユーザにより指令された時刻および位置に対応する画像データが存在しないとき、記憶部に記憶された第2ロボットの撮影部により取得された画像データの中から、第1ユーザにより指令された時刻および位置に対応する画像データを抽出することを含む。
本発明のさらなる他の態様である情報提供システム用管理装置は、ユーザとともに移動するロボットにより取得された画像データと位置情報とを時刻情報とともに取得する情報取得部と、情報取得部により取得された画像データを、位置情報および時刻情報に関連付けて記憶する記憶部と、ユーザにより指令が入力される入力部と、記憶部に記憶された画像データの中から、入力部により指令された時刻および位置に対応する画像データを抽出するデータ抽出部と、データ抽出部で抽出された画像データに基づき画像を表示する表示部と、を備える。ロボットは、第1ユーザとともに移動する第1ロボットと、第2ユーザとともに移動する第2ロボットとを含み、記憶部は、第1ロボットにより取得された画像データと第2ロボットにより取得された画像データとを記憶し、データ抽出部は、記憶部に記憶された第1ロボットにより取得された画像データの中に、第1ユーザにより指令された時刻および位置に対応する画像データが存在しないとき、記憶部に記憶された第2ロボットにより取得された画像データの中から、第1ユーザにより指令された時刻および位置に対応する画像データを抽出する。
本発明によれば、何らかの理由によりロボットが画像データを取得し損ねた場合であっても、ロボットを介してユーザに十分な再生可能な画像データを提供することができる。
本発明の実施形態に係る情報提供システムの全体構成を概略的に示す図。 図1のユーザ機器の構成を示す図。 図1のロボットの構成を示す図。 図1の管理サーバの概略構成を示すブロック図。 図4の演算部で実行される処理の一例を示すフローチャート。 本発明の実施形態に係る情報提供システムの動作の一例を示す図。
以下、図1〜図6を参照して本発明の実施形態について説明する。本発明の実施形態に係る情報提供システムは、ユーザと行動を共にするロボットにより取得された情報を、管理サーバに保存するとともに、管理サーバに保存された情報をユーザに提供可能とするものである。
図1は、本発明の実施形態に係る情報提供システム100の全体構成を概略的に示す図である。図1に示すように、本実施形態に係る情報提供システム100は、A地点に位置するユーザ1Aに装着されたユーザ機器10と、B地点に位置するユーザ1Bと行動を共にする第1ロボット20Aと、C地点に位置するユーザ1Cと行動を共にする第2ロボット20Bと、管理サーバ30とを含んで構成される。
これらユーザ機器10と、第1ロボット20Aと、第2ロボット20Bと、管理サーバ30とは、インターネット回線等の無線通信網を含むネットワーク2で通信可能に接続される。なお、第1ロボット20Aと第2ロボット20Bとは互いに同一構成であり、以下ではこれらロボット20A,20Bを共通の符号20で表すこともある。
B地点はA地点から見て遠隔地である。すなわち、A地点とB地点とは互いに離れた地点、例えば互いに異なる地域、あるいは互いに異なる国である。B地点の第1ロボット20Aは、A地点のユーザ1Aにより遠隔操作される。ユーザ1Aとユーザ1Bとは例えば家族であり、ユーザ1Aがユーザ1Bと一緒に外出(例えば旅行)することが困難な場合に、ユーザ1Aの代わりに第1ロボット20Aがユーザ1Bとともに旅行し、そのときに第1ロボット20Aが得た情報を、ユーザ1Aに提供するように情報提供システム100を構成する。これによりユーザ1Aは、例えば自宅にいながら、あたかもユーザ1Bと一緒に旅行している気分を味わうことができる。なお、C地点のユーザ1Cとともに行動する第2ロボット20Bも、図示しない他のユーザ(例えばユーザ1Cの家族)により遠隔操作される。
B地点とC地点とは、同一地域内、例えば同一の観光地域内に位置する。したがって、B地点とC地点との間の距離は所定距離内である。なお、所定距離は、例えば数m〜数十mでもよく、数km程度であってもよい。
第1ロボット20Aは、B地点またはB地点の近傍の店舗3からレンタルされる。すなわち、第1ロボット20Aは、店舗3に赴いたユーザ1Bによりレンタルされ、B地点でユーザ1Bとともに行動する。第2ロボット20Bは、C地点またはC地点の近傍の店舗(例えばB地点の店舗3)からレンタルされる。すなわち、第2ロボット20Bは、ユーザ1Cによりレンタルされ、C地点でユーザ1Cとともに行動する。各ロボット20A,20Bは、各地点での旅行が終了するとユーザ1B,1Cにより店舗3に返却される。
店舗3の各ロボット20には、予め固有の識別ID(ロボットID)が付される。ロボット20をレンタルするユーザには、ユーザを識別するためのユーザIDが付される。ロボットIDにユーザIDが対応付けられて、ロボット20のレンタル情報、すなわちどのロボット20がどの期間にどのユーザにレンタルされるかの情報が管理サーバ30に記憶される。
図2は、ユーザ機器10の構成を示す図である。図2に示すようにユーザ機器10は、例えば全体が略ヘルメット形状を呈するウェアラブルコンピュータであり、ユーザの頭部に装着される。ユーザ機器10は、ユーザの脳波や脳磁波、脳血流の状態等の脳活動を検出する複数のセンサ11を備える。すなわち、ユーザ機器10は、ユーザの思考ないし意図を脳活動信号から検出し、身体を使うことなく機械操作を実現する、いわゆるブレインマシンインタフェース(BMI)を備える。
さらにユーザ機器10は、ディスプレイ12と、マイク13と、スピーカ14と、入力装置15と、コントローラ16と、無線ユニット17とを有する。ディスプレイ12は、例えば非透過型のヘッドマウントディスプレイであり、ユーザの顔面を覆うように配置され、ロボット20により取得されたカメラ画像が表示される。表示されるカメラ画像には、ロボット20により現在取得された現時点のカメラ画像と、ロボット20により過去に取得された過去時点のカメラ画像とが含まれる。
マイク13は、ユーザの口元に配置され、ユーザの発話による音声信号を入力する。スピーカ14は、ユーザの耳元に配置され、音声を出力する。入力装置15は、ユーザにより操作されるスイッチやタッチパネル等により構成され、入力装置15を介して各種情報を入力することができる。例えば、ディスプレイ12に表示するカメラ画像を特定するための情報、すなわち撮影の日時と場所とを入力することができる。
コントローラ16は、CPU,ROM,RAM等を有するマイクロコンピュータを含み、無線ユニット17を制御して管理サーバ30との間で通信する。例えばコントローラ16は、センサ11とマイク13とからの信号を管理サーバ30に送信するとともに、管理サーバ30からの信号に基づきディスプレイ12やスピーカ14などに制御信号を出力する。
さらにコントローラ16は、入力装置15を介して入力された指令に応じて、管理サーバ30に記憶された画像データを読み込み、この画像データに基づきディスプレイ12に制御信号を出力して、画像を表示させる。すなわち、コントローラ16は、過去にロボット20により取得されたカメラ画像を再生する機能を有する。
図3は、ロボット20の構成を示す図である。図3に示すようにロボット20は、頭、胴体、2つの腕部、2つの脚部を有する人型ロボットであり、二足歩行によりロボット自身で移動することができる。ロボット20の高さは、成人の身長に近く、例えば140〜160cm程度である。
ロボット20は、外界を感知するための人の感覚機能である五感に対応した検出機能を有する複数のセンサ、すなわち視覚センサ211と、聴覚センサ212と、触覚センサ213と、臭覚センサ214と、味覚センサ215とを有する。これらセンサ211〜215は、人の五感に対応した信号(五感信号)を検出信号として出力する。
より具体的には、視覚センサ211はカメラにより構成され、ロボット20の目の位置に設けられたCMOSセンサやCCDセンサ等の画像センサとレンズとを有する撮影部と、撮影部を上下左右に駆動する駆動部と、被写体を拡大縮小するズーム機構とを有し、ロボット20の周囲の画像(動画)を取得する。聴覚センサ212は、例えばロボット20の耳の位置に設けられたマイクにより構成され、ロボット20の周囲の音声を取得する。触覚センサ213は、例えばロボット20のハンドの位置等に設けられた力覚センサにより構成され、ロボット20のハンドに作用する外力を検出する。臭覚センサ214は、ロボット20の鼻の位置に設けられ、臭いを検出する。味覚センサ215は、ロボット20の口の位置に設けられ、味を検出する。
さらにロボット20は、アクチュエータ22と、スピーカ23と、入力装置24と、GPSセンサ25と、コントローラ26と、無線ユニット27とを有する。アクチュエータ22は、例えばロボット20の関節部に設けられた複数のサーボモータ等により構成され、アクチュエータ22の駆動によりロボット20が動作する。スピーカ23は、ロボット20の口の位置に設けられ、音声を出力する。入力装置24は、電源スイッチ等の各種スイッチを備える。GPSセンサ25は、GPS衛星からのGPS信号を受信する。GPSセンサ25が受信した信号に基づきロボット20の位置を検出することができる。
コントローラ26は、CPU,ROM,RAM等を有するマイクロコンピュータを含み、無線ユニット27を制御して管理サーバ30との間で通信する。例えばコントローラ26は、五感信号を出力するセンサ211〜215とGPSセンサ25とからの信号を管理サーバ30に送信する。さらにコントローラ26は、管理サーバ30からの信号に基づきアクチュエータ22やスピーカ23などに制御信号を出力する。
図4は、管理サーバ30の概略構成の一例を示すブロック図である。図4に示すように、管理サーバ30は、入力装置31と、表示装置32と、無線ユニット33と、コントローラ34とを有する。なお、入力装置31と表示装置32とは、省略することができる。なお、無線ユニット33はユーザ機器10とロボット20とを通信接続される構成(通信接続部)であれば良い。
コントローラ34は、CPU等の演算部35と、ROM,RAM,ハードディスク等の記憶部36と、その他の周辺回路とを有し、無線ユニット33を制御してユーザ機器10およびロボット20との間で通信する。演算部35は、機能的構成として、情報取得部37と、データ抽出部38と、ロボット制御部39と、ユーザ機器制御部40とを有する。なお、以下では、便宜上、複数のユーザと複数のロボットとを、必要に応じて図1に示すように区別して説明する。
情報取得部37は、ユーザ機器10(図2のセンサ11やマイク13や入力装置15等)から送信されたデータおよび第1ロボット20A(図3のセンサ211〜215やGPSセンサ25等)から送信されたデータを、無線ユニット33を介して取得する。第1ロボット20Aから送信されたデータのうち、視覚センサ211により取得された画像データと聴覚センサ212により取得された音声データは、第1ロボット20AのロボットID、および第1ロボット20Aと行動を共にするユーザ1BのユーザIDを付して、記憶部36に記憶される。
記憶部36は、機能的構成として自己データ記憶部361と他者データ記憶部362とを有する。自己データ記憶部361には、自己(ユーザ1B)のユーザIDが付された画像データと音声データとが記憶される。他者データ記憶部362には、他者(ユーザ1C)のユーザIDが付された画像データと音声データとが記憶される。なお、他者データ記憶部362には、ユーザ1A〜1C以外の複数のユーザのユーザIDが付された画像データと音声データも記憶される。自己データ記憶部361には、GPSセンサ25により取得された第1ロボット20Aの位置情報も、その位置情報に対応する時刻情報とともに記憶される。他者データ記憶部362には、GPSセンサ25により取得された第2ロボット20Bの位置情報も、その位置情報に対応する時刻情報とともに記憶される。
データ抽出部38は、自己データ記憶部361に記憶された自己(ユーザ1B)のユーザIDに対応する画像データおよび音声データの中から、ユーザ機器10の入力装置15を介して入力された時刻(目標時刻)および位置(目標位置)に対応するデータを抽出する。つまりユーザ1Bが再生を欲する目標時刻および目標位置の画像データと音声データとを抽出する。なお、目標時刻は、例えば○月○日○時〜△月△日△時等、所定の時間的範囲を含んで入力装置15により指定することができる。目標位置も、番地を含む厳密な住所で指定するのではなく、単に地名等、所定の地理的範囲を含んで入力装置15により指定することができる。
データ抽出部38は、ユーザ機器10の入力装置15を介して入力された目標時刻および目標位置に対応するデータが自己データ記憶部361に保存されていないとき、自己データ記憶部361に記憶された自己(ユーザ1B)のユーザIDが付された第1ロボット20Aの位置情報と時刻情報とに基づき、目標時刻における第1ロボット20Aの実位置(目標位置とは異なる位置)を特定する。そして、入力装置15を介して入力された目標位置が、第1ロボット20Aの実位置から所定距離内であるか否かを判定する。この判定は、目標位置と第1ロボット20Aの実位置とが、互いに同一の地域(例えば同一の観光地)内にあるか否かの判定であり、所定距離は、例えば数十m〜数km程度に設定される。
データ抽出部38は、入力装置15を介して入力された目標位置が第1ロボット20Aの実位置から所定距離内にあると判定すると、他者データ記憶部362に記憶された他者(ユーザ1C)のユーザIDに対応する画像データおよび音声データ(第2ロボット20Bにより取得された画像データおよび音声データ)の中から、入力装置15を介して入力された時刻および位置に対応するデータを抽出する。一方、データ抽出部38は、入力装置15を介して入力された目標位置が第1ロボット20Aの実位置から所定距離内にないと判定すると、データ抽出不可の信号を出力する。
ロボット制御部39は、ユーザ機器10から送信された第1ロボット20Aに対する動作指令、すなわちユーザ1Aの脳活動による動作指令に基づいて、第1ロボット20Aのアクチュエータ22に対する動作信号を生成する。そして、この動作信号を、無線ユニット33を介して第1ロボット20Aに送信する。第1ロボット20Aのコントローラ26は、この動作信号に応じてアクチュエータ22に制御信号を出力する。これにより、ユーザ1Aの意図に従い、ユーザ1Aの身代わりとして第1ロボット20Aを動作させることができる。ロボット制御部39は、ユーザ機器10のマイク13からの信号に基づく音声を、第1ロボット20Aのスピーカ23から出力させることもできる。
ユーザ機器制御部40は、第1ロボット20Aのセンサ211〜215からの信号(五感信号)に基づいて、ユーザ機器10に対する動作信号を生成する。そして、この動作信号を、無線ユニット33を介してユーザ機器10に送信する。例えば視覚センサ211により検出された信号に基づき画像信号を送信する。ユーザ機器10のコントローラ16は、この画像信号に応じてディスプレイ12に制御信号を出力し、ディスプレイ12に視覚センサ211から得られた三次元画像を表示させる。これによりユーザ1Aはロボット20の周囲の状況をリアルタイムで的確に把握できる。ユーザ機器制御部40は、聴覚センサ212からの信号に基づく音声を、ユーザ機器10のスピーカ14から出力させることもできる。
さらにユーザ機器制御部40は、データ抽出部38により抽出された画像データと音声データとを、無線ユニット33を介してユーザ機器10に送信する。
図5は、予め記憶部36に記憶されたプログラムに従い演算部35で実行される処理、特にユーザ機器10の画像表示に係る処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えばユーザ1Bが自宅にてユーザ機器10(入力装置15)を介して画像再生の指令を入力すると開始される。
まずS1(S:処理ステップ)で、入力装置15を介して入力された指令、すなわち再生画像を特定する目標時刻と目標位置の指令を読み込む。次いで、S2で、自己データ記憶部361に記憶された自己のユーザIDに対応する画像データおよび音声データの中に、目標時刻と目標位置に対応するデータが存在するか否か、すなわち自己データ記憶部361からデータ抽出が可能か否かを判定する。S2で肯定されるとS3に進み、自己データ記憶部361から目標時刻と目標位置に対応した画像データと音声データとを抽出する。次いで、S8で、抽出したデータをユーザ機器10に送信する。
一方、S2で否定されるとS4に進み、自己データ記憶部361に記憶された時刻情報と位置情報とに基づき、目標時刻における自己のユーザIDが付された第1ロボット20Aの実位置を特定する。次いで、S5で、目標位置が第1ロボット20Aの実位置から所定距離内であるか否かを判定する。S5で肯定されるとS6に進み、他者データ記憶部362に記憶された他者(ユーザ1C)のユーザIDに対応する画像データおよび音声データの中に、目標時刻と目標位置に対応するデータが存在するか否か、すなわち他者データ記憶部362からデータ抽出が可能か否かを判定する。S6で肯定されるとS7に進み、他者データ記憶部362から目標時刻と目標位置に対応した画像データと音声データとを抽出する。次いで、S8で、抽出したデータをユーザ機器10に送信する。
S5で否定、またはS6で否定されるとS9に進む。S9では、記憶部36から目標時刻と目標位置とに対応したデータを抽出することが不可能であることを示す信号(抽出不可信号)をユーザ機器10に送信する。
本実施形態に係る情報提供システム100の主要な動作をより具体的に説明する。例えば図1に示すように第1ロボット20Aと行動を共にしていたユーザ1Bが、外出先から帰宅後に、第1ロボット20Aにより取得された画像および音声のデータを、ユーザ機器10を用いて再生する場合を想定する。このとき、ユーザ1Bは、入力装置15を介して目標時刻と目標位置とを指令する。
目標位置および目標時刻として、例えばユーザ1Bが過去に旅行した地点Bとそのときの時刻とが指定されると、データ抽出部38は、自己データ記憶部361から対応する画像データと音声データとを抽出し(S3)、ユーザ機器制御部40は、これらのデータをユーザ機器10に送信する(S8)。これにより図6に示すように、ユーザ1Bが装着するユーザ機器10のディスプレイ12に、地点Bの過去の画像51が表示される。その結果、ユーザ1Bは、過去に旅行した地点Bのシーンを回想して楽しむことができる。
何らかの理由(例えばトラブル)により、過去に旅行したB地点のデータが自己データ記憶部361に記憶されていないとき、データ抽出部38は、他者データ記憶部362から対応する画像データと音声データとを抽出し(S7)、ユーザ機器制御部40は、これらのデータをユーザ機器10に送信する(S8)。これにより、第1ロボット20Aがカメラ画像を取得し損なった場合であっても、ユーザ1Bは過去に旅行した地点Bのシーンを回想して楽しむことができる。
一方、目標位置として、例えばユーザ1Bが過去に地点Bを旅行したときに訪れることのできなかった地点Bの近傍の地点Cが指定されると、データ抽出部38は、他者データ記憶部362から対応する画像データと音声データとを抽出し(S7)、ユーザ機器制御部40は、これらのデータをユーザ機器10に送信する(S8)。これにより図6に示すように、ユーザ1Bが装着するユーザ機器10のディスプレイ12に、地点Cの過去の画像52が表示される。この場合、ユーザ1Bが実際に訪れた地点Bと訪れることのできなかった地点Cとは、所定距離内にあって同一地域内に位置する。このため、C地点の画像データをユーザ1Bにとっての補完データとして用いることができ、ユーザ1BはB地点の旅行に関連付けてC地点の再生画像を楽しむことができる。
本実施形態によれば以下のような作用効果を奏することができる。
(1)本実施形態に係る情報提供システム100は、画像データを取得する視覚センサ211を有し、ユーザとともに移動するロボット20と、ロボット20の位置情報を時刻情報とともに取得する情報取得部37と、視覚センサ211により取得された画像データを、情報取得部37により取得された位置情報および時刻情報に関連付けて記憶する記憶部36と、記憶部36に記憶された画像データの中から、ユーザにより指令された目標時刻および目標位置に対応する画像データを抽出するデータ抽出部38と、データ抽出部38で抽出された画像データに基づき画像を表示するディスプレイ12と、を備える(図1〜4)。ロボット20は、ユーザ1Bとともに移動する第1ロボット20Aと、ユーザ1Cとともに移動する第2ロボット20Bとを含む(図1)。記憶部36は、第1ロボット20Aの視覚センサ211により取得された画像データを記憶する自己データ記憶部361と、第2ロボット20Bの視覚センサ211により取得された画像データを記憶する他者データ記憶部362とを有する(図4)。データ抽出部38は、自己データ記憶部361に記憶された第1ロボット20Aの視覚センサ211により取得された画像データの中に、ユーザ1Bにより指令された目標時刻および目標位置に対応する画像データが存在しないとき、他者データ記憶部362に記憶された第2ロボット20Bの視覚センサ211により取得された画像データの中から、ユーザ1Bにより指令された目標時刻および目標位置に対応する画像データを抽出する(図5)。このように、自己データ記憶部361に目標時刻および目標位置に対応する画像データが存在しないとき、他者データ記憶部362に記憶された画像データの中から目標時刻および目標位置に対応する画像データを抽出するので、何らかの理由により第1ロボット20Aが画像データを取得し損ねた場合であっても、ユーザに再生可能な所望の画像データを提供することができる。
(2)データ抽出部38は、ユーザ1Bにより指令された目標時刻および目標位置に対応する第1ロボット20Aの位置情報および時刻情報が自己データ記憶部361に記憶されていないとき、すなわち、ユーザ1Bが目標時刻に目標位置を訪れなかったとき、他者データ記憶部362に記憶された第2ロボット20Bの視覚センサ211により取得された画像データの中から、目標時刻および目標位置に対応する画像データを抽出する(図5)。これにより、ユーザ1Bが訪れることのできなった場所の画像データを、ユーザ1Bに対し提供することができる。
(3)データ抽出部38は、ユーザ1Bにより指令された目標時刻における自己データ記憶部361に記憶された第1ロボット20Aの実位置が、ユーザ1Bにより指令された目標位置から所定距離内であることを条件として、他者データ記憶部362に記憶された第2ロボット20Bの視覚センサ211により取得された画像データの中から、ユーザ1Bにより指令された目標時刻および目標位置に対応する画像データを抽出する(図5)。このため、ユーザ2Bが第1ロボット20Aと共に訪れたことのある場所と同一地域の場所の画像データが抽出されるため、抽出された画像データを画像再生時の補完データとして用いることができ、ユーザ1Bにとって有用な情報を提供できる。
(4)ロボット20は、歩行可能に構成される(図3)。これによりロボット20は、ユーザ1Bが携帯しなくてもユーザ1Bと共に行動することができ、ユーザ1Bの周囲の画像データを容易に取得することができる。
(5)本実施形態に係る情報提供方法は、画像データを取得する視覚センサ211を有するとともにユーザとともに移動するロボット20を介して情報を提供するものであり、ロボット20の位置情報を時刻情報とともに取得し、視覚センサ211により取得された画像データを、取得された位置情報および時刻情報に関連付けて記憶部36に記憶し、記憶部36に記憶された画像データの中から、ユーザにより指令された時刻および場所に対応する画像データを抽出し、抽出された画像データに基づき画像を表示することを含む(図5)。ロボット20は、ユーザ1Bとともに移動する第1ロボット20Aと、ユーザ1Cとともに移動する第2ロボット20Bとを含む(図1)。画像データを記憶することは、第1ロボット20Aの視覚センサ211により取得された画像データと第2ロボット20Bの視覚センサ211により取得された画像データとを記憶することを含む。画像データを抽出することは、記憶部36に記憶された第1ロボット20Aの視覚センサ211により取得された画像データの中に、ユーザ1Bにより指令された目標時刻および目標位置に対応する画像データが存在しないとき、記憶部36に記憶された第2ロボット20Bの視覚センサ211により取得された画像データの中から、目標時刻および目標位置に対応する画像データを抽出することを含む(S7)。これにより第1ロボット20Aが画像データを取得し損ねた場合であっても、ユーザに目標時刻および目標位置に対応する画像データを提供することができる。
上記実施形態は種々の変形が可能である。以下、変形例について説明する。上記実施形態では、二足歩行可能な人型ロボット20を用いたが、画像データを取得する視覚センサ211等の撮影部を有するとともに、ユーザとともに移動するのであれば、ロボットの構成は上述したものに限らない。上記実施形態では、ユーザ1Aからの指令によりロボット20を移動させるようにしたが、例えばロボット自身が周囲の状況を判断してユーザ1Bに追従するようにロボットを構成してもよい。上記実施形態では、第1ロボット20Aと第2ロボット20Bとを含んで情報提供システム100を構成したが、これより多くのロボットが情報提供システムに含まれてもよい。これらのロボットには、ユーザが指定した目標位置から所定距離内に位置するロボットだけでなく、所定距離を越えて位置するロボットが含まれてもよい。
上記実施形態では、情報取得部37がGPSセンサ25からの信号を取得することでロボット20の位置情報と時刻情報とを取得するようにしたが、ロボット20とユーザ1Bとは一緒に行動するので、ロボット20の位置情報と時刻情報に代えて、ユーザ1Bの位置情報と時刻情報とを取得するようにしてもよい。例えば、GPSセンサ等の位置情報取得機能を有するユーザ1Bが携帯する携帯端末からの信号を、情報取得部37が取得するようにしてもよい。上記実施形態では、データ抽出部38が、目標位置と目標時刻とに対応する画像データと音声データとを記憶部36から抽出するようにしたが、少なくとも画像データを抽出するのであれば抽出するデータはいかなるものでもよく、データ抽出部の構成は上述したものに限らない。上記実施形態では、ヘッドマウントディスプレイとしてのユーザ機器10のディスプレイ12に画像を表示するようにしたが、表示部の構成はこれに限らない。
上記実施形態におけるユーザ機器10およびロボット20のコントローラ16,26の機能の一部を、管理サーバ30が担うようにしてもよく、管理サーバ30の機能の一部をコントローラ16,26が担うようにしてもよい。上記実施形態では、ユーザ機器10およびロボット20が、管理サーバ30を介して互いに通信するようにしたが、管理サーバ30を介さずに直接通信するようにしてもよい。
上記実施形態では、ロボット20を店舗3でレンタルするようにしたが、例えばユーザが自宅に所有するロボットを用いても、本発明は、同様に構成することができる。管理サーバ30と店舗3の端末とを通信可能に構成し、ロボット20のレンタル予約の申し込み、レンタル料金の支払い等を、管理サーバ30を介して行うようにしてもよい。
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。
10 ユーザ機器、12 ディスプレイ、16 コントローラ、20 ロボット、20A 第1ロボット、20B 第2ロボット、26 コントローラ、30 管理サーバ、36 記憶部、37 情報取得部、38 データ抽出部、40 ユーザ機器制御部、100 情報提供システム、211 視覚センサ

Claims (6)

  1. 画像データを取得する撮影部を有し、ユーザとともに移動するロボットと、
    前記ユーザまたは前記ロボットの位置情報を時刻情報とともに取得する情報取得部と、
    前記撮影部により取得された画像データを、前記情報取得部により取得された位置情報および時刻情報に関連付けて記憶する記憶部と、
    前記記憶部に記憶された画像データの中から、前記ユーザにより指令された時刻および位置に対応する画像データを抽出するデータ抽出部と、
    前記データ抽出部で抽出された画像データに基づき画像を表示する表示部と、を備え、
    前記ロボットは、第1ユーザとともに移動する第1ロボットと、第2ユーザとともに移動する第2ロボットとを含み、
    前記記憶部は、前記第1ロボットの前記撮影部により取得された画像データと前記第2ロボットの前記撮影部により取得された画像データとを記憶し、
    前記データ抽出部は、前記記憶部に記憶された前記第1ロボットの前記撮影部により取得された画像データの中に、前記第1ユーザにより指令された時刻および位置に対応する画像データが存在しないとき、前記記憶部に記憶された前記第2ロボットの前記撮影部により取得された画像データの中から、前記第1ユーザにより指令された時刻および位置に対応する画像データを抽出することを特徴とする情報提供システム。
  2. 請求項1に記載の情報提供システムにおいて、
    前記データ抽出部は、前記第1ユーザにより指令された時刻および位置に対応する前記第1ユーザまたは前記第1ロボットの位置情報および時刻情報が前記記憶部に記憶されていないとき、前記記憶部に記憶された前記第2ロボットの前記撮影部により取得された画像データの中から、前記第1ユーザにより指令された時刻および位置に対応する画像データを抽出することを特徴とする情報提供システム。
  3. 請求項2に記載の情報提供システムにおいて、
    前記データ抽出部は、前記第1ユーザにより指令された時刻における前記記憶部に記憶された前記第1ユーザまたは前記第1ロボットの位置が、前記第1ユーザにより指令された位置から所定距離内であることを条件として、前記記憶部に記憶された前記第2ロボットの前記撮影部により取得された画像データの中から、前記第1ユーザにより指令された時刻および位置に対応する画像データを抽出することを特徴とする情報提供システム。
  4. 請求項1〜3のいずれか1項に記載の情報提供システムにおいて、
    前記ロボットは、歩行可能に構成されることを特徴とする情報提供システム。
  5. 画像データを取得する撮影部を有するとともにユーザとともに移動するロボットを介して情報を提供する情報提供方法であって、
    前記ユーザまたは前記ロボットの位置情報を時刻情報とともに取得し、
    前記撮影部により取得された画像データを、取得された位置情報および時刻情報に関連付けて記憶部に記憶し、
    前記記憶部に記憶された画像データの中から、前記ユーザにより指令された時刻および場所に対応する画像データを抽出し、
    抽出された画像データに基づき画像を表示することを含み、
    前記ロボットは、第1ユーザとともに移動する第1ロボットと、第2ユーザとともに移動する第2ロボットとを含み、
    前記画像データを記憶することは、前記第1ロボットの前記撮影部により取得された画像データと前記第2ロボットの前記撮影部により取得された画像データとを記憶することを含み、
    前記画像データを抽出することは、前記記憶部に記憶された前記第1ロボットの前記撮影部により取得された画像データの中に、前記第1ユーザにより指令された時刻および位置に対応する画像データが存在しないとき、前記記憶部に記憶された前記第2ロボットの前記撮影部により取得された画像データの中から、前記第1ユーザにより指令された時刻および位置に対応する画像データを抽出することを含むことを特徴とする情報提供方法。
  6. ユーザとともに移動するロボットにより取得された画像データと位置情報とを時刻情報とともに取得する情報取得部と、
    前記情報取得部により取得された画像データを、位置情報および時刻情報に関連付けて記憶する記憶部と、
    前記ユーザにより指令が入力される入力部と、
    前記記憶部に記憶された画像データの中から、前記入力部により指令された時刻および位置に対応する画像データを抽出するデータ抽出部と、
    前記データ抽出部で抽出された画像データに基づき画像を表示する表示部と、を備え、
    前記ロボットは、第1ユーザとともに移動する第1ロボットと、第2ユーザとともに移動する第2ロボットとを含み、
    前記記憶部は、前記第1ロボットにより取得された画像データと前記第2ロボットにより取得された画像データとを記憶し、
    前記データ抽出部は、前記記憶部に記憶された前記第1ロボットにより取得された画像データの中に、前記第1ユーザにより指令された時刻および位置に対応する画像データが存在しないとき、前記記憶部に記憶された前記第2ロボットにより取得された画像データの中から、前記第1ユーザにより指令された時刻および位置に対応する画像データを抽出することを特徴とする情報提供システム用管理装置。
JP2019544587A 2017-09-29 2018-09-14 情報提供システム、情報提供方法および情報提供システム用管理装置 Active JP6892928B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017189799 2017-09-29
JP2017189799 2017-09-29
PCT/JP2018/034163 WO2019065305A1 (ja) 2017-09-29 2018-09-14 情報提供システム、情報提供方法および情報提供システム用管理装置

Publications (2)

Publication Number Publication Date
JPWO2019065305A1 JPWO2019065305A1 (ja) 2020-11-26
JP6892928B2 true JP6892928B2 (ja) 2021-06-23

Family

ID=65902358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019544587A Active JP6892928B2 (ja) 2017-09-29 2018-09-14 情報提供システム、情報提供方法および情報提供システム用管理装置

Country Status (4)

Country Link
US (1) US11792484B2 (ja)
JP (1) JP6892928B2 (ja)
CN (1) CN111133762B (ja)
WO (1) WO2019065305A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11227007B2 (en) * 2019-07-23 2022-01-18 Obayashi Corporation System, method, and computer-readable medium for managing image

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE524784T1 (de) * 2005-09-30 2011-09-15 Irobot Corp Begleitroboter für persönliche interaktion
JP5130421B2 (ja) * 2006-06-18 2013-01-30 雅英 田中 通信機能を有するデジタルカメラ
US8635192B2 (en) * 2008-02-28 2014-01-21 Blackberry Limited Method of automatically geotagging data
JP2010019641A (ja) * 2008-07-09 2010-01-28 Fujifilm Corp 情報提供装置、方法およびプログラムならびにアルバム作成装置、方法およびプログラム
US8406925B2 (en) * 2009-07-01 2013-03-26 Honda Motor Co., Ltd. Panoramic attention for humanoid robots
US8316046B2 (en) * 2010-04-07 2012-11-20 Apple Inc. Journaling on mobile devices
US9172938B2 (en) * 2012-04-27 2015-10-27 Panasonic Intellectual Property Management Co., Ltd. Content reproduction method, content reproduction system, and content imaging device
JP2014090386A (ja) * 2012-10-31 2014-05-15 Sony Corp 情報処理システム、情報処理装置、およびプログラム
WO2015017691A1 (en) * 2013-08-02 2015-02-05 Irobot Corporation Time-dependent navigation of telepresence robots
US9183303B1 (en) * 2015-01-30 2015-11-10 Dropbox, Inc. Personal content item searching system and method
JP2016200909A (ja) * 2015-04-08 2016-12-01 日本電信電話株式会社 アルバム作成支援装置、アルバム作成支援システム、および、アルバム作成支援方法
JP2017104532A (ja) * 2015-12-01 2017-06-15 株式会社タスカケル 交流支援システム
US10679058B2 (en) * 2016-01-06 2020-06-09 Orcam Technologies Ltd. Wearable apparatus and methods for processing images to identify contextual situations
CN106572344A (zh) * 2016-09-29 2017-04-19 宇龙计算机通信科技(深圳)有限公司 虚拟现实直播方法、系统以及云服务器
CN107145758A (zh) * 2017-05-31 2017-09-08 上海思依暄机器人科技股份有限公司 一种基于家用机器人的外出陪护服务方法和装置

Also Published As

Publication number Publication date
JPWO2019065305A1 (ja) 2020-11-26
WO2019065305A1 (ja) 2019-04-04
CN111133762A (zh) 2020-05-08
US20200234046A1 (en) 2020-07-23
US11792484B2 (en) 2023-10-17
CN111133762B (zh) 2021-08-10

Similar Documents

Publication Publication Date Title
JP4838499B2 (ja) ユーザ支援装置
KR101850028B1 (ko) 가상 여행 체험 장치 및 그 방법
US20060009702A1 (en) User support apparatus
WO2018121283A1 (zh) 服务提供方法及装置、移动服务设备及存储介质
WO2012081194A1 (ja) 医療支援装置、医療支援方法および医療支援システム
US11364441B2 (en) Method for operating an electronic display device wearable on the head and display system for displaying virtual content
WO2020012955A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2017126433A1 (ja) 情報処理装置およびユーザガイド提示方法
JP7059934B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7287257B2 (ja) 画像処理装置、表示システム、プログラムおよび画像処理方法
JP6822413B2 (ja) サーバ装置及び情報処理方法、並びにコンピュータ・プログラム
US20220343795A1 (en) Orientation assistance system
CN108028906A (zh) 信息处理系统和信息处理方法
KR20200100059A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
JP7375770B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6892928B2 (ja) 情報提供システム、情報提供方法および情報提供システム用管理装置
JP2009238251A (ja) ユーザ支援装置
JP7040521B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR101842210B1 (ko) 시선 추적 기반 콘텐츠 제공 방법 및 장치
JP7023971B2 (ja) サービス提供システム、サービス提供方法およびサービス提供システム用管理装置
CN103480152A (zh) 一种可遥控的摇距临境移动系统
JP6992799B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6719776B2 (ja) 仮想現実システム
JP6564484B1 (ja) 同室感コミュニケーションシステム
JP6559096B2 (ja) 情報出力システム及び情報出力方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210528

R150 Certificate of patent or registration of utility model

Ref document number: 6892928

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150