JP2005117621A - 画像配信システム - Google Patents

画像配信システム Download PDF

Info

Publication number
JP2005117621A
JP2005117621A JP2004211011A JP2004211011A JP2005117621A JP 2005117621 A JP2005117621 A JP 2005117621A JP 2004211011 A JP2004211011 A JP 2004211011A JP 2004211011 A JP2004211011 A JP 2004211011A JP 2005117621 A JP2005117621 A JP 2005117621A
Authority
JP
Japan
Prior art keywords
robot
unit
image
data
manager
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004211011A
Other languages
English (en)
Inventor
Yoshiaki Sakagami
義秋 坂上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2004211011A priority Critical patent/JP2005117621A/ja
Priority to US10/928,406 priority patent/US7373218B2/en
Priority to KR1020040073755A priority patent/KR100580880B1/ko
Publication of JP2005117621A publication Critical patent/JP2005117621A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00307Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a mobile telephone apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Manipulator (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】 複数のロボットから、ユーザが自由に選んだロボットの撮影した画像を閲覧できるようにする。
【解決手段】 自律歩行するロボットR1は、ローカルマネージャLM1の指示で動作する。ユーザが携帯電話TでグローバルマネージャGMに対し、ロボットRnへの接続要求をすると、グローバルマネージャGMのメニュー生成部33がメニュー画面100を生成した上、携帯電話Tへ送信する。ユーザは、メニュー画面100からロボットR1を選択することで、ロボットR1と接続が可能になる。ロボットR1が撮影した画像は、ローカルマネージャLM1で、ロボットR1が撮影した画像と関連のある情報と重合され、携帯電話Tへ送信される。
【選択図】 図1

Description

本発明は、画像配信システムに関する。
近年、ロボットの開発が盛んになっており、ペット用ロボット、家庭用ロボット、及び危険作業用ロボットなどの用途に応じた応用がなされてきている。例えば、家庭用ロボットでは、家庭や、オフィス、ビル内にロボットを配置し、携帯端末からこのロボットを操作して、遠隔地からロボットの周りにいる人とコミュニケーションをとったり、ロボットが撮影した画像を携帯端末で受信してロボットの周囲の状況を把握したりすることが考えられている(例えば、特許文献1参照)。
特開2003−006532号公報(段落0005〜0007、図3)
しかしながら、従来の技術は、携帯端末からロボットを操作することに終始しており、操作しているロボットのカメラが撮影した画像そのものを携帯端末で見ることができるものに過ぎなかった。また、携帯端末からアクセスできるロボットは1台であり、その1台が感知している情報を知ることができるに過ぎなかった。
そこで、本発明では、ロボットを移動可能な情報提供手段として捉え、この情報提供手段からユーザに有用な情報を提供することのできる画像配信システムを提供することを目的とする。
さらに、本発明は、ロボットのみならず、車両などの移動体全般に広く適用可能な画像配信システムを提供することを目的とする。
前記課題を解決するため、本発明の請求項1では、移動体である複数のロボットと、コンテンツサーバと、前記ロボット(移動体)の動作を管理するための複数のローカルマネージャと、前記ロボット(移動体)と携帯端末との通信接続の管理をするグローバルマネージャと、を備えるロボットによる画像配信システムを提供する。
そして、前記ロボットは、前記ローカルマネージャの指示に従い動作する2足歩行による自律移動装置と、前記自律移動装置による移動の指示を受け取る指示入力部と、カメラと、前記カメラが撮影した画像を前記ローカルマネージャへ出力する画像出力部とを備え、前記ローカルマネージャは、前記各ロボットから出力された画像を受け取る画像入力部と、前記ロボットの行動計画を設定したグローバルマップと、前記グローバルマップに基づき前記ロボットの行動を指示する行動指示部と、前記グローバルマップに基づきコンテンツサーバからロボットの現在位置に応じたコンテンツを受け取る情報収集部と、前記画像入力部が受け取った画像と前記情報収集部が受け取ったコンテンツとを重合させた重合データを生成する情報重合部と、前記重合データを前記携帯端末へ送信する画像送信部と、前記ロボットへの接続の可否を判断するための接続可否情報を前記グローバルマネージャへ送信する接続可否管理部とを備え、前記グローバルマネージャは、前記携帯端末からの接続要求があった場合に前記ローカルマネージャから通知された接続可否情報に基づき、前記携帯端末に表示させる少なくとも前記ロボットの利用選択部を含んだメニュー画面を生成し、このメニュー画面を前記携帯端末へ送信するメニュー生成部とを備える。
このような画像配信システムによれば、2足歩行するロボットはグローバルマップに従ったローカルマネージャの指示により行動する。そして、ユーザが、携帯端末を用いてグローバルマネージャに接続要求することで、携帯端末の画面にはロボットの利用選択部を有するメニュー画面が表示される。ユーザは、その画面においてロボットを選択することにより、前記ロボットとの接続が可能になる。ロボットのカメラが撮影した画像は、ローカルマネージャに出力される。ローカルマネージャでは、情報収集部により、グローバルマップに基づいて、ロボットの現在位置に応じたコンテンツをコンテンツサーバから受け取り、このコンテンツとロボットから受け取った画像とを情報重合部で重合する。コンテンツが重合された重合データは、画像送信部からユーザの携帯端末に送られ、ユーザは、ロボットのカメラが撮影した映像と、関連あるコンテンツとが重合した情報を見ることができる。
また、前記したロボットによる画像配信システムにおいては、前記ロボットは、前記カメラで撮影した画像に基づき、その画像中の人物の顔の位置を認識する顔認識部を有し、前記ロボット又は前記ローカルマネージャは、前記顔認識部が認識した前記画像中の人物の顔の位置に基づき、その顔部分を隠す隠蔽処理部を有するように構成するのが望ましい。
このような構成の画像配信システムによれば、隠蔽処理部により、ロボットが認識した顔の位置が隠された上で、重合データが生成され、ユーザの携帯端末に送信されるので、撮影された人のプライバシーを守ることができる。
さらに、前記したロボットによる画像配信システムにおいては、前記ロボット及び前記ローカルマネージャは、互いの間で近距離無線通信を行う無線通信装置、及び互いの間で公衆無線回線により接続可能な公衆回線通信装置の2つをそれぞれ有し、前記ローカルマネージャは、前記ロボットの現在位置に基づき前記グローバルマップを参照し、ロボットの位置が予め設定された無線通信装置の接続範囲内にあるときは前記無線通信装置によりロボットとの通信を行い、接続範囲外にあるときは、前記公衆回線通信装置によりロボットとの通信を行うように通信手段を切り替える通信切替部を備えるように構成するのが望ましい。
このように構成した画像配信システムによれば、ローカルマネージャの通信切替部が、ロボットの位置に応じて無線通信装置と、公衆回線通信装置を切り替える。そのため、ロボットが広範囲に移動しても、通信が途切れることがなく、公衆回線の利用による通信料金も抑えることができる。
また、前記行動指示部は、前記携帯端末からのロボット操作指示を考慮して前記ロボットの行動を指示し、前記携帯端末から同時にロボット操作指示があった場合には、所定の方法で一の利用者からのロボット操作指示を選択すれば、利用者が携帯端末からローカルマネージャを介してロボットを操作することができる。
また、前記行動指示部は、ロボット操作指示の回数が多い携帯端末からのロボット操作指示を選択するように構成することもできる。
また、本発明は、画像処理部と、ローカルマネージャとが設けられた複数の移動体と、当該移動体と携帯端末との通信接続の管理をするグローバルマネージャとを備える画像配信システムに関するものである。
この画像配信システムを構成する移動体の前記画像処理部は、カメラと、前記カメラが撮影した画像を出力する画像出力部とを備えて構成され、前記ローカルマネージャは、前記画像出力部から出力された画像を受け取る画像入力部と、前記車両の現在位置に応じたコンテンツを、コンテンツサーバから受け取る情報収集部と、前記画像入力部が受け取った画像と前記情報収集部が受け取ったコンテンツとを重合させた重合データを生成する情報重合部と、前記重合データを前記携帯端末へ送信する画像送信部と、前記携帯端末の前記移動体への接続の可否を判断するための接続可否情報を前記グローバルマネージャへ送信する接続管理部とを備えて構成される。
さらに前記グローバルマネージャは、前記携帯端末からの接続要求があった場合に前記ローカルマネージャから通知された接続可否情報に基づき、前記携帯端末に表示させる少なくとも前記移動体の利用選択部を含んだメニュー画面を生成し、このメニュー画面を前記携帯端末へ送信するメニュー生成部とを備えて構成される。
本発明の画像配信システムによれば、例えば、移動体がロボットである場合、ユーザは、複数の場所にいるロボットの一つを選択して、そのロボットが見た画像に、その画像と関連あるコンテンツが表示されるので、携帯端末のユーザに有用な情報を提供することができる。
また、隠蔽処理部で画像中の顔を隠すことで、撮影された人のプライバシーを守ることができる。
さらに、通信切替部で無線通信装置と公衆回線通信装置との切替えを行えば、通信が途
切れることがなく、公衆回線の利用による通信料金も抑えることができる。
また、ユーザは予め用意された複数の移動体の中から任意の一つを選択し、選択された移動体に搭載されたカメラにより撮影された画像を、ユーザが使用する携帯端末に表示させることができる。
次に、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。図1は、本発明の実施形態に係る画像配信システムのシステム構成図である。
本発明は、複数の移動体と、前記移動体における諸動作を管理するための複数のローカルマネージャと、前記移動体と携帯端末との通信接続の管理をするグローバルマネージャとを含んで構成される画像配信システムに関するものである。
ここで、本実施の形態では、移動体がロボットの場合と、車両である場合とを、移動体の一例としている。よって、以下の説明においては、始めに移動体がロボットである場合について説明し、続いて移動体が車両である場合について説明する。
<移動体がロボットである場合>
図1に示すように、画像配信システム1は、ロボット管理者M(M1,M2,・・・)(以下、特に区別しないときは単に「ロボット管理者M」とする)が有するロボットR1,R2,・・・(以下、特に区別しないときは「ロボットRn」とする)と、このロボットRnをそれぞれ管理するローカルマネージャLM1(以下、特に区別しないときは単に「ローカルマネージャLMn」とする。)と、グローバルマネージャGMと、ユーザが有する携帯端末である携帯電話Tと、コンテンツサーバCSとから構成されている。
これらのうち、ローカルマネージャLMn、グローバルマネージャGM、コンテンツサーバCSは互いにネットワークNWにより接続され、携帯電話Tも携帯電話会社TCが有する接続装置を介してネットワークNWに接続されている。
ロボット管理者Mは、ロボットRnの利用により、宣伝や、情報の提供サービスを行う者であり、例えば、デパートM1やテーマパークM2などがある。ロボットR1は、デパートM1に配置され、ローカルマネージャLM1により管理されている。同様に、ロボットR2は、テーマパークM2に配置され、ローカルマネージャLM2により管理されている。
以下、ロボットR1、コンテンツサーバCS、ローカルマネージャLM1、グローバルマネージャGMの構成についてそれぞれ説明する。なお、ロボットR2は、ロボットR1と同様であり、ローカルマネージャLM2は、ローカルマネージャLM1と同様であるのでともに説明を省略する。
[ロボットR1]
図1に示すように、ロボットR1は、自律移動型の2足歩行ロボットであり、頭部R11、腕部R12、脚部R13を有する。頭部R11、腕部R12、脚部R13は、それぞれアクチュエータにより駆動され、自律移動制御部15(図2参照)により2足歩行の制御がなされる。この2足歩行についての詳細は、例えば特開2001−62760号公報に開示されている。
図2は、ロボットR1のブロック構成図である。
図2に示すように、ロボットR1は、前記した頭部R11、腕部R12、脚部R13に加え、カメラC,C、スピーカS、マイクMC、画像処理部11、音声処理部12、画像送信部13、行動決定部14、自律移動制御部15、及び無線通信部16を有する。また、ロボットR1の位置を検出するため、ジャイロセンサSR1や、GPS受信器SR2を有している。
カメラC,Cは、映像をデジタルデータとして取り込むことができるものであり、例えばカラーCCD(Charge-Coupled Device)カメラが使用される。カメラC,Cは、左右に平行に並んで配置され、撮影した画像は画像処理部11と、画像送信部13に出力される。カメラC,C、スピーカS、及びマイクMCは、いずれも頭部R11の内部に配設される。
画像処理部11は、カメラC,Cが撮影した画像を処理して、撮影された画像からロボットR1の周囲の状況を把握するため、周囲の障害物や人物の認識を行う部分である。本発明に関連する部分として、画像処理部11は、ステレオ処理部11a、移動体抽出部11b、及び顔認識部11cを有する。
ステレオ処理部11aは、左右のカメラC,Cが撮影した2枚の画像の一方を基準としてパターンマッチングを行い、左右の画像中の対応する各画素の視差を計算して視差画像を生成し、生成した視差画像及び元の画像を移動体抽出部11bに出力する。この視差は、ロボットR1から撮影された物体までの距離を表すものである。
移動体抽出部11bは、ステレオ処理部11aから出力されたデータに基づき、撮影した画像中の移動体を抽出するものである。移動する物体(移動体)を抽出するのは、移動する物体は人物と推定して、人物の認識をするためである。移動体の抽出をするために、移動体抽出部11bは、過去の数フレーム(コマ)の画像を記憶しており、最も新しいフレーム(画像)と、過去のフレーム(画像)を比較して、パターンマッチングを行い、各画素の移動量を計算し、移動量画像を生成する。そして、視差画像と、移動量画像とから、カメラC,Cから所定の距離範囲内で、移動量の多い画素がある場合に、人物があると推定し、その所定距離範囲のみの視差画像として、移動体を抽出し、顔認識部11cへ移動体の画像を出力する。
顔認識部11cは、抽出した移動体から肌色の部分を抽出して、その大きさ、形状などから顔の位置を認識する。なお、同様にして、肌色の領域と、大きさ、形状などから手の位置も認識される。
認識された顔の位置は、ロボットR1が移動するときの情報として、また、その人とのコミュニケーションを取るため、行動決定部14に出力されるとともに、無線通信部16に出力されて、ローカルマネージャLM1に送信される。
音声処理部12は、音声合成部12aと、音声認識部12bとを有する。
音声合成部12aは、行動決定部14が決定し、出力してきた発話行動の指令に基づき、文字情報から音声データを生成し、スピーカSに音声を出力する部分である。音声データの生成には、予め記憶している文字情報と音声データとの対応関係を利用する。
音声認識部12bは、マイクMCから音声データが入力され、予め記憶している音声データと文字情報との対応関係に基づき、音声データから文字情報を生成し、行動決定部14に出力するものである。
画像送信部13は、無線通信部16を介してカメラC,Cから入力された画像データをローカルマネージャLM1へ出力する部分である。なお、画像送信部13及び無線通信部16が、画像出力部に相当する。
自律移動制御部15は、頭部制御部15a、腕部制御部15b、脚部制御部15cを有する。
頭部制御部15aは、行動決定部14の指示に従い頭部R11を駆動し、腕部制御部15bは、行動決定部14の指示に従い腕部R12を駆動し、脚部制御部15cは、行動決定部14の指示に従い脚部R13を駆動する。
なお、自律移動制御部15、頭部R11、腕部R12、及び脚部R13が自律移動装置に相当する。
また、ジャイロセンサSR1、及びGPS受信器SR2が検出したデータは、行動決定部14に出力され、ロボットR1の行動を決定するのに利用されるとともに、行動決定部14から無線通信部16を介してローカルマネージャLM1に送信される。
無線通信部16は、ローカルマネージャLM1とデータの送受信を行う通信装置である。無線通信部16は、公衆回線通信装置16a及び無線通信装置16bを有する。
公衆回線通信装置16aは、携帯電話回線やPHS(Personal Handyphone System)回線などの公衆回線を利用した無線通信手段である。一方、無線通信装置16bは、IEEE802.11b規格に準拠するワイヤレスLANなどの、近距離無線通信による無線通信手段である。無線通信部16は、ローカルマネージャLM1の接続要求に従い、公衆回線通信装置16a又は無線通信装置16bを選択してローカルマネージャLM1とデータ通信を行う。
なお、無線通信部16は、指示入力部に相当する。
[コンテンツサーバCS]
図3は、ローカルマネージャLM1及びグローバルマネージャGMの機能ブロック図であり、図4は、コンテンツサーバCSのデータの内容を示す図である。
図3に示すように、コンテンツサーバCSは、ローカルマネージャLM1からアクセスされる。コンテンツサーバCSは、例えばデータベースサーバやウェブサーバにより構成されるが、ローカルマネージャLM1からアクセス可能なサーバであればよく、ローカルマネージャLM1内や、ロボットR1内、又はグローバルマネージャGM内に配設することもできる。
コンテンツサーバCSのデータの内容は、例えば図4に示すように、位置と、その位置に対応するコンテンツが対応付けて記憶されている。図4の例では、位置P3に対して「バーゲン特設会場です!15日まで!」という文字情報が記憶され、位置P2に対しては「MOUSE.PNG」という画像ファイルのファイル名が記憶されている。
なお、コンテンツサーバCSは、ロボット管理者Mなどが用意するものでなくても良く、公開されたウェブサーバをそのまま情報源として利用してもよい。例えば、グローバルマップ21内に参照先のURLを登録しておき、情報収集部25がそのURLのウェブサーバにアクセスして情報を収集してもよい。この意味で、コンテンツサーバは、画像配信システム1自体としては任意的な構成要素である。
[ローカルマネージャLM1]
ローカルマネージャLM1は、図3に示すように、グローバルマップ21、マップ設定部22、入力装置23、行動指示部24、情報収集部25、情報重合部26、通信部27、無線通信部28、及び通信切替部28cを有する。
グローバルマップ21は、ロボットR1の行動計画を設定したデータベースである。
図5は、グローバルマップ21の設定画面を示す図であり、図6は、グローバルマップ21の内容を示す図である。マップ設定部22は、図5の設定画面を提供する部分であり、グローバルマップ21内に設定されたロボットR1の目標移動位置(「サブゴール」という)を、グローバルマップ21を参照して表示するとともに、各サブゴールと関連した情報、例えばロボットR1の腕などの動作が入力装置23を用いて編集できるようになっている。また、サブゴールの位置の編集も可能である。
図5に示した設定画面の例では、グローバルマップ21内に保持された地図データを基にして部屋の仕切りが描かれ、ロボットR1が移動すべき目標地点が位置P1〜P9で表示されている。ロボットR1は、サブゴールに到着するたびに次のサブゴールを目指すように行動が指示される。
図5において、点APは、ローカルマネージャLM1のアクセスポイント、つまり無線通信装置28b(図3参照)による電波の発信位置を示し、このアクセスポイントから一定距離の範囲が無線通信装置28bにより通信をする接続範囲であることが点APを中心とする円ALで表示されている。
図6に示すように、グローバルマップ21には、その内容として、サブゴールの位置、顔の向き、停止時間、速度、ジェスチャの各設定フィールドがある。
サブゴールの位置の内容としては、コード、X座標、及びY座標がある。コードは、位置を示す呼び名であり、前記した設定画面(図5)に表示される。X座標及びY座標は、図5の設定画面における左上を原点とした座標であり、サブゴール位置を特定する値である。
顔の向きは、ロボットR1の頭部R11の向きを設定するフィールドであり、水平角度Hと、垂直角度Vの値が設定されている。
停止時間は、各サブゴールに到着した時のロボットR1の停止時間であり、秒単位で設定されている。
速度は、ロボットR1が各サブゴールへ向かうときの歩行速度を設定したフィールドであり、時速で設定されている。
ジェスチャは、ロボットR1が各サブゴールに到着した時に行うジェスチャが設定されている。ジェスチャと対応するロボットR1の具体的な動作のデータは、ロボットR1の自律移動制御部15内に保持されている(図示せず)。
このように、グローバルマップ21は、サブゴールの位置に対応したロボットR1の動作が設定されている。なお、これらの設定フィールドは一部であり、その他のフィールド、例えば現在位置をも記憶しており、また、コンテンツサーバCSの内容として例示したコンテンツをフィールドとして追加すれば、グローバルマップ21にコンテンツサーバCSを兼ねさせることができる。
図3に示す行動指示部24は、グローバルマップ21のデータに基づき、無線通信部28を介してロボットR1へ、歩行、ジェスチャなどの指示を発する部分である。一方で、行動指示部24は、ロボットR1から無線通信部28を介してロボットR1の位置を受信し、グローバルマップ21へ記憶させている。そして、現在位置を確認しながら、グローバルマップ21内の設定フィールドを参照して次の指示を決定する。
また、ユーザが携帯電話TからロボットR1の動作を指示するため、ローカルマネージャLM1へ操作指示を送信してきた場合には、行動指示部24は、通信部27を介してその指示を受信し、無線通信部28を介してロボットR1へ送信する。但し、複数人数のユーザでロボットR1を共有する場合には、複数のユーザの指示が競合することがあるので、その場合には、例えば指示を多数決(単位時間内に指示された数)により一つに絞り込んだ上で、ロボットR1へ指示する。
情報収集部25は、グローバルマップ21に記憶されたロボットR1の位置を参照して、ロボットR1の位置に応じたコンテンツをコンテンツサーバCSから検索して収集する部分である。収集されたコンテンツのデータは、情報重合部26へ出力される。
情報重合部26は、ロボットR1から送信されてきた画像データと、情報収集部25から入力されたコンテンツのデータを重ね合わせる部分である。情報の重合の仕方としては、画像の情報に文字やテキストのビットマップデータを重ね合わせることにより生成することもできるし、携帯電話T又はその他の携帯端末が、HTML(Hyper Text Markup Language)文書などの文字と画像を含んだフォーマットの文書を表示できる場合には、そのようなフォーマットに合わせた文書となるようにタグを付加したデータを生成してもよい。情報重合部26で生成された重合データは、通信部27、携帯電話会社TC内の接続装置を介して携帯電話Tに送信される。
なお、重合する情報は、コンテンツサーバCSに記憶されているコンテンツとなるが、文字情報だけでなく、画像であってもよい。例えば、ユーザにロボットR1の操作を許可する場合には、操作案内として、操作ボタンを重合したり、操作説明の図を重合したりしてもよい。このようにすれば、ユーザの操作が容易になる。
通信部27は、携帯電話会社TC(携帯電話T)及びグローバルマネージャGMと通信をするための部分であり、典型的にはインターネットへの接続部分である。
なお、通信部27は、画像送信部に相当する。
無線通信部28は、ロボットR1と無線通信をするための部分であり、公衆回線通信装置28aと、無線通信装置28bとを有する。公衆回線通信装置28aは、公衆回線通信装置16aと、無線通信装置28bは、無線通信装置16bと同様であるので、詳細な説明は省略する。なお、無線通信部28は、画像入力部に相当する。
通信切替部28cは、無線通信部28の通信装置を切り替える部分である。具体的には、グローバルマップ21を参照し、グローバルマップ21が記憶しているロボットR1の現在位置が、アクセスポイント(点AP)から所定距離の接続範囲内であるかどうかを判断し、接続範囲内であれば、無線通信装置28bを用いてロボットR1と通信するようにし、接続範囲外であれば、公衆回線通信装置28aを用いてロボットR1と通信するように通信装置を切り替える。
接続可否管理部29は、ユーザの携帯電話Tからの接続の可否を管理する部分であり、現在接続している携帯電話Tの数を管理している。接続可否管理部29は、携帯電話Tからの接続があるたびに、現在の接続数を加算し、切断がある度に接続数を減算する。そして、接続、切断がある度に、通信部27を介して現在の接続数をグローバルマネージャGMへ送信する。なお、現在の接続数に代えて、接続可否管理部29が、接続可否を判断した上で、接続可否を示す情報だけをグローバルマネージャGMへ送信してもよい。つまり、現在の接続数が予め設定された数より小さい場合には、通信部27を介して接続可の情報をグローバルマネージャGMに送信し、現在の接続数が予め設定された数以上の場合には、通信部27を介して接続不可の情報をグローバルマネージャGMに送信する。
また、接続可否管理部29は、図示しないタイマを有しており、ユーザの接続時刻を記憶して、一人のユーザに決められた時間だけ利用させるように、接続を管理している。
なお、ローカルマネージャLM1は、ロボットR1の設定を行うためのものであるとともに、ロボットR1の処理を分担する意味もあって、実施の形態ではロボットR1と別体にしているが、ロボットR1の内部に設けるか、ロボットR1の内部の行動決定部14などを構成するコンピュータにローカルマネージャLM1の機能を兼ねさせても構わない。
[グローバルマネージャGM]
グローバルマネージャGMは、ロボット管理データ31、利用管理部32、メニュー生成部33、及び通信部34を有している。
ロボット管理データ31は、複数のロボットRnの利用状況を管理するデータであり、グローバルマネージャGMが有する記憶装置内に記憶されている。
図7は、ロボット管理データ31の内容を示す図である。図7に示すように、ロボット管理データ31は、ロボットRnのID(R1,R2,・・・)をキーとして、ロボットRnごとに場所、接続数、接続可能数、利用可否、接続先の情報を記憶している。
場所のフィールドは、ロボットRnが配置されている場所であり、その場所を示す文字情報が格納されている。このデータは、ロボットRnの選択の際に表示される情報となるので、場所を示す文字情報に付加して、その場所を説明する簡単なコメントの文字情報を記憶させてもよい。
接続数は、ロボットRnに現在接続している携帯電話Tの数である。
接続可能数は、各ロボットRnに対して設定された、ロボットRnに同時に接続できる携帯電話Tの数である。この接続可能数は、各ローカルマネージャLMn内の接続可否管理部29に設定されている数と同じ数が設定される。
利用可否のフィールドは、ロボットRnが利用できるかが、○又は×の文字情報で格納されている。この情報は、利用可否を識別できれば、他の情報、例えば0と1の数字であってもよい。なお、接続可能数が1に設定されている場合は、そのロボットRnは、一人のユーザにより専有が可能となり、接続可能数が2以上の場合には、複数のユーザで共有するものとなる。
接続先のフィールドは、ロボットRnへの接続先のIPアドレスが設定されている。接続先は、URL(Uniform Resource Locators)や電話番号で設定しても構わない。
利用管理部32は、ロボットRnの利用状況を管理する部分である。利用管理部32は、ローカルマネージャLMnが現在の接続数を送信してくるたびに、ロボット管理データ31内の、ロボットRnに該当する接続数の値を更新する。そして、更新したロボットRnの接続可能数と接続数の数を比較し、接続可能数の方が大きければ利用可否を○とし、接続可能数と接続数が同じであれば、利用可否を×とする。
メニュー生成部33は、ユーザの携帯電話TからロボットRnへの接続を目的とする接続要求があった場合に、ロボットRnの利用選択部を含むメニュー画面を生成して、このメニュー画面のデータを携帯電話Tへ送信する部分である。例えば、メニュー生成部33は、図8に示すようなメニュー画面100を表示させるデータを生成する。
具体的には、メニュー生成部33は、携帯電話Tから通信部34を介して接続要求を受信したら、ロボット管理データ31を参照して、利用可否のフィールドを検索して利用可能なロボットRnのみを抽出する。そして、利用可能なロボットRnについて場所を示す文字列101と選択用のフォーム、例えばラジオボタン102を並べて表示させるデータを生成する。また、ラジオボタン102の選択による値として、各ロボットRnへの接続先のデータ、例えばIPアドレスを設定する。そして、画面の一部に接続ボタン103のフォームを表示させるデータを付加し、この接続ボタン103のアクションとして、ラジオボタン102で選択された値への接続を設定する。
なお、メニューの表示形式はこれに限られるものではなく、ドロップダウン形式などでロボットRnを選択させたり、ロボットRnの場所の文字列に接続先をリンクしたりすることもできる。
[携帯電話T]
携帯電話Tは、携帯端末の一例であり、PDA(Personal Digital Assistance)やノートパソコンなどであっても構わない。
以上のように構成された画像配信システム1の動作について、図11のフローチャートを参照しながら説明する。
図11においては、ロボットR1、ローカルマネージャLM1、グローバルマネージャGM、携帯電話Tの各動作を縦に並べて説明している。
まず、ローカルマネージャLM1の行動指示部24は、グローバルマップ21内に設定された行動内容に従い、ロボットR1に対して行動を指示する(ステップSR1)。この行動の指示は、例えば、図6に示したような、次に向かうべきサブゴールの位置(座標)、歩行速度や、サブゴールでの停止時間、顔の向き、行うジェスチャなどである。
また、ローカルマネージャLM1からロボットR1への指示に使用する通信手段は、通信切替部28cが、ロボットR1の位置により適宜変更する。すなわち、ローカルマネージャLM1は、グローバルマップ21で把握しているロボットR1の現在位置が、グローバルマップ21内に設定されたアクセスポイントから所定距離の範囲内であれば、無線通信装置28bを使用してロボットR1の無線通信装置16bと通信し、所定距離の範囲外であれば、公衆回線通信装置28aを使用してロボットR1の公衆回線通信装置16aと通信する。
そして、行動の指示を受信したロボットR1は、指示に従い、移動、ジェスチャ、発話などの行動を行う(ステップSR2)。ロボットR1は、画像処理部11で確認した周囲の状況、ジャイロセンサSR1、GPS受信器SR2で検出した情報、音声認識部12bで認識した音声に応じて、行動決定部14は行動を決定し、自律移動制御部15により頭部R11、腕部R12、脚部R13を駆動して歩行を続ける。
このとき、ロボットR1は、カメラC,Cから周囲の状況を撮影して、画像処理部11で人物や障害物を確認しながら歩行するとともに、人物の顔を認識したときは、その位置をローカルマネージャLM1に逐次送信する。また、撮影した画像自体も画像送信部13によりローカルマネージャLM1に送信し、ジャイロセンサSR1、GPS受信器SR2で検出した情報も無線通信部16を介してローカルマネージャLM1に送信する(ステップSR3)。
ロボットR1から画像、顔の位置情報、及びジャイロセンサSR1、GPS受信器SR2で検出した情報、を受信したローカルマネージャLM1は、これらの情報に基づき、ロボットR1の現在位置を特定し、グローバルマップ21内のロボットR1の現在位置を更新する。そして、情報収集部25は、グローバルマップ21内のロボットR1の現在位置を参照して、コンテンツサーバCSから、ロボットR1の現在位置に対応したコンテンツを取得し、記憶する(ステップSR4)。
以上のステップSR1〜SR4は、ロボットR1を起動している間はローカルマネージャLM1とロボットR1が定常的に行っている動作であり、これらをまとめて定常動作ステップSRとする。
一方、ユーザは、携帯電話Tを使ってグローバルマネージャGMにアクセスし、ロボットRnへの接続要求をする(ステップS1)。
接続要求を受信したグローバルマネージャGMは、メニュー生成部33によりメニュー画面のデータを生成し、携帯電話Tへ送信する(ステップS2)。このとき、メニュー生成部33は、ロボット管理データ31の内容を参照して、現在利用可能になっているロボットRnのみが選択できるメニュー画面を生成する。例えば、図8に示したように、ロボットRnの配置された場所名を示す文字列101と、選択用のラジオボタン102と、接続ボタン103とを表示するメニュー画面100のデータを生成する。
ユーザの携帯電話Tには、図8のようなメニュー画面100が表示され、ユーザは、例えば「○×デパート」を選択した上で接続ボタン103を押し、ローカルマネージャLM1に対し接続要求する(ステップS3)。
ローカルマネージャLM1の接続可否管理部29では、携帯電話Tからの接続要求に応じて携帯電話Tと接続し、利用時間を計るため、タイマをスタートする。なお、タイマのスタートは、常に動いているタイマの時間を記憶することとしてもよい。
また、接続可否管理部29は、接続数を更新し、グローバルマネージャGMへ送信する(ステップS4)。
接続数を受信したグローバルマネージャGMの利用管理部32は、受信した接続数によりロボット管理データ31を更新する(ステップS5)。
ローカルマネージャLM1及びロボットR1は、前記した定常動作ステップSRを繰り返し、ロボットR1が見た画像がローカルマネージャLM1に送信される。
ローカルマネージャLM1の情報重合部26では、ロボットR1から送られて来た画像と、情報収集部25が収集したコンテンツを重ね合わせ、重合データを生成する(ステップS6)。重合データで表示される画像は、例えば図9に示すようなものである。ユーザが「○×デパート」のロボットR1を選択した場合であれば、グローバルマップ21の位置P3(図5参照)にロボットR1がいるとすると、コンテンツサーバCSからは、図4に示すように「バーゲン特設会場です!15日まで!」という文字情報が取得されている。そのため、ロボットR1が見た位置P3におけるバーゲン特設会場の風景に「バーゲン特設会場です!15日まで!」という文字が重合された画像が表示される。
また、情報重合部26は、ロボットR1から画像中の顔の位置の情報を受けていたときには、図10に示すように、その顔の位置に黒丸を重ね合わせる(隠蔽処理)。この隠蔽処理は、白丸、モザイク、ぼかし、あるいはスマイルマークなど、顔を隠すものであればどのような処理でもよい。
さらに、ロボットR1を操作できるように設定された場所であれば、図10に示すように、操作方法を示す画像を画面の下方に表示させてもよい。図10の例では、顔(頭部R11)の向きを変える操作方法として、1を押せば左へ、2を押せば右へ向きが代わることを表示している。
携帯電話Tには、ローカルマネージャLM1から送られた画像のデータがディスプレイ上に表示される(ステップS7)。
そして、図10で示したように、ロボットR1の操作が可能な場合には、ユーザは、携帯電話Tのボタンを操作して、ロボットR1の動作を指示する(ステップS8)。
ロボットR1は、定常動作ステップSRを繰り返すが、今度は、携帯電話Tから動作の指示があるので、ローカルマネージャLM1の行動指示部24は、これを可能な限りで優先させてロボットR1に動作の指示をする(ステップSR1′、定常動作ステップSR’)。
ユーザが利用を止めようとする場合には、携帯電話Tから切断要求し(ステップS9)、ローカルマネージャLM1が切断される(ステップS10)、そして、接続可否管理部29が接続数を更新してグローバルマネージャGMへ送信し(ステップS10)、グローバルマネージャGMの利用管理部32は、ロボット管理データ31の内容を更新する(ステップS11)。
なお、ユーザから利用の停止をしなくても、ローカルマネージャLM1のタイマが所定の時間になれば、ローカルマネージャLM1から通信を切断することができる。
また、複数のユーザから同時にロボット操作の指示があった時は、所定時間内に携帯電話TのL,R等のボタン操作数(図8参照)などに基づく多数決で利用者を決定するのが望ましい。この場合は、一人の利用者の利用可能時間を数分(例えば、3分)位に設定するのが望ましい。また、このときに、L,R等のボタン操作による操作コマンドの頻度(1分あたりの回数など)で利用者のコマンドを有効にする手法もある。
以上のようにして、ユーザは、携帯電話Tを利用して、複数配置されたロボットRnにアクセスし、ロボットRnが撮影した画像に、その場所に関連する情報が付加された画像を見ることができる。また、複数のロボットRnから好きなロボットRnを選んで、遠隔地からロボットRnを動作させることができる。そして、ロボット管理者Mからすれば、ロボットRnがいる現地の様子に、付加情報を付けて画像を配信することで、イベントの宣伝や、情報提供サービスが可能となる。
また、ロボットRnが、人の顔を撮影してしまった場合には、その顔の位置に隠蔽処理がなされることで、撮影された人のプライバシーを守ることができる。
さらに、接続方法を、公衆回線通信装置28aと、無線通信装置28bとを切り替えることで、ロボットR1とローカルマネージャLM1との接続が途切れないとともに、必要最小限の場合だけ有料の回線を使用することで、通信料金を抑えることができる。そして、電波の強さを基準に切り替える場合には、障害物が無ければ、相当遠くまで通信が可能な場合もあるが、ロボットR1が離れた状態で、障害物が通ったり、ロボットR1が隠れたりすると、急激に電波の出力が下がって接続が切れるおそれがあるが、本実施形態では、ロボットR1の位置から接続を切り替えるかどうかを判断するので、接続が途切れる可能性を低くするように安全マージンを取った切替設定をすることができる。
以上、移動体がロボットである場合の実施形態について説明したが、本発明は前記実施形態には、限定されず、適宜変更して実施することができる。
例えば、ロボットR1が撮影した画像をロボットR1やローカルマネージャLM1内に残さずに消すようにすれば、撮影された人のプライバシーをより保護することができる。また、携帯端末へも、記憶できないようにすれば、より確実にプライバシーを保護することができる。
また、画像は、静画像であっても、動画像であってもどちらでも構わない。
通信手段も例示したものには限られず、適宜な手段を利用することができる。
また、ロボットR1の動作パターンは、ロボット管理者MがローカルマネージャLM1のグローバルマップ21のデータを編集することで、シナリオを追加、変更することができる。
<移動体が車両の場合>
次に、本発明に係る画像配信システムを構成する移動体が車両である場合について説明する。なお、本実施の形態では、内容の理解を容易にするために、車両が自動車レースに参加している車両である場合を適宜例に挙げて説明する。
図1を参照して、画像配信システム1は、移動体である車両V3と、この車両における諸動作を管理するローカルマネージャLM3と、グローバルマネージャGMと、ユーザが有する携帯端末である携帯電話Tと、コンテンツサーバCSとから構成されている。
ここで、この図においては、移動体である車両は一台しか示されていないが、本発明に係る画像配信システム1は、複数台の車両を含んで構成されている。
なお、以下の説明において、車両を特に区別しないときは「車両Vn」と表記する。
この画像配信システム1に含まれる、車両VnにはローカルマネージャLMnがそれぞれ搭載されており、このローカルマネージャLMn、グローバルマネージャGM、コンテンツサーバCSは互いにネットワークNWにより接続されている。ここで、各ローカルマネージャLMnは、携帯電話会社TCが有する接続装置や適当なアクセスポイントAPを介してネットワークNWに接続されており、携帯電話Tもまた、携帯電話会社TCが有する接続装置を介してネットワークNWに接続されている。
以下、車両V3に設けられた画像処理部及びローカルマネージャLM3、グローバルマネージャGMの場合を例に挙げて、これらの構成についてそれぞれ説明する。
[車両V3]
図12に示すように、車両V3には、画像処理部50と、ローカルマネージャLM3とが少なくとも設けられている。
本実施の形態における画像処理部50は、車両V3に搭載されたカメラによる撮像画像から、画像データを生成するものでり、カメラC1,C2と、カメラ制御部51と、画像出力部52と、制御部53とを含んで構成される。
カメラ制御部51は、制御部53から入力されたカメラ制御信号に基づいて、カメラC1,C2の切り替えや、カメラC1,C2の向きの調整などを行うものである。
本実施の形態において用いるカメラC1,C2は、前記したロボットRのカメラCと同様に、映像をデジタルデータとして取り込むことができるものであり、例えばカラーCCD(Charge-Coupled Device)カメラが使用される。
そして、カメラC1,C2は、車両V3に少なくとも一つ配置されていれば良く、また、複数配置される場合には、車両の前方や後方など、任意に設定された方向に向けて配置されているものとする。この場合、制御部53によって任意のカメラが選択され、選択されたカメラを介して撮像が行われることになる。なお、カメラの選択は、一台のカメラを選択する構成に限定されるものではなく、複数のカメラを同時に選択するように構成しても良い。
画像出力部52は、カメラC1,C2を介して撮像した撮像画像のデータ(画像データ)を生成し、生成した画像データを制御部53に出力するものである。
具体的には、本実施の形態の場合、画像出力部52は、後述する制御部53からデータ取得命令信号が入力されると、現在選択されているカメラ(例えば、カメラC1)による撮像により生成された画像データを制御部53に出力する。
したがって、カメラC1が、車両のフロントグリルに設置されている場合、車両の前方側の撮像により得られた画像データが、画像出力部52において生成され、制御部53に出力される。
音声処理部60は、カメラC1,C2による撮像の際に、マイクMCを介して入力された音声のデータ(音声データ)を生成し、生成した音声データを制御部53に出力するものである。
具体的には、本実施の形態の場合、音声処理部60は、後述する制御部53からデータ取得命令信号が入力されると、マイクMCにより収集されたエンジン音や環境音などの音声のデータ(音声データ)を生成し、生成した音声データを制御部53に出力するものでる。
現在位置取得部70は、ジャイロセンサSR1やGPS受信器SR2などを含んで構成されるものであり、現在位置取得部70を搭載する車両V3の現在位置を示すデータ(位置データ)を生成し、生成した位置データを制御部53に出力するものである。
具体的には、本実施の形態の場合、現在位置取得部70は、後述する制御部53からデータ取得命令信号が入力されると、ジャイロセンサSR1やGPS受信器SR2などを利用して、車両V3の現在位置を示す位置データを生成し、これを制御部53に出力する。
制御部53は、ローカルマネージャLM3から入力された命令信号(データ要求信号)に基づいて、各種データ(画像データ、音声データ、位置データ)を取得するものである。
具体的には、制御部53は、データ要求信号が入力されると、このデータ要求信号に従って、カメラの向きの調整や使用するカメラの切り替えを命令するカメラ制御信号を生成し、生成したカメラ制御信号をカメラ制御部51に出力すると共に、データの出力を要求する信号(データ取得命令信号)を生成し、生成したデータ取得命令信号を画像出力部52と、音声処理部60と、現在位置取得部70とに出力する。
そして、データ取得命令信号が入力された各部(画像出力部52、音声処理部60、及び現在位置取得部70)から出力された各種データ、すなわち、画像出力部52から入力された画像データと、音声処理部60から入力された音声データと、現在位置取得部70から入力された位置データとを、ローカルマネージャLM3に出力する。
なお、データ取得命令信号は、画像出力部52と、音声処理部60と、現在位置取得部70とのすべてに出力する必要はなく、例えば携帯電話Tを利用するユーザが映像のみを求めている場合には、音声処理部60を除いた、画像出力部52と現在位置取得部70とにデータ取得命令信号が出力されることになる。この場合、制御部53からは、画像データと位置データとが出力されることになる。
[ローカルマネージャLM3]
ローカルマネージャLM3は、携帯電話Tの当該車両V3への接続の可否を判断するための接続可否情報を前記グローバルマネージャGMへ送信すると共に、接続を認める場合には、画像データを該当する携帯電話Tに出力するものである。
図13に示すように、ローカルマネージャLM3は、データ入力部80と、情報収集部81と、情報重合部82と、通信部83と、接続管理部84とを含んで構成される。
データ入力部80は、画像処理部50から入力された各種データ(画像データ、音声データ、位置データ)を情報重合部82に出力すると共に、位置データを情報収集部81に出力するものである。
情報収集部81は、データ入力部80から入力された位置データを参照して、車両V3の現在位置に応じたコンテンツを、コンテンツサーバCSの中から検索して収集すると共に、収集したコンテンツのデータを、情報重合部82へ出力するものである。
たとえば、車両V3が自動車レースに参加している車両である場合、位置データを基にコンテンツサーバを参照し、当該位置データに関連づけられたコンテンツを取得する。
ここで、本実施の形態の場合、図14に示すように、コンテンツサーバCSには、位置データにより特定される位置が、自動車レースの行われているサーキットのどの位置に該当するのかを示す情報が、位置データと関連づけられて記憶されている。
よって、車両V3の現在位置が位置データP1で示される場合、このP1に関連づけられた「S字カーブ付近」という内容のテキストデータを、情報収集部81は取得することになる。
そして、情報収集部81は、当該テキストデータと位置データとを含んで構成されるコンテンツデータを生成し、生成したコンテンツデータを情報重合部82に出力する。
情報重合部82は、データ入力部80から入力された画像データと、情報収集部81から入力されたコンテンツデータに含まれるテキストデータとを重ね合わせるものである。
具体的には、情報重合部82は、データ入力部80から入力された画像データに含まれる位置データと同じ位置データを含むコンテンツデータの中からテキストデータを取得し、取得したテキストデータと画像データを重ね合わせて、重合データを生成する。
情報の重合の仕方としては、画像の情報に文字やテキストのビットマップデータを重ね合わせることにより生成することもできるし、携帯電話T又はその他の携帯端末が、HTML(Hyper Text Markup Language)文書などの文字と画像を含んだフォーマットの文書を表示できる場合には、そのようなフォーマットに合わせた文書となるようにタグを付加したデータを生成してもよい。
たとえば、カメラが自動車レースに参加中の車両の車載カメラであり、情報収集部から入力されたテキストデータの内容が「S字カーブ付近」という内容のテキストデータである場合、当該テキストデータの内容が車載カメラで撮像された撮像画像から生成された画像データの内容に重畳表示させられた内容の重合データが生成されることになる。
これにより、後に詳細に説明するが、この重合データを取得した携帯電話Tの画面上には、図17に示すような画像が表示されることになる。
なお、重合させる情報の内容は、コンテンツサーバCSに記憶されているコンテンツとなるが、文字情報だけでなく、画像であってもよい。例えば、ユーザの携帯電話Tの操作により、車両に設けられたカメラC1、C2間の切替えや、カメラの向きの調整を行えるようにする場合には、操作案内としての操作ボタンを画像データの内容に重畳表示させた内容の重合データを生成することや、操作説明の図を画像データの内容に重畳表示させた内容の重合データを生成しても良い。このようにすれば、ユーザの操作が容易になるからである。
通信部83は、携帯電話会社TC(携帯電話T)及びグローバルマネージャGMと通信をするための部分であり、典型的にはインターネットへの接続部分である。
よって、情報重合部82で生成された重合データは、通信部83、携帯電話会社TC内の接続装置を介して携帯電話Tに送信される。
接続管理部84は、ユーザの携帯電話Tからの接続の可否を管理するものであり、現在接続している携帯電話Tの数を管理するものである。
さらに、この接続管理部84は、携帯電話Tからの接続があり、当該携帯電話Tへの画像などの送信を要求する信号が通信部83を介して入力された場合に、この信号に基づいて、各種データ(画像データ、音声データ、位置データ)の出力を命令する信号(データ要求信号)を生成し、生成したデータ要求信号を画像処理部50に出力するものである。
接続管理部84は、携帯電話Tとの接続が確立されるたびに、現在の接続数を加算し、携帯電話Tとの接続が切断される度に接続数を減算する。そして、接続、切断がある度に、通信部83を介して現在の接続数を示すデータをグローバルマネージャGMへ送信する。
なお、現在の接続数に代えて、接続管理部84が、接続可否を判断した上で、接続可否を示す情報だけをグローバルマネージャGMへ送信してもよい。この際、例えば、現在の接続数が予め設定された数より小さい場合には、通信部83を介して接続が可能であることを示す情報(接続許可信号)をグローバルマネージャGMに送信し、現在の接続数が予め設定された数以上の場合には、通信部83を介して接続が不可能であることを示す情報(接続不可信号)をグローバルマネージャGMに送信することになる。
[グローバルマネージャGM]
グローバルマネージャGMは、車両管理データ91、利用管理部92、メニュー生成部93、及び通信部94を有している。
車両管理データ91は、画像配信システム1に含まれる複数の車両の利用状況を管理するデータであり、グローバルマネージャGMが有する記憶装置内に記憶されている。
図15は、車両管理データ91の内容を示す図である。図15に示すように、車両管理データ91は、車両ごとに用意されたデータの集まりであり、車両毎に用意されたデータには、車両のID(V1,V2,・・・,Vn(nは任意の整数))を固有の識別キーとして利用して、車両名、接続数、接続可能数、利用可否、接続先などの情報が含まれている。
車両名のフィールドは、カメラが設置されている車両の名称を示すフィールドであり、車両の名称を示す文字情報が格納されている。
接続数は、車両に現在接続している携帯電話Tの数である。
接続可能数は、車両毎に設定された、車両に同時に接続できる携帯電話Tの数の上限である。この接続可能数は、ローカルマネージャLM3内の接続管理部84に設定されている数と同じ数が設定される。
利用可否のフィールドは、車両に接続できるか否かが、○又は×の文字情報で格納されている。この情報は、利用可否を識別できれば、他の情報、例えば0と1の数字であってもよい。なお、接続可能数が1に設定されている場合は、その車両は、一人のユーザ(携帯端末)による専有が可能となり、接続可能数が2以上の場合には、複数のユーザで共有するものとなる。
接続先のフィールドは、車両Vnへの接続先のIPアドレスが設定されている。
利用管理部92は、車両の利用状況を管理する部分である。利用管理部92は、車両に搭載されたローカルマネージャLM3が現在の接続数を送信して来るたびに、車両管理データ91内の、当該接続数を送信した車両に関する接続数のフィールド内の値を更新する。そして、更新した車両の接続可能数と接続数の数を比較し、接続可能数の方が大きければ利用可否を○とし、接続可能数と接続数が同じであれば、利用可否を×とする。
メニュー生成部93は、ユーザの携帯電話Tから車両Vnへの接続を目的とする接続要求があった場合に、車両Vnの利用選択部を含むメニュー画面を生成して、このメニュー画面のデータを携帯電話Tへ送信する部分である。例えば、メニュー生成部93は、図16に示すようなメニュー画面100を表示させるデータを生成する。
具体的には、メニュー生成部93は、携帯電話Tから通信部94を介して接続要求を受信した場合、車両管理データ91を参照して、利用可否のフィールドを検索して利用可能な車両Vnのみを抽出する。そして、利用可能な車両を示す文字列101と、示された車両の中から特定の車両を選択するための選択用のフォーム、例えばラジオボタン102を並べて表示させるデータを生成する。また、ラジオボタン102の選択による値として、各車両Vnへの接続先のデータ、例えばIPアドレスを設定する。そして、画面の一部に接続ボタン103のフォームを表示させるデータを付加し、この接続ボタン103のアクションとして、ラジオボタン102で選択された値への接続を設定する。
[携帯電話T]
携帯電話Tは、携帯端末の一例であり、PDA(Personal Digital Assistance)やノートパソコンなどであっても構わない。
次に、車両V3を含んで構成される画像配信システム1の動作について、図18のフローチャートを参照しながら説明する。
図18においては、車両V3の画像処理部50及びローカルマネージャLM3、グローバルマネージャGM、携帯電話Tの各動作を縦に並べて説明している。
ユーザは、携帯電話Tを使ってグローバルマネージャGMにアクセスし、車両V3への接続要求をする(ステップS101)。
接続要求を受信したグローバルマネージャGMでは、メニュー生成部93がメニュー画面のデータを生成し、携帯電話Tへ送信する(ステップS102)。このとき、メニュー生成部93は、車両管理データ91の内容を参照して、現在利用可能になっている車両のみが選択できるメニュー画面を生成する。例えば、図16に示すように、利用可能な車両を特定するための車両名を示す文字列101と、選択用のラジオボタン102と、接続ボタン103とを表示するメニュー画面100のデータを生成する。
ユーザの携帯電話Tには、図16のようなメニュー画面100が表示され、ユーザは、例えば「車両3」(ここで車両3は、車両V3に相当する)を選択した上で接続ボタン103を押し、ローカルマネージャLM3に対し接続要求する(ステップS103)。
ローカルマネージャLM3の接続管理部84では、携帯電話Tからの接続要求に応じて携帯電話Tと接続し、利用時間を計るため、タイマをスタートする。なお、タイマのスタートは、常に動いているタイマの時間を記憶することとしてもよい。
また、接続管理部84は、接続数を更新し、グローバルマネージャGMへ送信する(ステップS104)。
接続数を受信したグローバルマネージャGMの利用管理部92は、受信した接続数により車両管理データ91を更新する(ステップS105)。
ローカルマネージャLM1の接続管理部84は、携帯電話Tへの画像の送信を要求する信号(データ要求信号)を、画像処理部50に出力する(ステップS106)。
画像処理部50の制御部53は、データ要求信号が入力されると、カメラの向きの調整や使用するカメラの切り替えを命令するカメラ制御信号を生成し、生成したカメラ制御信号をカメラ制御部51に出力すると共に、データの出力を要求する信号(データ取得命令信号)を生成し、生成したデータ取得命令信号を画像出力部52と、音声処理部60と、現在位置取得部70とに出力する。
そして、データ取得命令信号が入力された各部(画像出力部52、音声処理部60、及び現在位置取得部70)から出力された各種データ、すなわち、画像出力部52から入力された画像データと、音声処理部60から入力された音声データと、現在位置取得部70から入力された位置データとをローカルマネージャLM3に出力する(ステップS107)。
ローカルマネージャLM3の情報重合部82は、画像処理部50から入力された画像データと、情報収集部81から入力されたコンテンツデータとを重ね合わせて、重合データを生成する(ステップS107)。
ここで、ユーザが、前記したステップS103において、「車両3」をメニュー画面100(図16参照)の中から選択し、車両3の位置がP1である場合、情報収集部81から入力されるコンテンツデータは、「S字カーブ付近」という内容のテキストデータとなる(図14)。
よって、S字カーブ付近を走行中の車に搭載されたカメラにより撮像された画像に「S字カーブ付近」という内容のテキストが重畳表示された内容の重合データが、ローカルマネージャLM側において生成され(ステップS108)。そして、生成された重合データが携帯電話Tに送信される(ステップS109)。
重合データを受信した携帯電話Tの表示画面には、重合データに基づいて、画像が表示される(ステップS110)。
ここで、重合データで表示される画像は、例えば、図17に示すようなものである。
この図においては、車両V3(車両3)のフロントグリルに設置されたカメラを介して取得された画像が示されており、サーキットのS字カーブ付近において、カメラを搭載する車両V3の直前を走行する車両を追従する様子が映し出されている。
車両V3側では、定常動作ステップSR(ステップS106〜ステップS109)を繰り返す。
ユーザが利用を止めようとする場合には、携帯電話Tから切断要求する(ステップS111)。
すると、車両V3側では、切断要求を受けて重合データの生成及び送信を終了し、携帯電話Tとの接続を切断すると共に、現在車両V3に接続している携帯電話Tの数を示すデータをグローバルマネージャGMに向けて送信する(ステップS112)。
グローバルマネージャGMの利用管理部92は、車両管理データ91の内容を更新する(ステップS113)。
以上、移動体が車両である場合の実施形態について説明したが、本発明は前記実施形態に限定されるものではなく、適宜変更して実施をすることが可能である。
また、本実施の形態で用いる画像データは、静止画像であっても、動画像であっても良い。
例えば、本実施の形態では、画像処理部50は、ローカルマネージャLM3から入力されるデータ要求信号に基づいて画像データを生成し、作成した画像データをローカルマネージャLM3に出力するように構成されている。しかし、画像処理部50は、所定時間間隔毎に画像データを生成し、ローカルマネージャLM3に出力する構成としても良い。
この場合、情報重合部82で生成される重合データを、ローカルマネージャLM3の記憶手段85に逐次記憶させておき、携帯電話Tから画像要求信号の入力があった場合に、情報取得手段86が記憶手段85の中から目的とする重合データを取得し、携帯電話Tに提供する構成とすることで、画像を配信することができる。
さらに、本実施の形態においては、車両に搭載されたカメラが2台(カメラC1,C2)の場合を例に挙げて説明したが、車両に搭載されるカメラの数やカメラの種類は、これに限定されるものではない。
例えば、パノラマ画像の取得が可能である360°全方位カメラを、前記したカメラC1,C2の代わりに設けることも可能である。この場合、前記したカメラ制御部51は不要となり、制御部53からの指令に基づいて、任意に選択された角度の範囲の撮像が行われることになる。
また、360°方向に回転自在となるように構成されたステージ(図示せず)に載置されたカメラを、前記したカメラC1,C2の代わりに設けることも可能である。この場合、前記したカメラ制御部51により、ステージを任意の方向に回転させつつ撮像が行われることになる。
なお、本発明に係る画像配信システムの移動体は、ロボットのみ、車両のみで構成される態様に限定されるものではなく、ロボットと車両が混在している態様も採用可能である。また、移動体はロボットや車両のみならず、航空機などにも好適に適用可能である。
本発明の実施形態に係る画像配信システムのシステム構成図である。 ロボットR1のブロック構成図である。 ローカルマネージャLM1及びグローバルマネージャGMの機能ブロック図である。 コンテンツサーバCSのデータの内容を示す図である。 グローバルマップ21の設定画面を示す図であり、 グローバルマップ21の内容を示す図である。 ロボット管理データ31の内容を示す図である。 メニュー画面の一例である。 携帯電話Tに表示された画像の一例である。 携帯電話Tに表示された画像の他の例である。 実施形態に係る画像配信システム1の動作を示すフローチャートである。 車両V3のブロック構成図である。 ローカルマネージャLM1及びグローバルマネージャGMの機能ブロック図である。 コンテンツサーバCSのデータの内容を示す図である。 車両管理データ91の内容を示す図である。 メニュー画面の一例である。 携帯電話Tに表示された画像の一例である。 実施形態に係る画像配信システム1の他の態様の動作を示すフローチャートである。
符号の説明
1 画像配信システム
13 画像送信部
15 自律移動制御部
16 無線通信部
16a 公衆回線通信装置
16b 無線通信装置
21 グローバルマップ
24 行動指示部
25 情報収集部
26 情報重合部
27 通信部
28 無線通信部
28a 公衆回線通信装置
28b 無線通信装置
28c 通信切替部
29 接続可否管理部
32 利用管理部
33 メニュー生成部
34 通信部
100 メニュー画面
C カメラ
CS コンテンツサーバ
GM グローバルマネージャ
M ロボット管理者
NW ネットワーク
R1 ロボット
T 携帯電話

Claims (6)

  1. 複数の移動体であるロボットと、前記移動体の動作を管理するための複数のローカルマネージャと、
    前記移動体と携帯端末との通信接続の管理をするグローバルマネージャと、を備える画像配信システムであって、
    前記ロボットは、
    前記ローカルマネージャの指示に従い動作する2足歩行による自律移動装置と、
    前記自律移動装置による移動の指示を受け取る指示入力部と、
    カメラと、
    前記カメラが撮影した画像を前記ローカルマネージャへ出力する画像出力部とを備え、
    前記ローカルマネージャは、
    前記各ロボットから出力された画像を受け取る画像入力部と、
    前記ロボットの行動計画を設定したグローバルマップと、
    前記グローバルマップに基づき前記ロボットの行動を指示する行動指示部と、
    前記グローバルマップに基づきコンテンツサーバからロボットの現在位置に応じたコンテンツを受け取る情報収集部と、
    前記画像入力部が受け取った画像と前記情報収集部が受け取ったコンテンツとを重合させた重合データを生成する情報重合部と、
    前記重合データを前記携帯端末へ送信する画像送信部と、
    前記ロボットへの接続の可否を判断するための接続可否情報を前記グローバルマネージャへ送信する接続可否管理部とを備え、
    前記グローバルマネージャは、
    前記携帯端末からの接続要求があった場合に前記ローカルマネージャから通知された接続可否情報に基づき、前記携帯端末に表示させる少なくとも前記ロボットの利用選択部を含んだメニュー画面を生成し、このメニュー画面を前記携帯端末へ送信するメニュー生成部
    を備えることを特徴とする画像配信システム。
  2. 前記ロボットは、前記カメラで撮影した画像に基づき、その画像中の人物の顔の位置を認識する顔認識部を有し、
    前記ロボット又は前記ローカルマネージャは、前記顔認識部が認識した前記画像中の人物の顔の位置に基づき、その顔部分を隠す隠蔽処理部を有することを特徴とする請求項1に記載の画像配信システム。
  3. 前記ロボット及び前記ローカルマネージャは、互いの間で近距離無線通信を行う無線通信装置、及び互いの間で公衆無線回線により接続可能な公衆回線通信装置の2つをそれぞれ有し、
    前記ローカルマネージャは、前記ロボットの現在位置に基づき前記グローバルマップを参照し、ロボットの位置が予め設定された無線通信装置の接続範囲内にあるときは前記無線通信装置によりロボットとの通信を行い、接続範囲外にあるときは、前記公衆回線通信装置によりロボットとの通信を行うように通信手段を切り替える通信切替部を備えることを特徴とする請求項1又は請求項2に記載の画像配信システム。
  4. 前記行動指示部は、前記携帯端末からのロボット操作指示を考慮して前記ロボットの行
    動を指示し、前記携帯端末から同時にロボット操作指示があった場合には、所定の方法で
    一の利用者からのロボット操作指示を選択することを特徴とする請求項1に記載の画像配信システム。
  5. 前記行動指示部は、ロボット操作指示の回数が多い携帯端末からのロボット操作指示を
    選択することを特徴とする請求項4に記載の画像配信システム。
  6. 複数の移動体と、当該移動体と携帯端末との通信接続の管理をするグローバルマネージャと、を備える画像配信システムであって、
    前記移動体には、画像処理部と、ローカルマネージャとが設けられており、
    前記画像処理部は、
    カメラと、
    前記カメラが撮影した画像を出力する画像出力部とを備え、
    前記ローカルマネージャは、
    前記画像出力部から出力された画像を受け取る画像入力部と、
    前記移動体の現在位置に応じたコンテンツを、コンテンツサーバから受け取る情報収集部と、
    前記画像入力部が受け取った画像と前記情報収集部が受け取ったコンテンツとを重合させた重合データを生成する情報重合部と、
    前記重合データを前記携帯端末へ送信する画像送信部と、
    前記携帯端末の前記移動体への接続の可否を判断するための接続可否情報を前記グローバルマネージャへ送信する接続管理部とを備え、
    前記グローバルマネージャは、
    前記携帯端末からの接続要求があった場合に前記ローカルマネージャから通知された接続可否情報に基づき、前記携帯端末に表示させる少なくとも前記移動体の利用選択部を含んだメニュー画面を生成し、このメニュー画面を前記携帯端末へ送信するメニュー生成部
    を備えることを特徴とする画像配信システム。
JP2004211011A 2003-09-16 2004-07-20 画像配信システム Pending JP2005117621A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004211011A JP2005117621A (ja) 2003-09-16 2004-07-20 画像配信システム
US10/928,406 US7373218B2 (en) 2003-09-16 2004-08-30 Image distribution system
KR1020040073755A KR100580880B1 (ko) 2003-09-16 2004-09-15 화상 분배 시스템

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003323236 2003-09-16
JP2004211011A JP2005117621A (ja) 2003-09-16 2004-07-20 画像配信システム

Publications (1)

Publication Number Publication Date
JP2005117621A true JP2005117621A (ja) 2005-04-28

Family

ID=34277740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004211011A Pending JP2005117621A (ja) 2003-09-16 2004-07-20 画像配信システム

Country Status (3)

Country Link
US (1) US7373218B2 (ja)
JP (1) JP2005117621A (ja)
KR (1) KR100580880B1 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006319775A (ja) * 2005-05-13 2006-11-24 Matsushita Electric Ind Co Ltd 映像配信システム
JP2007044798A (ja) * 2005-08-09 2007-02-22 Advanced Telecommunication Research Institute International ロボットコミュニケーションシステム
JP2008200843A (ja) * 2007-01-22 2008-09-04 Zmp:Kk 音響再生ロボット
JP2010120470A (ja) * 2008-11-18 2010-06-03 Alpine Electronics Inc 車両安全支援装置
JP2011234040A (ja) * 2010-04-26 2011-11-17 Honda Motor Co Ltd データ送信方法及び装置
JP2015514239A (ja) * 2012-04-13 2015-05-18 クゥアルコム・インコーポレイテッドQualcomm Incorporated マルチモーダル整合方式を使用するオブジェクト認識
JP2017047519A (ja) * 2015-09-04 2017-03-09 Rapyuta Robotics株式会社 クラウドロボティクスシステム、情報処理装置、プログラム、並びに、クラウドロボティクスシステムにおけるロボットの制御または支援方法
JP2017185605A (ja) * 2016-04-07 2017-10-12 シャープ株式会社 制御端末、ロボット、制御端末の制御方法、および、そのプログラム
JP2017530658A (ja) * 2015-07-07 2017-10-12 シャオミ・インコーポレイテッド 情報照会方法、装置、プログラム及び記録媒体
JP2018046354A (ja) * 2016-09-13 2018-03-22 株式会社ユナイテッドジャパン オンボード映像中継システム
JP2019008585A (ja) * 2017-06-26 2019-01-17 富士ゼロックス株式会社 ロボット制御システム
JP2019009592A (ja) * 2017-06-23 2019-01-17 パナソニックIpマネジメント株式会社 遠隔通信方法、遠隔通信システム及び自律移動装置
WO2020240772A1 (ja) * 2019-05-30 2020-12-03 株式会社Mory 映像記録装置、遠隔監視システム、遠隔監視方法、及びプログラム
WO2022065508A1 (ja) * 2020-09-28 2022-03-31 avatarin株式会社 情報処理装置、情報処理方法、及びプログラム
WO2023203853A1 (ja) * 2022-04-20 2023-10-26 株式会社サンタ・プレゼンツ 遠隔体験システム

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9583141B2 (en) 2005-07-01 2017-02-28 Invention Science Fund I, Llc Implementing audio substitution options in media works
US20070294720A1 (en) * 2005-07-01 2007-12-20 Searete Llc Promotional placement in media works
US9092928B2 (en) 2005-07-01 2015-07-28 The Invention Science Fund I, Llc Implementing group content substitution in media works
US9230601B2 (en) 2005-07-01 2016-01-05 Invention Science Fund I, Llc Media markup system for content alteration in derivative works
US9426387B2 (en) 2005-07-01 2016-08-23 Invention Science Fund I, Llc Image anonymization
KR100791382B1 (ko) * 2006-06-01 2008-01-07 삼성전자주식회사 로봇의 이동 경로에 따라 소정 영역의 특성에 관한 정보를수집하고 분류하는 방법 및 상기 영역 특성에 따라제어되는 로봇, 상기 영역 특성을 이용한 ui 구성 방법및 장치
KR100776805B1 (ko) * 2006-09-29 2007-11-19 한국전자통신연구원 스테레오 비전 처리를 통해 지능형 서비스 로봇 시스템에서효율적인 영상 정보의 전송을 위한 장치 및 그 방법
TW200827957A (en) * 2006-12-21 2008-07-01 Ind Tech Res Inst Method for information transmission with backbone network and a position monitoring system for multiple robotic devices
US9215512B2 (en) 2007-04-27 2015-12-15 Invention Science Fund I, Llc Implementation of media content alteration
KR101469246B1 (ko) * 2007-08-07 2014-12-12 삼성전자주식회사 로봇에서 사진 촬영하는 장치 및 방법
JP4839487B2 (ja) * 2007-12-04 2011-12-21 本田技研工業株式会社 ロボット及びタスク実行システム
JP5892361B2 (ja) 2011-08-02 2016-03-23 ソニー株式会社 制御装置、制御方法、プログラム、及びロボット制御システム
JP5892360B2 (ja) 2011-08-02 2016-03-23 ソニー株式会社 ロボット指示装置、ロボット指示方法、プログラム、及び通信システム
US8942881B2 (en) * 2012-04-02 2015-01-27 Google Inc. Gesture-based automotive controls
CN103324100B (zh) * 2013-05-02 2016-08-31 郭海锋 一种信息驱动的情感车载机器人
CN104249370B (zh) * 2013-06-27 2016-05-11 比亚迪股份有限公司 一种车载智能机器人的控制方法、控制装置及控制系统
CN103697900A (zh) * 2013-12-10 2014-04-02 郭海锋 一种情感车载机器人通过增强现实进行危险预警的方法
US20160359773A1 (en) * 2015-03-16 2016-12-08 Boogoo Intellectual Property LLC Electronic Communication System
JP7124280B2 (ja) * 2017-09-13 2022-08-24 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
CN109583260A (zh) * 2017-09-28 2019-04-05 北京猎户星空科技有限公司 一种数据采集方法、装置及系统
JP7325173B2 (ja) * 2018-10-06 2023-08-14 シスメックス株式会社 手術支援ロボットの遠隔支援方法、および遠隔支援システム
KR20210088914A (ko) * 2020-01-07 2021-07-15 엘지전자 주식회사 공간 맵 정보 생성 방법 및 생성된 공간을 이동하는 이동로봇
KR102245824B1 (ko) * 2020-03-02 2021-04-28 주식회사 큐리보 복수로봇 제어시스템 및 방법
KR102189486B1 (ko) * 2020-06-17 2020-12-11 (주)인티그리트 공유자율주행장치의 원격 제어를 이용한 공유 콘텐츠 서비스 제공 시스템

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010028654A (ko) * 1999-09-22 2001-04-06 김상철 무선데이터 통신을 이용한 로봇 제어 시스템
KR20000036419A (ko) * 2000-03-10 2000-07-05 김경근 동영상 송수신 유닛과 음성송신 모듈을 탑재한 로봇으로웹을 실시간 영상 및 음성 전송과 원격제어가 가능한 로봇
US6845297B2 (en) * 2000-05-01 2005-01-18 Irobot Corporation Method and system for remote control of mobile robot
EP1279081B1 (en) * 2000-05-01 2012-01-04 iRobot Corporation Method and system for remote control of mobile robot
JP4556088B2 (ja) 2001-05-02 2010-10-06 ソニー株式会社 画像処理システム、画像処理装置及びその制御方法
JP2003006532A (ja) 2001-06-27 2003-01-10 Fujitsu Ltd 移動ロボットとその獲得画像を用いたサーバ経由のサービス提供方式
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006319775A (ja) * 2005-05-13 2006-11-24 Matsushita Electric Ind Co Ltd 映像配信システム
JP2007044798A (ja) * 2005-08-09 2007-02-22 Advanced Telecommunication Research Institute International ロボットコミュニケーションシステム
JP2008200843A (ja) * 2007-01-22 2008-09-04 Zmp:Kk 音響再生ロボット
JP2010120470A (ja) * 2008-11-18 2010-06-03 Alpine Electronics Inc 車両安全支援装置
JP2011234040A (ja) * 2010-04-26 2011-11-17 Honda Motor Co Ltd データ送信方法及び装置
JP2015514239A (ja) * 2012-04-13 2015-05-18 クゥアルコム・インコーポレイテッドQualcomm Incorporated マルチモーダル整合方式を使用するオブジェクト認識
JP2018077479A (ja) * 2012-04-13 2018-05-17 クゥアルコム・インコーポレイテッドQualcomm Incorporated マルチモーダル整合方式を使用するオブジェクト認識
JP2017530658A (ja) * 2015-07-07 2017-10-12 シャオミ・インコーポレイテッド 情報照会方法、装置、プログラム及び記録媒体
US10193991B2 (en) 2015-07-07 2019-01-29 Xiaomi Inc. Methods and apparatuses for providing information of video capture device
JP2017047519A (ja) * 2015-09-04 2017-03-09 Rapyuta Robotics株式会社 クラウドロボティクスシステム、情報処理装置、プログラム、並びに、クラウドロボティクスシステムにおけるロボットの制御または支援方法
JP2017185605A (ja) * 2016-04-07 2017-10-12 シャープ株式会社 制御端末、ロボット、制御端末の制御方法、および、そのプログラム
JP2018046354A (ja) * 2016-09-13 2018-03-22 株式会社ユナイテッドジャパン オンボード映像中継システム
JP2019009592A (ja) * 2017-06-23 2019-01-17 パナソニックIpマネジメント株式会社 遠隔通信方法、遠隔通信システム及び自律移動装置
JP2019008585A (ja) * 2017-06-26 2019-01-17 富士ゼロックス株式会社 ロボット制御システム
WO2020240772A1 (ja) * 2019-05-30 2020-12-03 株式会社Mory 映像記録装置、遠隔監視システム、遠隔監視方法、及びプログラム
WO2022065508A1 (ja) * 2020-09-28 2022-03-31 avatarin株式会社 情報処理装置、情報処理方法、及びプログラム
WO2023203853A1 (ja) * 2022-04-20 2023-10-26 株式会社サンタ・プレゼンツ 遠隔体験システム

Also Published As

Publication number Publication date
US7373218B2 (en) 2008-05-13
KR100580880B1 (ko) 2006-05-16
US20050057689A1 (en) 2005-03-17
KR20050027952A (ko) 2005-03-21

Similar Documents

Publication Publication Date Title
JP2005117621A (ja) 画像配信システム
CN105659170B (zh) 用于向远程用户传送视频的方法及视频通信装置
JP2005059170A (ja) 情報収集ロボット
JP4957799B2 (ja) ロボットおよび案内方法
US20190037034A1 (en) Mobile terminal and method for controlling the same
JP4787813B2 (ja) 検知対象検知システム
KR101663375B1 (ko) 웨어러블 장치, 이동 단말기 및 시스템
JP2004104788A (ja) 通信装置、通信システム、無線通信ネットワーク形成方法
CN107414829A (zh) 机器人多场景应用系统及方法
JP6439806B2 (ja) ロボット装置及びプログラム
JP7400882B2 (ja) 情報処理装置、移動体、遠隔制御システム、情報処理方法およびプログラム
US12075167B2 (en) Communication terminal, display method, and non-transitory computer-readable medium for displaying images and controller
KR20170000091A (ko) 주변에 위치한 블랙박스 장치들과 영상을 공유하기 위한 이동 단말기 및 그 제어방법
JP7402145B2 (ja) 遠隔操作システム、移動ロボット、及び操作端末
US8368506B2 (en) Sensing device and system, controlling method and control program
JP2020022152A (ja) 通信端末、プログラム、表示方法、記録媒体
US20090239577A1 (en) Method and system for multimedia captures with remote triggering
KR101260879B1 (ko) 이동로봇의 인물탐색 방법
JP4220857B2 (ja) 携帯端末機器を用いた移動ロボットの画像撮影装置
JP2001128149A (ja) 視覚障害者歩行支援方法及び支援システム
JP2006067393A (ja) 鑑賞システム
JP2020017829A (ja) 通信端末、プログラム、表示方法、記録媒体
KR20170002048A (ko) 피사체 이동 제어 장치 및 방법
JP4220855B2 (ja) 携帯端末機器を用いた移動ロボットの画像送信装置及びその方法
JP7402784B2 (ja) 遠隔表示システム、ロボット、及び表示端末

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100112

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100202