JP2022078761A - 遠隔表示システム、ロボット、及び表示端末 - Google Patents

遠隔表示システム、ロボット、及び表示端末 Download PDF

Info

Publication number
JP2022078761A
JP2022078761A JP2020189656A JP2020189656A JP2022078761A JP 2022078761 A JP2022078761 A JP 2022078761A JP 2020189656 A JP2020189656 A JP 2020189656A JP 2020189656 A JP2020189656 A JP 2020189656A JP 2022078761 A JP2022078761 A JP 2022078761A
Authority
JP
Japan
Prior art keywords
screen
image
robot
unit
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020189656A
Other languages
English (en)
Other versions
JP7402784B2 (ja
Inventor
慧 渡邉
Satoshi Watanabe
晋 大窪
Susumu Okubo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2020189656A priority Critical patent/JP7402784B2/ja
Priority to EP21205155.1A priority patent/EP4002836A1/en
Priority to US17/454,178 priority patent/US11637952B2/en
Publication of JP2022078761A publication Critical patent/JP2022078761A/ja
Application granted granted Critical
Publication of JP7402784B2 publication Critical patent/JP7402784B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】表示端末におけるロボットのモニタ画面の表示を、利用者によるロボットの周辺状況の認識が容易な態様で行う。【解決手段】遠隔表示システム1は、表示端末100の端末表示部141に表示するモニタ画面を、所定の画面切替条件に応じて、ロボットカメラ62による撮影画像の第1画像範囲を表示する第1モニタ画面から、撮影画像の第1画像範囲と異なる第2画像範囲を表示する第2モニタ画面に切り替える、第1画面切替処理を実行する画面表示制御部を備える。【選択図】図2

Description

本発明は、遠隔表示システム、ロボット、及び表示端末に関する。
従来、カメラを備えた移動ロボットを、操作端末によって利用者が遠隔操作するシステムが提案されている(例えば、特許文献1参照)。
上記システムによれば、移動ロボットのカメラによる撮影画像が操作端末に送信され、操作端末の表示部に、移動ロボットの周辺の撮影画像を含むモニタ画面が表示される。操作端末の利用者は、モニタ画面を視認することにより、移動ロボットの周辺の状況を確認することができる。
特開2019-62293号公報
上述したように、ロボットの周辺の状況を、ロボットのカメラで撮影された画像を表示するモニタ画面により利用者に認識させる場合、モニタ画面の表示は、利用者によるロボットの周辺状況の認識が容易な態様で行われることが望まれる。
本発明はかかる背景に鑑みてなされたものであり、表示端末におけるロボットのモニタ画面の表示を、利用者によるロボットの周辺状況の認識が容易な態様で行うことができる遠隔表示システム、ロボット、及び表示端末を提供することを目的とする。
上記目的を達成するための第1態様として、ロボットと、前記ロボットとの間で通信を行う表示端末と、を備え、前記ロボットは、前記ロボットの周辺を撮影するカメラを有して、前記カメラの撮影画像に基づくモニタ画像情報を前記表示端末に送信し、前記表示端末は、端末表示部を有し、前記モニタ画像情報を受信して、前記撮影画像に基づくモニタ画像を含むモニタ画面を前記端末表示部に表示する、遠隔表示システムが挙げられる。
上記遠隔表示システムにおいて、前記カメラの周辺に存在する動作中物体を認識する動作中物体認識部を備え、前記画面切替条件として、前記動作中物体認識部により、前記カメラの撮影範囲内の前記第1画像範囲に対応する第1撮影範囲外で、前記動作中物体認識部により前記動作中物体が認識されること、が設定され、前記画面表示制御部は、前記動作中物体の画像部分が含まれるように、前記第2画像範囲を設定する構成としてもよい。
上記遠隔表示システムにおいて、前記動作中物体認識部は、動作中の人又は他のロボットを前記動作中物体として認識する構成としてもよい。
上記遠隔表示システムにおいて、前記画面表示制御部は、前記動作中物体認識部により認識された前記動作中物体の画像部分を含む画像範囲を拡大した画像を表示する画面を、前記第2モニタ画面とする構成としてもよい。
上記遠隔表示システムにおいて、前記画面表示制御部は、前記第1画像範囲を、前記動作中物体認識部により認識された前記動作中物体の画像部分が含まれるように拡大した範囲を、前記第2画像範囲とする構成としてもよい。
上記遠隔表示システムにおいて、前記画面表示制御部は、前記撮影画像に含まれる人及び他のロボットの画像部分が全て含まれるように、前記第1画像範囲を設定する構成としてもよい。
上記遠隔表示システムにおいて、前記画面表示制御部は、前記画面切替条件に応じて前記モニタ画面を前記第1モニタ画面から前記第2モニタ画面に切り替えた時点から、所定時間が経過した時に、前記モニタ画面を前記第1モニタ画面に戻す構成としてもよい。
上記遠隔表示システムにおいて、前記表示端末は、前記表示端末の利用者による操作に応じて、前記端末表示部に表示される前記撮影画像の範囲を設定する表示画像範囲設定部を備え、前記画面表示制御部は、前記表示画像範囲設定部により設定された範囲を前記第2画像範囲とする構成としてもよい。
上記遠隔表示システムにおいて、前記ロボットは、胴部と、該胴部に対して回転又は揺動する頭部とを備え、前記カメラは前記胴部に設けられている構成としてもよい。
上記遠隔表示システムにおいて、前記ロボットは、前記ロボットの周辺に存在する物体を検出する物体検出センサを備え、前記動作中物体認識部は、前記物体検出センサによる検出情報に基づいて、前記動作中物体を認識する構成としてもよい。
上記遠隔表示システムにおいて、地図情報に基づいて前記ロボットの現在位置を認識する現在位置認識部を備え、前記動作中物体認識部は、前記現在位置認識部により前記ロボットが部屋内に位置していることが認識されている状態で、前記物体検出センサにより前記部屋内に進入する物体が検出された場合に、当該物体を前記動作中物体として認識する構成としてもよい。
上記遠隔表示システムにおいて、前記ロボットは、物体から発信される識別信号を受信する識別信号受信部を備え、前記動作中物体認識部は、前記識別信号受信部による前記識別信号の受信状況に基づいて、前記動作中物体を認識する構成としてもよい。
上記遠隔表示システムにおいて、前記ロボットは、前記ロボットの周辺の音を検出する音センサを備え、前記動作中物体認識部は、前記音センサによる音の検出状況に応じて、前記動作中物体を認識する構成としてもよい。
上記遠隔表示システムにおいて、前記画面表示制御部は、前記動作中物体認識部により、前記音センサによる音の検出状況に基づいて、複数の前記動作中物体が認識されたときに、発した音の音量が最大である前記動作中物体の画像部分が含まれるように前記第2画像範囲を設定する構成としてもよい。
上記遠隔表示システムにおいて、前記動作中物体認識部は、前記撮影画像と前記音センサによる音の検出状況に基づいて、起立して発言中の動作中物体を認識し、前記画面表示制御部は、前記動作中物体認識部により、起立して発言中の前記動作中物体が認識されたときに、起立して発言中の前記動作中物体の画像部分が含まれるように前記第2画像範囲を設定する構成としてもよい。
上記遠隔表示システムにおいて、前記画面表示制御部は、前記動作中物体認識部により複数の前記動作中物体が認識されたときに、最も大きな声で発言中の前記動作中物体、移動中の前記動作中物体、起立して発言の中の前記動作中物体、の順に設定された優先順位によって選択した前記動作中物体の画像部分が含まれるように、前記第2画像範囲を設定する構成としてもよい。
上記遠隔表示システムにおいて、前記カメラの撮影画像に、前記ロボットの周辺に所在する人及び他のロボットの画像部分が全て含まれるように、前記カメラの撮影範囲を制御するカメラ撮影範囲制御部を備える構成としてもよい。
上記遠隔表示システムにおいて、前記撮影画像から、前記カメラの撮影方向が水平方向である場合に対応した水平相当画像範囲を抽出する水平相当画像抽出部を備え、前記画面表示制御部は、前記水平相当画像から前記第1モニタ画面を抽出する構成としてもよい。
上記遠隔表示システムにおいて、前記画面表示制御部は、前記画面切替条件に応じて、前記第1画面切替処理、又は、前記モニタ画面を、前記撮影画像の第3画像範囲の画像部分を表示する第3モニタ画面から、前記第3画像範囲の画像部分と前記第3画像範囲の一部を拡大した第4画像部分とを表示する第4モニタ画面に切り替える第2画面切替処理を、実行する構成としてもよい。
上記遠隔表示システムにおいて、前記ロボットは移動ロボットであり、前記ロボットの移動状況を認識する移動状況認識部を備え、前記画面表示制御部は、前記移動状況認識部により前記ロボットが停止状態であることが認識されているときは、前記第1画面切替処理を実行し、前記移動状況認識部により前記ロボットが移動状態であることが認識されているときには、前記第2画面切替処理を実行する構成としてもよい。
上記目的を達成するための第2態様として、周辺を撮影するカメラと、表示端末との間で通信を行うロボット通信部と、前記表示端末に表示させる、前記カメラによる撮影画像に基づくモニタ画面を設定する画面表示制御部と、前記画面表示制御部により設定された前記モニタ画面のデータを、前記ロボット通信部により前記表示端末に送信するモニタ画面データ送信部と、を備えるロボットであって、前記画面表示制御部は、所定の画面切替条件に応じて、前記モニタ画面を、前記撮影画像の第1範囲の画像部分を表示する第1モニタ画面から、前記撮影画像の前記第1範囲と異なる第2範囲の画像部分を表示する第2モニタ画面に切り替える、第1画面切り替え処理を実行するロボットが挙げられる。
上記目的を達成するための第3態様として、端末表示部と、カメラを有するロボットとの間で通信を行う端末通信部と、前記ロボットから送信される前記カメラによる撮影画像を、前記端末通信部により受信して取得する撮影画像取得部と、前記撮影画像に基づいて、前記端末表示部によるモニタ画面の表示を制御する画面表示制御部と、を備える表示端末であって、前記画面表示制御部は、所定の画面切替条件に応じて、前記モニタ画面を、前記撮影画像の第1範囲の画像部分を表示する第1モニタ画面から、前記撮影画像の前記第1範囲と異なる第2範囲の画像部分を表示する第2モニタ画面に切り替える、第1画面切り替え処理を実行する表示端末が挙げられる。
上記遠隔表示システムによれば、画面切替条件に応じて、端末表示部の画面表示を、第1モニタ画面から、表示する撮影画像の画像範囲が第1モニタ画面とは異なる第2モニタ画面に切り替えることにより、表示端末におけるロボットのモニタ画面の表示を、利用者によるロボットの周辺状況の認識が容易な態様で行うことができる。
図1は、遠隔操作システムの構成の説明図である。 図2は、移動ロボットの構成図である。 図3は、操作端末の構成図である。 図4は、表示モードに応じた操作画面の切替処理のフローチャートである。 図5は、停止表示モードにおける操作画面の表示処理のフローチャートである。 図6は、移動表示モードにおける操作画面の表示処理のフローチャートである。 図7は、移動ロボットが会議の場に所在している状況における、操作画面の表示態様の説明図である。 図8は、会議の場に新たな人が加わった状況における、操作画面の表示態様の説明図である。 図9は、会議の場に新たな人が加わった状況における、操作画面の別の表示態様の説明図である。 図10は、移動ロボットが屋内を移動している状況における、操作画面の表示態様の説明図である。 図11は、モニタ画像の一部を拡大表示する態様の説明図である。 図12は、移動ロボットが観光スポットを移動している状況における、操作画面の説明図である。 図13は、移動ロボットが屋外の道路を移動している状況における、操作画面の説明図である。 図14は、移動ロボットが傾斜地を移動している場合に、カメラの撮影方向を水平方向に制御する態様の説明図である。
[1.遠隔操作システムの構成]
図1を参照して、本実施形態の遠隔操作システム1の実施態様について説明する。遠隔操作システム1は、移動ロボット10と操作端末100とを備え、移動ロボット10と操作端末100は、通信ネットワーク200を介して相互に通信を行う。移動ロボット10は、頭部11、首部12、胴部13、及び走行ユニット14を備えている。遠隔操作システム1は本発明の遠隔表示システムの構成を含み、操作端末100は本発明の表示端末の構成を含んでいる。
頭部11には、ロボット表示部61、ロボットスピーカー63、及びロボットマイク64が設けられている。首部12は、胴部13に対して、頭部11を上下及び左右にスイング動作(首振り動作)させる。胴部13には、ロボットカメラ62及びライダー65が設けられている。ロボットカメラ62は、移動ロボット10の周辺を撮影し、ライダー(LiDAR)は、レーザー照射により移動ロボット10の周辺に存在する物体までの距離を検出する。
操作端末100の端末表示部141(タッチパネル)には、移動ロボット10から送信されるモニタ画像を含む操作画面が表示され、遠隔操作システム1の利用者Uは、操作画面に表示される移動ロボット10の周辺のモニタ画像を視認して、移動ロボット10の移動先の状況を認識する。そして、利用者Uは、移動ロボット10の状況に応じて、操作端末100により移動ロボット10を遠隔操作する。
移動ロボット10は、いわゆるテレプレゼンスロボットであり、例えば、建物300内を移動して会議の場301で会議に参加し、或いは屋外を移動して観光スポット310や、ホテル等の目的地320に向かう。移動ロボット10のロボット表示部61には、利用者Uの顔画像或いは利用者Uの顔を模したアイコンが表示され、これにより、利用者U自身が、移動ロボット10の移動先に所在しているかのような感覚を、移動ロボット10の付近にいる人達に与えることができる。
また、利用者Uも、操作端末100に表示される移動ロボット10の周辺の画像を視認することにより、利用者U自身が移動ロボット10の移動先に所在しているかのような感覚を得ることができる。さらに、利用者Uは、操作端末100により、移動ロボット10の移動先にいる人或いは他のロボットとの間で、ビデオ通話やチャットによるコミュニケーションを行うことができる。
移動ロボット10は、通信ネットワーク200を関して、エリア情報サーバー210から、移動ロボット10の移動エリア内の情報を取得すると共に、ロボット管理サーバー220から、移動ロボット10或いは他のロボットに関する情報を取得する。
[2.移動ロボットの構成]
図2を参照して、移動ロボット10の構成について説明する。移動ロボット10は、上述した構成要素の他に、ロボット通信部60、ロボットコントローラ20、GNSS(Global Navigation Satellite System)センサ66、速度センサ67、及び傾斜センサ68を備えている。
ロボット通信部60は、通信ネットワーク200を介して、操作端末100との間で通信を行う。なお、移動ロボット10と操作端末100との距離が短い状況では、ロボット通信部60が、操作端末100との間で直接通信を行うようにしてもよい。GNSSセンサ66は、GNSS衛星からの電波を受信して、移動ロボット10の現在位置を検出する。速度センサ67は、移動ロボット10の移動速度(走行速度)を検出する。傾斜センサ68は、水平方向に対する移動ロボット10の傾斜角度を検出する。
ロボットコントローラ20は、ロボットプロセッサ30、ロボットメモリ50、及び図示しないインターフェース回路等により構成されている。ロボットメモリ50には、ロボット制御用プログラム51、地図DB(data base)52、建物DB53等が保存されている。地図DB52には、移動ロボット10の移動エリアの地図が記録されている。建物DB53には、移動ロボット10の移動エリア内に存在する建物のフロアレイアウト等が記録されている。
地図DB52、及び建物DB53は、エリア情報サーバー210から移動ロボット10にダウンロードされてもよい。ロボット制御用プログラム51は、ロボット管理サーバー220から移動ロボット10にダウンロードされてもよい。
ロボットプロセッサ30は、ロボット制御用プログラム51をロボットメモリ50から読み込んで実行することによって、画面表示制御部31、現在位置認識部32、移動状況認識部33、表示モード切替部34、周辺対象物体認識部35、コミュニケーション対象選択受付部36、コミュニケーション制御部37、障害物認識部38、動作中物体認識部39、目的地認識部40、移動ルート認識部41、表示画像範囲設定部42、カメラ撮影範囲制御部43、水平方向画像取得部44、利用者顔画像表示制御部45、及び表示レイアウト変更部46として機能する。
画面表示制御部31は、移動ロボット10が停止状態である場合に対応した停止表示モードと、移動ロボット10が移動状態(走行状態)である場合に対応した移動表示モードとに応じて、操作端末100に送信する操作画面のデータを変更することにより、操作端末100の端末表示部141に表示される操作画面を制御する。各表示モードにおける操作画面の表示態様の詳細については後述する。
現在位置認識部32は、GNSSセンサ66から出力される位置検出信号に基づいて、移動ロボット10の現在位置(緯度、経度)を認識する。移動状況認識部33は、現在位置認識部32により認識される移動ロボット10の現在位置の変化、速度センサ67により検出される移動ロボット10の移動速度、地図DB52から取得した地図データ、建物DB53から取得した建物のレイアウト等に基づいて、移動ロボット10の移動状況を認識する。現在位置認識部32は、移動ロボット10が屋内に位置している場合は、ライダー65による周囲物体の検出状況と、建物DB53から取得した屋内のレイアウトデータをマッチングさせて、屋内における移動ロボット10の現在位置を認識する。
表示モード切替部34は、利用者Uによる選択操作に応じて、表示端末100における操作画面の表示モードを、停止表示モードと移動表示モードとに切り替える。周辺対象物体認識部35は、ロボットカメラ62による撮影画像、ライダー65による物体検出信号、及びロボットマイク64による検出音に基づいて、移動ロボット10の周辺の所在する人及び他のロボットを、周辺対象物体として認識する。なお、人又はロボットが所持している発信機から送信される識別信号を、ロボット通信部60により受信することによって、移動ロボット10の周辺に所在する人及び他のロボットを認識してもよい。
コミュニケーション対象選択受付部36は、利用者Uによる操作画面の選択操作に応じて、利用者Uがコミュニケーションの実施を希望する周辺対象物体の選択を受け付ける。コミュニケーション制御部37は、コミュニケーション対象選択受付部36により選択が受付けられた周辺対象物体と、利用者Uとの間のコミュニケーションを制御する。具体的には、する。コミュニケーション制御部37は、利用者Uと周辺対象物体とのビデオ通話、音声通話、チャットを可能にする。
障害物認識部38は、ロボットカメラ62による撮影画像、及びライダー65による物体検出信号に基づいて、移動ロボット10の周辺に存在する障害物を認識する。動作中物体認識部39は、ロボットカメラ62による撮影画像、ライダー65の物体検出信号、及びロボットマイク64の検出音に基づいて、移動ロボット10の周辺の動作中物体を認識する。動作中物体には、人及び移動ロボット10以外の他のロボットが含まれる。ここで、「動作」には、体を動かす行為の他に、発言等の声を発する行為も含まれる。
目的地認識部40は、利用者Uにより設定された移動ロボット10の移動の目的地を認識する。利用者Uは、操作端末100の操作によって、移動ロボット10の目的地を設定する。ここで、目的地には、移動ロボット10が向かう最終的な目的地の他に、最終的な目的地まで移動する途中で立ち寄る地点も含まれる。
移動ルート認識部41は、現在位置認識部32により認識された移動ロボット10の現在位置、目的地認識部40により認識された移動ロボット10の目的地、及び地図DB52から取得した地図データに基づいて、移動ロボット10の移動ルートを認識する。表示画像範囲設定部42、利用者Uによる操作に応じて、操作端末100の操作画面に表示するモニタ画像の範囲を設定する。
カメラ撮影範囲制御部43は、移動ロボット10の周辺に所在する全ての人及び他のロボットが、ロボットカメラ62の撮影範囲に含まれるように、移動ロボット10を移動させる。なお、ロボットカメラ62が、広角と望遠の切替が可能な構成になっている場合には、広角に切り替えて、移動ロボット10の周辺に所在する全ての人及び他のロボットが、ロボットカメラ62の撮影範囲に含まれるようにしてもよい。
水平方向画像取得部44は、ロボットカメラ62が撮影方向を変更する機能を有している場合に、図14のS1、S2に示したように、移動ロボット10が傾斜地に位置していて、ロボットカメラ62が水平方向よりも上向き或いは下向きになる状況で、S3、S4に示したように、ロボットカメラ62の撮影方向を水平方向に向ける処理を行う。これにより、移動ロボット10の進行方向の撮影画像を取得することができる。また、ロボットカメラ62が撮影方向を変更する機能を有していない場合には、水平方向画像取得部44は、S1、S2の状況でロボットカメラ62により撮影された上向き又は下向きの画像から、水平方向に相当する範囲の画像を抽出することにより、移動ロボット10の進行方向の撮影画像を取得する。
利用者顔画像表示制御部45は、利用者Uによる操作端末100の操作に応じて、ロボット表示部61に利用者Uの顔画像を表示させるか否かを制御する。利用者Uの顔画像は、端末カメラ142により撮影されて移動ロボット10に送信されるリアルタイムの画像でもよく、予め移動ロボット10のロボットメモリ50に保存された画像でもよい。利用者顔画像表示制御部45は、ロボット表示部61に利用者Uの顔画像を表示しないときには、利用者Uの操作に応じて、利用者Uの顔を模したアイコンをロボット表示部61に表示するか、或いは顔画像と顔を模したアイコンのいずれもロボット表示部61に表示しない状態とする。表示レイアウト変更部46は、利用者Uによる操作端末100の操作に応じて、操作端末100に表示される操作画面のレイアウトを変更する。
[3.操作端末の構成]
図3を参照して、操作端末100の構成について説明する。操作端末100は、端末コントローラ110、端末通信部140、端末表示部141、端末カメラ142、端末マイク143、及び端末スピーカー144を備えている。操作端末100は、移動ロボット10を操作するための専用端末であってもよく、スマートフォンやタブレット端末等の汎用の通信端末であってもよい。
端末通信部140は、通信ネットワーク200(図1参照)を介して、移動ロボット10との間で相互に通信を行う。端末表示部141はタッチパネルであり、端末コントローラ110から出力される画面データに応じた操作画面を表示すると共に、利用者Uのタッチ操作に応じた操作データを、端末コントローラ110に出力する。
端末カメラ142は、利用者Uの顔画像等を撮影して撮影画像のデータを端末コントローラ110に出力する。端末マイク143は、利用者Uの音声等を検出して音声データを端末コントローラ110に出力する。端末スピーカー144は、端末コントローラ110から出力される音データを入力して、移動ロボット10を介して通話を行っている相手の音声等を出力する。
端末メモリ130には、移動ロボット10の操作を実現するロボット操作アプリのプログラム131が保存されている。端末プロセッサ120は、ロボット操作アプリのプログラム131を読み込んで実行することにより、ロボット操作画面制御部121、及びロボット操作指示制御部122として機能する。
ロボット操作画面制御部121は、移動ロボット10から送信される移動ロボット10用の操作画面のデータを、端末通信部140により受信して、操作画面を端末表示部141に表示する。操作画面のデータには、ロボットカメラ62による撮影画像に基づくモニタ画像情報が含まれる。ロボット操作指示制御部122は、端末表示部141から出力される操作画面のタッチ操作に応じた操作信号から、利用者Uによる操作の指示内容を認識して、操作の指示内容を示す操作データを、端末通信部140により移動ロボット10に送信する。
[4.表示モードの切替処理]
図4に示したフローチャートに従って、移動ロボット10により実行される端末表示部141における操作画面の表示モードの切替処理について説明する。画面表示制御部31は、操作端末100に表示される操作画面を、図7~図9に例示した停止表示モードによる操作画面と、図10~図13に例示した移動表示モードによる表示画面とに切り替えて制御する。
図7を参照して、操作画面510には、ロボットカメラ62により撮影される移動ロボット10の周辺の撮影画像500から抽出されたモニタ画像を表示する第1サブ画面520と、移動ロボット10を操作するための第2サブ画面530とが含まれる。本実施形態では、第2サブ画面530は、操作画面510の第1サブ画面520以外の領域となっている。第2サブ画面530には、表示モードを切り替えるためのモード切替スイッチ531が表示される。
図7の操作画面510は、移動ロボット10が停止状態である場合に対応した停止表示モードによる操作画面であるため、移動ロボット10の頭部11の縦振りを指示する縦振りアイコン532と、頭部11の横振りを指示する横振りアイコン533が表示される。また、ビデオ通話、音声通話、チャット等によるコミュニケーションを行うためのコミュニケーションアイコン534と、コミュニケーションウィンドウ540が表示される。
コミュニケーションアイコン534には、音声通話を開始するための音声通話アイコン534a、ビデオ通話を開始するためのビデオ通話アイコン534b、チャットの開始等を行うためのオプションアイコン、通話を終了するための通話終了アイコン534dが含まれる。コミュニケーションウィンドウ540には、通話相手の顔画像541、チャットによるメッセージ542等が表示される。
図4のステップS1で、表示モード切替部34は、操作端末100から送信される操作データに基づいて、モード切替スイッチ531の操作状態を認識する。そして、表示モード切替部34は、モード切替スイッチ53による首振モードへの切替操作がなされたときに、ステップS10に処理を進めて停止表示モードに設定し、ステップS4に処理を進める。
一報、首振りモードへの切替操作がなかったときには、表示モード切替部34は、ステップS3に処理を進めて、切替スイッチ531の走行モードへの切替操作がなされたか否かを判断する。そして、表示モード切替部34は、走行モードへの切替操作がなされたときはステップS50に処理を進め、走行モードへの切替操作がなされなかったときには、ステップS4に処理を進める。ステップS4で、表示モード切替部34は、操作画面の表示モードを移動表示モードに設定する。
[5.停止表示モードによる操作画面の表示]
図7~図9に示した操作画面を参照しつつ、図5に示したフローチャートに従って、移動ロボット10により実行される、停止表示モードによる操作画面の表示の制御について説明する。
図5のステップS11で、画面表示制御部31は、図7に示したように、停止表示モードによる操作画面510の画面データを操作端末100に送信して、操作画面510を、操作端末100の端末表示部141に表示させる。操作画面510には、上述したように、ロボットカメラ62の撮影画像に500に基づくモニタ画像が表示される第1サブ画面520と、コミュニケーション用の操作部が表示される第2サブ画面530とが含まれる。
図7は、移動ロボット10が会議の場に所在している状況での撮影画像500と操作画面510とを示しており、撮影画像500には、会議の参加者の画像部分が含まれている。この場合、カメラ撮影範囲制御部43は、会議の参加している全ての人及び他のロボットの画像部分が含まれるように、移動ロボット10を移動させて、ロボットカメラ62の撮影範囲を調節する。なお、ロボットカメラ62に撮影方向の変更、或いはレンズの広角と標準の切替等の機能が備えられている場合には、カメラ撮影範囲制御部43は、これらの機能も活用してロボットカメラ62の撮影範囲を調節する。
画面表示制御部31は、ロボットカメラ62の撮影画像500から、会議の場に所在している全ての人及び他のロボットの画像部分が含まれるように設定した範囲501の画像部分を抽出したモニタ画像520aを、第1サブ画面520に表示する。利用者Uは、第1サブ画面520を視認することで、会議に参加している人及び他のロボットを確認することができる。
次のステップS12で、コミュニケーション対象選択受付部36は、第1サブ画面520に表示されている人の画像部分522~526のいずれかについて、利用者Uのタッチ操作がなされた否かを判断する。そして、コミュニケーション対象選択受付部36は、いずれかの人の画像部分がタッチされたときに、タッチされた画像部分に対応する人を、利用者Uとのコミュニケーション対象として設定し、ステップS20に処理を進める。
この場合、画面表示制御部31が、コミュニケーション対象として設定された人の画像部分を拡大した画像を、第1サブ画面520又は第2サブ画面530に表示するようにしてもよい。図7では、画面表示制御部31が、コミュニケーション対象として設定された人の画像部分を拡大した画像541を、第2サブ画面530のコミュニケーションウィンドウ540に表示する例を示している。また、コミュニケーション制御部37が、コミュニケーション対象として設定された人が使用している通信端末と操作端末100との通信を確立することによって、コミュニケーション対象として設定された人についてのみ、利用者Uとのコミュニケーション(音声通話、チャット等)を可能にするようにしてもよい。
ステップS20で、コミュニケーション制御部37は、利用者Uによるコミュニケーションアイコン534の操作に応じて、利用者Uとコミュニケーション対象との間で、音声通話、ビデオ通話、或いはチャットによるコミュニケーションの制御を実行し、ステップS13に処理を進める。
ステップS13で、動作中物体認識部39は、移動ロボット10の周辺に存在する動作中物体を探索し、動作中物体を認識したときにステップS21に処理を進める。ステップS21で、画面表示制御部31は、図8に示したように、ロボットカメラ62の撮影画像502から、動作中物体の画像部分503が含まれる範囲504の画像部分を抽出する。そして、範囲504の画像部分を拡大したモニタ画像520bを、第1サブ画面520に表示する。これにより、移動ロボット10に接近する動作中物体について、利用者Uによる認識を容易にすることができる。
また、図9に示したように、画面表示制御部31が、ロボットカメラ62の撮影画像502から、動作中物体の画像部分503と、会議に参加している全ての人の画像部分とが含まれる範囲505の画像部分を抽出するようにしてもよい。この場合、画面表示制御部31は、範囲505のモニタ画像を第1サブ画面520に表示する。これにより、利用者Uは、会議に参加している全ての人の様子を視認しつつ、移動ロボット10に接近している動作中物体を容易に認識することができる。
ここで、画面表示制御部31は、動作中物体認識部39により複数の動作中物体が認識されたときには、以下の優先順位1→優先順位2→優先順位3、の決定条件により、ステップS21による処理の対象とする動作中物体を決定する。
優先順位1:最も大きい声で発言中の動作中物体。
優先順位2:移動中の動作中物体。
優先順位3:起立して発言中の動作中物体。
なお、上記優先順位は一例にすぎず、例えば、利用者Uが操作端末100を操作して、優先順位をカスタマイズできるようにしてもよい。
ステップS21で、第1サブ画面520の表示を、動作中物体の画像部分を含まない第1画像範囲501の第1モニタ画面520aから、動作中物体の画像部分を含む第2画像範囲504,505の第2モニタ画面520b,520cに切り替える処理は、第1画面切替処理に相当する。ここで、画面表示制御部31により、第1サブ画面520の表示を、第1モニタ画面520aから第2モニタ画面520b,520cに切替えた時点から、所定時間が経過した時に、第1サブ画面520の表示を第1モニタ画面520aに戻す処理を行ってもよい。
[6.移動表示モードによる操作画面の表示]
図10~図13に示した操作画面を参照しつつ、図6に示したフローチャートに従って、移動ロボット10により実行される、移動表示モードによる操作画面の表示の制御について説明する。
図6のステップS51で、画面表示制御部31は、図10に示したように、移動表示モードによる操作画面510の画面データを操作端末100に送信して、操作画面510を、操作端末100の端末表示部141に表示させる。操作画面510には、ロボットカメラ62の撮影画像に基づくモニタ画像が表示される第1サブ画面520と、移動ロボット10の移動操作をサポートするための画像が表示される第2サブ画面530とが含まれる。
図10は、移動ロボット10が建物の中(屋内)を移動している状況での操作画面510を示している。移動表示モードでは、移動ロボット10の前後の移動を指示するための前後移動アイコン、及び左右の移動を指示するための左右移動アイコン602が表示される。また、移動ロボット10の移動速度を表示する速度メータ603が表示される。さらに、移動ロボット10が移動している建物のフロアレイアウト図610が表示される。
続くステップS52で、障害物認識部38は、移動ロボット10の周辺に存在する障害物を探索する。そして、障害物認識部38は、障害物を認識したときはステップS60に処理を進め、障害物を認識しなかったときにはステップS53に処理を進める。ステップS60で、画面表示制御部31は、図6に示したように、障害物の存在を報知する障害物報知ウィンドウ611を、第2サブ画面530に表示する。障害物報知ウィンドウ611には、注意喚起メッセージ(ここでは、「この先、段差があります」のメッセージ)、障害物の画像等が表示される。
次のステップS53で、画面表示制御部31は、移動ロボット10の移動速度が低速判定速度(例えば、数km/hourに設定される)である状態で、第1サブ画面520に表示されている画像部分の選択操作がなされたか否かを判断する。そして、画面表示制御部31は、画像部分の選択操作がなされたときはステップS61に処理を進め、画像部分の選択操作がなされていないときにはステップS54に処理を進める。
ステップS61で、画面表示制御部31は、図11に示したように、第1サブ画面520の画像部分612(ここでは、フロアガイドパネルの画像部分)が選択されたときに、画像部分612を拡大した拡大ウィンドウ620を第2サブ画面530に表示する。これにより、利用者Uは、第1サブ画面520により、移動ロボット10の前方を広範囲で確認しつつ、第2サブ画面520の拡大ウィンドウ620により、確認したい対象物の詳細を視認することができる。
続くステップS54で、移動状況認識部33は、移動ロボット10が観光スポットに所在しているか否かを判断する。そして、移動状況認識部33は、移動ロボット10が観光スポットに所在しているときはステップS62に処理を進め、移動ロボット10が観光スポットに位置していないときにはステップS55に処理を進める。
ステップS62で、画面表示制御部31は、図12に示したように、移動ロボット10の周辺の撮影画像520eを表示する第1サブ画面520と、観光スポット(ここでは動物園)の地図700を表示する第2サブ画面530とを含む操作画面510を表示する。さらに、画面表示制御部31は、移動ロボット10の所在地点或いは移動ロボット10の付近の付加情報を表示する付加情報701を表示する。
また、画面表示制御部31は、障害物認識部38により移動ロボット10の付近の障害物が認識されている場合は、ステップS60の処理により、障害物報知ウィンドウ702も表示する。
続くステップS55で、移動状況認識部33は、移動ロボット10の移動速度が高速判定速度(例えば、数10km/hourに設定される)以上であるか否かを判断する。そして、移動状況認識部33は、移動ロボット10の移動速度が高速判定速度以上であるときはステップS63に処理を進め、移動ロボット10の移動速度が高速判定速度未満であるときにはステップS56に処理を進める。
ステップS63で、画面表示制御部31は、図13に示したように、移動ロボット10の前方の撮影画像520fを表示する第1サブ画面520と、移動ロボット10の移動エリアの地図に、移動ロボット10の現在位置Sから目的地Gまでの経路Rtを示すルート案内ウィンドウ800を表示する第2サブ画面530とを含む、操作画面510を表示する。ルート案内ウィンドウ800の表示により、利用者Uによる移動ロボット10の目的地までの移動を支援することができる。
さらに、画面表示制御部31は、目的地への到着予測時刻801を第2サブ画面530に表示する。また、画面表示制御部31は、障害物認識部38により移動ロボット10の付近の障害物が認識されている場合は、ステップS60の処理により、障害物ウィンドウ802を第2サブ画面530に表示する。障害物ウィンドウ802には、障害物として認識された歩行者の画像部分が枠802aにより強調されて表示される。
ここで、図13において、画面切替条件(ここでは、障害物である歩行者の認識)の成立により、操作画面530の表示を、第1サブ画面520にのみモニタ画像(本発明の第3画像範囲の画像部分に相当する)を表示する操作画面(本発明の第3モニタ画面に相当する)から、第1サブ画面520にモニタ画像を表示すると共に、第2サブ画面530に、第1サブ画面520のモニタ画像の一部を拡大した画像部分(本発明の第3画像範囲の一部を拡大した第4画像部分に相当する)を表示する操作画面(本発明の第4モニタ画面にう相当する)に切り替える処理は、本発明の第2画面切替処理に相当する。
また、移動ロボット10が高速判定速度以上で移動しているときには、コミュニケーションの操作は禁止されるため、画面表示制御部31は、図13に示したように、コミュニケーションアイコン514の表示を、他の操作が可能な前後移動アイコン601,左右移動アイコン602よりも暗くして(異なる表示態様で)表示する。これにより、コミュニケーションアイコン514の操作が不能であることを、利用者Uに認知させる。なお、異なる表示態様として、操作可能なアイコンをカラーで表示し、操作不能なアイコンをグレースケールで表示する等、他の表示態様を用いてもよい。
[7.他の実施形態]
上記実施形態では、表示モード切替部34は、図4に示したフローチャートによる処理により、利用者Uによるモード切替スイッチ531の操作に応じて、停止表示モードと移動表示モードとを切り替えた。他の実施形態として、移動状況認識部33により認識される移動ロボット10の移動状況に応じて、停止表示モードと移動表示モードとを切り替えるようにしてもよい。例えば、移動ロボット10が所定時間以上停止状態であるときに、停止表示モードに切り替えるようにしてもよい。また、移動ロボットが所定速度以上で移動しているときに、移動表示モードに切り替えるようにしてもよい。
上記実施形態では、図8、図9に示したように、停止表示モードにおいて、動作中物体認識部39により動作中物体が認識されたときに、第1サブ画面520の表示を、動作中物体の画像部分を含まない第1モニタ画面520aから、動作中物体の画像部分を含む第2モニタ画面520b,520cに切り替えた。他の実施形態として、第1サブ画面520の表示は変更せずに、動作中物体の画像部分を含む第2モニタ画面520b,520cを、第2サブ画面530に表示するようにしてもよい。
或いは、停止表示モードにおいては、第1サブ画面520を第1モニタ画面から第2モニタ画面に切替え、移動表示モードにおいては、第2モニタ画面を第2サブ画面530に表示するようにしてもよい。
上記実施形態において、コミュニケーション対象選択受付部36は、第1サブ画面520に表示されている人の画像部分がタッチ操作されたときに、タッチ操作された画像部分に対応した人をコミュニケーション対象として設定した。他の実施形態として、第1サブ画面52に表示されている画像部分に対応する人又はロボットの識別情報(氏名、ID等)を、第1サブ画面に一覧表示し、一覧表示された識別情報のタッチ操作により、コミュニケーション対象を選択できるようにしてもよい。
上記実施形態では、操作画面510の表示を、移動ロボット10のロボットプロセッサ30により、画面表示制御部31~利用者顔画像表示制御部45の処理によって制御した。他の実施形態として、画面表示制御部31~利用者顔画像表示制御部45の全部又は一部を、操作端末100の端末プロセッサ120により構成してもよい。この場合、端末プロセッサ120は、移動ロボット10から送信されるロボットカメラ62の撮影画像、ロボットマイク64により検出される音声のデータ、ライダー65により検出される物体のデータ等に基づいて、端末表示部141に表示される操作画面510を制御する。
また、画面表示制御部31~利用者顔画像表示制御部45の全部又は一部をロボット管理サーバー220により構成してもよい。この場合、ロボット管理サーバー220は、移動ロボット10及び操作端末100との間で通信を行って、ロボットカメラ62の撮影画像、操作端末100の操作データ等を受信し、操作端末100の端末表示部141の表示を制御する。
上記実施形態では、走行ユニット14を備えた移動ロボット10に本発明を適用した例を示したが、本発明は、会議室等の屋内の特定の場所や公共施設等に設置されて、移動機能を有しないモニタ用のロボットについても適用可能である。この場合は、図4に示した表示モードの切替処理は実行されず、図5に示した停止表示モードによる画面表示の制御のみが実行される。
上記実施形態において、現在位置認識部32が地図DB52又は建物DB53に基づいて、移動ロボット10が部屋内に位置していることを認識するようにしてもよい。そして、現在位置認識部32により移動ロボット10が部屋内に位置していることが認識されている状態であるときに、ロボットカメラ62による撮影画像、ライダー65の物体検出信号、及びロボットマイク64の検出音等に基づいて、部屋内に進入する物体が検出された場合に、動作中物体認識部39が、当該物体を動作中物体として認識するようにしてもよい。
なお、図2、図3は、本願発明の理解を容易にするために、移動ロボット10と操作端末100の構成を、主な処理内容により区分して示した概略図であり、移動ロボット10と操作端末100の構成を、他の区分によって構成してもよい。また、各構成要素の処理は、1つのハードウェアユニットにより実行されてもよいし、複数のハードウェアユニットにより実行されてもよい。また、図4~図6に示した各構成要素による処理は、1つのプログラムにより実行されてもよいし、複数のプログラムにより実行されてもよい。
[8.上記実施形態によりサポートされる構成]
上記実施形態は、以下の構成の具体例である。
(第1項)ロボットと、前記ロボットとの間で通信を行う表示端末と、を備え、前記ロボットは、前記ロボットの周辺を撮影するカメラを有して、前記カメラの撮影画像に基づくモニタ画像情報を前記表示端末に送信し、前記表示端末は、端末表示部を有し、前記モニタ画像情報を受信して、前記撮影画像に基づくモニタ画像を含むモニタ画面を前記端末表示部に表示する、遠隔表示システムであって、所定の画面切替条件に応じて、前記端末表示部に表示する前記モニタ画面を、前記撮影画像の第1画像範囲を表示する第1モニタ画面から、前記撮影画像の前記第1画像範囲と異なる第2画像範囲を表示する第2モニタ画面に切り替える、第1画面切替処理を実行する画面表示制御部を備える遠隔表示システム。
第1項の遠隔表示システムによれば、画面切替条件に応じて、端末表示部の画面表示を、第1モニタ画面から、表示する撮影画像の画像範囲が第1モニタ画面とは異なる第2モニタ画面に切り替えることにより、表示端末におけるロボットのモニタ画面の表示を、利用者によるロボットの周辺状況の認識が容易な態様で行うことができる。
(第2項)前記カメラの周辺に存在する動作中物体を認識する動作中物体認識部を備え、前記画面切替条件として、前記動作中物体認識部により、前記カメラの撮影範囲内の前記第1画像範囲に対応する第1撮影範囲外で、前記動作中物体認識部により前記動作中物体が認識されること、が設定され、前記画面表示制御部は、前記動作中物体の画像部分が含まれるように、前記第2画像範囲を設定する第1項に記載の遠隔表示システム。
第2項の遠隔表示システムによれば、ロボットの近くにいる動作中物体について、利用者による認識を容易にすることができる。
(第3項)前記動作中物体認識部は、動作中の人又は他のロボットを前記動作中物体として認識する第2項に記載の遠隔表示システム。
第3項の遠隔表示システムによれば、ロボットの近くにいる動作中の人又は他のロボットについて、利用者による認識を容易にすることができる。
(第4項)前記画面表示制御部は、前記動作中物体認識部により認識された前記動作中物体の画像部分を含む画像範囲を拡大した画像を表示する画面を、前記第2モニタ画面とする第2項又は第3項に記載の遠隔表示システム。
第4項の遠隔表示システムによれば、動作中物体の画像部分を拡大して表示することにより、利用者による動作中物体の識別を容易にすることができる。
(第5項)前記画面表示制御部は、前記第1画像範囲を、前記動作中物体認識部により認識された前記動作中物体の画像部分が含まれるように拡大した範囲を、前記第2画像範囲とする第2項から第4項のうちいずれか1項に記載の遠隔表示システム。
第5項の遠隔表示システムによれば、利用者によるロボット周辺の広範囲の認識を確保しつつ、動作中物体に対する注意喚起を利用者に促すことができる。
(第6項)前記画面表示制御部は、前記撮影画像に含まれる人及び他のロボットの画像部分が全て含まれるように、前記第1画像範囲を設定する第1項から第5項のうちいずれか1項に記載の遠隔表示システム。
第6項の遠隔表示システムによれば、例えば、ロボットが会議の場に所在している場合に、会議に参加している全ての人及び他のロボットの状況を、利用者に認識させることができる。
(第7項)前記画面表示制御部は、前記画面切替条件に応じて前記モニタ画面を前記第1モニタ画面から前記第2モニタ画面に切り替えた時点から、所定時間が経過した時に、前記モニタ画面を前記第1モニタ画面に戻す第1項から第6項のうちいずれか1項に記載の遠隔表示システム。
第7項の遠隔表示システムによれば、利用者による第2モニタ画面から第1モニタ画面への切替操作を不要として、利用者の使い勝手を向上させることができる。
(第8項)前記表示端末は、前記表示端末の利用者による操作に応じて、前記端末表示部に表示される前記撮影画像の範囲を設定する表示画像範囲設定部を備え、前記画面表示制御部は、前記表示画像範囲設定部により設定された範囲を前記第2画像範囲とする第1項から第7項のうちいずれか1項に記載の遠隔表示システム。
第8項の遠隔表示システムによれば、利用者の関心に応じた対象の画像を、第2モニタ画面に表示させることができる。
(第9項)前記ロボットは、胴部と、該胴部に対して回転又は揺動する頭部とを備え、前記カメラは前記胴部に設けられている第1項から第8項のうちいずれか1項に記載の遠隔表示システム。
第9項の遠隔表示システムによれば、カメラをロボットに設けた場合に生じ得る不都合である、カメラの撮影画像の揺れにより、端末表示部に表示される第1モニタ画面及び第2画面を視認する利用者に不快感を与えることを防止することできる。
(第10項)前記ロボットは、前記ロボットの周辺に存在する物体を検出する物体検出センサを備え、前記動作中物体認識部は、前記物体検出センサによる検出情報に基づいて、前記動作中物体を認識する第1項から第5項のうちいずれか1項に記載の遠隔表示システム。
第10項の遠隔表示システムによれば、物体検出センサによる検出情報の変化により、移動中物体を認識することができる。
(第11項)地図情報に基づいて前記ロボットの現在位置を認識する現在位置認識部を備え、前記動作中物体認識部は、前記現在位置認識部により前記ロボットが部屋内に位置していることが認識されている状態で、前記物体検出センサにより前記部屋内に進入する物体が検出された場合に、当該物体を前記動作中物体として認識する第10項に記載の遠隔表示システム。
第11項の遠隔操作システムによれば、ロボットが部屋内に位置している状況において、部屋の外を移動している物体を、動作中物体認識部による認識対象から除外することができる。例えば、部屋の窓の外側を移動している物体、オープンスペースに配置された部屋で会議が行われている状況で部屋の外の廊下を移動している物体、部屋の扉が開いている状況で扉の外側を移動している物体を、動作中物体の認識対象から除外することができる。
(第12項)前記ロボットは、物体から発信される識別信号を受信する識別信号受信部を備え、前記動作中物体認識部は、前記識別信号受信部による前記識別信号の受信状況に基づいて、前記動作中物体を認識する第2項から第5項のうちいずれか1項に記載の遠隔表示システム。
第12項の遠隔表示システムによれば、識別信号受信部により受信される識別信号の強度の変化等により、移動中物体を認識することができる。
(第13項)前記ロボットは、前記ロボットの周辺の音を検出する音センサを備え、前記動作中物体認識部は、前記音センサによる音の検出状況に応じて、前記動作中物体を認識する第2項から第5項のうちいずれか1項に記載の遠隔表示システム。
第13項の遠隔表示システムによれば、音センサによる音の音量の変化等に基づいて、移動中物体を認識することができる。
(第14項)前記画面表示制御部は、前記動作中物体認識部により、前記音センサによる音の検出状況に基づいて、複数の前記動作中物体が認識されたときに、発した音の音量が最大である前記動作中物体の画像部分が含まれるように前記第2画像範囲を設定する第13項に記載の遠隔表示システム。
第14項の遠隔表示システムによれば、発している音の音量が最大である動作中物体について、利用者による認識を容易にすることができる。
(第15項)前記動作中物体認識部は、前記撮影画像と前記音センサによる音の検出状況に基づいて、起立して発言中の動作中物体を認識し、前記画面表示制御部は、前記動作中物体認識部により、起立して発言中の前記動作中物体が認識されたときに、起立して発言中の前記動作中物体の画像部分が含まれるように前記第2画像範囲を設定する第13項又は第14項に記載の遠隔表示システム。
第15項の遠隔表示システムによれば、起立して発言している動作中物体について、利用者による認識を容易にすることができる。
(第16項)前記画面表示制御部は、前記動作中物体認識部により複数の前記動作中物体が認識されたときに、最も大きな声で発言中の前記動作中物体、移動中の前記動作中物体、起立して発言の中の前記動作中物体、の順に設定された優先順位によって選択した前記動作中物体の画像部分が含まれるように、前記第2画像範囲を設定する第13項に記載の遠隔表示システム。
第16項の遠隔表示システムによれば、動作中物体が複数存在する場合に、上記優先順位に従って、利用者による認識を容易にする対象とする動作中物体を決定することができる。
(第17項)前記カメラの撮影画像に、前記ロボットの周辺に所在する人及び他のロボットの画像部分が全て含まれるように、前記カメラの撮影範囲を制御するカメラ撮影範囲制御部を備える第1項から第16項のうちいずれか1項に記載の遠隔表示システム。
第17項の遠隔表示システムによれば、例えば、カメラが可動式であるときはカメラの向きを変えることにより、また、ロボットが移動ロボットである場合はロボットを移動させることにより、ロボットの周辺に所在する人及び他のロボットの画像部分が全て含まれるように、カメラの撮影範囲を制御することによって、ロボットの周辺の存在する全ての人及び他のロボットを、利用者に認識させることができる。
(第18項)前記撮影画像から、前記カメラの撮影方向が水平方向である場合に対応した水平相当画像範囲を抽出する水平相当画像抽出部を備え、前記画面表示制御部は、前記水平相当画像から前記第1モニタ画面を抽出する第1項から第17項のうちいずれか1項に記載の遠隔表示システム。
第17項の遠隔表示システムによれば、カメラの撮影方向が水平方向ではない場合に、水平相当画像から第1モニタ面を抽出することにより、端末表示部に表示される第1モニタ画面を、利用者の視線の向きに合ったものとすることができる。
(第19項)前記画面表示制御部は、前記画面切替条件に応じて、前記第1画面切替処理、又は、前記モニタ画面を、前記撮影画像の第3画像範囲の画像部分を表示する第3モニタ画面から、前記第3画像範囲の画像部分と前記第3画像範囲の一部を拡大した第4画像部分とを表示する第4モニタ画面に切り替える第2画面切替処理を、実行する第1項から第18項のうちいずれか1項に記載の遠隔表示システム。
第19項の遠隔表示システムによれば、広範囲の第3画像範囲と第3画像刃にの一部を拡大した第4画面を表示する第4モニタ画面により、利用者に対して、ロボットの周辺の広範囲の画像情報の提供を確保しつつ、特定範囲について詳細な画像情報を提供することができる。
(第20項)前記ロボットは移動ロボットであり、前記ロボットの移動状況を認識する移動状況認識部を備え、前記画面表示制御部は、前記移動状況認識部により前記ロボットが停止状態であることが認識されているときは、前記第1画面切替処理を実行し、前記移動状況認識部により前記ロボットが移動状態であることが認識されているときには、前記第2画面切替処理を実行する第19項に記載の遠隔表示システム。
第20項の遠隔表示システムによれば、ロボットが停止している場合は、第1画面切替処理により、特定範囲の画像部分に限定した第2モニタ画面を表示して、特定範囲の画像に対する利用者の認識を容易にする。一方、ロボットが移動している場合には、第2画面切替処理により、広範囲の画像部分と広範囲の画像部分の一部を拡大した画像部分とを含む第4モニタ画面を表示して、利用者に対してロボットの周辺の広範囲の画像情報を提供しつつ、利用者による広範囲内の一部の画像情報の認識を容易にすることができる。
(第21項)周辺を撮影するカメラと、表示端末との間で通信を行うロボット通信部と、 前記表示端末に表示させる、前記カメラによる撮影画像に基づくモニタ画面を設定する画面表示制御部と、前記画面表示制御部により設定された前記モニタ画面のデータを、前記ロボット通信部により前記表示端末に送信するモニタ画面データ送信部と、を備えるロボットであって、前記画面表示制御部は、所定の画面切替条件に応じて、前記モニタ画面を、前記撮影画像の第1範囲の画像部分を表示する第1モニタ画面から、前記撮影画像の前記第1範囲と異なる第2範囲の画像部分を表示する第2モニタ画面に切り替える、第1画面切り替え処理を実行するロボット。
第21項のロボットによれば、画面切替条件に応じて、表示端末に送信するモニタ画面のデータを、第1モニタ画面のデータから、表示する撮影画像の画像範囲が第1モニタ画面とは異なる第2モニタ画面のデータに切り替えることにより、表示端末の端末表示部にロボットのモニタ画面の表示を、利用者によるロボットの周辺状況の認識が容易な態様で行うことができる。
(第22項)端末表示部と、カメラを有するロボットとの間で通信を行う端末通信部と、前記ロボットから送信される前記カメラによる撮影画像を、前記端末通信部により受信して取得する撮影画像取得部と、前記撮影画像に基づいて、前記端末表示部によるモニタ画面の表示を制御する画面表示制御部と、を備える表示端末であって、前記画面表示制御部は、所定の画面切替条件に応じて、前記モニタ画面を、前記撮影画像の第1範囲の画像部分を表示する第1モニタ画面から、前記撮影画像の前記第1範囲と異なる第2範囲の画像部分を表示する第2モニタ画面に切り替える、第1画面切り替え処理を実行する表示端末。
第22項の表示端末によれば、画面切替条件に応じて、端末表示部の画面表示を、第1モニタ画面から、表示する撮影画像の画像範囲が第1モニタ画面とは異なる第2モニタ画面に切り替えることにより、表示端末におけるロボットのモニタ画面の表示を、利用者によるロボットの周辺状況の認識が容易な態様で行うことができる。
1…遠隔操作システム、10…移動ロボット、14…走行ユニット、20…ロボットコントローラ、30…ロボットプロセッサ、31…画面表示制御部、32…現在位置認識部、33…表示モード切替部、34…表示モード切替部、35…周辺対象物体認識部、36…コミュニケーション対象選択受付部、37…コミュニケーション制御部、38…障害物認識部、39…動作中物体認識部、40…目的地認識部、41…移動ルート認識部、42…表示画像範囲設定部、43…カメラ撮影範囲制御部、44…水平方向画像取得部、45…利用者顔画像表示制御部、61…ロボット表示部、62…ロボットカメラ、63…ロボットスピーカー、64…ロボットマイク、65…ライダー、66…GNSSセンサ、67…速度センサ、68…傾斜センサ、100…操作端末、110…端末コントローラ、120…端末プロセッサ、121…ロボット操作画面制御部、122…ロボット操作指示制御部、141…端末表示部、142…端末カメラ、143…端末マイク、144…端末スピーカー。
上記目的を達成するための第1態様として、ロボットと、前記ロボットとの間で通信を行う表示端末と、を備え、前記ロボットは、前記ロボットの周辺を撮影するカメラを有して、前記カメラの撮影画像に基づくモニタ画像情報を前記表示端末に送信し、前記表示端末は、端末表示部を有し、前記モニタ画像情報を受信して、前記撮影画像に基づくモニタ画像を含むモニタ画面を前記端末表示部に表示する、遠隔表示システムであって、所定の画面切替条件に応じて、前記端末表示部に表示する前記モニタ画面を、前記撮影画像の第1画像範囲を表示する第1モニタ画面から、前記撮影画像の前記第1画像範囲と異なる第2画像範囲を表示する第2モニタ画面に切り替える、第1画面切替処理を実行する画面表示制御部を備える遠隔表示システムが挙げられる。
移動ロボット10は、通信ネットワーク200をして、エリア情報サーバー210から、移動ロボット10の移動エリア内の情報を取得すると共に、ロボット管理サーバー220から、移動ロボット10或いは他のロボットに関する情報を取得する。
ロボットコントローラ20は、ロボットプロセッサ30、ロボットメモリ50、及び図示しないインターフェース回路等により構成されている。ロボットメモリ50には、ロボット制御用プログラム51、地図DB(database)52、建物DB53等が保存されている。地図DB52には、移動ロボット10の移動エリアの地図が記録されている。建物DB53には、移動ロボット10の移動エリア内に存在する建物のフロアレイアウト等が記録されている。
コミュニケーション対象選択受付部36は、利用者Uによる操作画面の選択操作に応じて、利用者Uがコミュニケーションの実施を希望する周辺対象物体の選択を受け付ける。コミュニケーション制御部37は、コミュニケーション対象選択受付部36により選択が受付けられた周辺対象物体と、利用者Uとの間のコミュニケーションを制御する。コミュニケーション制御部37は、利用者Uと周辺対象物体とのビデオ通話、音声通話、チャットを可能にする。
コミュニケーションアイコン534には、音声通話を開始するための音声通話アイコン534a、ビデオ通話を開始するためのビデオ通話アイコン534b、チャットの開始等を行うためのオプションアイコン534c、通話を終了するための通話終了アイコン534dが含まれる。コミュニケーションウィンドウ540には、通話相手の顔画像541、チャットによるメッセージ542等が表示される。
図4のステップS1で、表示モード切替部34は、操作端末100から送信される操作データに基づいて、モード切替スイッチ531の操作状態を認識する。そして、表示モード切替部34は、モード切替スイッチ53による首振モードへの切替操作がなされたときに、ステップS10に処理を進めて停止表示モードに設定し、ステップS4に処理を進める。
一方、首振りモードへの切替操作がなかったときには、表示モード切替部34は、ステップS3に処理を進めて、モード切替スイッチ531の走行モードへの切替操作がなされたか否かを判断する。そして、表示モード切替部34は、走行モードへの切替操作がなされたときはステップS50に処理を進め、走行モードへの切替操作がなされなかったときには、ステップS4に処理を進める。ステップS4で、表示モード切替部34は、操作画面の表示モードを移動表示モードに設定する。
ステップS61で、画面表示制御部31は、図11に示したように、第1サブ画面520の画像部分612(ここでは、フロアガイドパネルの画像部分)が選択されたときに、画像部分612を拡大した拡大ウィンドウ620を第2サブ画面530に表示する。これにより、利用者Uは、第1サブ画面520により、移動ロボット10の前方を広範囲で確認しつつ、第2サブ画面50の拡大ウィンドウ620により、確認したい対象物の詳細を視認することができる。
上記実施形態において、コミュニケーション対象選択受付部36は、第1サブ画面520に表示されている人の画像部分がタッチ操作されたときに、タッチ操作された画像部分に対応した人をコミュニケーション対象として設定した。他の実施形態として、第1サブ画面52に表示されている画像部分に対応する人又はロボットの識別情報(氏名、ID等)を、第1サブ画面520に一覧表示し、一覧表示された識別情報のタッチ操作により、コミュニケーション対象を選択できるようにしてもよい。
(第18項)前記撮影画像から、前記カメラの撮影方向が水平方向である場合に対応した水平相当画像範囲を抽出する水平相当画像抽出部を備え、前記画面表示制御部は、前記水平相当画像から前記第1モニタ画面を抽出する第1項から第17項のうちいずれか1項に記載の遠隔表示システム。
第1項の遠隔表示システムによれば、カメラの撮影方向が水平方向ではない場合に、水平相当画像から第1モニタ面を抽出することにより、端末表示部に表示される第1モニタ画面を、利用者の視線の向きに合ったものとすることができる。
(第19項)前記画面表示制御部は、前記画面切替条件に応じて、前記第1画面切替処理、又は、前記モニタ画面を、前記撮影画像の第3画像範囲の画像部分を表示する第3モニタ画面から、前記第3画像範囲の画像部分と前記第3画像範囲の一部を拡大した第4画像部分とを表示する第4モニタ画面に切り替える第2画面切替処理を、実行する第1項から第18項のうちいずれか1項に記載の遠隔表示システム。
第19項の遠隔表示システムによれば、広範囲の第3画像範囲と第3画像範囲の一部を拡大した第4画面を表示する第4モニタ画面により、利用者に対して、ロボットの周辺の広範囲の画像情報の提供を確保しつつ、特定範囲について詳細な画像情報を提供することができる。

Claims (22)

  1. ロボットと、前記ロボットとの間で通信を行う表示端末と、を備え、
    前記ロボットは、前記ロボットの周辺を撮影するカメラを有して、前記カメラの撮影画像に基づくモニタ画像情報を前記表示端末に送信し、
    前記表示端末は、端末表示部を有し、前記モニタ画像情報を受信して、前記撮影画像に基づくモニタ画像を含むモニタ画面を前記端末表示部に表示する、
    遠隔表示システムであって、
    所定の画面切替条件に応じて、前記端末表示部に表示する前記モニタ画面を、前記撮影画像の第1画像範囲を表示する第1モニタ画面から、前記撮影画像の前記第1画像範囲と異なる第2画像範囲を表示する第2モニタ画面に切り替える、第1画面切替処理を実行する画面表示制御部を備える
    遠隔表示システム。
  2. 前記カメラの周辺に存在する動作中物体を認識する動作中物体認識部を備え、
    前記画面切替条件として、前記動作中物体認識部により、前記カメラの撮影範囲内の前記第1画像範囲に対応する第1撮影範囲外で、前記動作中物体認識部により前記動作中物体が認識されること、が設定され、
    前記画面表示制御部は、前記動作中物体の画像部分が含まれるように、前記第2画像範囲を設定する
    請求項1に記載の遠隔表示システム。
  3. 前記動作中物体認識部は、動作中の人又は他のロボットを前記動作中物体として認識する
    請求項2に記載の遠隔表示システム。
  4. 前記画面表示制御部は、前記動作中物体認識部により認識された前記動作中物体の画像部分を含む画像範囲を拡大した画像を表示する画面を、前記第2モニタ画面とする
    請求項2又は請求項3に記載の遠隔表示システム。
  5. 前記画面表示制御部は、前記第1画像範囲を、前記動作中物体認識部により認識された前記動作中物体の画像部分が含まれるように拡大した範囲を、前記第2画像範囲とする
    請求項2から請求項4のうちいずれか1項に記載の遠隔表示システム。
  6. 前記画面表示制御部は、前記撮影画像に含まれる人及び他のロボットの画像部分が全て含まれるように、前記第1画像範囲を設定する
    請求項1から請求項5のうちいずれか1項に記載の遠隔表示システム。
  7. 前記画面表示制御部は、前記画面切替条件に応じて前記モニタ画面を前記第1モニタ画面から前記第2モニタ画面に切り替えた時点から、所定時間が経過した時に、前記モニタ画面を前記第1モニタ画面に戻す
    請求項1から請求項6のうちいずれか1項に記載の遠隔表示システム。
  8. 前記表示端末は、前記表示端末の利用者による操作に応じて、前記端末表示部に表示される前記撮影画像の範囲を設定する表示画像範囲設定部を備え、
    前記画面表示制御部は、前記表示画像範囲設定部により設定された範囲を前記第2画像範囲とする
    請求項1から請求項7のうちいずれか1項に記載の遠隔表示システム。
  9. 前記ロボットは、胴部と、該胴部に対して回転又は揺動する頭部とを備え、
    前記カメラは前記胴部に設けられている
    請求項1から請求項8のうちいずれか1項に記載の遠隔表示システム。
  10. 前記ロボットは、前記ロボットの周辺に存在する物体を検出する物体検出センサを備え、
    前記動作中物体認識部は、前記物体検出センサによる検出情報に基づいて、前記動作中物体を認識する
    請求項2から請求項5のうちいずれか1項に記載の遠隔表示システム。
  11. 地図情報に基づいて前記ロボットの現在位置を認識する現在位置認識部を備え、
    前記動作中物体認識部は、前記現在位置認識部により前記ロボットが部屋内に位置していることが認識されている状態で、前記物体検出センサにより前記部屋内に進入する物体が検出された場合に、当該物体を前記動作中物体として認識する
    請求項10に記載の遠隔表示システム。
  12. 前記ロボットは、物体から発信される識別信号を受信する識別信号受信部を備え、
    前記動作中物体認識部は、前記識別信号受信部による前記識別信号の受信状況に基づいて、前記動作中物体を認識する
    請求項2から請求項5のうちいずれか1項に記載の遠隔表示システム。
  13. 前記ロボットは、前記ロボットの周辺の音を検出する音センサを備え、
    前記動作中物体認識部は、前記音センサによる音の検出状況に応じて、前記動作中物体を認識する
    請求項2から請求項5のうちいずれか1項に記載の遠隔表示システム。
  14. 前記画面表示制御部は、前記動作中物体認識部により、前記音センサによる音の検出状況に基づいて、複数の前記動作中物体が認識されたときに、発した音の音量が最大である前記動作中物体の画像部分が含まれるように前記第2画像範囲を設定する
    請求項13に記載の遠隔表示システム。
  15. 前記動作中物体認識部は、前記撮影画像と前記音センサによる音の検出状況に基づいて、起立して発言中の動作中物体を認識し、
    前記画面表示制御部は、前記動作中物体認識部により、起立して発言中の前記動作中物体が認識されたときに、起立して発言中の前記動作中物体の画像部分が含まれるように前記第2画像範囲を設定する
    請求項13又は請求項14に記載の遠隔表示システム。
  16. 前記画面表示制御部は、前記動作中物体認識部により複数の前記動作中物体が認識されたときに、最も大きな声で発言中の前記動作中物体、移動中の前記動作中物体、起立して発言の中の前記動作中物体、の順に設定された優先順位によって選択した前記動作中物体の画像部分が含まれるように、前記第2画像範囲を設定する
    請求項13に記載の遠隔表示システム。
  17. 前記カメラの撮影画像に、前記ロボットの周辺に所在する人及び他のロボットの画像部分が全て含まれるように、前記カメラの撮影範囲を制御するカメラ撮影範囲制御部を備える
    請求項1から請求項16のうちいずれか1項に記載の遠隔表示システム。
  18. 前記撮影画像から、前記カメラの撮影方向が水平方向である場合に対応した水平相当画像範囲を抽出する水平相当画像抽出部を備え、
    前記画面表示制御部は、前記水平相当画像から前記第1モニタ画面を抽出する
    請求項1から請求項17のうちいずれか1項に記載の遠隔表示システム。
  19. 前記画面表示制御部は、前記画面切替条件に応じて、前記第1画面切替処理、又は、前記モニタ画面を、前記撮影画像の第3画像範囲の画像部分を表示する第3モニタ画面から、前記第3画像範囲の画像部分と前記第3画像範囲の一部を拡大した第4画像部分とを表示する第4モニタ画面に切り替える第2画面切替処理を、実行する
    請求項1から請求項18のうちいずれか1項に記載の遠隔表示システム。
  20. 前記ロボットは移動ロボットであり、
    前記ロボットの移動状況を認識する移動状況認識部を備え、
    前記画面表示制御部は、前記移動状況認識部により前記ロボットが停止状態であることが認識されているときは、前記第1画面切替処理を実行し、前記移動状況認識部により前記ロボットが移動状態であることが認識されているときには、前記第2画面切替処理を実行する
    請求項19に記載の遠隔表示システム。
  21. 周辺を撮影するカメラと、
    表示端末との間で通信を行うロボット通信部と、
    前記表示端末に表示させる、前記カメラによる撮影画像に基づくモニタ画面を設定する画面表示制御部と、
    前記画面表示制御部により設定された前記モニタ画面のデータを、前記ロボット通信部により前記表示端末に送信するモニタ画面データ送信部と、
    を備えるロボットであって、
    前記画面表示制御部は、所定の画面切替条件に応じて、前記モニタ画面を、前記撮影画像の第1範囲の画像部分を表示する第1モニタ画面から、前記撮影画像の前記第1範囲と異なる第2範囲の画像部分を表示する第2モニタ画面に切り替える、第1画面切り替え処理を実行する
    ロボット。
  22. 端末表示部と、
    カメラを有するロボットとの間で通信を行う端末通信部と、
    前記ロボットから送信される前記カメラによる撮影画像を、前記端末通信部により受信して取得する撮影画像取得部と、
    前記撮影画像に基づいて、前記端末表示部によるモニタ画面の表示を制御する画面表示制御部と、
    を備える表示端末であって、
    前記画面表示制御部は、所定の画面切替条件に応じて、前記モニタ画面を、前記撮影画像の第1範囲の画像部分を表示する第1モニタ画面から、前記撮影画像の前記第1範囲と異なる第2範囲の画像部分を表示する第2モニタ画面に切り替える、第1画面切り替え処理を実行する
    表示端末。
JP2020189656A 2020-11-13 2020-11-13 遠隔表示システム、ロボット、及び表示端末 Active JP7402784B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020189656A JP7402784B2 (ja) 2020-11-13 2020-11-13 遠隔表示システム、ロボット、及び表示端末
EP21205155.1A EP4002836A1 (en) 2020-11-13 2021-10-28 Remote display system, robot, and display terminal
US17/454,178 US11637952B2 (en) 2020-11-13 2021-11-09 Remote display system, robot, and display terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020189656A JP7402784B2 (ja) 2020-11-13 2020-11-13 遠隔表示システム、ロボット、及び表示端末

Publications (2)

Publication Number Publication Date
JP2022078761A true JP2022078761A (ja) 2022-05-25
JP7402784B2 JP7402784B2 (ja) 2023-12-21

Family

ID=78820322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020189656A Active JP7402784B2 (ja) 2020-11-13 2020-11-13 遠隔表示システム、ロボット、及び表示端末

Country Status (3)

Country Link
US (1) US11637952B2 (ja)
EP (1) EP4002836A1 (ja)
JP (1) JP7402784B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002239971A (ja) * 2001-02-16 2002-08-28 Sanyo Electric Co Ltd ロボットシステム及びロボット
JP2004242244A (ja) * 2003-02-10 2004-08-26 Sony Corp 通信ネットワークシステム、携帯端末装置、パノラマ画像の合成方法およびコンピュータプログラム
JP2020022152A (ja) * 2018-07-24 2020-02-06 株式会社リコー 通信端末、プログラム、表示方法、記録媒体

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6072522A (en) * 1997-06-04 2000-06-06 Cgc Designs Video conferencing apparatus for group video conferencing
US8842161B2 (en) * 2010-05-18 2014-09-23 Polycom, Inc. Videoconferencing system having adjunct camera for auto-framing and tracking
WO2014014238A1 (en) * 2012-07-17 2014-01-23 Samsung Electronics Co., Ltd. System and method for providing image
JP6473048B2 (ja) * 2015-06-01 2019-02-20 日本電信電話株式会社 移動装置操作端末、移動装置操作方法及び移動装置操作プログラム
JP6811336B2 (ja) * 2017-02-24 2021-01-13 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd マルチジンバル組立体
JP7187768B2 (ja) 2017-09-25 2022-12-13 富士フイルムビジネスイノベーション株式会社 カメラ装置、カメラ装置制御システム、及びプログラム
RU2670429C1 (ru) * 2017-11-24 2018-10-23 ООО "Ай Ти Ви групп" Системы и способы отслеживания движущихся объектов на видеоизображении
JP7147255B2 (ja) * 2018-05-11 2022-10-05 トヨタ自動車株式会社 画像表示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002239971A (ja) * 2001-02-16 2002-08-28 Sanyo Electric Co Ltd ロボットシステム及びロボット
JP2004242244A (ja) * 2003-02-10 2004-08-26 Sony Corp 通信ネットワークシステム、携帯端末装置、パノラマ画像の合成方法およびコンピュータプログラム
JP2020022152A (ja) * 2018-07-24 2020-02-06 株式会社リコー 通信端末、プログラム、表示方法、記録媒体

Also Published As

Publication number Publication date
EP4002836A1 (en) 2022-05-25
US11637952B2 (en) 2023-04-25
US20220159173A1 (en) 2022-05-19
JP7402784B2 (ja) 2023-12-21

Similar Documents

Publication Publication Date Title
JP7402145B2 (ja) 遠隔操作システム、移動ロボット、及び操作端末
EP3316074A1 (en) Screen control method, apparatus, and non-transitory tangible computer readable storage medium
CN105450736B (zh) 与虚拟现实连接的方法和装置
US10917560B2 (en) Control apparatus, movable apparatus, and remote-control system
EP3848773A1 (en) Smart globe and control method therefor
JP7400882B2 (ja) 情報処理装置、移動体、遠隔制御システム、情報処理方法およびプログラム
JPWO2018155116A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
KR20150009027A (ko) 위치 기반 소리 출력 방법 및 장치
US20220152836A1 (en) Robot
JPWO2015125210A1 (ja) 情報表示装置及び情報表示プログラム
CN109388471A (zh) 一种导航方法及装置
JP7402784B2 (ja) 遠隔表示システム、ロボット、及び表示端末
CN111176338B (zh) 导航方法、电子设备及存储介质
CN107632285A (zh) 地图创建及修改方法与装置
KR101260879B1 (ko) 이동로봇의 인물탐색 방법
CN108234888B (zh) 一种图像处理方法及移动终端
CN112346459B (zh) 机器人运行方法、装置、机器人及存储介质
US9131346B1 (en) Telefinder
US20240107184A1 (en) Information management device, information management method, and storage medium
US20240104604A1 (en) Information management device, information management method and storage medium
CN105446573B (zh) 显示方向的方法及装置
US20240323240A1 (en) Communication control server, communication system, and communication control method
US20240085976A1 (en) Information processing system
CN114594853B (zh) 动态交互设备及屏幕控制方法
US20240105052A1 (en) Information management device, information management method and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231211

R150 Certificate of patent or registration of utility model

Ref document number: 7402784

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150