JP2020038588A - 移動ロボット、遠隔端末、移動ロボットの制御プログラム、および遠隔端末の制御プログラム - Google Patents

移動ロボット、遠隔端末、移動ロボットの制御プログラム、および遠隔端末の制御プログラム Download PDF

Info

Publication number
JP2020038588A
JP2020038588A JP2018166556A JP2018166556A JP2020038588A JP 2020038588 A JP2020038588 A JP 2020038588A JP 2018166556 A JP2018166556 A JP 2018166556A JP 2018166556 A JP2018166556 A JP 2018166556A JP 2020038588 A JP2020038588 A JP 2020038588A
Authority
JP
Japan
Prior art keywords
unit
imaging
image
mobile robot
remote terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018166556A
Other languages
English (en)
Other versions
JP7052652B2 (ja
Inventor
山本 貴史
Takashi Yamamoto
貴史 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018166556A priority Critical patent/JP7052652B2/ja
Priority to CN201910807432.6A priority patent/CN110888428B/zh
Priority to US16/560,022 priority patent/US11284042B2/en
Publication of JP2020038588A publication Critical patent/JP2020038588A/ja
Priority to US16/935,623 priority patent/US11375162B2/en
Application granted granted Critical
Publication of JP7052652B2 publication Critical patent/JP7052652B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0259Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
    • G05D1/0263Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means using magnetic strips
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • H04N5/9305Regeneration of the television signal or of selected parts thereof involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】遠隔地の移動ロボットを操作する遠隔操作者が、確認したい空間領域の状況をいち早く確認できるようにする。【解決手段】移動ロボットは、撮像部を有する移動ロボットであって、過去に撮像された撮像データを蓄積する蓄積部と、空間領域の指定を遠隔端末から受け付ける受付部と、受付部が受け付けた空間領域を撮像部で撮像可能な場合には撮像を実行して遠隔端末へ撮像データを送信し、撮像不可能な場合には蓄積部に蓄積された当該空間領域の画像を含む撮像データを遠隔端末へ送信すると共に空間領域を撮像部で撮像するための移動処理を開始する処理部とを備える。【選択図】図9

Description

本発明は、移動ロボット、遠隔端末、移動ロボットの制御プログラム、および遠隔端末の制御プログラムに関する。
遠隔地の移動ロボットを操作して作業を行う技術が知られている。また、自律移動する移動ロボットから送られてくる画像により離れた場所の観察を行う技術が知られている(例えば、特許文献1を参照)。
国際公開第2009/011380号
遠隔地にいる遠隔操作者は、移動ロボットが現時点で観察できる空間領域を確認するばかりでなく、現時点では観察できない空間領域も確認したい場合もある。しかし、移動ロボットが指定された空間領域まで移動するには相応の時間を要するので、遠隔操作者であるユーザは、移動ロボットが移動する間は単に待たされるのみであった。
本発明は、このような問題を解決するためになされたものであり、ユーザが確認したい空間領域の状況をいち早く確認できるようにするものである。
本発明の第1の態様における移動ロボットは、撮像部を有する移動ロボットであって、過去に撮像された撮像データを蓄積する蓄積部と、空間領域の指定を遠隔端末から受け付ける受付部と、受付部が受け付けた空間領域を撮像部で撮像可能な場合には撮像を実行して遠隔端末へ撮像データを送信し、撮像不可能な場合には蓄積部に蓄積された当該空間領域の画像を含む撮像データを遠隔端末へ送信すると共に当該空間領域を撮像部で撮像するための移動処理を開始する処理部とを備える。
遠隔地で作業する移動ロボットがこのように構成されていると、遠隔操作者であるユーザは、視認する画像が過去画像の場合もあるものの、指定した空間領域の画像を直ちに視認することができ、その空間領域の様子をいち早く把握することができる。また、移動ロボットは、指定された空間領域を現時点で撮像できない場合には、当該空間領域を撮像するための移動処理を直ちに開始するので、実際の様子を撮像するまでの無駄な時間を削減することができる。
上記の移動ロボットの処理部は、移動処理を開始した後に当該空間領域を撮像部で撮像して撮像データを得られた場合には、当該撮像データを遠隔端末へ送信すると良い。このように最新の撮像データを送ることにより、ユーザは指定した空間領域の正確な情報を得ることができる。この場合に、処理部は、移動処理を開始した後の移動中に撮像部で撮像して得られた撮像データを、移動中に得られた撮像データであることを示す付加情報と共に遠隔端末へ送信すると良い。遠隔端末がこのような画像も表示すれば、ユーザは、途中経過を認識することができると共に、まだ最新の撮像データが送られてきていないことを認識することもできる。
また、上記の処理部は、蓄積部に蓄積された撮像データを送信する場合には、蓄積された撮像データであることを示す付加情報と共に遠隔端末へ送信すると良い。このような付加情報があれば、遠隔端末側で過去画像であることを明示して表示することができる。
さらには、上記の処理部は、受付部が空間領域の指定を受け付ける前に、撮像部で撮像を実行して遠隔端末へ撮像データを送信しても良い。ユーザは、このような画像をまず確認できれば、空間領域を効率的に指定することができる。
本発明の第2の態様における遠隔端末は、撮像部を有する移動ロボットから撮像データを受信して表示する遠隔端末であって、ユーザが観察したい空間領域を指定することにより生成される指定信号を移動ロボットへ送信する送信部と、移動ロボットから撮像データを受信する受信部と、受信部が受信した撮像データが、送信部が指定信号を送信した後に撮像部が撮像して得られたものであるか否かを判断する判断部と、判断部の判断結果が認識できる態様により撮像データの画像を表示部に表示する表示制御部とを備える。遠隔端末がこのように構成されていると、ユーザは、視認する画像が過去画像の場合もあるものの、過去画像であるか最新画像であるかを認識した上で、指定した空間領域の画像を直ちに視認することができ、その空間領域の様子をいち早く把握することができる。
上記の遠隔端末において、指定信号を送信した後に撮像部が撮像して得られたものでないと判断部が判断した撮像データの画像を表示制御部が表示部に表示した後に、受信部が新たに受信した撮像データに対して指定信号を送信した後に撮像部が撮像して得られたものであると判断部が判断した場合には、表示制御部は、当該新たに受信した撮像データの画像を表示部に表示すると良い。このように表示画像を最新のものに差し替えることにより、ユーザは指定した空間領域の正確な情報を得ることができる。
また、指定信号を送信した後に撮像部が撮像して得られたものでないと判断部が判断した撮像データの画像を表示制御部が表示部に表示している間に受信部が受信した撮像データに移動ロボットが移動中に得られた撮像データであることを示す付加情報が付加されている場合には、表示制御部は、表示中の画像と共に、付加情報が付加されている撮像データの画像を表示部に表示すると良い。遠隔端末がこのような画像も表示すれば、ユーザは、最新の撮像データを得るまでの途中経過を認識することができると共に、まだ最新の撮像データが送られてきていないことを認識することもできる。
また、上記の遠隔端末において、表示制御部は、初期表示として、送信部が指定信号を送信する前に受信部が移動ロボットから受信した撮像データの画像を表示部に表示し、送信部は、表示部が表示した画像を基準としてユーザが指定した空間領域に対して生成された指定信号を移動ロボットへ送信しても良い。ユーザは、このような画像をまず確認できれば移動ロボット周辺の空間領域を効率的に指定することができ、このように生成された指定信号を用いれば、移動ロボットも移動する経路の計画が立案しやすい。
本発明の第3の態様における移動ロボットの制御プログラムは、撮像部を有する移動ロボットの制御プログラムであって、空間領域の指定を遠隔端末から受け付ける受付ステップと、受付ステップで指定を受け付けた時に、当該空間領域を撮像部で撮像可能か否かを判断する判断ステップと、判断ステップで撮像可能と判断した場合に、当該空間領域の撮像を実行して遠隔端末へ撮像データを送信する第1送信ステップと、判断ステップで撮像不可能と判断した場合に、過去に撮像された撮像データが蓄積されている蓄積部から当該空間領域の画像を含む撮像データを取得して遠隔端末へ送信する第2送信ステップと、判断ステップで撮像不可能と判断した場合に、当該空間領域を撮像部で撮像するための移動処理を開始する処理開始ステップとをコンピュータに実行させる。
このようなプログラムがコンピュータによって実行される移動ロボットであれば、第1の態様と同様に、ユーザは、視認する画像が過去画像の場合もあるものの、指定した空間領域の画像を直ちに視認することができ、その空間領域の様子をいち早く把握することができる。また、移動ロボットは、指定された空間領域を現時点で撮像できない場合には、当該空間領域を撮像するための移動処理を直ちに開始するので、実際の様子を撮像するまでの無駄な時間を削減することができる。
本発明の第4の態様における遠隔端末の制御プログラムは、撮像部を有する移動ロボットから撮像データを受信して表示する遠隔端末の制御プログラムであって、ユーザが観察したい空間領域を指定することにより生成される指定信号を移動ロボットへ送信する送信ステップと、移動ロボットから撮像データを受信する受信ステップと、受信ステップで受信した撮像データが、送信ステップで指定信号を送信した後に撮像部が撮像して得られたものであるか否かを判断する判断ステップと、判断ステップの判断結果が認識できる態様により撮像データの画像を表示部に表示する表示制御ステップとをコンピュータに実行させる。このようなプログラムがコンピュータによって実行される遠隔端末であれば、第2の態様と同様に、ユーザは、視認する画像が過去画像の場合もあるものの、過去画像であるか最新画像であるかを認識した上で、指定した空間領域の画像を直ちに視認することができ、その空間領域の様子をいち早く把握することができる。
本発明により、ユーザは、遠隔地で動作する移動ロボットの周辺空間に対して指定した空間領域の状況をいち早く確認することができる。
本実施形態に係る移動ロボットが利用される全体環境を説明するための概念図である。 移動ロボットの外観を示す斜視図である。 移動ロボットの制御ブロック図である。 遠隔端末の制御ブロック図である。 遠隔端末で確認したい空間領域を指定する様子を示す図である。 撮像可能であった場合の応答画面の様子を示す図である。 遠隔端末で確認したい空間領域を指定する様子を示す図である。 撮像不可能であった場合の応答画面の様子を示す図である。 移動ロボットと遠隔端末の処理を説明するフロー図である。 他の方法により確認したい空間領域を指定する様子を示す図である。 空間領域の指定が確定する様子を示す図である。 確認したい空間領域が確定した後の様子を示す図である。 確認したい空間領域の現在の様子を示す図である。
以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。
図1は、本実施形態に係る移動ロボット100が利用される全体環境を説明するための概念図である。第1環境において様々な作業を担う移動ロボット100は、第1環境から離れた第2環境に居る遠隔操作者たるユーザが遠隔端末300を操作することにより、インターネット600に接続されたシステムサーバ500を介して、遠隔操作される。
移動ロボット100は、第1環境において、無線ルータ700を介してインターネット600と接続されている。また、遠隔端末300は、第2環境において、無線ルータ700を介してインターネット600と接続されている。システムサーバ500は、インターネット600に接続されている。移動ロボット100は、遠隔端末300から様々な操作信号を受信して、移動動作や撮像動作を実行する。図1の例では、移動ロボット100がテーブル900に載置されたボトルである容器910を把持して搬送するタスクの準備を行っている様子を示している。
移動ロボット100は、ステレオカメラ131によって容器910とその周辺の空間領域を撮像し、撮像データを生成することができる。移動ロボット100は、自律的に動作する場合においては、撮像データを処理して空間認識を実行し、対象物である容器910の位置や大きさを把握する。また、ユーザから撮像データ要求された場合には、生成した撮像データを遠隔端末300へ送信する。なお、遠隔端末300が3D表示に対応していない場合には、生成した撮像データを2D表示用の画像フォーマットに準拠した撮像データに変換して送信しても良い。
なお、本実施形態においては、接続するネットワークとしてインターネット600を利用するが、イントラネット等他のネットワークであっても構わない。また、ネットワークを介さず、移動ロボット100と遠隔端末300を、例えばBluetooth(登録商標)などの近接通信で直接的に接続しても良い。
遠隔端末300は、例えばタブレット端末であり、表示パネル341を有する。表示パネル341には、移動ロボット100から受信した撮像データの画像が表示され、ユーザは、指定した空間領域の様子を間接的に視認することができる。また、ユーザは、遠隔端末300を操作することにより、移動ロボット100を動作させるための様々な操作信号を生成させることができる。生成された操作信号は、インターネット600を介して移動ロボット100へ送信される。
図2は、移動ロボット100の外観斜視図である。移動ロボット100は、大きく分けて台車部110と本体部120によって構成される。台車部110は、円筒形状の筐体内に、それぞれが走行面に接地する2つの駆動輪111と1つのキャスター112とを支持している。2つの駆動輪111は、互いに回転軸芯が一致するように配設されている。それぞれの駆動輪111は、不図示のモータによって独立して回転駆動される。キャスター112は、従動輪であり、台車部110から鉛直方向に延びる旋回軸が車輪の回転軸から離れて車輪を軸支するように設けられており、台車部110の移動方向に倣うように追従する。
台車部110は、上面の周縁部にレーザスキャナ133を備える。レーザスキャナ133は、水平面内の一定の範囲をステップ角ごとにスキャンして、それぞれの方向に障害物が存在するか否かを出力する。さらに、障害物が存在する場合には、その障害物までの距離を出力する。
本体部120は、主に、台車部110の上面に搭載された胴部121、胴部121の上面に載置された頭部122、胴部121の側面に支持されたアーム123、およびアーム123の先端部に設置されたハンド124を備える。アーム123とハンド124は、不図示のモータを介して駆動され、様々な物体を制御された姿勢で把持する。胴部121は、不図示のモータの駆動力により、台車部110に対して鉛直軸周りに回転することができる。
頭部122は、主に、ステレオカメラ131および表示パネル141を備える。ステレオカメラ131は、同じ画角を有する2つのカメラユニットが互いに離間して配置された構成を有し、それぞれのカメラユニットで撮像された撮像信号を出力する。
表示パネル141は、例えば液晶パネルであり、設定されたキャラクターの顔をアニメーションで表示したり、移動ロボット100に関する情報をテキストやアイコンで表示したりする。表示パネル141にキャラクターの顔を表示すれば、表示パネル141が擬似的な顔部であるかの印象を周囲の人達に与えることができる。
頭部122は、不図示のモータの駆動力により、胴部121に対して鉛直軸周りに回転することができる。したがって、ステレオカメラ131は、任意の方向の対象物を撮像することができ、また、表示パネル141は、任意の方向へ向けて表示内容を呈示することができる。
図3は、移動ロボット100の制御ブロック図である。ここでは、遠隔端末300へ撮像データを送信する処理に関係する主な要素について説明するが、移動ロボット100の構成としては他の要素も備え、また、撮像データを送信する処理に寄与する他の要素が加えられることもあり得る。
制御部150は、例えばCPUであり、例えば胴部121に備えられたコントロールユニットに格納されている。台車駆動ユニット145は、駆動輪111と駆動輪111を駆動するための駆動回路やモータを含む。制御部150は、台車駆動ユニット145へ駆動信号を送ることにより、駆動輪の回転制御を実行する。また、制御部150は、台車駆動ユニット145からエンコーダ等のフィードバック信号を受け取って、台車部110の移動方向や移動速度を把握する。
上体駆動ユニット146は、アーム123およびハンド124を含む把持部、胴部121および頭部122と、これらを駆動するための駆動回路やモータを含む。制御部150は、上体駆動ユニット146へ駆動信号を送ることにより、把持動作やジェスチャーを実現する。また、制御部150は、上体駆動ユニット146からエンコーダ等のフィードバック信号を受け取って、アーム123およびハンド124の位置や移動速度、胴部121および頭部122の向きや回転速度を把握する。
表示パネル141は、制御部150が生成した画像信号を受信して表示する。また、制御部150は、上述のように、キャラクター等の画像信号を生成して、表示パネル141へ表示させる。表示パネル141がタッチパネルを備える場合には、表示パネル141は、タッチ信号を制御部150へ送信する。
ステレオカメラ131は、制御部150からの要求に従って周辺環境を撮像し、撮像信号を制御部150へ引き渡す。制御部150は、撮像信号を用いて画像処理を実行したり、遠隔端末300へ送信するために予め定められたフォーマットに従って撮像データに変換したりする。レーザスキャナ133は、制御部150からの要求に従って移動方向に障害物が存在するか否かを検出し、その結果である検出信号を制御部150へ引き渡す。
メモリ180は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ180は、移動ロボット100を制御するための制御プログラムの他にも、制御や演算に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。特に、自律移動することが予定されている空間を記述した地図情報のデータベースである地図DB181と、過去の動作中に周辺空間を撮像して収集した撮像データのデータベースである過去画像DB182の記憶領域を含む。地図DB181は、地図情報を蓄積する地図蓄積部としての機能を担い、過去画像DB182は、過去の撮像データを蓄積する撮像データ蓄積部としての機能を担う。
地図DB181は、移動ロボット100の行動範囲に合わせて、例えばシステムサーバ500から対象となる地図情報を取得して蓄積されている。過去画像DB182は、上述のように移動ロボット100が過去の動作中にステレオカメラ131を介して収集した撮像データの他にも、事前に他の移動ロボット等によって撮像された既存の撮像データを含んでも良い。過去画像DB182に蓄積されている撮像データは、どの空間領域を撮像してものであるかの領域情報と、過去に撮像され蓄積された撮像データであることを示す付加情報とを、例えばヘッダ領域に含む。
通信ユニット190は、例えば無線LANユニットであり、無線ルータ700との間で無線通信を行う。通信ユニット190は、遠隔端末300から送られてくる指定信号や操作指示を受信して制御部150へ引き渡す。指定信号は、ユーザが観察したい空間領域を指定することにより遠隔端末300で生成される撮像データを要求する信号である。通信ユニット190は、このような受信処理を行うことにより、制御部150と協働して、指定信号を受け付ける受付部として機能する。また、通信ユニット190は、制御部150の制御に従って、ステレオカメラ131で取得された撮像データや、過去画像DB182に蓄積されている撮像データを遠隔端末300へ送信する。また、地図DB181に蓄積されている地図情報や、移動ロボット100の現在位置情報も遠隔端末300へ送信する。
制御部150は、メモリ180から読み出した制御プログラムを実行することにより移動ロボット100全体の制御と様々な演算処理とを実行する。具体的には後に詳述するが、制御部150は、ユーザに指定された空間領域をステレオカメラ131で撮像可能な場合には、撮像を実行して遠隔端末300へ撮像データを送信する。一方、撮像不可能な場合には、過去画像DB182に蓄積された撮像データから指定された空間領域の画像を含む撮像データを抽出して遠隔端末300へ送信する。更に、当該空間領域をステレオカメラ131で撮像するための移動処理を開始する。制御部150は、このような一連の処理を実行する処理部として機能する。
図4は、遠隔端末300の制御ブロック図である。ここでは、移動ロボット100から撮像データを受信する処理に関係する主な要素について説明するが、遠隔端末300の構成としては他の要素も備え、また、撮像データを受信する処理に寄与する他の要素が加えられることもあり得る。
演算部350は、例えばCPUであり、メモリ380から読み出した制御プログラムを実行することにより遠隔端末300全体の制御と様々な演算処理とを実行する。表示パネル341は、例えば液晶パネルであり、演算部350が生成した画像信号を受信して表示する表示部として機能する。演算部350が生成する画像信号は、例えば移動ロボット100から送られてきた撮像データを展開した信号であったり、地図情報を展開した信号であったりする。
入力ユニット342は、表示パネル141に重畳して配置されたタッチパネルや、表示パネル141の周縁部に設けられた押しボタン等を含む。入力ユニット342は、ユーザの操作を受けて操作信号を生成し、演算部350へ引き渡す。メモリ380は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ380は、遠隔端末300を制御するための制御プログラムの他にも、制御や演算に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。
通信ユニット390は、例えば無線LANユニットであり、無線ルータ700との間で無線通信を行う。通信ユニット190は、演算部350と協働して、指定信号や操作信号等を移動ロボット100へ送信する送信部としての機能と、移動ロボット100から撮像データ等を受信する受信部としての機能とを担う。
演算部350は、様々な処理や演算を実行する機能演算部としての機能も担う。判断部351は、移動ロボット100から送られてきた撮像データが、指定信号を送信した後に移動ロボット100で撮像して得られたものであるか否かを判断する。表示制御部352は、表示パネル141に表示する画像信号を生成してその表示を制御する。特に、判断部351の判断結果が認識できる態様により撮像データの画像を表示パネル141に表示する。具体的には後述する。
次に、ユーザが遠隔端末300を操作して状況を確認したい空間領域を指定し、移動ロボット100から撮像データが送られてきて遠隔端末300に表示されるまでの一連の処理について説明する。図5は、遠隔端末300でユーザが確認したい空間領域を指定する様子を示す図である。
遠隔端末300の表示パネル141には、移動ロボット100が現時点で位置する空間の地図411を含む地図ウィンドウ410が、どこの地図であるかを示すタイトルと共に表示されている。地図411は、対象空間に含まれる構造物の形状によって表わされ、その名称と共に表示される。名称は、例えば、「棚」「物置台」「テーブル」「廊下」「出入口」のようなであり、それぞれが表わす構造物形状の近傍に表示される。これらの地図情報は、移動ロボット100の地図DB181から取得されるか、あるいは、予めメモリ380に格納されているものが利用される。
地図411には、移動ロボット100を表わす本機アイコン420が、第1環境における移動ロボット100の現在位置に対応する場所に重畳される。本機アイコン420は、その向きにより、移動ロボット100がどちらの方向を向いているのかも示している。これらの表示から、ユーザは、第1環境の様子と現在の移動ロボット100の状況をおよそ想定することができる。
ユーザは、地図411に対し、状況を確認したい空間領域を指先でタッチする。図の例ではテーブルの周縁部がタッチされ、これに応じてポインタ421が現れた様子がわかる。ユーザは、この空間領域で良ければ、地図ウィンドウ410に隣接して表示されている撮像領域指定ボタン433をタッチして指定を確定させる。指定が確定されると、演算部350は、指定された空間領域が記述された指定信号を生成し、通信ユニット190を介して移動ロボット100へ当該指定信号を送信する。
なお、ユーザは、撮像領域指定ボタン433をタッチする前であれば、地図411上でタッチし直すことにより、指定する空間領域を修正することができる。また、現時点で移動ロボット100が位置する空間ではない他の空間の地図を表示させたい場合には、地図選択ボタン431をタッチすることにより、他の地図を選択することができる。
図5の例においてユーザに指定された空間領域は、移動ロボット100の現在位置で直ちに撮像できる空間領域である。この場合、移動ロボット100は、指定信号を受信すると、ステレオカメラ131で当該空間領域に対する撮像を実行し、生成した撮像データを遠隔端末300へ送信する。なお、移動ロボット100は、撮像の実行に先立ち、ステレオカメラ131が搭載された頭部122を揺動させて撮像方向を調整する場合もある。
図6は、撮像可能であった場合の応答画面の様子を示す図である。移動ロボット100から撮像データを受信すると、判断部351は、その撮像データが、指定信号を送信した後に撮像して得られたものであるか否かを判断する。具体的には、例えば撮像データのヘッダ情報を確認して、送信した指定信号に従って撮像した旨の記述が存在するか等により判断する。
指定信号を送信した後に撮像して得られたものであると判断部351が判断したら、表示制御部352は、その判断結果が認識できる態様により当該撮像データの画像を表示パネル141に表示する。具体的には図示するように、イメージウィンドウ450を新たに開き、展開した画像と共に現在の様子であることを示す「Real time photo」などのタイトルを表示する。
図7は、図5と同様に遠隔端末300でユーザが確認したい空間領域を指定する様子を示す図であるが、図5と異なり本機アイコン420から離れた空間領域が指定される場合を示す図である。
具体的には、地図411において、本機アイコン420で示される移動ロボット100の向きに対して斜め後方に存在する棚がタッチされ、これに応じてポインタ421が現れている。撮像領域指定ボタン433がタッチされて指定が確定されると、演算部350は、指定された空間領域が記述された指定信号を生成し、通信ユニット190を介して移動ロボット100へ当該指定信号を送信する。
図7の例においてユーザに指定された空間領域は、移動ロボット100の現在位置では直ちに撮像できない空間領域である。この場合、移動ロボット100は、指定信号を受信すると、まず、過去画像DB182に蓄積された撮像データから指定された空間領域の画像を含む撮像データを抽出して遠隔端末300へ送信する。更に、当該空間領域をステレオカメラ131で撮像するための移動処理を開始する。
図8は、撮像不可能であった場合の応答画面の様子の変化を示す図である。図8のうち上図は、移動ロボット100が移動処理を開始して、移動中に撮像した撮像データを逐次送信してきている時の遠隔端末300の応答画面を示している。
上述の通り、移動ロボット100から撮像データを受信すると、判断部351は、その撮像データが、指定信号を送信した後に撮像して得られたものであるか否かを判断する。例えば過去画像DB182に蓄積された撮像データであることを示す付加情報が撮像データに付加されていたら、指定信号を送信する前にすでに存在した撮像データであると判断する。表示制御部352は、その判断結果が認識できる態様により当該撮像データの画像を表示パネル141に表示する。具体的には図示するように、イメージウィンドウ450を新たに開き、展開した画像と共に過去の様子であることを示す「Past photo」などのタイトルを表示する。このように、過去画像を表示することにより、ユーザは、現状を直ちには確認できなくても、表示されている画像が過去の画像であることを認識した上で、少なくとも指定した空間領域がどのような場所であるかをいち早く把握することができる。
過去画像を表示する場合には、表示制御部352は、移動ロボット100が指定された空間領域へ移動する最中に撮像した撮像データを取得して、その画像も表示パネル141に表示する。具体的には、イメージウィンドウ450の近傍にサブイメージウィンドウ451を開き、展開した画像と共に移動中の様子であることを示す「Current」などのタイトルを表示する。また、表示制御部352は、移動ロボット100が移動中であることを示す状態表示ウィンドウ452を開き、「本機移動中」などとその状況を表示する。このような表示により、ユーザは、最新の撮像データを得るまでの途中経過を認識することができると共に、まだ最新の撮像データが送られてきていないことを認識することもできる。
図8のうち下図は、移動ロボット100が指定された空間領域を撮像できる位置に到達し、当該空間領域を撮像して生成した撮像データを送信してきた時の遠隔端末300の応答画面を示している。取得した撮像データが指定した空間領域を撮像した現在の撮像データであると判断部351が判断すると、表示制御部352は、サブイメージウィンドウ451、状態表示ウィンドウ452を消去する。そして、現在の撮像データを展開して、イメージウィンドウ450を差し替える。また、タイトルも、現在の様子であることを示す「Real time photo」などに差し替える。ユーザは、例えば、過去画像(図8上図のイメージウィンドウ450)での棚の様子には存在しなかったフォークが入れられた透明容器や書籍を、現在の画像(図8下図のイメージウィンドウ450)からは確認することができる。このように表示画像を最新のものに差し替えることにより、ユーザは指定した空間領域の正確な情報を得ることができる。
次に、ユーザが撮像データを要求するタスクに関連する移動ロボット100と遠隔端末300の処理について説明する。図9は、移動ロボット100と遠隔端末300の処理の流れを説明するフロー図である。左側のフローは移動ロボット100の処理フローを表わし、右側のフローは遠隔端末300の処理フローを表わす。また、システムサーバ500を介して行う信号や撮像データのやり取りを、送信元から送信先へ向かう点線の矢印で示している。
遠隔端末300の演算部350は、ステップS301で、例えばタッチパネルである入力ユニット342を介してユーザから地図表示の指示を受け付けると、ステップS302へ進み、移動ロボット100に対して移動ロボット100の現在位置の情報を要求する。具体的には、演算部350は、現在位置の情報を要求する要求信号を生成して、通信ユニット190を介して移動ロボット100へ送信する。
移動ロボット100の制御部150は、遠隔端末300から要求信号を受信すると、ステップS101で、自身の現在位置を確認し、その位置情報を遠隔端末300へ送信する。なお、現在位置の確認は、ステレオカメラ131から取得される画像情報から空間内の構造物を抽出し、自身との相対的な位置関係を地図情報に記述された構造物とマッチングするなどして行う。
遠隔端末300の表示制御部352は、移動ロボット100の現在位置の情報を受信すると、ステップS303で、移動ロボット100が含まれる空間の地図を図5等で示す態様によって表示パネル341に表示する。ステップS304へ進み、演算部350は、図5等を用いて説明したように、ユーザから入力ユニット342を介して空間領域の指定を受け付ける。演算部350は、空間領域の指定を受け付けると、指定信号を生成して移動ロボット100へ送信する。
移動ロボット100の制御部150は、遠隔端末300から指定信号を受信すると、ステップS102へ進み、指定信号で指定された空間領域をステレオカメラ131で直ちに撮像可能か否かを判断する。ここで、ステレオカメラ131が搭載された頭部122を揺動させる程度で撮像ができるのであれば、直ちに撮像可能であると判断しても良い。撮像可能であると判断した場合は、ステップS107へ進み、指定された空間領域の撮像を実行し、生成した撮像データを遠隔端末300へ送信する。撮像不可能であると判断した場合は、ステップS103へ進む。
制御部150は、ステップS103へ進むと、指定された空間領域の画像を含む撮像データを過去画像DB182から取得し、遠隔端末300へ送信する。そして、ステップS104へ進み、指定された空間領域をステレオカメラ131で撮像するための移動処理を開始する。具体的には、指定された空間領域を撮像できる地点を目的地と定め、地図情報を用いて現在地から目的地までの経路をプランニングする。プランニングが完了したら、移動を開始する。
移動を開始したらステップS105へ進み、制御部150は、一定間隔で撮像を実行してその撮像データを遠隔端末300へ送信する。当該撮像データには、例えばヘッダ情報に、移動中に撮像して生成した撮像データであることを示す付加情報を付加する。そして、ステップS106で、目的地である撮像可能位置に到達したか否かを確認する。撮像可能位置に到達していなければ、ステップS105へ戻る。撮像可能位置に到達していれば、ステップS107へ進み、指定された空間領域の撮像を実行し、生成した撮像データを遠隔端末300へ送信する。
遠隔端末300の演算部350は、ステップS304で指定信号を送信した後に、移動ロボット100から送られてくる撮像データを受信する。撮像データを受信したら、判断部351は、ステップS305で、受信した撮像データが、指定信号を送信した後に指定した空間領域を移動ロボット100が撮像して得られたものであるか否かを判断する。
判断部351は、例えば撮像データのヘッダ情報を確認して、当該撮像データに該当するか否かを判断する。具体的には、受信した撮像データのヘッダ情報に、過去画像DB182に蓄積された撮像データであることを示す付加情報があれば、過去画像の撮像データであると判断する。また、移動ロボット100が移動中に撮像して生成した撮像データであることを示す付加情報があれば、現在の撮像データではあるものの、指定された空間領域を撮像した撮像データではないと判断する。判断部351がこのような付加情報を確認した場合には、ステップS306へ進む。
ステップS306へ進むと、表示制御部352は、図8上図で示した態様により、過去画像と移動中画像を表示する。移動中画像を受信していない場合には、サブイメージウィンドウ451を開かない。過去画像を表示している間は、移動ロボット100から新たな撮像データを受信できるよう、ステップS305の処理前へ戻る。
判断部351は、ステップS305で、例えば撮像データのヘッダ情報を確認することにより、受信した撮像データが指定信号に従って得られたものであると判断したら、ステップS307へ進む。表示制御部352は、ステップS307で、図6や図8下図で示す態様により、当該撮像データの画像を表示パネル141に表示する。
ユーザが特定の空間領域を確認したい場合には、以上の処理が繰り返される。なお、ステップS104で移動処理を開始した後であってまだ撮像可能位置に到達する前に、ユーザが新たな別の空間領域を指定した場合には、制御部150は、すでに指定された空間領域の撮像を断念して新たに指定された空間領域に対する処理を実行しても構わない。また、ステップS104で、指定された空間領域に到達する経路を計画できない場合には、撮像できない旨を遠隔端末300へ通知するようにしても良い。この場合に遠隔端末300は、指定された空間領域の現在の画像を表示できない旨を表示パネル341に表示する。
以上説明した実施形態においては、遠隔端末300の演算部350は、地図ウィンドウ410を開き、地図ウィンドウ410に表示された地図411の特定の場所をユーザがタッチすることにより空間領域の指定を受け付けた。しかし、空間領域の指定方法はこれに限らない。図10は、他の方法によりユーザが確認したい空間領域を指定する様子を示す図である。
表示制御部352は、ユーザから指定を受け付ける前の初期表示画面として、移動ロボット100のステレオカメラ131が現在捉えている画像を、イメージウィンドウ450を開いて表示する。すなわち、移動ロボット100の制御部150は、指定信号を受信する前に、ステレオカメラ131で撮像を実行して遠隔端末300へ撮像データを送信する。そして、遠隔端末300の演算部350が当該撮像データを受信すると、表示制御部352は、当該撮像データを画像信号に変換してイメージウィンドウ450に表示する。この処理を繰り返すことにより、ライブ画像としてイメージウィンドウ450を更新する。ここでは、ユーザに没入感を与えるべく、イメージウィンドウ450を表示パネル341のほぼ全面の大きさにしている。
表示制御部352は、イメージウィンドウ450の下部領域に、方向指示ボタン461を表示する。方向指示ボタン461は、例えば図示するように、直進、右旋回、左旋回を表わす3つの矢印ボタンを配置する。ユーザは、初期表示画面として表示された画像を基準として、方向指示ボタン461をタッチするごとにその方向への空間移動を指定できる。移動ロボット100は、タッチされた方向への移動が間に合えば撮像を実行して遠隔端末300へ撮像データ送信する。
一方で、例えば方向指示ボタン461がテンポ良く繰り返しタッチされるような場合には、その矢印方向に対応する空間領域の撮像データを過去画像DB182から取得して遠隔端末300へ送信する。遠隔端末300の表示制御部352は、送られてきた画像が現在の画像である場合には、例えば「Current」などとタイトル表示を行い、過去画像である場合には、例えば「Past photo」などとタイトル表示を行う。このように、指定された方向への移動が間に合わない場合にいち早く過去画像の表示に切り替えることにより、タップのたびに送られてくる円滑でない現在画像の表示を防ぐことができ、ユーザに映像酔いを起こさせる心配がない。
表示制御部352は、一旦過去画像を表示したら、その後タップを受け付けるたびに、タップが示す方向の過去画像を取得して、あたかも動き回る移動ロボット100の視点で空間を観察するように、イメージウィンドウ450に表示する。表示制御部352は、ユーザによるタップが一定時間ないと判断したら、ユーザはその時点において表示されている空間領域を指定したものとして、空間領域の指定を確定させる。表示制御部352は、指定が確定された時にイメージウィンドウ450に表示されている画像が過去画像である場合には、指定された空間領域を示す指定信号を生成して移動ロボット100へ送信する。
図11は、空間領域の指定が確定する様子を示す図である。表示制御部352は、方向指示ボタン461を消去して、空間領域の指定が確定した旨をユーザに認識させる。図12は、確認したい空間領域が確定した後の様子を示す図である。イメージウィンドウ450は指定された過去画像が表示されたまま固定される。そして、移動ロボット100のステレオカメラ131が現在捉えている画像を、サブイメージウィンドウ451を開いて表示する。また、移動ロボット100が移動中であることを示す状態表示ウィンドウ452を開く。なお、サブイメージウィンドウ451を省いて、状態表示ウィンドウ452のみを表示しても構わない。
図13は、確認したい空間領域の現在の様子を示す図である。移動ロボット100が指定された空間領域を撮像してその撮像データを送ってきたら、図13に示すように、表示制御部352は、サブイメージウィンドウ451、状態表示ウィンドウ452を消去する。そして、受信した撮像データを展開して、イメージウィンドウ450を差し替える。また、タイトルも、現在の様子であることを示す「Real time photo」などに差し替える。
なお、タップに対応する空間の過去画像データが過去画像DB182に存在しない場合には、近傍空間の過去画像データを補間処理して人工画像を生成し、当該人工画像を表示しても良い。あるいは、予め用意された差し替え画像を表示しても良い。いずれにしても、移動ロボット100の視点移動の動作が完了して静止した段階で撮像された撮像データを実画像として表示することにより、ユーザは良好な画像を快適に視認することができる。
以上説明した本実施形態では、送受信する撮像データを静止画像データとして説明したが、動画像データであっても良い。また、指定された空間領域の画像を含む撮像データが過去画像DB182に存在しない場合には、過去画像が存在しない旨を遠隔端末300の表示パネル341に表示しても構わない。
また、空間領域の指定は、観察する方向の指定を伴っても良い。例えば、ポインタ421を表示させた後に、ポインタ421へ向かうスワイプ動作により観察したい方向を指定することができる。この場合には、指定信号は、ユーザが指定する観察したい方向の情報を含み、移動ロボット100は、その方向に沿うようにステレオカメラ131を配置して撮像を行う。
また、遠隔端末300は、タブレット形式のものに限らない。スマートフォンであっても良いし、ヘッドマウントディスプレを伴う端末であっても良い。また、遠隔端末300は、無線で接続されるものに限らず、例えば有線LANによって接続されたPC端末であっても構わない。
また、移動ロボット100の撮像部は、ステレオカメラ131に限らず、単眼のカメラユニットを採用しても構わない。特に、空間の三次元計測に用いるカメラユニットとは別に設けるのであれば、様々な形式のカメラユニットを採用することができる。
以上説明した本実施形態の移動ロボット100および遠隔端末300によれば、遠隔操作者であるユーザは、視認する画像が過去画像の場合もあるものの、指定した空間領域の画像を直ちに視認することができ、その空間領域の様子をいち早く把握することができる。また、移動ロボット100は、指定された空間領域を現時点で撮像できない場合には、当該空間領域を撮像するための移動処理を直ちに開始するので、実際の様子を撮像するまでの無駄な時間を削減することができる。また、本実施形態における指定された空間領域の確認作業は、例えば容器を搬送する搬送タスクに先立って、搬送先の様子を事前に確認してからタスクを実行させる場合などにも役立つ。例えば、図13で示すようなユーザインタフェースにおいては、ユーザが対象空間を確認した後に画面をタッチすると、例えばタッチした対象物に対する把持および移動のタスクを指示するポップアップウィンドウが表示されても良い。
100 移動ロボット、110 台車部、111 駆動輪、112 キャスター、120 本体部、121 胴部、122 頭部、123 アーム、124 ハンド、131 ステレオカメラ、133 レーザスキャナ、141 表示パネル、145 台車駆動ユニット、146 上体駆動ユニット、150 制御部、180 メモリ、181 地図DB、161 過去画像DB、190 通信ユニット、300 遠隔端末、341 表示パネル、342 入力ユニット、350 演算部、351 判断部、352 表示制御部、380 メモリ、390 通信ユニット、410 地図ウィンドウ、411 地図、420 本機アイコン、421 ポインタ、431 地図選択ボタン、433 撮像領域指定ボタン、450 イメージウィンドウ、451 サブイメージウィンドウ、452 状態表示ウィンドウ、461 方向指示ボタン、462 指定ボタン、500 システムサーバ、600 インターネット、700 無線ルータ、900 テーブル、910 容器

Claims (11)

  1. 撮像部を有する移動ロボットであって、
    過去に撮像された撮像データを蓄積する蓄積部と、
    空間領域の指定を遠隔端末から受け付ける受付部と、
    前記受付部が受け付けた前記空間領域を前記撮像部で撮像可能な場合には撮像を実行して前記遠隔端末へ撮像データを送信し、撮像不可能な場合には前記蓄積部に蓄積された前記空間領域の画像を含む撮像データを前記遠隔端末へ送信すると共に前記空間領域を前記撮像部で撮像するための移動処理を開始する処理部と
    を備える移動ロボット。
  2. 前記処理部は、前記移動処理を開始した後に前記空間領域を前記撮像部で撮像して撮像データを得られた場合には、当該撮像データを前記遠隔端末へ送信する請求項1に記載の移動ロボット。
  3. 前記処理部は、前記移動処理を開始した後の移動中に前記撮像部で撮像して得られた撮像データを、移動中に得られた撮像データであることを示す付加情報と共に前記遠隔端末へ送信する請求項2に記載の移動ロボット。
  4. 前記処理部は、前記蓄積部に蓄積された撮像データを送信する場合には、蓄積された撮像データであることを示す付加情報と共に前記遠隔端末へ送信する請求項1から3のいずれか1項に記載の移動ロボット。
  5. 前記処理部は、前記受付部が前記空間領域の指定を受け付ける前に、前記撮像部で撮像を実行して前記遠隔端末へ撮像データを送信する請求項1から4のいずれか1項に記載の移動ロボット。
  6. 撮像部を有する移動ロボットから撮像データを受信して表示する遠隔端末であって、
    ユーザが観察したい空間領域を指定することにより生成される指定信号を前記移動ロボットへ送信する送信部と、
    前記移動ロボットから前記撮像データを受信する受信部と、
    前記受信部が受信した前記撮像データが、前記送信部が前記指定信号を送信した後に前記撮像部が撮像して得られたものであるか否かを判断する判断部と、
    前記判断部の判断結果が認識できる態様により前記撮像データの画像を表示部に表示する表示制御部と
    を備える遠隔端末。
  7. 前記指定信号を送信した後に前記撮像部が撮像して得られたものでないと前記判断部が判断した撮像データの画像を前記表示制御部が前記表示部に表示した後に、前記受信部が新たに受信した撮像データに対して前記指定信号を送信した後に前記撮像部が撮像して得られたものであると前記判断部が判断した場合には、前記表示制御部は、当該新たに受信した撮像データの画像を前記表示部に表示する請求項6に記載の遠隔端末。
  8. 前記指定信号を送信した後に前記撮像部が撮像して得られたものでないと前記判断部が判断した撮像データの画像を前記表示制御部が前記表示部に表示している間に前記受信部が受信した撮像データに前記移動ロボットが移動中に得られた撮像データであることを示す付加情報が付加されている場合には、前記表示制御部は、表示中の画像と共に、前記付加情報が付加されている撮像データの画像を前記表示部に表示する請求項6または7に記載の遠隔端末。
  9. 前記表示制御部は、初期表示として、前記送信部が前記指定信号を送信する前に前記受信部が前記移動ロボットから受信した撮像データの画像を前記表示部に表示し、
    前記送信部は、前記表示部が表示した前記画像を基準として前記ユーザが指定した前記空間領域に対して生成された前記指定信号を前記移動ロボットへ送信する請求項6から8のいずれか1項に記載の遠隔端末。
  10. 撮像部を有する移動ロボットの制御プログラムであって、
    空間領域の指定を遠隔端末から受け付ける受付ステップと、
    前記受付ステップで前記指定を受け付けた時に、前記空間領域を前記撮像部で撮像可能か否かを判断する判断ステップと、
    前記判断ステップで撮像可能と判断した場合に、前記空間領域の撮像を実行して前記遠隔端末へ撮像データを送信する第1送信ステップと、
    前記判断ステップで撮像不可能と判断した場合に、過去に撮像された撮像データが蓄積されている蓄積部から前記空間領域の画像を含む撮像データを取得して前記遠隔端末へ送信する第2送信ステップと、
    前記判断ステップで撮像不可能と判断した場合に、前記空間領域を前記撮像部で撮像するための移動処理を開始する処理開始ステップと
    をコンピュータに実行させる移動ロボットの制御プログラム。
  11. 撮像部を有する移動ロボットから撮像データを受信して表示する遠隔端末の制御プログラムであって、
    ユーザが観察したい空間領域を指定することにより生成される指定信号を前記移動ロボットへ送信する送信ステップと、
    前記移動ロボットから前記撮像データを受信する受信ステップと、
    前記受信ステップで受信した前記撮像データが、前記送信ステップで前記指定信号を送信した後に前記撮像部が撮像して得られたものであるか否かを判断する判断ステップと、
    前記判断ステップの判断結果が認識できる態様により前記撮像データの画像を表示部に表示する表示制御ステップと
    をコンピュータに実行させる遠隔端末の制御プログラム。
JP2018166556A 2018-09-06 2018-09-06 移動ロボット、遠隔端末、移動ロボットの制御プログラム、および遠隔端末の制御プログラム Active JP7052652B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018166556A JP7052652B2 (ja) 2018-09-06 2018-09-06 移動ロボット、遠隔端末、移動ロボットの制御プログラム、および遠隔端末の制御プログラム
CN201910807432.6A CN110888428B (zh) 2018-09-06 2019-08-29 移动机器人、远程终端、计算机可读介质、控制系统、控制方法
US16/560,022 US11284042B2 (en) 2018-09-06 2019-09-04 Mobile robot, system and method for capturing and transmitting image data to remote terminal
US16/935,623 US11375162B2 (en) 2018-09-06 2020-07-22 Remote terminal and method for displaying image of designated area received from mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018166556A JP7052652B2 (ja) 2018-09-06 2018-09-06 移動ロボット、遠隔端末、移動ロボットの制御プログラム、および遠隔端末の制御プログラム

Publications (2)

Publication Number Publication Date
JP2020038588A true JP2020038588A (ja) 2020-03-12
JP7052652B2 JP7052652B2 (ja) 2022-04-12

Family

ID=69719767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018166556A Active JP7052652B2 (ja) 2018-09-06 2018-09-06 移動ロボット、遠隔端末、移動ロボットの制御プログラム、および遠隔端末の制御プログラム

Country Status (3)

Country Link
US (2) US11284042B2 (ja)
JP (1) JP7052652B2 (ja)
CN (1) CN110888428B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021184014A (ja) * 2020-05-21 2021-12-02 株式会社豊田自動織機 地図表示装置及び地図表示プログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1968149A1 (de) * 2007-03-02 2008-09-10 Siemens Aktiengesellschaft Brennstoffzelleneinheit
US10949940B2 (en) * 2017-04-19 2021-03-16 Global Tel*Link Corporation Mobile correctional facility robots
US10690466B2 (en) 2017-04-19 2020-06-23 Global Tel*Link Corporation Mobile correctional facility robots
EP3936783A1 (en) * 2017-09-28 2022-01-12 Daikin Industries, Ltd. Environment-control-means control apparatus
JP7169130B2 (ja) * 2018-09-03 2022-11-10 川崎重工業株式会社 ロボットシステム
CN111479063B (zh) * 2020-04-15 2021-04-06 上海摩象网络科技有限公司 云台驱动方法、设备及手持相机
JP7547994B2 (ja) * 2020-12-22 2024-09-10 トヨタ自動車株式会社 撮影システム、その撮影方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001315080A (ja) * 2000-05-10 2001-11-13 Nippon Telegr & Teleph Corp <Ntt> 遠隔地観測装置
JP2004021514A (ja) * 2002-06-14 2004-01-22 Matsushita Electric Ind Co Ltd 交通情報表示システム及び撮像画像送信装置並びに車載用の情報表示装置と記憶媒体
WO2004032086A1 (ja) * 2002-10-04 2004-04-15 Fujitsu Limited ロボットシステムおよび自律走行ロボット
JP2006173999A (ja) * 2004-12-15 2006-06-29 Matsushita Electric Ind Co Ltd カメラ装置および遠隔装置
US20120215380A1 (en) * 2011-02-23 2012-08-23 Microsoft Corporation Semi-autonomous robot that supports multiple modes of navigation

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7218352B2 (en) * 2002-05-02 2007-05-15 Sony Corporation Monitoring system for a photography unit, monitoring method, computer program, and storage medium
JP4131675B2 (ja) * 2003-02-28 2008-08-13 富士通株式会社 移動ロボットのカメラ視線方向制御方法および移動ロボットシステム
KR100560966B1 (ko) 2004-10-12 2006-03-15 삼성광주전자 주식회사 로봇 청소기의 자이로 센서 보정방법
JP2006146556A (ja) * 2004-11-19 2006-06-08 Nintendo Co Ltd 画像表示処理プログラムおよび画像表示処理装置
KR100594513B1 (ko) * 2005-08-04 2006-06-30 한국전력공사 근거리 레이다와 연동하는 화상감시시스템
JP2008028688A (ja) * 2006-07-21 2008-02-07 Uie Japan:Kk 画像配信システム
US8368506B2 (en) 2007-07-19 2013-02-05 Nec Corporation Sensing device and system, controlling method and control program
JP4989350B2 (ja) * 2007-08-06 2012-08-01 キヤノン株式会社 アダプタおよびその制御方法
US20090135264A1 (en) * 2007-11-28 2009-05-28 Motorola, Inc. Motion blur detection using metadata fields
JP5473304B2 (ja) * 2008-12-02 2014-04-16 三菱電機株式会社 遠隔地画像表示装置、遠隔操縦装置、車両制御装置、遠隔操縦システム、遠隔操縦方法、遠隔操縦プログラム、車両制御プログラム、遠隔地画像表示方法、遠隔地画像表示プログラム
JP5319433B2 (ja) * 2009-07-16 2013-10-16 エンパイア テクノロジー ディベロップメント エルエルシー 撮影システム、移動体、撮影制御方法
WO2012140655A2 (en) 2011-04-12 2012-10-18 Baryakar Dan Robotic system controlled by multi participants, considering administrator's criteria
US20120277914A1 (en) * 2011-04-29 2012-11-01 Microsoft Corporation Autonomous and Semi-Autonomous Modes for Robotic Capture of Images and Videos
WO2013085085A1 (en) * 2011-12-08 2013-06-13 Lg Electronics Inc. Automatic moving apparatus and manual operation method thereof
CN104365081B (zh) * 2012-06-11 2018-05-08 索尼电脑娱乐公司 图像生成设备以及图像生成方法
EP2757772A3 (en) * 2013-01-17 2017-08-16 Canon Kabushiki Kaisha Image pickup apparatus, remote control apparatus, and methods of controlling image pickup apparatus and remote control apparatus
JP6207162B2 (ja) * 2013-01-25 2017-10-04 キヤノン株式会社 撮像装置、遠隔操作端末、カメラシステム、撮像装置の制御方法およびプログラム、遠隔操作端末の制御方法およびプログラム
JP6141137B2 (ja) * 2013-07-31 2017-06-07 キヤノン株式会社 遠隔操作装置およびその制御方法、撮像装置およびその制御方法、システム、並びにプログラム
US20150062334A1 (en) * 2013-08-29 2015-03-05 FanPix, LLC Systems and Methods for Image Capture and Distribution in Venues
CN106537900B (zh) * 2014-02-17 2019-10-01 通用电气全球采购有限责任公司 用于数据通信的视频系统和方法
JP2016032128A (ja) * 2014-07-25 2016-03-07 株式会社リコー 遠隔会議システム、通信端末及びプログラム
JP6354496B2 (ja) 2014-09-26 2018-07-11 トヨタ自動車株式会社 ロボット制御方法
US10007890B1 (en) 2015-06-26 2018-06-26 Amazon Technologies, Inc. Collaborative unmanned aerial vehicle inventory system
US10000284B1 (en) 2015-06-26 2018-06-19 Amazon Technologies, Inc. Collaborative unmanned aerial vehicle for an inventory system
CN106468917B (zh) * 2015-09-14 2019-06-14 北京理工大学 一种可触摸现场实时视频图像的远程呈现交互方法和系统
US10576892B2 (en) * 2016-03-24 2020-03-03 Ford Global Technologies, Llc System and method for generating a hybrid camera view in a vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001315080A (ja) * 2000-05-10 2001-11-13 Nippon Telegr & Teleph Corp <Ntt> 遠隔地観測装置
JP2004021514A (ja) * 2002-06-14 2004-01-22 Matsushita Electric Ind Co Ltd 交通情報表示システム及び撮像画像送信装置並びに車載用の情報表示装置と記憶媒体
WO2004032086A1 (ja) * 2002-10-04 2004-04-15 Fujitsu Limited ロボットシステムおよび自律走行ロボット
JP2006173999A (ja) * 2004-12-15 2006-06-29 Matsushita Electric Ind Co Ltd カメラ装置および遠隔装置
US20120215380A1 (en) * 2011-02-23 2012-08-23 Microsoft Corporation Semi-autonomous robot that supports multiple modes of navigation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021184014A (ja) * 2020-05-21 2021-12-02 株式会社豊田自動織機 地図表示装置及び地図表示プログラム

Also Published As

Publication number Publication date
JP7052652B2 (ja) 2022-04-12
US20200084423A1 (en) 2020-03-12
CN110888428B (zh) 2023-05-09
US20200351475A1 (en) 2020-11-05
US11375162B2 (en) 2022-06-28
CN110888428A (zh) 2020-03-17
US11284042B2 (en) 2022-03-22

Similar Documents

Publication Publication Date Title
JP7052652B2 (ja) 移動ロボット、遠隔端末、移動ロボットの制御プログラム、および遠隔端末の制御プログラム
US8355816B2 (en) Action teaching system and action teaching method
JP5855885B2 (ja) ロボットを制御するためのヒューマン・ロボット・インターフェース装置及び方法
JP2013184257A (ja) ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
KR101753361B1 (ko) 청소 로봇을 이용한 스마트 청소 시스템
JP2007226322A (ja) ロボットコントロールシステム
KR102299936B1 (ko) 카메라로 촬영된 객체 추적을 위한 자세 추정 방법 및 시스템
JP5515654B2 (ja) ロボットシステム
EP3835002B1 (en) Remote control system and remote control method
WO2021124654A1 (ja) 作業支援サーバ、作業支援方法および作業支援システム
CN111459277A (zh) 基于混合现实的机械臂遥操作系统及交互界面构建方法
JP2021009466A (ja) 機械学習方法および移動ロボット
WO2021153187A1 (ja) 作業支援サーバおよび作業支援システム
JP2020194432A (ja) 機械学習方法および移動ロボット
KR20190100133A (ko) 증강현실용 컨텐츠 제공 장치 및 방법
JP2023181513A (ja) 教示システム、教示方法及び教示プログラム
KR20190048810A (ko) 증강현실용 컨텐츠 제공 장치 및 방법
JP5659787B2 (ja) 操作環境モデル構築システム、および操作環境モデル構築方法
WO2021106278A1 (ja) 作業支援サーバ、作業支援方法および作業支援システム
US20230333550A1 (en) Remote operation system, remote operation method, and storage medium
KR102549631B1 (ko) 신체 일부의 자세 및 장치의 기울기를 이용한 실시간 작업 장치 및 카메라 제어 방법 및 장치
US20240075628A1 (en) Remote control system, remote control method, and control program
KR102553830B1 (ko) 카메라를 이용한 실시간 로봇 원격 제어 방법 및 장치
WO2021106281A1 (ja) 作業支援サーバ、作業支援方法および作業支援システム
JP2024538017A (ja) 遠隔製造システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220314

R151 Written notification of patent or utility model registration

Ref document number: 7052652

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151