WO2003102706A1 - Robot telecommande et procede d'identification automatique de la position de robot. - Google Patents

Robot telecommande et procede d'identification automatique de la position de robot. Download PDF

Info

Publication number
WO2003102706A1
WO2003102706A1 PCT/JP2002/005370 JP0205370W WO03102706A1 WO 2003102706 A1 WO2003102706 A1 WO 2003102706A1 JP 0205370 W JP0205370 W JP 0205370W WO 03102706 A1 WO03102706 A1 WO 03102706A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
image
remote
room
building
Prior art date
Application number
PCT/JP2002/005370
Other languages
English (en)
French (fr)
Inventor
Keiju Okabayashi
Miwa Okabayashi
Yuichi Murase
Katsutoshi Shimizu
Sumihisa Iwashita
Naoyuki Sawasaki
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to EP02730841.0A priority Critical patent/EP1510896B1/en
Priority to JP2004509527A priority patent/JP4448024B2/ja
Priority to KR1020047017598A priority patent/KR100812506B1/ko
Priority to PCT/JP2002/005370 priority patent/WO2003102706A1/ja
Priority to CNB028290429A priority patent/CN100451897C/zh
Priority to AU2002304133A priority patent/AU2002304133A1/en
Publication of WO2003102706A1 publication Critical patent/WO2003102706A1/ja
Priority to US10/978,439 priority patent/US7120519B2/en

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0227Control of position or course in two dimensions specially adapted to land vehicles using mechanical sensing means, e.g. for sensing treated area
    • G05D1/0229Control of position or course in two dimensions specially adapted to land vehicles using mechanical sensing means, e.g. for sensing treated area in combination with fixed guiding means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Definitions

  • the present invention relates to a technology for controlling and using a robot, and more particularly to a technology for controlling and using a robot that can be placed in a building and remotely controlled from a remote location, for example, via the Internet.
  • the present invention relates to a robot self-position identification method for accurately recognizing a current position and direction.
  • FIG. 1 is a block diagram showing the principle configuration of a remote control port pot according to the present invention.
  • the robot 1 includes a floor plan storage unit 2, a communication unit 3, and a movement control unit 4.
  • the floor plan storage unit 2 is a building, for example, a house.
  • the communication means 3 receives the position designated by the remote site in the floor plan, for example, from a terminal at the remote site via a network. 4 controls the movement of the robot to the designated position.
  • the remote-controlled robot can also include a step-overcoming means for overcoming a step existing in the building based on a step detection result by the obstacle sensor.
  • the robot further includes self-position identification means for identifying the current position and direction in the building, and the movement control means 4 can control the movement of the robot based on the identification result.
  • the communication means 3 in FIG. 1 can also receive an instruction for a room in the floor plan of the building from a terminal at a remote place. Control the movement of the robot to the entrance.
  • the remote control robot of the present invention includes an image capturing means for capturing an image of the inside of the building, and a robot which patrols the building periodically or Z at irregular intervals. It is provided with a communication means for sending an image photographed by the step to a computer having a memory that can be referred to from the outside via a network, for example, a Web server connected to the Internet. Alternatively, such a computer, for example, a web server may be provided inside the robot itself.
  • the turning means for changing the shooting direction by the image shooting means, and the projection / reception of infrared rays for operation of home appliances, for example, home electrical equipment are operated in parallel with the shooting direction by the image shooting means. It may further include an infrared light projecting / receiving means for performing the operation.
  • the above-mentioned step-over device may be provided.
  • the communication means when the communication means receives a ringer signal transmitted from the outside via the Internet a predetermined number of times, the above-mentioned computer, for example, the Web server can be started.
  • the remote control robot of the present invention receives from outside a script storage means for storing a program of each script corresponding to one or more operations of the robot, and an instruction to execute any of the stored programs. Communication means.
  • the remote operation robot is an instruction receiving means for receiving an emergency communication instruction from a person in a building, for example, a resident of a house to an outside, and a communication for making an emergency communication to a predetermined external terminal in accordance with the instruction. Means.
  • the robot includes an image capturing unit that captures an image of the inside of the building, a turning unit that changes the capturing direction of the image capturing unit, and an image capturing unit that responds to an external instruction of the capturing direction.
  • Communication means for transmitting an image taken by the means to the outside.
  • the robot self-position identification method of the present invention is executed by a robot equipped with a camera capable of changing an image capturing direction, and is configured in advance by a robot.
  • a method is used in which the room in which the robot exists is identified by correlation calculation and DP matching using an image of the same size as the reference image and a reference image.
  • the position of the landmark on the image photographed at the position where the robot exists is obtained by using the image of the landmark photographed in advance in the room as a reference template, and The distance can be measured by stereo vision to identify its own position and direction in the identified room.
  • the vertical line in the image of the landmark being photographed is extracted, and the position and direction of the robot are determined by using two angles formed by the photographing directions of the two cameras and the direction of the vertical line. Can be precisely identified.
  • FIG. 1 is a block diagram showing the principle configuration of a remote control robot according to the present invention.
  • Figure 4 is an external view of the remote control robot.
  • FIG. 5 is a diagram showing the internal structure of the remote control robot.
  • FIG. 6 is a diagram showing a component configuration of the remote control robot. ⁇
  • Fig. 7 is a flowchart of the robot's processing in response to the destination position indication. is there.
  • FIG. 9 is a processing flowchart of the robot when the name of the room to be moved is specified.
  • FIG. 10 is an example of a display screen on the remote terminal corresponding to the processing of FIG.
  • FIG. 11 is an explanatory diagram of a method for capturing a panoramic image of a room.
  • FIG. 12 is a flowchart of the process of identifying the room where the robot exists.
  • FIG. 13 is an explanatory diagram of the image correlation operation used in the identification processing.
  • Fig. 14 is a flowchart of the rough identification process of the robot position after the identification of the existing room.
  • Figure 15 is a flowchart of the precise identification process of the robot position after the existing room is identified.
  • Figure 16 is an explanatory diagram of the position of the robot obtained by the processing in Figs. 14 and 15.
  • Figure 17 is a flow chart of the emergency contact process to a remote location by a robot.
  • FIG. 18 is an explanatory diagram of a method (part 1) of confirming an image taken by a robot from a remote place.
  • FIG. 19 is an explanatory diagram of a method (part 2) for confirming an image taken by the mouth pot from a remote place.
  • FIG. 20 is an explanatory diagram of a method for causing a robot to execute a motion programmed in advance.
  • FIG. 2 is a block diagram of the configuration of the remote control robot according to the present embodiment.
  • the robot is a control computer 10, a moving mechanism 11, a camera 12 for photographing the surroundings of the robot, a pan-tilt table 13 for adjusting the horizontal rotation angle and elevation angle or depression angle of the camera 1 3
  • an infrared transmitter / receiver 14 installed on the same table as the camera 12 and transmitting infrared light in parallel with the shooting direction of the camera 12 and receiving infrared light to learn remote control data
  • a wireless communication unit 1 5 Input device 16, Pointing device 17, Display device 18, Various switches 19, and Various sensors 20.
  • the camera 12 is, for example, a video camera, and the infrared transmitter / receiver 14 is installed near the camera 12 and can transmit infrared rays in the same direction as the photographing direction.
  • the platform is pointed in any direction by a pan / tilt table 13 as a camera swivel mechanism.For example, while viewing images from the camera 12 from a remote location, infrared light is transmitted to operate home appliances in that direction. can do.
  • the wireless communication unit 15 performs communication for enabling such remote operation by a mobile phone, a portable information terminal such as a PDA (Personal Digital Assistant), or a personal computer. .
  • FIG. 3 is an explanatory diagram of a robot operation method from a remote place.
  • the robot can be operated from a remote location via a network, for example, the Internet, and a Web server is provided on the robot side for this purpose.
  • a network for example, the Internet
  • a Web server 21 is provided inside the robot control computer 10 of FIG. 2, and a CGI (Common Gateway Interface) or ISAPI is provided between the robot control computer 10 and an operation execution unit 22 for executing control operations. Interfaces such as (Internet connection, server, application, programming, interface) are provided. And from a remote location Access to the Web server 21 via the browser 24 and the Internet 25 becomes possible.
  • CGI Common Gateway Interface
  • ISAPI Interoperability for Microwave Access to the Web server 21 via the browser 24 and the Internet 25 becomes possible.
  • the web browser 24 connects to the Internet 25 by selecting a menu, and the web server 21 receives CG I / I SAP I 2 according to the instruction from the web browser 24. 3 is performed, the command format is changed in the CG I / I SAP I 23 to a form suitable for robot operation, and the command is executed by the operation execution unit 22.
  • the status and image data returned from the operation execution unit 22 are sent to the CG I / IS API 23, the data format is changed, and the web server 21 sends the data as an html file to the Internet.
  • the web browser 24 is provided via the web browser 25 to display a menu or display an image.
  • Figure 4 is an external view of the remote control robot.
  • the left side shows the front, and the right shows the back.
  • a stereo camera 31 corresponding to the camera 1 2 in Fig. 2
  • a home appliance remote control transmitter 32 corresponding to the infrared transceiver 14
  • a power switch 33 corresponding to various switches 19
  • a menu switch 34 corresponding to various switches 19
  • an obstacle Pampas switch 35 used as an object detection sensor
  • an emergency button 36 for residents of the building to make an emergency contact to the outside as described later.
  • step S25 of FIG. 12 It is determined whether or not the processing has been performed for all the registered rooms in step S25 of FIG. 12, and if it has not been performed yet, in step S26, the reference block number, that is, in FIG. It is determined whether or not reference has been completed for k of the cut-out images registered for each of the n rooms.
  • the Web server 21 can be activated to enable external access.
  • the present invention provides a function of operating home electric appliances via the Internet, a function of monitoring the status of an absence message from a remote location, and a method of accurately identifying a robot's own position. It can be used in all industries and industries that require precise robot self-position identification. Specifically, it can be used in various industries such as the home electric industry and building management industry.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

明細書 遠隔操作ロボッ トおよびロボット自己位置同定方法
技術分野
本発明はロボッ トの制御や利用の技術に関し、 特に例えば建物の中に置 かれ、 遠隔地から例えばインターネッ トを介して遠隔操作が可能なロボッ トの制御と利用の技術に関し、 またロボッ トの現在の位置と方向を正確に 認識するためのロボット自己位置同定方法に関する。 背景技術
従来において、 遠隔地から留守宅などを監視するためにインターネッ ト カメラが用いられている。 しかしながらこのインターネッ トカメラはその 設置場所が固定であり、 建物の中の各部屋の状態を見たい時には全ての部 屋へのカメラの設置が必要であり、 また複数のカメラとホストコンピュー タとの接続が複雑になり、 コストが増大するという問題点があった。
また遠隔地から留守宅用の家庭電気機器を操作するために、 L A Nに接 続可能な情報家電が開発されつつあるが、 L A N接続できない従来からの 電気機器を操作できないという問題点がある。
更に例えば建物の中を移動可能な自律移動型ロボッ トにおいて、 ユーザ から指示された作業を行うためにはまず自己の位置を認識する必要がある また一般にロボッ トを自律移動させるためには、 ロボッ トが認識しやすい 白い線などのランドマークが必要である。
しかしながら一般の住宅などにおいては、 特徴的なランドマークを住宅 内につけることは不可能であり、 また既存の特徴点をランドンマークとし て記録しても、 ロポッ トの位置によってカメラの画像上で対象物の大きさ が変化することから、 ランドマークを画像のみから簡単に判断することは 難しいという問題点があった。
本発明の目的は、 以上の問題点に鑑み、 建物内でロボットが移動すべき 目的位置を遠隔地から簡単に指示することができ、 また各部屋の状況を遠 隔地からモニタしたり、 各部屋にある家庭電器機器を操作したりする機能 を持つ遠隔操作ロボットを比較的低コスト、 かつ簡単な構成で実現するこ とであり、 またロボットが自己の位置と向きを正確に固定することができ るロボット自己位置同定方法を提供することである。 発明の開示
図 1は本発明の遠隔操作口ポットの原理構成ブロック図であり、 ロボッ ト 1は間取り図格納手段 2、 通信手段 3、 および移動制御手段 4を備える 間取り図格納手段 2は建物、 例えば住宅の間取り図を格納するものであ り、 通信手段 3はその間取り図内で遠隔地側から指示される位置を、 例え ばネットワークを介して遠隔地側の端末から受け取るものであり、 移動制 御手段 4は指示された位置へのロボットの移動を制御するものである。 発明の実施の形態においては、 遠隔操作ロポットは障害物センサによる 段差検知結果に基づいて、 建物内に存在する段差を乗り越えるための段差 乗り越え手段を備えることもできる。 またロボットは、 建物内での現在の 位置と方向を同定する自己位置同定手段を更に備え、 移動制御手段 4がそ の同定結果に基づいてロボットの移動を制御することもできる。
本発明においては、 図 1の通信手段 3は建物の間取り図内の部屋の指示 を遠隔地側の端末から受け取ることもでき、 この名場合には移動制御手段 4は指定された部屋の、 例えば入り口へのロボットの移動を制御する。 また本発明の遠隔操作ロボットは、 建物内の画像を撮影する画像撮影手 段と、 定期的 Zまたは不定期的にロボットが建物内を巡回して画像撮影手 段によって撮影された画像を、 外部からネットワークを介して参照可能な メモリを有する計算機、 例えばインターネットに接続された W e bサーバ に送る通信手段を備える。 あるいはこのような計算機、 例えば W e bサー バをロボット自体の内部に備えてもよレ、。
この場合実施の形態において、 画像撮影手段による撮影方向を変化させ るための旋回手段と、 画像撮影手段による撮影方向と並行に機器、 例えば 家庭電気機器の操作のための赤外線の投光/受光を行う赤外線投光/受光 手段を更に備えることもできる。 また前述の段差乗り越え手段を備えるこ ともできる。
さらにこの場合、 通信手段が外部からインターネットを介して送られる リンガ信号があらかじめ定められた回数だけ着信した時に、 前述の計算機、 例えば W e bサーバの起動を行うこともできる。
次に本発明の遠隔操作ロボットは、 ロボットの 1つ以上の動作に対応す るそれぞれのスクリブトのプログラムを格納するスクリプト格納手段と、 格納されているプログラムのいずれかの実行の指示を外部から受け取る通 信手段とを備える。
本発明の遠隔操作ロポットは建物内の人間、 例えば住宅の居住者から外 部に対する緊急時の連絡指示を受け取る指示受け取り手段と、 その指示に 応じてあらかじめ定められた外部端末に緊急連絡を行う通信手段とを備え る。
この場合実施の形態において、 ロボットは建物内の画像を撮影する画像 撮影手段と、 画像撮影手段の撮影方向を変化させるための旋回手段と、 外 部からの撮影方向の指示に応じて、 画像撮影手段によって撮影された画像 を外部に送る通信手段とを備えることもできる。 ,
本発明のロボット自己位置同定方法は、 画像撮影方向を変化できるカメ ラを搭載したロボットによって実行されるものであり、 あらかじめロボッ トが移動する可能性のある各部屋のパノラマ画像を撮影し、 そのパノラマ 画像から複数のプロック画像を切り出して参照画像を作成し、 ロボットが 存在する位置において撮影されたパノラマ画像内でそのプロック画像と同 一の大きさの画像と参照画像とを用いて、 相関演算と D Pマッチングによ つてロボットが存在する部屋を識別する方法が用いられる。
この場合実施の形態においては、 部屋内であらかじめ撮影されているラ ンドマークの画像を参照テンプレートとして、 ロボットが存在する位置で 撮影された画像上でのそのランドマークの位置を求め、 ランドマークまで の距離をステレオ視により計測して、 識別された部屋の中での自己の位置 と方向を同定することもできる。
更に実施の形態においては、 撮影されているランドマークの画像内の縦 線を抽出し、 2つのカメラの撮影方向とその縦線の方向とがなす 2つの角 を用いて、 ロボットの位置と方向とを精密に同定することもできる。
以上のように本発明によれば、 例えば遠隔地側から建物の間取り図内で、 ロボットが移動すべき目的位置や目的の部屋の指示を与えることができる。 またロボッ トが移動する可能性のある各部屋のパノラマ画像を用いること により、 ロボットが存在する部屋の識別が可能となる。 図面の簡単な説明
図 1は本発明の遠隔操作ロボットの原理構成ブロック図である。
図 2は本実施形態における遠隔操作ロボットの構成プロック図である。 図 3は遠隔地からのロボット操作方式の説明図である。
図 4は遠隔操作ロボットの外観図である。
図 5は遠隔操作ロボットの内部構造を示す図である。
図 6は遠隔操作ロボットの部品構成を示す図である。 ■
図 7は移動先目的位置の指示に対するロボッ トの処理フローチヤ一トで ある。
図 8は図 7の処理における遠隔地側端末における間取り図の表示例であ る。
図 9は移動目的の部屋の名称が指示される場合のロボットの処理フロー チャートである。
図 1 0は図 9の処理に対応する遠隔地側端末における表示画面の例であ る。
図 1 1は部屋のパノラマ画像撮影方法の説明図である。 , 図 1 2はロボットの存在する部屋の同定処理のフローチャートである。 図 1 3は同定処理で用いられる画像相関演算の説明図である。
図 1 4は存在する部屋の同定後のロボット位置の概略同定処理のフロー チヤ一トである。
図 1 5は存在する部屋の同定後のロボット位置の精密同定処理のフロー チヤ一トである。
図 1 6は図 1 4, 図 1 5の処理で求められたロボットの位置の説明図で める。
図 1 7はロボットによる遠隔地への緊急連絡処理のフローチヤ一トであ る。
図 1 8はロボットによつて撮影された画像を遠隔地側から確認する方法 (その 1 ) の説明図である。
図 1 9は口ポットによつて撮影された画像を遠隔地側から確認する方法 (その 2 ) の説明図である。
図 2 0はあらかじめプログラムされている動作をロボットに実行させる 方法の説明図である。
発明を実施するための最良形態
図 2は本実施形態における遠隔操作ロボットの構成プロック図である。 同図においてロボットは制御用計算機 1 0、 移動機構 1 1、 ロボッ トの周 囲を撮影するためのカメラ 1 2、 カメラの水平回転角度と仰角、 または俯 角を調整するためのパンチルト台 1 3、 例えばカメラ 1 2と同一の台上に 設けられ、 カメラ 1 2の撮影方向と並行に赤外線を送信し、 リモコンデー タを学習するために赤外線を受信する赤外線送受信機 1 4、 無線通信部 1 5、 入力デバイス 1 6、 ポインティングデバイス 1 7、 表示デバイス 1 8、 各種スィッチ 1 9、 および各種センサ 2 0を備えている。
図 2において、 カメラ 1 2は、 例えばビデオカメラであり、 赤外線送受 信機 1 4はカメラ 1 2の近傍に設置され、 その撮影方向と同一の方向に赤 外線を送信できるものとする。 その台はカメラ旋回機構としてのパンチル ト台 1 3によって任意の方向に向けられ、 例えば遠隔地から、 カメラ 1 2 の画像を見ながら、 その方向にある家電機器の操作を行うために赤外線を 送信することができる。
無線通信部 1 5は、 このような遠隔地からの操作を携帯電話、 P D A (パーソナル ·ディジタル ·アシスタント) などの携帯情報端末、 または パーソナルコンピュータなどによって実行可能にするための通信を行うも のである。
図 3は遠隔地からのロボット操作方式の説明図である。 本実施形態にお いてはネットワーク、 例えばィンターネットを介して遠隔地からロボット を操作できるものとし、 そのためにロボット側に W e bサーバを設けるも のとする。
図 3では、 図 2のロボット制御用計算機 1 0の内部に W e bサーバ 2 1 が設けられ、 制御操作を実行する操作実行部 2 2との間に C G I (コモ ン . ゲートウエイ ·インタフェース) や I S A P I (アイサツビ;インタ ーネッ ト · サーバ · アプリケーション · プログラミング · インタフエ一 ス) などのインタフェース 2 3が備えられる。 そして遠隔地からは W e b ブラウザ 24、 ィンターネット 2 5を介して We bサーバ 2 1へのァクセ スが可能となる。
図 3において、 We bブラウザ 24側からはメニュー選択によってイン ターネット 2 5への接続が行われ、 We bサーバ 2 1では We bブラウザ 24側からの指示に応じて CG I / I SAP I 2 3の呼び出しが行われ、 CG I /I SAP I 2 3においてコマンド形式がロボット操作に適した形 に変更され、 操作実行部 22によって指令が実行される。
制御用計算機 1 0側からは、 操作実行部 2 2から返送されるステータス や画像データが CG I / I S AP I 23に送られ、 データ形式が変更され、 We bサーバ 2 1によって h t m l ファイルとしてィンターネッ ト 25を 介して We bブラウザ 24側に提供され、 We bブラウザ 24側でメ-ュ 一表示や画像表示が行われる。
図 4は遠隔操作ロボットの外観図である。 左側は前面、 右側は後面の外 観を示す。 前面には図 2のカメラ 1 2に相当するステレオカメラ 3 1、 赤 外線送受信機 1 4に相当する家電リモコン送信機 3 2、 各種スィッチ 1 9 に相当する電源スィッチ 3 3、 メニュースィッチ 34、 障害物検知センサ として用いられるパンパスィツチ 3 5、 および後述するように建物の住人 が外部に緊急連絡を行うための緊急ボタン 36が備えられている。
また移動部 3 7は移動機構 1 1に、 モニタ 3 8は表示デバイス 1 8に、 近接距離センサ 3 9は各種センサ 20に相当し、 更にマイク 40、 スピー カー 4 1、 トラックポインタ 42が備えられている。 後面には図 2のパン チルト台 1 3に対応するパンチルトュニット 43が備えられている。
図 5は遠隔操作ロボット内部構造を示す。 同図において図 4のステレオ カメラ 3 1に相当する U S Bカメラ、 近接距離センサ 3 9に相当する測距 センサ、 モニタ 38に相当する L CDが示されている。
本実施形態では、 ロボッ トの移動機構 1 1として左右 1個ずつのクロー ラと、 1つ以上の回転自由な受動輪 (補助輪) とを備えることによって、 障害物や段差を乗り越えて、 口ポッ トが移動できる機構を使用した。 この クローラは、 車輪回転軸の中心に垂直な平面内で旋回できる構造とし、 信 地旋回時にはクローラの形式よりもあたかも左右 2つの車輪であるかのよ うに動作する。 また補助輪が点接触で地面に接触することが可能であり、 接地点が安定し、 ロボッ ト全体の信地旋回中心が安定するため、 ロボッ ト の構体底面の高さよりも高い障害物を乗り越えることができる構造となつ ている。 なお段差乗越機構としては、 他の公知の技術を用いることも当然 可能である。
図 6は遠隔操作ロボッ トの部品構成図である。 同図において C P U基板 5 1上のメイン C P U 5 3と、 拡張基板 5 2上の M P Uコントローラ 6 5 が図 2の制御用計算機 1 0に相当し、 図 3に示した制御用計算機 1 0の内 部の W e bサーバ 2 1は、 例えばメイン C P U 5 3を中心として構成する ことができる。 あるいは後述するように W e bサーバをロボットとは別に 設けることができ、 その場合には口ポッ トとインターネッ トの間にサーバ 計算機が別個に備えられる。
図 6においてメイン C P U 5 3にはポンティングデバイス 5 4、 ユーザ 拡張用 U S B (ユニバーサルシリアルバス) ポート 5 5、 マイク 5 6とス ピー力 5 7が接続された音声コーデック 5 8、 L C D 5 9が接続された L C Dインタフェース 6 0、 それぞれコントロール部を介した C F (コンパ ク トフラッシュ) メモリ 6 1と通信モジュール 6 2が接続されている。
また M P Uコントローラ 6 5および H U B 6 4にはC M O Sカメラ 6 6、 図 2のパンチルト台 1 3の回転を制御するための 2つのモータ 6 7、 移動 機構 1 1としての図 5のクローラおよび受動輪を回転させるための 3つの モータ 6 8、 L E Dや押ボタンスィッチが搭載されたスィッチサブ基板 6 9、 距離センサ 7 0、 パン (水平回転角) 用ポテンショメータ 7 1、 チル ト (仰俯角) 用ポテンショメータ 7 2、 赤外線送信機 7 3、 赤外線受信機 7 4、 A Cアダプタ 7 5と電池 7 6が接続された D C / D C充電回路 7 7 が備えられている。
図 7は本実施形態において、 遠隔地から間取り図に対応する移動先の目 的位置の指示を受ける場合の、 ロボッ トの処理の説明図である。 同図にお いては、 ロボッ ト側で建物の間取り図をあらかじめメモリ上に格納してお き、 遠隔地のクライアントの端末側にその間取り図の画像を送り、 クライ アントが間取り図上でロボットの移動目的位置をロボット側に指示するこ とによって、 ロボットがその目的地に向かって移動するための処理が実行 される。
図 7において処理が開始されると、 まずステップ S 1でロボッ トによる 自己位置の計測が行われる。 この自己位置の計測については後述する。 そ してステップ S 2で遠隔地のクライアン 1、側から、 そのクライアン'ト側で、 例えば移動端末上で表示可能な画像サイズのデータの送信を受ける。
続いてステップ S 3で、 メモリ上に保持されている間取り図画像のサイ ズを、 クライアント側から送られた画像サイズのデータを用いてそのサイ ズに変換し、 その変換スケールを保存し、 ステップ S 4でステップ S 1で 計測した自己位置の情報を含んだ間取り図の画像をクライアント側に送り、 ステップ S 5でクライアント側から指示された目的地の位置の座標を取得 する。
次にステップ S 6で、 ステップ S 3で保存した変換スケール情報とクラ イアントから指示された目的位置の座標から、 実スケールにおける目的地 座標を計算し、 ステップ S 7で目的地までの経路を生成し、 ステップ S 8 で目的地に向かって移動を行い、 ステップ S 9で目的地まで移動したか否 かを判定し、 移動が完了するまではステップ S 8以降の処理を繰り返し、 移動が完了したと判定した時点で処理を終了する。 図 8は、 図 7の処理において遠隔地側のクライアントの携帯電話などの 端末における間取り図の表示例である。 同図においては表示画面上に間取 り図が示され、 ロボットの現在位置とその向きが寝室上の三角印で、 また クライアントから指示されるロボットの移動目標位置がリビング上のカー ソルで表示されている。
図 9は、 クライアント側から移動目的位置ではなく、 移動すべき目的の 部屋の名称、 または部屋番号などが指示される場合のロボットの処理の説 明図である。 同図において図 7と異なる部分について説明する。
図 9において処理が開始されると、 ステップ S l, S 2の処理が行われ るが、 クライアント側から目的の位置ではなく、 部屋の名称などが指示さ れるため、 図 7のステップ S 3での変換スケールの保存は必要なく、 直ち にステップ S 4において自己位置情報を含む間取り画像がクライアントに 送信され、 図 7のステップ S 5, S 6の処理の代わりに、 ステップ S 1 0 でクライアント側から移動すべき目的の部屋名、 または部屋番号のデータ を受け取り、 ステップ S 1 1で目的の部屋名、 または部屋番号から、 あら かじめ登録しておいた各部屋毎の目標位置、 例えば部屋の入口の位置を示 す対応表を用いて目標位置の座標が得られ、 その後図 7と同様にステップ S 7〜S 9の処理が実行される。
図 1 0は、 図 9の処理に対応するクライアント側の端末の表示画面の例 である。 同図においては、 表示画面上に間取り図と移動目標位置を指示す るためのメニューが表示され、 クライアントはメニュー上で特定の部屋を 指示することにより、 ロボットはその部屋への移動の処理を実行する。 こ こでは間取り図が表示画面上に表示されるものとしたが、 間取り図の表示 自体は必ずしも必要がなく、 クライアント側に目的の部屋名などの指示を 行わせるだけとすることによって処理が軽減され、 処理を高速化すること ができる。 次に、 例えば図 7のステップ S 1におけるロボットの自己位置の取得、 すなわち自己位置同定方法について説明する。 本実施形態においては、 あ らかじめロボットによって建物内の各部屋のパノラマ画像を撮影して登録 しておき、 現在ロボットが存在する部屋で撮影したパノラマ画像と比較す ることによって、 ロボットの存在する部屋、 および正確な位置の同定を行 うことにする。
図 1 1はあらかじめ建物内の各部屋のパノラマ画像を登録する場合のパ ノラマ画像撮影方法の説明図である。 すなわち準備段階として、 各部屋に おいてロボットを部屋の、 例えば中心に設置し、 例えば 3 0度のステップ でカメラを旋回させて画像を取得、 合成し、 例えば縮小処理を行うことに よって 3 6 0度のパノラマ画像が作成される。 ここで計算などの処理時間 を短縮するために、 全体を圧縮したり、 またあまりに鮮明な画像では位置 を同定する際に撮影した画像とのマツチング結果が悪くなる可能性がある ため、 平均化処理を行う。
図 1 2はロボットの存在する部屋の同定処理のフローチヤ一トであり、 図 1 3はその同定処理において用いられる画像相関演算の説明図である。 まず図 1 2において処理が開始されると、 ステップ S 2 0〜S 2 2におい て、 図 1 1で説明した準備段階としてのパノラマ画像の撮影と、 実際の位 置同定時に使用される参照テンプレートの作成が行われる。
すなわちステップ S 2 0でロボットが移動する可能性のあるエリァの各 部屋についてパノラマ画像が撮影され、 ステップ S 2 1でそのパノラマ画 像が縮小され、 かつ平均化処理が施され、 ステップ S 2 2でそのパノラマ 画像から、 例えば等ピッチ、 すなわち横方向に等間隔で小ブロックの画像 が切り出され、 その画像が拡大、 あるいは縮小 (拡縮) されて、 参照テン プレートが作成される。
図 1 3の上の図はこのように小ブロックとして切り出された画像の例で ある。 例えば n個の部屋の登録画像として、 それぞれの部屋のパノラマ画 像から、 k個の小プロックの画像がそれぞれ切り出される。
図 1 2のステップ S 2 3以降の処理は、 現在ロボットが存在する部屋の 同定処理を示す。 まずステップ S 2 3でロボットが現在存在する部屋につ いてパノラマ画像が撮影され、 ステップ S 2 4でそのパノラマ画像が縮小 され、 かつ平均化処理が施され、 ステップ S 2 5以降で参照テンプレート との比較が行われる。
図 1 3の下の画像はロボットが現在存在する部屋の切り出し画像の例で ある。 現在存在する部屋のパノラマ画像において、 切り出しを開始した位 置を採索基準位置として、 探索範囲として X r a n g e個の小ブロックの 画像を用いて、 n個の部屋の登録画像との比較が行われる。
図 1 2のステップ S 2 5で登録されている全ての部屋について処理が行 われたか否かが判定され、 まだ行われていない場合にはステップ S 2 6で 参照ブロックナンパ、 すなわち図 1 3の n個の部屋のそれぞれについて登 録されている切り出し画像の k個についてまだ参照が終わっていないか否 かが判定される。
終わっていない場合にはステップ S 2 7で探索範囲ナンパ、 すなわち図 1 3の現在ロボットが存在する部屋のパノラマ画像における探索基準位置 から x r a n g e画素の探索範囲についての探索が終わっていないか否か が判定され、 終わっていない場合にはステップ S 2 8で拡縮ナンパ、 すな わちステップ S 2 2で切り出された小プロック画像を拡大または縮小した 結果の画像としての n個の画像のうちで、 現在の部屋の画像との比較が行 われた画像のナンパが nに達していないか否かが判定される。
まだ nに達していない場合にはステップ S 2 9で参照テンプレート、 す なわち処理の対象となっている部屋の、 処理の対象となっている小ブロッ ク画像の、 処理の対象となっている拡縮ナンパの参照テンプレートと、 探 索範囲ナンパによって指定されている現在の部屋のパノラマ画像との相関 演算が行われる。 そしてステップ S 3 0で拡縮ナンパがィンクリメントさ れ、 ステップ S 2 8以降の処理が繰り返される。
ステップ S 2 8で拡縮ナンパが n以下でない、 すなわち n個の拡縮ナン バの画像について処理が終了したと判定されると、 ステップ S 3 1で処理 中の探索範囲ナンパの画像について最も相関演算結果が小さい拡縮ナンパ の画像がその探索位置における探索結果とされた後に、 ステップ S 3 2で 探索範囲ナンパの値がインクリメントされて、 ステップ S 2 7以降の処理 が繰り返される。 なおここでは相関演算として、 例えば画像毎の濃度の差 の絶対値に相当するディス トーションを求めるものとし、 その値が小さい 程、 画像の間のマッチング率が大きくなる。
ステップ S 2 7で探索範囲ナンパが X r a n g e以下でないと判定され ると、 処理中の参照プロックナンパの画像に対する比較が終了したことに なるため、 ステップ S 3 3で参照プロックナンパがインクリメントされた 後に、 ステップ S 2 6以降の処理が繰り返される。
ステップ S 2 6で参照ブロックナンパが k以下でないと判定されると、 処理中の部屋に対する比較が終了したことになるため、 ステップ S 3 4で その部屋についての相関結果としての小プロック画像 k個と、 探索範囲 X r a n g eによって決まる二次元マトリ ッタスが生成され、 ステップ S 3 5で相関演算の演算結果と距離とをパラメータとして、 例えばダイナミツ クプログラミング ( D P ) マッチングを行うことによってコストが算出さ れ、 処理中の部屋についてのコスト最小値が求められる。
なお前述の小ブロック画像数 k個と、 探索範囲の X r a n g e個とで行 数と列数が決定される 2次元マトリ ッタスの各要素は、 図 1 3の k個の小 プロック画像を拡縮させたそれぞれ n個の参照テンプレートの中で、 現在 のパノラマ画像の各探索位置の画像との間での相関演算値が最も小さい参 照テンプレートに相当するデータとなる。
また D Pマッチングにおける距離は図 1 3の下の図で探索基準位置を基 準とする横方向の距離、 すなわち X r a n g eの値に相当し、 相関演算結 果と距離とをパラメータとしてコストを最出する、 一般的な D Pマツチン グを実行することによって、 ステップ S 3 5で処理中の部屋に対する最小 コストの値が求められる。
そしてステップ S 3 6で部屋ナンパがインクリメントされ、 ステップ S 2 5以降の処理が繰り返され、 ステップ S 2 5で全ての部屋について処理 が行われたと判定された時点で、 ステップ S 3 7で、 ステップ S 3 5で各 部屋について算出されたコストの中でコスト最小の部屋が現在ロボットが 存在する部屋と判定されて、 処理を終了する。
図 1 4, 図 1 5は、 図 1 2の処理においてロボットが存在する部屋が同 定された後に、 その部屋の中でロボットの位置を同定する処理のフローチ ヤートである。 図 1 4はロボットの概略位置の同定処理、 図 1 5は精密位 置の同定処理のフローチャートである。
図 1 4において処理が開始されると、 まず実際のロボットの位置の同定 に先立って、 ステップ S 4 0で、 図 1 1で説明したようにして撮影され、 登録されたパノラマ画像の中でランドマーク、 例えば柱が選択され、 その 画像上の位置と実際の部屋における位置が登録され、 ステップ S 4 1で柱 の画像がパノラマ画像から切り出され、 拡縮テンプレートが生成される。 続いて実際のロボットの概略位置の同定処理として、 まずステップ S 4 2でロボットが現在存在する部屋、 すなわち図 1 2の処理によって同定さ れた部屋と同じ部屋の柱の拡縮テンプレートを参照画像として相関演算が 行われ、 現在のパノラマ画像中の柱の位置が特定され、 ステップ S 4 3で 特定された柱の位置までのロボットからの距離がステレオ視により求めら れ、 ロボットの存在する概略的な位置が同定される。 図 1 6はこのようにして求められたロボットの位置の説明図である。 同 図においては、 例えば部屋の 4つの隅の柱からの距離がステップ S 4 3で 求められ、 それぞれの距離に相当する円弧の交点に相当する四角形の内部 がロボットの概略的な位置の同定結果として求められる。
図 1 5は、 図 1 4において求められたロボットの概略位置から更に精密 位置を同定する処理のフローチヤ一トである。 同図において処理が開始さ れると、 まずステップ S 4 5で柱の画像から縦線、 すなわち柱のエッジを 抽出するために (1 ) でエッジの抽出、 (2 ) で二値化、 (3 ) で縦方向 に投影したヒストグラムが求められる。 縦方向に投影したヒストグラムと は、 縦方向に検出されるエッジの中で、 例えば机のように高さが低いもの のエッジはそのヒストグラムの値が小さくなるため、 最大値を持つエッジ を柱のエッジとして求めるためのものであり、 これによつて柱のエッジが 抽出される。
続いてステップ S 4 6で、 抽出された縦線、 すなわち柱のエッジと 2つ のカメラのそれぞれの撮影方向とがなす角度が求められる。
そしてステップ S 4 7で、 部屋の中でのロボットの存在する位置と方向 を精密に求めるために、 部屋の中でマトリックス状に仮想的なボイントが 設定され、 各ポイントでロボットの向きをパラメータとして、 そのロボッ トの位置と姿勢に対応する柱の縦線と 2つのカメラの撮影方向がなす角度 が求められ、 ステップ S 4 6で求められた角度の値との差に対応する値が コス トとして算出され、 ステップ S 4 8でそのコストが最小となる位置と 方向がロボットの現在の位置と方向の精密な値として求められて処理を終 了する。
図 1 6の四角形内の三角形が、 図 1 5の処理によって同定されたロボッ トの現在の精密な位置と方向を示す。 このようにして同定されたロボット の位置と方向のデータが、 必要に応じて、 例えば図 2の無線通信部 1 5に よってクライアント側に通知される。
次に図 1 0に続いて遠隔操作ロボットに関する実施形態について更に説 明する。 図 1 7は操作ロボットの遠隔地への緊急連絡処理のフローチヤ一 トである。 図 4で説明したようにロボットは緊急ボタンを備えており、 例 えば建物の住人が遠隔地に緊急事態を連絡したい場合に緊急ポタンを押す ことによって、 遠隔地に連絡が行われる。
すなわち図 1 7において処理が開始されると、 ステップ S 5 0で緊急ボ タンが監視され、 ステップ S 5 1で緊急ボタンが押されたか否かが判定さ れ、 押されていない場合にはステップ S 5 0以降の処理が繰り返され、 押 された場合にはステップ S 5 2であらかじめ登録された連絡先に電子メー ル、 あるいは電話などの方法により緊急事態が通知されて、 処理を終了す る。
次に本実施形態において、 ロボットによって撮影された建物内、 例えば 部屋の画像を遠隔地側から確認する方法について、 図 1 8、 およぴ図 1 9 を用いて説明する。 図 1 8においては、 例えばロボット 8 0が定期的に建 物内を巡回し、 撮影した各部屋の画像を、 無線 L A Nを介して W e bサー バを備えるサーバ計算機 8 1に送り、 遠隔地側からはこの W e bサーバに アクセスすることによって、 画像を参照することが可能となる。
すなわちサーバ計算機 8 1の内部には、 ロボット 8 0から送られた画像 データを受け取るソケットサーバ 8 2と、 W e bサーバ 8 3が備えられ、 ロボット 8 0から送られた画像は、 W e bサーバ 8 3内で外部から参照可 能なフォルダの内部に蓄積される。 遠隔地側では W e bブラウザ 2 4によ つてインターネット 2 5を介して画像取得指令を W e bサ一バ 8 3に送り、 W e bサーバ 8 3からインターネッ ト 2 5を介して送られた画像の表示を 行うことになる。
なお、 この場合例えば図 6では通信モジュール 6 2として L A Nカード などがコネクタにさしこまれて使用される。
図 1 9では、 図 3におけると同様に、 ロボット制御用計算機 1 0の内部 に W e bサーバ 2 1が備えられ、 W e bブラウザ 2 4はインターネット 2 5を介して W e bサーバ 2 1にアクセスすることによって画像を参照する ことができる。 ここでは、 例えば P H Sカードなどが図 6の通信モジユー ル 6 2としてコネクタにさしこまれることになる。
なおィンターネット 2 5を介して、 ロボット側にリンガ信号が所定の回 数だけ着信した時点で、 W e bサーバ 2 1を起動し、 外部からのアクセス を可能とさせることもできる。
最後に本実施形態において、 ロボット側にあらかじめ備えられているス クリブトを遠隔地側から指定して、 あらかじめプログラムされている動作 をロボットに実行させる方法を図 2 0を用いて説明する。 同図において、 クライアント側ブラウザ 8 5からの指示 (コマンド) に対応して、 遠隔操 作ロボット 8 6の内部のコマンド解析 Z実行部 8 7によってそのコマンド が解析され、 そのコマンドがスクリブトの選択とその実行を指示するもの であれば、 スクリプト選択/実行部 8 8によって、 あらかじめロボット側 に備えられている複数のロボット動作スクリプト 8 9 i 〜 8 9 n のいずれ かが選択され、 その動作が実行される。
以上詳細に説明したように、 本発明によれば遠隔地側の端末上に表示さ れた、 例えば間取り図の上で移動目的地を指示することにより、 遠隔操作 ロボットをその目的地に移動させることが可能となる。
また遠隔端末側から建物内の画像を確認したり、 あらかじめプログラム された動きを遠隔地側からロボットに実行させることも、 また建物の居住 者が緊急連絡を行うことも可能となる。 産業上の利用可能性 本発明はインターネット経由で家庭電気製品を操作したり、 留守宅の状 況を遠隔地からモニタする機能や、 ロボットの自己位置の正確な同定方法 を提供するものであり、 遠隔操作ロボットを利用する全ての産業、 および 精密なロボットの自己位置の同定を必要とする産業などに利用することが 可能である。 具体的には家庭電気産業、 ビル管理業など、 様々な産業に利 用することが可能である。

Claims

請求の範囲
1 . 遠隔地から操作が可能な遠隔操作ロボットにおいて、
建物の間取り図を格納する、 間取り図格納手段と、
該間取り図内の位置の指示を遠隔地の端末側から受け取る通信手段と。 該指定された位置へのロポットの移動を制御する移動制御手段とを備え ることを特徴とする遠隔操作ロポット。
2 . 前記遠隔操作口ポットにおいて、
障害物センサによる段差検知結果に基づいて、 建物内に存在する段差を 乗り越えるための段差乗り越え手段を更に備えることを特徴とする請求項 1記載の遠隔操作ロボット。
3 . 前記遠隔操作ロボットにおいて、
該ロボットが前記建物内での現在の位置と方向を同定する自己位置同定 手段を更に備え、
前記移動制御手段が、 該同定の結果に基づいて、 前記指定された位置へ の移動を制御することを特徴とする請求項 1記載の遠隔操作ロボット。
4 . 遠隔地から操作が可能な遠隔操作ロボットにおいて、
建物の間取り図を格納する間取り図格納手段と、
該間取り図内の部屋の指示を遠隔地の端末側から受け取る通信手段と、 該指定された部屋へのロボットの移動を制御する移動制御手段とを備え ることを特徴とする遠隔操作ロボット。
5 . 遠隔地から操作が可能な遠隔操作ロボットにおいて、
建物内の画像を撮影する画像撮影手段と、
定期的/または不定期的に該ロボットが建物内を巡回して該画像撮影手 段によって得られた画像を、 外部からネッ トワークを介して参照可能なメ モリを有する計算機に送る通信手段とを備えること特徴とする遠隔操作口 ボッ卜。
6 . 前記遠隔操作口ポットにおいて、
障害物センサによる段差検知結果に基づいて、 建物内に存在する段差を 乗り越えるための段差乗り越え手段を更に備えることを特徴とする請求項 5記載の遠隔操作口ボット。
7 . 前記遠隔操作口ポットにおいて、
前記画像撮影手段による撮影方向を変化させるための旋回手段と、 該画像撮影手段による撮影方向と並行に赤外線の投光/受光を行う赤外 線投光 Z受光手段を更に備えることを特徴とする請求項 5記載の遠隔操作 ロボット。
8 . 前記通信手段が画像を送るべき計算機がインターネットに接続された ウェブサーバであることを特徴とする請求項 5記載の遠隔操作ロボット。
9 . 遠隔地から操作が可能な遠隔操作ロボットにおいて、
建物内の画像を撮影する画像撮影手段と、
定期的ノまたは不定期的に該ロボットが建物内を巡回して該画像撮影手 段によって得られた画像を、 外部からネットワークを介して参照可能なメ モリに蓄積する計算機とを備えることを特徴とする遠隔操作ロボ.ット。
1 0 . 前記遠隔操作ロボットにおいて、
外部からィンターネットを介して送られるリンガ信号があらかじめ定め られた回数だけ着信した時、 前記計算機の起動を行う通信手段をさらに備 えることを特徴とする請求項 9記載の遠隔操作ロボット。
1 1 . 遠隔地から操作が可能な遠隔操作ロボットにおいて、
該ロボットの 1つ以上の動作に対応するそれぞれのスクリブトのプログ ラムを格納するスクリプト格納手段と、
該スクリプト格納手段に格納されているプログラムのいずれかの実行の 指示を外部から受け取る通信手段とを備えることを特徴とする遠隔操作口 ポッ卜。
1 2 . 遠隔地から操作が可能な遠隔操作ロボットにおいて、
建物内の人間からの緊急時の連絡指示を受け取る指示受け取り手段と、 該指示に応じて、 あらかじめ定められた遠隔地側の端末に該緊急連絡を 行う通信手段とを備えることを特徴とする遠隔操作ロボット。
1 3 . 前記遠隔操作ロポットにおいて、
建物内の画像を撮影する画像撮影手段と、
該画像撮影手段の撮影方向を変化させるための旋回手段と、
外部からの撮影方向の指示に応じて、 該画像撮影手段によって撮影され た画像を外部に送る通信手段とを備えることを特徴とする請求項 1 2記載 の遠隔操作ロボット。
1 4 . 画像撮影方向を変化できるカメラを搭載したロボットの自己位置同 定方法において、
あらかじめ該ロポットが移動する可能性のある各部屋のパノラマ画像を 撮影し、
該パノラマ画像から複数のプロック画像を切り出して参照画像を作成し、 ロボットが存在する位置において撮影したパノラマ画像内で該ブロック 画像と同一の大きさの画像と、 該参照画像とを用いて、 相関演算と D Pマ ツチングによってロボットが存在する部屋を識別することを特徴とする口 ボット自己位置同定方法。
1 5 . 前記自己位置同定方法において、
前記識別された部屋内のランドマークのうちで、 あらかじめ撮影されて いるランドマークの画像を参照テンプレートとして、 ロボットが存在する 位置において撮影された画像との相関演算を行って、 該ランドマークの該 撮影画像上での位置を求め、
複数のランドマークまでの距離をステレオ視により計測して、 該識別さ れた部屋内での自己の位置と方向とを同定することを特徴とする請求項 1
4記載のロボット自己位置同定方法。
1 6 . 前記自己位置同定方法において、
前記撮影されているランドマークの画像内の縦線を抽出し、
2つのカメラの撮影方向と該縦線の方向とがなす 2つの角と、 口ポット の位置と方向を仮定して 2つのカメラの撮影方向と該ランドマークの方向 とがなす 2つの角を計算した結果との間の差に対応するコストを求め、 該仮定した位置と方向を変化させて、 該コストが最も小さくなる仮定の 位置と方向とをロポットの位置と方向として同定することを特徴とする請 求項 1 5記載のロボット自己位置同定方法。
PCT/JP2002/005370 2002-05-31 2002-05-31 Robot telecommande et procede d'identification automatique de la position de robot. WO2003102706A1 (fr)

Priority Applications (7)

Application Number Priority Date Filing Date Title
EP02730841.0A EP1510896B1 (en) 2002-05-31 2002-05-31 Remotely-operated robot, and robot self position identifying method
JP2004509527A JP4448024B2 (ja) 2002-05-31 2002-05-31 遠隔操作ロボットおよびロボット自己位置同定方法
KR1020047017598A KR100812506B1 (ko) 2002-05-31 2002-05-31 원격 조작 로봇 및 로봇 자기 위치 추정 방법
PCT/JP2002/005370 WO2003102706A1 (fr) 2002-05-31 2002-05-31 Robot telecommande et procede d'identification automatique de la position de robot.
CNB028290429A CN100451897C (zh) 2002-05-31 2002-05-31 远程操作机器人
AU2002304133A AU2002304133A1 (en) 2002-05-31 2002-05-31 Remotely-operated robot, and robot self position identifying method
US10/978,439 US7120519B2 (en) 2002-05-31 2004-11-02 Remote-controlled robot and robot self-position identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2002/005370 WO2003102706A1 (fr) 2002-05-31 2002-05-31 Robot telecommande et procede d'identification automatique de la position de robot.

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US10/978,439 Continuation US7120519B2 (en) 2002-05-31 2004-11-02 Remote-controlled robot and robot self-position identification method

Publications (1)

Publication Number Publication Date
WO2003102706A1 true WO2003102706A1 (fr) 2003-12-11

Family

ID=29606642

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2002/005370 WO2003102706A1 (fr) 2002-05-31 2002-05-31 Robot telecommande et procede d'identification automatique de la position de robot.

Country Status (7)

Country Link
US (1) US7120519B2 (ja)
EP (1) EP1510896B1 (ja)
JP (1) JP4448024B2 (ja)
KR (1) KR100812506B1 (ja)
CN (1) CN100451897C (ja)
AU (1) AU2002304133A1 (ja)
WO (1) WO2003102706A1 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1548534A2 (en) * 2003-12-23 2005-06-29 Samsung Electronics Co., Ltd. Method and apparatus for using rotational movement amount of mobile device and computer-readable recording medium for storing computer program
JP2010120141A (ja) * 2008-11-21 2010-06-03 Ihi Corp バラ積みピッキング装置とその制御方法
JP2011239310A (ja) * 2010-05-13 2011-11-24 Hitachi Ltd 自由に設置可能なネットワークカメラ装置
JP2012252477A (ja) * 2011-06-02 2012-12-20 Hitachi Ltd 画像検索装置及び画像検索システム
JP2014505934A (ja) * 2010-12-30 2014-03-06 アイロボット コーポレイション 可動式ロボットシステム
JP2014059737A (ja) * 2012-09-18 2014-04-03 Sharp Corp 自走式機器
US8918209B2 (en) 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US8918213B2 (en) 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US8930019B2 (en) 2010-12-30 2015-01-06 Irobot Corporation Mobile human interface robot
US8935005B2 (en) 2010-05-20 2015-01-13 Irobot Corporation Operating a mobile robot
US8958911B2 (en) 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
JP2017514124A (ja) * 2014-04-14 2017-06-01 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe 定位面内にロボットを定位する方法
JP2017131556A (ja) * 2016-01-29 2017-08-03 東芝ライフスタイル株式会社 電気掃除機
JP2018185182A (ja) * 2017-04-25 2018-11-22 東京電力ホールディングス株式会社 位置特定装置
JP2018205865A (ja) * 2017-05-31 2018-12-27 ヴイストン株式会社 情報通信デバイスおよびサーバ装置
CN111738148A (zh) * 2020-06-22 2020-10-02 复旦大学 一种利用红外巡检拍摄的故障识别方法
JP7425406B2 (ja) 2020-03-23 2024-01-31 東京電力ホールディングス株式会社 画像検査装置、学習済みモデル生成装置、画像検査システム、画像検査用プログラム、学習済みモデル生成用プログラム、および学習済みモデル

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7330776B1 (en) * 2000-10-06 2008-02-12 Innovation First, Inc. System, apparatus, and method for managing and controlling robot competitions
DE10150423A1 (de) * 2001-10-11 2003-04-30 Siemens Ag Verfahren und Anordnung sowie Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Zuweisung einer Teilfläche einer in mehrere Teilflächen aufgeteilten Gesamtfläche an eine von mehreren mobilen Einheiten
EP1548532A4 (en) * 2002-10-01 2007-08-08 Fujitsu Ltd ROBOT
US7756322B2 (en) * 2003-08-18 2010-07-13 Honda Motor Co., Ltd. Picture taking mobile robot
WO2005098729A2 (en) * 2004-03-27 2005-10-20 Harvey Koselka Autonomous personal service robot
JP2006074207A (ja) * 2004-08-31 2006-03-16 Toshiba Corp 移動型情報装置とこの移動方法、及び情報システムと位置推定方法
KR20060059006A (ko) * 2004-11-26 2006-06-01 삼성전자주식회사 이동형 가전기기가 장애물을 회피하며 벽을 따라 이동하는방법 및 장치
US7436143B2 (en) * 2005-04-25 2008-10-14 M-Bots, Inc. Miniature surveillance robot
JP4824362B2 (ja) * 2005-08-01 2011-11-30 本田技研工業株式会社 移動ロボットの制御装置
ATE522330T1 (de) * 2005-09-30 2011-09-15 Irobot Corp Robotersystem mit kabelloser kommunikation mittels tcp/ip übertragung
US8121399B2 (en) * 2005-12-16 2012-02-21 Ihi Corporation Self-position identifying method and device, and three-dimensional shape measuring method and device
WO2007069721A1 (ja) * 2005-12-16 2007-06-21 Ihi Corporation 三次元形状データの記憶・表示方法と装置および三次元形状の計測方法と装置
DE112006003380T5 (de) * 2005-12-16 2008-10-16 Ihi Corporation Verfahren und Vorrichtung für die Positionsabgleichung von dreidimensionalen Formdaten
US8884763B2 (en) * 2006-10-02 2014-11-11 iRobert Corporation Threat detection sensor suite
EP2099672B1 (en) 2006-11-13 2011-08-31 Raytheon Company Tracked robotic crawler having a moveable arm
WO2008076192A2 (en) 2006-11-13 2008-06-26 Raytheon Sarcos Llc Versatile endless track for lightweight mobile robots
CN101626946B (zh) 2006-11-13 2013-06-05 雷神萨科斯公司 用于轻型机器人车辆的悬架系统和该车辆的支承方法
EP2549165B1 (en) 2006-11-13 2014-03-12 Raytheon Company Serpentine robotic crawler
KR100857603B1 (ko) * 2007-03-29 2008-09-09 삼성전자주식회사 전자부품 검사 시스템 및 그 제어방법
WO2008137953A1 (en) 2007-05-07 2008-11-13 Raytheon Sarcos, Llc Method for manufacturing a complex structure
WO2008152733A1 (ja) * 2007-06-15 2008-12-18 Fujitsu Limited ロボット
JP2009011362A (ja) * 2007-06-29 2009-01-22 Sony Computer Entertainment Inc 情報処理システム、ロボット装置及びその制御方法
WO2009009673A2 (en) 2007-07-10 2009-01-15 Raytheon Sarcos, Llc Modular robotic crawler
KR101469246B1 (ko) * 2007-08-07 2014-12-12 삼성전자주식회사 로봇에서 사진 촬영하는 장치 및 방법
CN101456183A (zh) * 2007-12-14 2009-06-17 鸿富锦精密工业(深圳)有限公司 机器人及操控该机器人的无线通讯装置
WO2009089369A1 (en) * 2008-01-08 2009-07-16 Raytheon Sarcos, Llc Point and go navigation system and method
US8392036B2 (en) 2009-01-08 2013-03-05 Raytheon Company Point and go navigation system and method
US8935014B2 (en) 2009-06-11 2015-01-13 Sarcos, Lc Method and system for deploying a surveillance network
EP2440448B1 (en) 2009-06-11 2015-09-30 Sarcos LC Amphibious robotic crawler
TWI409717B (zh) * 2009-06-22 2013-09-21 Chunghwa Picture Tubes Ltd 適用於電腦產品與影像顯示裝置的影像轉換方法
CN102960037B (zh) * 2010-05-19 2016-08-10 诺基亚技术有限公司 物理上约束的无线电地图
US9906838B2 (en) 2010-07-12 2018-02-27 Time Warner Cable Enterprises Llc Apparatus and methods for content delivery and message exchange across multiple content delivery networks
US9007432B2 (en) * 2010-12-16 2015-04-14 The Massachusetts Institute Of Technology Imaging systems and methods for immersive surveillance
US9036001B2 (en) 2010-12-16 2015-05-19 Massachusetts Institute Of Technology Imaging system for immersive surveillance
KR101855831B1 (ko) 2011-05-12 2018-05-09 엘지전자 주식회사 청소 장치, 및 복수의 로봇 청소기를 이용한 협동 청소 방법
US8919476B2 (en) 2011-07-11 2014-12-30 Holland Moving & Rigging Supplies, Inc. Platform dolly system
JP2013242738A (ja) * 2012-05-22 2013-12-05 Sharp Corp ロボット装置、端末装置、ロボット装置の遠隔操作システム及びプログラム
US8393422B1 (en) 2012-05-25 2013-03-12 Raytheon Company Serpentine robotic crawler
JP6052576B2 (ja) * 2012-05-30 2016-12-27 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置、携帯端末およびその制御方法と制御プログラム
US9031698B2 (en) 2012-10-31 2015-05-12 Sarcos Lc Serpentine robotic crawler
CN103903219A (zh) * 2012-12-26 2014-07-02 联想(北京)有限公司 一种信息处理方法及系统
WO2014133977A1 (en) * 2013-03-01 2014-09-04 Robotex Inc. Low latency data link system and method
CN104183168B (zh) * 2013-05-28 2018-04-27 中建八局第一建设有限公司 建筑施工4d远程考核系统
US9409292B2 (en) 2013-09-13 2016-08-09 Sarcos Lc Serpentine robotic crawler for performing dexterous operations
US9566711B2 (en) 2014-03-04 2017-02-14 Sarcos Lc Coordinated robotic control
US20150283703A1 (en) * 2014-04-03 2015-10-08 Brain Corporation Apparatus and methods for remotely controlling robotic devices
US9849588B2 (en) 2014-09-17 2017-12-26 Brain Corporation Apparatus and methods for remotely controlling robotic devices
US9860077B2 (en) 2014-09-17 2018-01-02 Brain Corporation Home animation apparatus and methods
US9821470B2 (en) 2014-09-17 2017-11-21 Brain Corporation Apparatus and methods for context determination using real time sensor data
CN105741532B (zh) 2014-12-11 2019-08-16 华为终端有限公司 具有红外遥控功能的终端,以及红外遥控配对方法
US10102226B1 (en) 2015-06-08 2018-10-16 Jasmin Cosic Optical devices and apparatuses for capturing, structuring, and using interlinked multi-directional still pictures and/or multi-directional motion pictures
US10071303B2 (en) 2015-08-26 2018-09-11 Malibu Innovations, LLC Mobilized cooler device with fork hanger assembly
WO2017055955A1 (en) * 2015-09-29 2017-04-06 Koninklijke Philips N.V. Automatic robotic arm calibration to camera system using a laser
EP3401750B1 (en) * 2016-01-04 2023-01-11 Zhejiang Libiao Robots Co., Ltd. Method and device for returning robots from site
US10471611B2 (en) * 2016-01-15 2019-11-12 Irobot Corporation Autonomous monitoring robot systems
CN105446162B (zh) * 2016-01-26 2018-11-20 北京进化者机器人科技有限公司 一种智能家居系统以及机器人的智能家居控制方法
CN105867433A (zh) * 2016-03-31 2016-08-17 纳恩博(北京)科技有限公司 一种移动控制方法、移动电子设备及移动控制系统
US10807659B2 (en) 2016-05-27 2020-10-20 Joseph L. Pikulski Motorized platforms
CN106094816A (zh) * 2016-05-31 2016-11-09 芜湖智久机器人有限公司 一种agv的bs控制系统
CN106155059A (zh) * 2016-08-16 2016-11-23 邹霞 基于视觉的智能无人驾驶系统
CN106774315B (zh) * 2016-12-12 2020-12-01 深圳市智美达科技股份有限公司 机器人自主导航方法和装置
DE102016124913A1 (de) * 2016-12-20 2018-06-21 Miele & Cie. Kg Verfahren und Vorrichtung zum Erkennen eines Raumes mittels eines Bodenpflegegeräts sowie Bodenpflegegerät
KR101976424B1 (ko) * 2017-01-25 2019-05-09 엘지전자 주식회사 이동 로봇
JP6809267B2 (ja) * 2017-02-10 2021-01-06 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム
US10100968B1 (en) 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
CN107314773B (zh) * 2017-08-18 2019-10-01 广东宝乐机器人股份有限公司 移动机器人的地图创建方法及基于该地图的路径规划方法
JP6812325B2 (ja) * 2017-10-26 2021-01-13 株式会社日立ビルシステム ロボット管理システム
KR102463806B1 (ko) * 2017-11-09 2022-11-07 삼성전자주식회사 이동이 가능한 전자 장치 및 그 동작 방법
CN112352244B (zh) 2018-04-23 2024-04-09 尚科宁家运营有限公司 控制系统和更新存储器中的地图的方法
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots
CN110658827B (zh) * 2019-10-25 2020-06-23 嘉应学院 一种基于物联网的运输车自动引导系统及其方法
WO2022009391A1 (ja) * 2020-07-09 2022-01-13 三菱電機ビルテクノサービス株式会社 清掃システム及びプログラム
CN114721385A (zh) * 2022-04-07 2022-07-08 未岚大陆(北京)科技有限公司 虚拟边界建立方法、装置、智能终端及计算机存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11283152A (ja) * 1998-03-27 1999-10-15 Sharp Corp 遠隔制御システム
JP2000202792A (ja) * 1999-01-14 2000-07-25 Sharp Corp 掃除ロボット
JP2000342498A (ja) * 1999-06-09 2000-12-12 Toyota Autom Loom Works Ltd 清掃ロボット
JP2002085305A (ja) * 2000-09-12 2002-03-26 Toshiba Tec Corp ロボットクリーナ及びロボットクリーナシステム
JP2002135259A (ja) * 2000-10-20 2002-05-10 Ricoh Co Ltd ネットワークシステムおよび端末装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01128152A (ja) * 1987-11-12 1989-05-19 Mitsubishi Electric Corp シリアルi/o回路
JP3176701B2 (ja) * 1992-04-15 2001-06-18 本田技研工業株式会社 移動体の現在位置認識処理装置
JP3314109B2 (ja) * 1993-12-02 2002-08-12 富士重工業株式会社 自律走行作業車の自己位置検出方法
CN100452071C (zh) * 1995-02-13 2009-01-14 英特特拉斯特技术公司 用于安全交易管理和电子权利保护的系统和方法
JPH08247775A (ja) * 1995-03-15 1996-09-27 Toshiba Corp 移動体の自己位置同定装置および自己位置同定方法
US6368177B1 (en) * 1995-11-20 2002-04-09 Creator, Ltd. Method for using a toy to conduct sales over a network
US5809171A (en) * 1996-01-05 1998-09-15 Mcdonnell Douglas Corporation Image processing method and apparatus for correlating a test image with a template
US6154566A (en) * 1996-05-15 2000-11-28 Omron Corporation Method and apparatus for determining image similarity and position
US5999866A (en) * 1996-11-05 1999-12-07 Carnegie Mellon University Infrastructure independent position determining system
JP3641335B2 (ja) * 1996-12-03 2005-04-20 シャープ株式会社 全方位視覚センサを用いた位置検出方法
KR19980061602A (ko) * 1996-12-31 1998-10-07 추호석 위치추적장치를 이용한 도장로보트 시스템 및 거리보정방법
JP4458664B2 (ja) * 1997-11-27 2010-04-28 ソーラー・アンド・ロボティクス 移動性ロボット及びその制御システムの改良
KR100266986B1 (ko) * 1998-06-20 2000-10-02 배길성 로봇 청소기의 충전기 추적장치 및 그 방법
JP3494075B2 (ja) * 1999-05-25 2004-02-03 三菱電機株式会社 移動体の自己位置標定装置
JP3874985B2 (ja) * 2000-02-18 2007-01-31 富士通株式会社 画像演算装置
FR2808644B1 (fr) * 2000-05-04 2003-07-25 Centre Nat Etd Spatiales Procede et dispositif interactifs de diffusion d'images emises par une camera video montee sur un robot

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11283152A (ja) * 1998-03-27 1999-10-15 Sharp Corp 遠隔制御システム
JP2000202792A (ja) * 1999-01-14 2000-07-25 Sharp Corp 掃除ロボット
JP2000342498A (ja) * 1999-06-09 2000-12-12 Toyota Autom Loom Works Ltd 清掃ロボット
JP2002085305A (ja) * 2000-09-12 2002-03-26 Toshiba Tec Corp ロボットクリーナ及びロボットクリーナシステム
JP2002135259A (ja) * 2000-10-20 2002-05-10 Ricoh Co Ltd ネットワークシステムおよび端末装置

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1548534A2 (en) * 2003-12-23 2005-06-29 Samsung Electronics Co., Ltd. Method and apparatus for using rotational movement amount of mobile device and computer-readable recording medium for storing computer program
EP1548534A3 (en) * 2003-12-23 2006-11-29 Samsung Electronics Co., Ltd. Method and apparatus for using rotational movement amount of mobile device and computer-readable recording medium for storing computer program
US7747348B2 (en) 2003-12-23 2010-06-29 Samsung Electronics Co., Ltd. Method and apparatus for using rotational movement amount of mobile device and computer-readable recording medium for storing computer program
JP2010120141A (ja) * 2008-11-21 2010-06-03 Ihi Corp バラ積みピッキング装置とその制御方法
JP2011239310A (ja) * 2010-05-13 2011-11-24 Hitachi Ltd 自由に設置可能なネットワークカメラ装置
US8918213B2 (en) 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US9902069B2 (en) 2010-05-20 2018-02-27 Irobot Corporation Mobile robot system
US8918209B2 (en) 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US9498886B2 (en) 2010-05-20 2016-11-22 Irobot Corporation Mobile human interface robot
US8935005B2 (en) 2010-05-20 2015-01-13 Irobot Corporation Operating a mobile robot
US9014848B2 (en) 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
US9400503B2 (en) 2010-05-20 2016-07-26 Irobot Corporation Mobile human interface robot
JP2014505934A (ja) * 2010-12-30 2014-03-06 アイロボット コーポレイション 可動式ロボットシステム
US8930019B2 (en) 2010-12-30 2015-01-06 Irobot Corporation Mobile human interface robot
JP2012252477A (ja) * 2011-06-02 2012-12-20 Hitachi Ltd 画像検索装置及び画像検索システム
US8958911B2 (en) 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
JP2014059737A (ja) * 2012-09-18 2014-04-03 Sharp Corp 自走式機器
JP2017514124A (ja) * 2014-04-14 2017-06-01 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe 定位面内にロボットを定位する方法
JP2017131556A (ja) * 2016-01-29 2017-08-03 東芝ライフスタイル株式会社 電気掃除機
WO2017130590A1 (ja) * 2016-01-29 2017-08-03 東芝ライフスタイル株式会社 電気掃除機
JP2018185182A (ja) * 2017-04-25 2018-11-22 東京電力ホールディングス株式会社 位置特定装置
JP2018205865A (ja) * 2017-05-31 2018-12-27 ヴイストン株式会社 情報通信デバイスおよびサーバ装置
JP7012988B2 (ja) 2017-05-31 2022-01-31 ヴイストン株式会社 情報通信デバイス
JP7425406B2 (ja) 2020-03-23 2024-01-31 東京電力ホールディングス株式会社 画像検査装置、学習済みモデル生成装置、画像検査システム、画像検査用プログラム、学習済みモデル生成用プログラム、および学習済みモデル
CN111738148A (zh) * 2020-06-22 2020-10-02 复旦大学 一种利用红外巡检拍摄的故障识别方法
CN111738148B (zh) * 2020-06-22 2024-02-20 复旦大学 一种利用红外巡检拍摄的故障识别方法

Also Published As

Publication number Publication date
EP1510896A4 (en) 2005-12-14
JP4448024B2 (ja) 2010-04-07
US20050071047A1 (en) 2005-03-31
CN100451897C (zh) 2009-01-14
AU2002304133A1 (en) 2003-12-19
EP1510896A1 (en) 2005-03-02
KR20050003402A (ko) 2005-01-10
JPWO2003102706A1 (ja) 2005-09-29
EP1510896B1 (en) 2016-03-09
KR100812506B1 (ko) 2008-03-11
CN1628274A (zh) 2005-06-15
US7120519B2 (en) 2006-10-10

Similar Documents

Publication Publication Date Title
WO2003102706A1 (fr) Robot telecommande et procede d'identification automatique de la position de robot.
CN105659170B (zh) 用于向远程用户传送视频的方法及视频通信装置
CN104887155A (zh) 智能扫地机
KR20110119118A (ko) 로봇 청소기, 및 이를 이용한 원격 감시 시스템
KR101356161B1 (ko) 로봇 청소기, 및 로봇 청소기의 원격 제어 시스템 및 방법
KR20140137080A (ko) 무선 리모컨 기능을 갖는 ip 카메라를 이용한 전자기기의 제어 방법
US9729835B2 (en) Method for switching viewing modes in a camera
US8692879B2 (en) Image capturing system, image capturing device, information processing device, and image capturing method
KR20110119116A (ko) 로봇 청소기, 원격 감시 시스템, 및 로봇 청소기를 이용한 원격 감시 방법
JP2006139525A (ja) 自律移動型ロボット
CN104601629A (zh) 处理方法及设备、控制设备及工作方法、控制方法及系统
KR101708301B1 (ko) 로봇 청소기 및 원격 제어 시스템
CN112204943B (zh) 拍摄方法、设备、系统及计算机可读存储介质
CN115830280A (zh) 数据处理方法、装置、电子设备及存储介质
CN115713616B (zh) 一种房源空间模型生成方法、装置、终端设备及存储介质
CN108712604B (zh) 一种全景拍摄方法及移动终端
CN115904188A (zh) 户型图的编辑方法、装置、电子设备及存储介质
US11832016B2 (en) 3D tour photographing apparatus and method
KR100642302B1 (ko) 원격제어 시스템의 원격 제어 방법
KR102196683B1 (ko) 3d 투어 촬영 장치 및 방법
KR102549631B1 (ko) 신체 일부의 자세 및 장치의 기울기를 이용한 실시간 작업 장치 및 카메라 제어 방법 및 장치
CN115761046B (zh) 房屋信息的编辑方法、装置、电子设备及存储介质
WO2022126375A1 (zh) 变焦方法、成像装置、云台以及可移动平台
KR20170007904A (ko) 동적 추적 장치
CN115810065A (zh) 房屋信息的编辑方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ OM PH PL PT RO RU SD SE SG SI SK SL TJ TM TN TR TT TZ UA UG US UZ VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004509527

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 1020047017598

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2002730841

Country of ref document: EP

Ref document number: 10978439

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 20028290429

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 1020047017598

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2002730841

Country of ref document: EP