JP2009026200A - Autonomous moving device - Google Patents

Autonomous moving device Download PDF

Info

Publication number
JP2009026200A
JP2009026200A JP2007190913A JP2007190913A JP2009026200A JP 2009026200 A JP2009026200 A JP 2009026200A JP 2007190913 A JP2007190913 A JP 2007190913A JP 2007190913 A JP2007190913 A JP 2007190913A JP 2009026200 A JP2009026200 A JP 2009026200A
Authority
JP
Japan
Prior art keywords
blind spot
area
spot area
autonomous mobile
mobile device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007190913A
Other languages
Japanese (ja)
Other versions
JP4983458B2 (en
Inventor
Kenichi Kitahama
謙一 北浜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2007190913A priority Critical patent/JP4983458B2/en
Publication of JP2009026200A publication Critical patent/JP2009026200A/en
Application granted granted Critical
Publication of JP4983458B2 publication Critical patent/JP4983458B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an autonomous moving device for autonomously moving with a specific person, so as to secure the specific person. <P>SOLUTION: The autonomous moving device for autonomously moving with the specific person comprises: a surrounding environment recognition means for recognizing the specific person and its surrounding environment; a blind spot predicting means for predicting a blind spot for a moving body around the specific person; and an alerting means for alerting the moving body when the specific person is predicted to enter the blind spot. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、特定の人のそばについて自律的に移動する自律移動装置に関する。   The present invention relates to an autonomous mobile device that moves autonomously around a specific person.

従来から、搬送物を自動的に目的地まで運搬するための自動搬送ロボットが提案されている(例えば、特許文献1参照)。特許文献1記載の自動搬送ロボットでは、搬送物をロボットの収納部に収納してロック部をロックした状態で指定目的位置に移動させ、指定目的位置へのロボットの到達確認と取扱登録者の確認が行われた場合に、ロック部の解除が行われる。これにより、取扱登録者は、ロボットの収納部内に収納してある搬送物を、指定目的位置で確実に取り出すことができる。
特開2001−287183号公報
Conventionally, an automatic transport robot for automatically transporting a transported object to a destination has been proposed (for example, see Patent Document 1). In the automatic transfer robot described in Patent Document 1, the transported object is stored in the robot storage unit and moved to the specified target position while the lock unit is locked, and the robot reaches the specified target position and the handling registrant checks. When the operation is performed, the lock unit is released. Thereby, the handling registrant can reliably take out the transported object stored in the storage unit of the robot at the designated target position.
JP 2001-287183 A

上記の自動搬送ロボットによれば、搬送物を自動的に目的地まで運搬することができる。しかしながら、人のそばについて移動しつつ、その人の安全を確保するように移動するということに関してはなんら考慮されていない。   According to said automatic conveyance robot, a conveyed product can be automatically conveyed to the destination. However, no consideration is given to moving around a person so as to ensure the safety of the person.

本発明は、上記問題点を解消する為になされたものであり、特定の人のそばについて自律的に移動する自律移動装置において、特定の人の安全を確保するように移動することが可能な自律移動装置を提供することを目的とする。   The present invention has been made to solve the above problems, and can be moved so as to ensure the safety of a specific person in an autonomous mobile device that moves autonomously near the specific person. An object is to provide an autonomous mobile device.

上述した目的を達成するために、本発明は、特定の人のそばについて自律的に移動する自律移動装置において、特定の人、及びその周囲の環境を認識する周囲環境認識手段と、特定の人の周囲に存在する移動体の死角エリアを推定する死角エリア推定手段と、特定の人が死角エリアを移動する場合に、移動体に対して注意喚起を行う注意喚起手段と、を備えることを特徴とする。この構成によれば、自律移動装置は、特定の人の周囲に移動体が存在する場合にその移動体の死角エリアを推定し、特定の人が死角エリアを移動する場合にその移動体に対して注意喚起を行う。よって、周囲の移動体に特定の人の存在を認識させることができ、特定の人と移動体の衝突事故を未然に防止することができる。   In order to achieve the above-described object, the present invention provides an autonomous mobile device that autonomously moves around a specific person, an ambient environment recognition unit that recognizes the specific person and the surrounding environment, and the specific person. A blind spot area estimating means for estimating a blind spot area of a moving object existing around the vehicle, and an alerting means for alerting a moving object when a specific person moves in the blind spot area. And According to this configuration, the autonomous mobile device estimates the blind spot area of a moving object when a moving object exists around the specific person, and the moving object with respect to the moving object when the specific person moves in the blind spot area. Call attention. Therefore, the presence of a specific person can be recognized by surrounding mobile bodies, and a collision accident between a specific person and the mobile body can be prevented in advance.

また、本発明の自律移動装置において、死角エリア推定手段は、移動体の可視エリア及び死角エリアの境界線を推定し、注意喚起手段は、死角エリア推定手段により推定された境界線まで自律移動装置を移動させることが好ましい。この構成によれば、自律移動装置は、移動体の可視エリア及び死角エリアの境界線を推定し、推定された境界線まで自律移動装置を移動させる。よって、自律移動装置が移動体の可視エリアに入るため、移動体の乗員に特定に人が来ることを認識させることができる。   In the autonomous mobile device of the present invention, the blind spot area estimating means estimates the boundary line between the visible area and the blind spot area of the moving object, and the alerting means is up to the boundary line estimated by the blind spot area estimating means. Is preferably moved. According to this configuration, the autonomous mobile device estimates the boundary line between the visible area and the blind spot area of the moving object, and moves the autonomous mobile device to the estimated boundary line. Therefore, since the autonomous mobile device enters the visible area of the moving body, it is possible to make the occupant of the moving body recognize that a person is coming specifically.

また、本発明の自律移動装置において、死角エリア推定手段は、移動体を基準とする可視エリア及び死角エリアのデータを有し、周囲環境認識手段により認識された移動体にデータを適用して、移動体の可視エリア及び死角エリアの境界線を推定することが好ましい。この構成によれば、自律移動装置は、移動体を基準とする可視エリア及び死角エリアのデータを有し、周囲環境認識手段により認識された移動体にデータを適用して、移動体の可視エリア及び死角エリアの境界線を推定する。よって、自律移動装置は、移動体の可視エリア及び死角エリアの境界線を比較的に容易に推定することができる。   Further, in the autonomous mobile device of the present invention, the blind spot area estimation means has data of a visible area and a blind spot area based on the mobile object, and applies the data to the mobile object recognized by the surrounding environment recognition means, It is preferable to estimate the boundary line between the visible area and the blind spot area of the moving object. According to this configuration, the autonomous mobile device has the data of the visible area and the blind spot area based on the mobile object, and applies the data to the mobile object recognized by the surrounding environment recognition unit, so that the visible area of the mobile object And the boundary line of the blind spot area is estimated. Therefore, the autonomous mobile device can estimate the boundary line between the visible area and the blind spot area of the moving body relatively easily.

また、本発明の自律移動装置において、周囲環境認識手段は、移動体の周囲に存在する障害物を認識し、 死角エリア推定手段は、周囲環境認識手段により認識された障害物による移動体の死角エリアを推定するが好ましい。この構成によれば、自律移動装置は、移動体の周囲に存在する障害物を認識し、認識された障害物による移動体の死角エリアを推定する。よって、自律移動装置は、障害物による移動体の死角エリアを考慮して、移動体に対して注意喚起を行うことができる。   Further, in the autonomous mobile device of the present invention, the surrounding environment recognition means recognizes an obstacle existing around the moving body, and the blind spot area estimation means is the blind spot of the moving object due to the obstacle recognized by the surrounding environment recognition means. It is preferable to estimate the area. According to this configuration, the autonomous mobile device recognizes an obstacle existing around the mobile object, and estimates the blind spot area of the mobile object due to the recognized obstacle. Therefore, the autonomous mobile device can call attention to the moving object in consideration of the blind spot area of the moving object due to the obstacle.

本発明によれば、特定の人のそばについて自律的に移動しつつ、この特定の人の安全を確保するように移動することが可能な自律移動装置を提供することができる。   According to the present invention, it is possible to provide an autonomous mobile device capable of moving so as to ensure the safety of a specific person while autonomously moving near the specific person.

以下、添付図面を参照して本発明の好適な実施の形態について詳細に説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の参照番号を附し、重複する説明は省略する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. In order to facilitate the understanding of the description, the same reference numerals are given to the same components in the drawings as much as possible, and duplicate descriptions are omitted.

(1)自律移動装置の構成
まず、図1を用いて、本発明の実施形態に係る自律移動装置1の構成について説明する。図1は、自律移動装置1の構成を示すブロック図である。自律移動装置1は、この自律移動装置1を使用する特定の人(以下「主人」という)のそばについて、主人に追従するように、又は主人を誘導するように自律的に移動する。また、自律移動装置1は、カメラ10及び通信機12などによって取得される情報から、主人及びその周囲環境を認識する。
(1) Configuration of Autonomous Mobile Device First, the configuration of the autonomous mobile device 1 according to the embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing the configuration of the autonomous mobile device 1. The autonomous mobile device 1 moves autonomously to follow the master or to guide the master around a specific person using the autonomous mobile device 1 (hereinafter referred to as “master”). In addition, the autonomous mobile device 1 recognizes the master and the surrounding environment from information acquired by the camera 10, the communication device 12, and the like.

カメラ10は、主人やその周囲環境の画像を取得する一対のCCDカメラと、取得した画像を画像処理することによって主人及びその周囲の障害物や道路標識など(即ち周囲環境)を認識する画像処理部とを有している。この画像処理部では、一対のCCDカメラで取得した画像からエッジ抽出やパターン認識処理などによって主人やその周囲の移動体、障害物、道路標識などを抽出して認識する。また、左右の取得画像中における主人などの対象物位置の違いを基にして三角測量方式により対象物との距離及び横変位を求め、前フレームで求めた距離に対する変化量から相対速度を求める。カメラ10と後述する電子制御装置(以下「ECU」という)20とは通信回線で接続されており、カメラ10により取得された情報は、この通信回線を介してECU20に伝送される。   The camera 10 includes a pair of CCD cameras that acquire images of the master and the surrounding environment, and image processing that recognizes the master and obstacles and road signs (that is, the surrounding environment) by processing the acquired images. Part. This image processing unit extracts and recognizes a master, a surrounding moving body, an obstacle, a road sign, and the like from an image acquired by a pair of CCD cameras by edge extraction or pattern recognition processing. Also, the distance and lateral displacement from the object are obtained by the triangulation method based on the difference in the position of the object such as the master in the left and right acquired images, and the relative speed is obtained from the amount of change with respect to the distance obtained in the previous frame. The camera 10 and an electronic control device (hereinafter referred to as “ECU”) 20 described later are connected via a communication line, and information acquired by the camera 10 is transmitted to the ECU 20 via this communication line.

通信機12は、送信機13及び受信機14を含んで構成され、例えば、自律移動装置1の周囲にある他の自律移動装置、車両、及び交差点に設置されている信号機や道路に設置されているカメラ、レーダなどのインフラストラクチャとの間で情報を送受信するものである。送信機13は、例えば、主人の位置・移動速度などの情報を、他の自律移動装置や周辺を走行する車両などに送信する。一方、受信機14は、例えば、主人が携行する加速度センサやジャイロといったセンシング(検出)装置から送信された主人の移動状態に関する情報、他の自律移動装置から送信された他の歩行者の位置・移動方向・移動速度などの情報、周辺を走行する車両から送信された走行車両の位置・移動方向・移動速度・操作状態などの情報、周辺に停車されている車両から送信された停車車両の位置などの情報、及び、上述したインフラストラクチャから送信された信号機の点灯状態や交通状態などの情報を受信する。なお、通信機12は、例えば半径約100mの範囲で情報の送受信を行うことが可能に設定されている。   The communicator 12 includes a transmitter 13 and a receiver 14, and is installed, for example, on other autonomous mobile devices and vehicles around the autonomous mobile device 1, and on traffic lights and roads installed at intersections. Information is transmitted to and received from an infrastructure such as a camera or radar. For example, the transmitter 13 transmits information such as the position and moving speed of the master to other autonomous mobile devices, vehicles traveling around the vehicle, and the like. On the other hand, the receiver 14 is, for example, information on the movement state of the master transmitted from a sensing (detection) device such as an acceleration sensor or a gyro carried by the master, the position of another pedestrian transmitted from another autonomous mobile device, Information such as travel direction and speed, information on the position, travel direction, speed, and operation status of a traveling vehicle transmitted from a vehicle traveling in the vicinity, and the position of a stopped vehicle transmitted from a vehicle parked in the vicinity And information such as the lighting state and traffic state of the traffic lights transmitted from the above-described infrastructure. Note that the communication device 12 is set to be able to transmit and receive information within a radius of about 100 m, for example.

通信機12とECU20とは、通信回線で接続されることにより、相互に情報の交換が可能となるように構成されている。ECU20で生成された送信情報はこの通信回線を介してECU20から送信機13に伝送される。一方、受信機14によって受信された各種の周囲環境情報は、この通信回線を介してECU20に伝送される。   The communication device 12 and the ECU 20 are configured to be able to exchange information with each other by being connected via a communication line. Transmission information generated by the ECU 20 is transmitted from the ECU 20 to the transmitter 13 via this communication line. On the other hand, various ambient environment information received by the receiver 14 is transmitted to the ECU 20 via this communication line.

このように、本実施形態では、カメラ10及び通信機12などによって主人及びその周囲の環境が認識される。より詳細には、例えば、主人の位置・移動方向・移動速度、他の歩行者・自転車・自動車などの移動体の位置・移動方向・移動速度・操作状態、停車車両・電柱・落下物などの障害物の位置・形状、及び、信号機の点灯状態や道路標識などの交通状態などの周囲環境が認識される。また、例えば、移動体の種別に関する属性も認識される。ここで、移動体の種別に関する属性としては、例えば、大型車、小型車、二輪車、自転車などの分類が挙げられる。すなわち、カメラ10及び通信機12は特許請求の範囲に記載の周囲環境認識手段として機能する。   Thus, in this embodiment, the master and the surrounding environment are recognized by the camera 10, the communication device 12, and the like. More specifically, for example, the position / moving direction / moving speed of the master, the position / moving direction / moving speed / operating state of other moving objects such as pedestrians / bicycles / automobiles, stationary vehicles / electric poles / falling objects, etc. The surrounding environment such as the position / shape of the obstacle and the traffic state such as the lighting state of traffic lights and road signs are recognized. In addition, for example, an attribute relating to the type of mobile object is also recognized. Here, examples of the attribute relating to the type of the moving body include classifications such as large vehicles, small vehicles, two-wheeled vehicles, and bicycles. That is, the camera 10 and the communication device 12 function as ambient environment recognition means described in the claims.

ここで、主人であるか否かの認識は、例えば、主人−自律移動装置1間通信の通信情報に主人であることを示す個人ID情報を乗せることにより、又は、撮像された人物が着ている衣服の形状や模様が予め学習させておいた主人のものと一致するか否かを判断することにより行うことができる。さらに、指紋や虹彩による認証技術などを組み合わせて用いてもよい。   Here, the recognition as to whether or not the person is the master is performed by, for example, putting personal ID information indicating the master on the communication information of the communication between the master and the autonomous mobile device 1 or wearing the person who has been imaged. This can be done by determining whether or not the shape and pattern of the existing clothes match those of the master trained in advance. Further, authentication techniques using fingerprints and irises may be combined.

ECU20は、演算を行うマイクロプロセッサ、マイクロプロセッサに各処理を実行させるためのプログラムなどを記憶するROM、演算結果などの各種データを記憶するRAM及び12Vバッテリによってその記憶内容が保持されるバックアップRAMなどにより構成されている。そして、上記構成によって、ECU20の内部には、視野エリア・死角エリア推定部22、及びアクチュエータ制御部26が構築されている。アクチュエータ制御部26は、スピーカ30、バックライト32、電動モータ34、ディスプレイ44などを駆動する。   The ECU 20 includes a microprocessor that performs calculations, a ROM that stores programs for causing the microprocessor to execute each process, a RAM that stores various data such as calculation results, and a backup RAM in which the stored contents are held by a 12V battery. It is comprised by. With the above configuration, the visual field area / dead angle area estimation unit 22 and the actuator control unit 26 are built in the ECU 20. The actuator control unit 26 drives the speaker 30, the backlight 32, the electric motor 34, the display 44, and the like.

視野エリア・死角エリア推定部22は、カメラ10及び通信機12などが認識した周囲環境に移動体が存在したことが判断された場合に、その移動体の視野エリア及び死角エリアを推定する。視野エリア・死角エリア推定部22は、大型車、小型車、二輪車、自転車などの各々に応じて、その移動体の視野エリア及び死角エリアを推定する。例えば、移動体が自動車である場合には、視野エリアとはフロントガラス及びサイドガラス越しに運転者から見える範囲であり、死角エリアとはフロントピラーなどに隠れて運転者から見えない範囲である。また、路面上の障害物に隠れて移動体から見えない範囲も、死角エリアとして推定される。   The visual field area / dead angle area estimation unit 22 estimates the visual field area and the blind spot area of the moving object when it is determined that the moving object exists in the surrounding environment recognized by the camera 10, the communication device 12, and the like. The visual field area / dead angle area estimation unit 22 estimates the visual field area and blind spot area of the moving body according to each of a large vehicle, a small vehicle, a two-wheeled vehicle, a bicycle, and the like. For example, when the moving body is an automobile, the visual field area is a range that can be seen by the driver through the windshield and the side glass, and the blind spot area is a range that is hidden from the front pillar or the like and cannot be seen by the driver. In addition, a range hidden behind an obstacle on the road surface and invisible from the moving body is also estimated as a blind spot area.

また、視野エリア・死角エリア推定部22は、移動体の視野エリア及び死角エリアを推定するために、移動体の種別ごとに移動体の視野エリア及び死角エリアのデータを記憶している。ここで、視野エリア及び死角エリアのデータは、移動体の位置及び方向を基準として視野エリア及び死角エリアが設定されたデータである。カメラ10及び通信機12などにより周囲環境に存在する移動体の位置や方向などが認識された際には、視野エリア・死角エリア推定部22は、認識された移動体の位置及び方向に視野エリア及び死角エリアのデータを適用することで、実際の移動体の視野エリア及び死角エリアの座標範囲を演算する。   The visual field area / dead angle area estimation unit 22 stores data on the visual field area and the blind spot area of the moving object for each type of the moving object in order to estimate the visual field area and the blind spot area of the moving object. Here, the data of the visual field area and the blind spot area is data in which the visual field area and the blind spot area are set based on the position and direction of the moving body. When the position or direction of a moving body existing in the surrounding environment is recognized by the camera 10 or the communication device 12 or the like, the visual field area / dead angle area estimation unit 22 displays the visual field area at the recognized position and direction of the mobile body. Then, by applying the data of the blind spot area, the coordinate range of the visual field area and the blind spot area of the actual moving body is calculated.

アクチュエータ制御部26は、主人が死角エリアを移動する場合に、移動体に対して注意喚起を行って、主人が移動体と接触することを未然に防止する。アクチュエータ制御部26は、自律移動装置1を移動させたり、バックライトやスピーカなどを駆動することで、移動体に対して注意喚起を行う。例えば、主人が移動体の死角エリアから視野エリアに進入しようとしている場合には、アクチュエータ制御部26は、主人が視野エリアに到達する前に、移動体の視野エリア及び死角エリアの境界線まで自律移動装置1を移動させる。これにより、移動体から見える位置まで自律移動装置を移動させて、移動体に主人の存在を知らせることができる。   The actuator controller 26 alerts the moving body when the master moves in the blind spot area, and prevents the master from coming into contact with the moving body. The actuator controller 26 alerts the moving body by moving the autonomous mobile device 1 or driving a backlight, a speaker, or the like. For example, when the master is about to enter the visual field from the blind spot area of the moving object, the actuator control unit 26 autonomously reaches the boundary line between the visual field area and the blind spot area of the mobile object before the master reaches the visual field area. The moving device 1 is moved. Thereby, the autonomous mobile device can be moved to a position that can be seen from the moving body, and the moving body can be notified of the presence of the master.

すなわち、ECU20を構成する視野エリア・死角エリア推定部22は特許請求の範囲に記載の死角エリア推定手段として機能する。また、アクチュエータ制御部26は特許請求の範囲に記載の注意喚起手段として機能する。   That is, the visual field area / blind spot area estimation unit 22 constituting the ECU 20 functions as a blind spot area estimating unit described in the claims. Moreover, the actuator control part 26 functions as an alerting means described in the claims.

スピーカ30はECU20に接続されており、アクチュエータ制御部26から出力される制御信号に応じて、警告音や音声情報などを発することによって主人や周囲に注意を促す。バックライト32もECU20に接続されており、アクチュエータ制御部26により駆動され、例えば危険度に応じた色の光を発することによって主人や周囲に注意を促す。また、電動モータ34もECU20に接続されており、アクチュエータ制御部26により駆動され、電動モータ34に取り付けられている車輪36を回転させることによって自律移動装置1を移動させる。さらに、ECU20には、ボタンやタッチパネルといった入力装置42が接続されており、主人が情報を入力してECU20に対して設定することができる。   The speaker 30 is connected to the ECU 20, and alerts the master and the surroundings by issuing a warning sound, audio information, and the like according to a control signal output from the actuator control unit 26. The backlight 32 is also connected to the ECU 20 and is driven by the actuator control unit 26 to emit attention to the master and the surroundings by emitting light of a color corresponding to the degree of danger, for example. The electric motor 34 is also connected to the ECU 20, is driven by the actuator control unit 26, and moves the autonomous mobile device 1 by rotating the wheels 36 attached to the electric motor 34. Further, an input device 42 such as a button or a touch panel is connected to the ECU 20 so that the master can input information and make settings for the ECU 20.

(2)自律移動装置の注意喚起処理
次に、図2を併せて参照して、主人の安全を確保するように移動する自律移動装置1内部の動作の流れについて説明する。図2は、自律移動装置1において行われる処理手順の流れを示すフローチャートである。図2のフローチャートに示される処理は、主としてECU20によって行われるものであり、自律移動装置1の電源がオンされて開始してからオフされるまでの間、所定のタイミングで繰り返し実行される。
(2) Alerting process of autonomous mobile device Next, referring to FIG. 2 together, the flow of the operation inside the autonomous mobile device 1 that moves so as to ensure the safety of the master will be described. FIG. 2 is a flowchart showing a flow of processing procedures performed in the autonomous mobile device 1. The process shown in the flowchart of FIG. 2 is mainly performed by the ECU 20, and is repeatedly executed at a predetermined timing from when the autonomous mobile device 1 is turned on until it is turned off.

まず、ステップS1では、ECU20は、カメラ10及び通信機12から主人の周囲に存在する移動体の位置、移動方向、移動速度、種別などの情報を取得する。ECU20は、カメラ10及び通信機12から移動体の情報を取得することで、主人の周囲の移動体を認識する。   First, in step S <b> 1, the ECU 20 acquires information such as the position, moving direction, moving speed, and type of a moving body existing around the master from the camera 10 and the communication device 12. The ECU 20 recognizes the moving body around the master by acquiring information on the moving body from the camera 10 and the communication device 12.

次に、ステップS2では、ECU20は、移動体の視野エリア及び死角エリアを演算する。ECU20は、ステップS1で認識された移動体の位置及び方向に視野エリア及び死角エリアのデータを適用することで、実際の移動体の視野エリア及び死角エリアの座標範囲を演算する。例えば、移動体が歩行者M1である場合には、図3(a)に示されるように、視野エリアA1のみであり死角エリアのない座標範囲が演算される。また、例えば、移動体が自動車M2である場合には、図3(b)に示されるように、視野エリアA1のうち左右のフロントピラーにより隠れるエリアが死角エリアA2,A3となる座標範囲が演算される。   Next, in step S2, the ECU 20 calculates a visual field area and a blind spot area of the moving body. The ECU 20 calculates the coordinate range of the actual visual field area and blind spot area of the mobile object by applying the data of the visual field area and blind spot area to the position and direction of the mobile object recognized in step S1. For example, when the moving body is a pedestrian M1, as shown in FIG. 3A, a coordinate range that includes only the visual field area A1 and no blind spot area is calculated. For example, when the moving body is the automobile M2, as shown in FIG. 3B, the coordinate range in which the areas hidden by the left and right front pillars in the visual field area A1 become the blind spot areas A2 and A3 is calculated. Is done.

また、ECU20は、移動体の視野エリアに障害物を発見した場合には、移動体の視点を基準に障害物の後方のエリアを、障害物によりに隠れる死角エリアとして演算する。そして、ECU20は、ステップS2で演算した移動体の視野エリア及び死角エリアの座標範囲に、障害物による死角エリアの座標範囲を結合する。これにより、例えば、移動体が歩行者M1である場合には、図4(a)に示されるように、視野エリアA1のうち障害物G4,G5に隠れるエリアが死角エリアA4,A5となる座標範囲が演算される。また、例えば、移動体が自動車M2である場合には、図4(b)に示されるように、左右のフロントピラーによる死角エリアA2,A3に加えて、障害物G6に隠れるエリアが死角エリアA6となる座標範囲が演算される。   Further, when an obstacle is found in the visual field area of the moving body, the ECU 20 calculates an area behind the obstacle as a blind spot area hidden by the obstacle based on the viewpoint of the moving body. Then, the ECU 20 combines the coordinate range of the blind spot area due to the obstacle with the coordinate range of the visual field area and the blind spot area calculated in step S2. Thereby, for example, when the moving body is the pedestrian M1, as shown in FIG. 4A, coordinates in which the area hidden in the obstacles G4 and G5 in the visual field area A1 becomes the blind spot areas A4 and A5. The range is calculated. For example, when the moving body is the automobile M2, as shown in FIG. 4B, in addition to the blind spot areas A2 and A3 due to the left and right front pillars, the area hidden by the obstacle G6 is the blind spot area A6. The coordinate range is calculated.

次に、ステップS3では、ECU20は、視野エリア及び死角エリアの座標範囲を利用して、視野エリアと死角エリアとがなす境界線を検出する。特に、ECU20は、視野エリアと死角エリアとがなす境界線のうち、主人に最も近い位置にある境界線を検出する。   Next, in step S3, the ECU 20 detects a boundary line between the visual field area and the blind spot area using the coordinate range of the visual field area and the blind spot area. In particular, the ECU 20 detects a boundary line closest to the master among the boundary lines formed by the visual field area and the blind spot area.

次に、ステップS4では、ECU20は、主人の移動経路が境界線と交差するか否かを判定する。ここで、ECU20は、主人の移動経路が境界線と交差する場合には、ステップS5の処理に進む。一方、ECU20は、主人の移動経路が境界線と交差しない場合には、ステップS1の処理に戻る。   Next, in step S4, the ECU 20 determines whether or not the movement path of the master intersects the boundary line. Here, the ECU 20 proceeds to the process of step S5 when the movement route of the master intersects the boundary line. On the other hand, the ECU 20 returns to the process of step S1 when the movement route of the master does not intersect the boundary line.

次に、ステップS5では、ECU20は、主人が境界線の所定距離手前まで到達すると、電動モータ34及び車輪36を制御して、主人の移動経路と境界線との交差位置まで自律移動装置1を移動させる。そして、ECU20は、主人が交差位置に到着するまで自律移動装置1を待機させる。これにより、移動体は、主人が死角エリアを移動することについて注意喚起される。よって、移動体と主人の衝突事故を未然に防止することができる。なお、自律移動装置1は、周囲に光や音などを発することで、移動体に注意喚起してもよい。   Next, in step S5, when the master reaches a predetermined distance before the boundary line, the ECU 20 controls the electric motor 34 and the wheels 36 so that the autonomous mobile device 1 is moved to the intersection between the movement path of the master and the boundary line. Move. Then, the ECU 20 causes the autonomous mobile device 1 to wait until the master arrives at the intersection position. Thereby, the moving body is alerted that the master moves in the blind spot area. Therefore, it is possible to prevent a collision between the moving body and the master. Note that the autonomous mobile device 1 may alert a moving object by emitting light, sound, or the like around it.

(3)自律移動装置の動作例
図5及び図6を参照して、自律移動装置1の具体的な動作例について説明する。
(3) Operation Example of Autonomous Mobile Device A specific operation example of the autonomous mobile device 1 will be described with reference to FIGS. 5 and 6.

図5の動作例では、自律移動装置1は、交差点を右折しようとする自動車M2を認識する。そして、自律移動装置1は、一般的な車両の視野エリア及び死角エリアのデータを利用して、自動車M2の視野エリアA1及び死角エリアA2,A3の座標範囲を演算する。次に、自律移動装置1は、視野エリアA1と死角エリアA2の境界線であって主人Pに最も近い境界線B1を検出し、その境界線B1まで移動して主人Pが到着するまで待機する。このような自律移動装置1の動作により、主人Pが視野領域から死角エリアに進入することを自動車M2の運転者に対して注意喚起を行うことができると共に、主人Pにそこが境界線B1であることを知らせることができる。   In the operation example of FIG. 5, the autonomous mobile device 1 recognizes the automobile M2 that is about to turn right at the intersection. And the autonomous mobile apparatus 1 calculates the coordinate range of visual field area A1 and blind spot area A2, A3 of the motor vehicle M2 using the data of the visual field area and blind spot area of a general vehicle. Next, the autonomous mobile device 1 detects the boundary line B1 that is the boundary line between the visual field area A1 and the blind spot area A2 and is closest to the master P, moves to the boundary line B1, and waits until the master P arrives. . By such an operation of the autonomous mobile device 1, it is possible to alert the driver of the automobile M2 that the master P enters the blind spot area from the visual field area, and to the master P at the boundary line B1. You can be informed.

図6の動作例では、自律移動装置1は、交差点を右折しようとする自動車M2を認識する。そして、自律移動装置1は、一般的な車両の視野エリア及び死角エリアのデータを利用して、車両の視野エリアA1及び死角エリアA2,A3を推定する。また、自律移動装置1は、インフラストラクチャである交差点に設置された固定カメラCからの情報により、交差点に自転車M3が近づいていることを認識する。そして、自律移動装置1は、一般的な自転車の視野エリア及び死角エリアのデータを利用して、自転車M3の視野エリアA7及び死角エリアA8を演算する。次に、自律移動装置1は、視野エリアA7と死角エリアA8の境界線であって主人Pに最も近い境界線B2を検出し、その境界線B2まで移動して主人Pが到着するまで待機する。このような自律移動装置1の動作により、主人Pが死角エリアA8から視野エリアA7に進入することを自転車M3に対して注意喚起を行うことができると共に、主人Pにそこが境界線B2であることを知らせることができる。   In the operation example of FIG. 6, the autonomous mobile device 1 recognizes the automobile M2 that is about to turn right at the intersection. And the autonomous mobile apparatus 1 estimates the visual field area A1 and blind spot area A2, A3 of a vehicle using the data of the visual field area and blind spot area of a common vehicle. Further, the autonomous mobile device 1 recognizes that the bicycle M3 is approaching the intersection based on information from the fixed camera C installed at the intersection that is the infrastructure. And the autonomous mobile apparatus 1 calculates the visual field area A7 and blind spot area A8 of the bicycle M3 using the data of the visual field area and blind spot area of a general bicycle. Next, the autonomous mobile device 1 detects the boundary line B2 that is the boundary line between the visual field area A7 and the blind spot area A8 and is closest to the master P, moves to the boundary line B2, and waits until the master P arrives. . By such an operation of the autonomous mobile device 1, it is possible to alert the bicycle M3 that the master P enters the visual field area A7 from the blind spot area A8, and that is the boundary line B2 to the master P. I can let you know.

(4)本実施形態の作用効果
本実施形態の作用効果について説明する。
(4) Effect of this embodiment The effect of this embodiment is demonstrated.

本実施形態に係る自律移動装置1は、主人の周囲に移動体が存在する場合にその移動体の死角エリアを推定し、主人が死角エリアを移動する場合にその移動体に対して注意喚起を行う。よって、周囲の移動体に主人の存在を認識させることができ、主人と移動体の衝突事故を未然に防止することができる。   The autonomous mobile device 1 according to the present embodiment estimates a blind spot area of a moving object when a moving object exists around the master, and alerts the moving object when the master moves in the blind spot area. Do. Therefore, the presence of the master can be recognized by surrounding mobile bodies, and a collision accident between the master and the mobile body can be prevented in advance.

また、本実施形態に係る自律移動装置1は、移動体の可視エリア及び死角エリアの境界線を推定し、推定された境界線まで自律移動装置1を移動させる。よって、自律移動装置1が移動体の可視エリアに入るため、移動体の乗員に特定に人が来ることを認識させることができる。   Moreover, the autonomous mobile device 1 according to the present embodiment estimates the boundary line between the visible area and the blind spot area of the moving object, and moves the autonomous mobile device 1 to the estimated boundary line. Therefore, since the autonomous mobile device 1 enters the visible area of the moving body, it is possible to make the occupant of the moving body recognize that a person is coming specifically.

また、本実施形態に係る自律移動装置1は、移動体を基準とする可視エリア及び死角エリアのデータを有し、周囲環境認識手段により認識された移動体にデータを適用して、移動体の可視エリア及び死角エリアの境界線を推定する。よって、自律移動装置1は、移動体の可視エリア及び死角エリアの境界線を比較的に容易に推定することができる。   Further, the autonomous mobile device 1 according to the present embodiment has data of a visible area and a blind spot area based on the moving body, and applies the data to the moving body recognized by the surrounding environment recognition means, Estimate the boundary line between the visible area and the blind spot area. Therefore, the autonomous mobile device 1 can relatively easily estimate the boundary line between the visible area and the blind spot area of the moving body.

また、本実施形態に係る自律移動装置1は、移動体の周囲に存在する障害物を認識し、認識された障害物による移動体の死角エリアを推定する。よって、自律移動装置1は、障害物による移動体の死角エリアを考慮して、移動体に対して注意喚起を行うことができる。   In addition, the autonomous mobile device 1 according to the present embodiment recognizes an obstacle existing around the moving body, and estimates a blind spot area of the moving body due to the recognized obstacle. Therefore, the autonomous mobile device 1 can alert the moving body in consideration of the blind spot area of the moving body due to the obstacle.

以上、本発明の実施の形態について説明したが、本発明は、上記実施形態に限定されるものではなく種々の変形が可能である。例えば、主人やその周囲環境を認識する手段として、上述したカメラ10や通信機12に加え、レーザレーダやミリ波レーダなどのセンサ類を用いてもよい。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made. For example, as means for recognizing the master and the surrounding environment, sensors such as laser radar and millimeter wave radar may be used in addition to the camera 10 and the communication device 12 described above.

また、上記実施形態では、自律移動装置1の移動手段及びその駆動力源として車輪36と電動モータ34を用いたが、移動手段及びその駆動力源は、車輪36や電動モータ34に限られることなく、例えばキャタピラや小型のエンジンなどを用いることもできる。   Moreover, in the said embodiment, although the wheel 36 and the electric motor 34 were used as a moving means and its driving force source of the autonomous mobile device 1, a moving means and its driving force source should be restricted to the wheel 36 and the electric motor 34. For example, a caterpillar or a small engine can be used.

本実施形態に係る自律移動装置の構成を示すブロック図である。It is a block diagram which shows the structure of the autonomous mobile apparatus which concerns on this embodiment. 自律移動装置の注意喚起処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the alerting process of an autonomous mobile device. 移動体の視野エリア及び死角エリアを示す第1の模式図である。It is a 1st schematic diagram which shows the visual field area and blind spot area of a moving body. 移動体の視野エリア及び死角エリアを示す第2の模式図である。It is a 2nd schematic diagram which shows the visual field area and blind spot area of a moving body. 自律移動装置の具体的な動作例を示す第1の模式図である。It is a 1st schematic diagram which shows the specific operation example of an autonomous mobile apparatus. 自律移動装置の具体的な動作例を示す第2の模式図である。It is a 2nd schematic diagram which shows the specific operation example of an autonomous mobile apparatus.

符号の説明Explanation of symbols

1…自律移動装置、10…カメラ、12…通信機、13…送信機、14…受信機、22…視野エリア・死角エリア推定部、26…アクチュエータ制御部、30…スピーカ、32…バックライト、34…電動モータ、36…車輪、42…入力装置、44…ディスプレイ。 DESCRIPTION OF SYMBOLS 1 ... Autonomous mobile device, 10 ... Camera, 12 ... Communication apparatus, 13 ... Transmitter, 14 ... Receiver, 22 ... Visual field area and blind spot area estimation part, 26 ... Actuator control part, 30 ... Speaker, 32 ... Back light, 34 ... Electric motor, 36 ... Wheel, 42 ... Input device, 44 ... Display.

Claims (4)

特定の人のそばについて自律的に移動する自律移動装置において、
前記特定の人、及びその周囲の環境を認識する周囲環境認識手段と、
前記特定の人の周囲に存在する移動体の死角エリアを推定する死角エリア推定手段と、
前記特定の人が前記死角エリアを移動する場合に、前記移動体に対して注意喚起を行う注意喚起手段と、
を備えることを特徴とする自律移動装置。
In an autonomous mobile device that moves autonomously around a specific person,
Ambient environment recognition means for recognizing the specific person and the surrounding environment;
Blind spot area estimating means for estimating a blind spot area of a moving object existing around the specific person;
When the specific person moves in the blind spot area, attention calling means for calling attention to the moving body;
An autonomous mobile device comprising:
前記死角エリア推定手段は、移動体の可視エリア及び死角エリアの境界線を推定し、
前記注意喚起手段は、死角エリア推定手段により推定された境界線まで自律移動装置を移動させることを特徴とする請求項1に記載の自律移動装置。
The blind spot area estimating means estimates a boundary line of a visible area and a blind spot area of a moving object,
The autonomous mobile device according to claim 1, wherein the alerting means moves the autonomous mobile device to a boundary estimated by the blind spot area estimating means.
前記死角エリア推定手段は、移動体を基準とする可視エリア及び死角エリアのデータを有し、前記周囲環境認識手段により認識された移動体に前記データを適用して、移動体の可視エリア及び死角エリアの境界線を推定することを特徴とする請求項2に記載の自律移動装置。   The blind spot area estimating means has data of a visible area and a blind spot area based on a moving object, and applies the data to the moving object recognized by the surrounding environment recognition means, so that the visible area and blind spot of the moving object are obtained. The autonomous mobile device according to claim 2, wherein the boundary line of the area is estimated. 前記周囲環境認識手段は、前記移動体の周囲に存在する障害物を認識し、
前記死角エリア推定手段は、前記周囲環境認識手段により認識された前記障害物による移動体の死角エリアを推定することを特徴とする請求項1〜3のいずれか1項に記載の自律移動装置。
The surrounding environment recognition means recognizes an obstacle existing around the moving body,
The autonomous moving apparatus according to any one of claims 1 to 3, wherein the blind spot area estimating unit estimates a blind spot area of a moving body due to the obstacle recognized by the surrounding environment recognizing unit.
JP2007190913A 2007-07-23 2007-07-23 Autonomous mobile device Expired - Fee Related JP4983458B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007190913A JP4983458B2 (en) 2007-07-23 2007-07-23 Autonomous mobile device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007190913A JP4983458B2 (en) 2007-07-23 2007-07-23 Autonomous mobile device

Publications (2)

Publication Number Publication Date
JP2009026200A true JP2009026200A (en) 2009-02-05
JP4983458B2 JP4983458B2 (en) 2012-07-25

Family

ID=40397932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007190913A Expired - Fee Related JP4983458B2 (en) 2007-07-23 2007-07-23 Autonomous mobile device

Country Status (1)

Country Link
JP (1) JP4983458B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012146259A (en) * 2011-01-14 2012-08-02 Denso Corp Obstacle notification apparatus
US8816874B2 (en) 2010-01-25 2014-08-26 Panasonic Corporation Danger presentation device, danger presentation system, danger presentation method and program
WO2018043115A1 (en) * 2016-08-29 2018-03-08 ソニー株式会社 Information processing apparatus, information processing method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08306000A (en) * 1995-04-28 1996-11-22 Suzuki Motor Corp Method for deciding degree of risk at intersection
JPH1079100A (en) * 1996-09-04 1998-03-24 Oki Electric Ind Co Ltd Device for preventing collision
JP2000113396A (en) * 1998-09-30 2000-04-21 Nippon Signal Co Ltd:The Support device for driving at intersection
JP2004024305A (en) * 2002-06-21 2004-01-29 Casio Comput Co Ltd Autonomous driving type support device, and program
JP2004193932A (en) * 2002-12-11 2004-07-08 Matsushita Electric Ind Co Ltd Robot and neck communication device equipped with mechanism for fixing the same to periphery of neck
JP2007102488A (en) * 2005-10-04 2007-04-19 Toyota Motor Corp Autonomous moving device
JP2008279842A (en) * 2007-05-09 2008-11-20 Matsushita Electric Ind Co Ltd Dead angle zone estimation device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08306000A (en) * 1995-04-28 1996-11-22 Suzuki Motor Corp Method for deciding degree of risk at intersection
JPH1079100A (en) * 1996-09-04 1998-03-24 Oki Electric Ind Co Ltd Device for preventing collision
JP2000113396A (en) * 1998-09-30 2000-04-21 Nippon Signal Co Ltd:The Support device for driving at intersection
JP2004024305A (en) * 2002-06-21 2004-01-29 Casio Comput Co Ltd Autonomous driving type support device, and program
JP2004193932A (en) * 2002-12-11 2004-07-08 Matsushita Electric Ind Co Ltd Robot and neck communication device equipped with mechanism for fixing the same to periphery of neck
JP2007102488A (en) * 2005-10-04 2007-04-19 Toyota Motor Corp Autonomous moving device
JP2008279842A (en) * 2007-05-09 2008-11-20 Matsushita Electric Ind Co Ltd Dead angle zone estimation device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8816874B2 (en) 2010-01-25 2014-08-26 Panasonic Corporation Danger presentation device, danger presentation system, danger presentation method and program
JP2012146259A (en) * 2011-01-14 2012-08-02 Denso Corp Obstacle notification apparatus
US8933796B2 (en) 2011-01-14 2015-01-13 Denso Corporation Obstacle notification apparatus
WO2018043115A1 (en) * 2016-08-29 2018-03-08 ソニー株式会社 Information processing apparatus, information processing method, and program
JPWO2018043115A1 (en) * 2016-08-29 2019-06-24 ソニー株式会社 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
US10810973B2 (en) 2016-08-29 2020-10-20 Sony Corporation Information processing device and information processing method

Also Published As

Publication number Publication date
JP4983458B2 (en) 2012-07-25

Similar Documents

Publication Publication Date Title
JP4371153B2 (en) Autonomous mobile device
JP6470346B2 (en) Danger notification control device for vehicle
JP6617534B2 (en) Driving assistance device
JP4830438B2 (en) Autonomous mobile device
JP4517393B2 (en) Driving assistance device
JP6592852B2 (en) Vehicle control device, vehicle control method, and program
US20190256087A1 (en) Autonomous vehicle and operating method thereof
CN109455137B (en) Driving support device and driving support method
CN109421799B (en) Vehicle control device, vehicle control method, and storage medium
KR20180053145A (en) Vehicle driving control apparatus and method
JP5024255B2 (en) Driving assistance device
US20190135169A1 (en) Vehicle communication system using projected light
EP3693232B1 (en) Parking control method and parking control device
JP2019156269A (en) Vehicle controller, vehicle control method and program
CN114428498A (en) Enhancing occupant awareness during edge parking and disembarking of autonomous vehicles
JP2018092505A (en) Driving support apparatus
US11600181B2 (en) Saddle-riding type vehicle
JP2019156266A (en) Vehicle controller, vehicle control method and program
JP4983458B2 (en) Autonomous mobile device
JP2007334500A (en) Autonomous mobile device
US11417107B2 (en) Stationary vision system at vehicle roadway
KR20190016375A (en) Side mirror for vehicle and vehicle
JP4857926B2 (en) Autonomous mobile device
JP2009026209A (en) Autonomous moving device
JP2019156267A (en) Vehicle control device, vehicle control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120327

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120409

R151 Written notification of patent or utility model registration

Ref document number: 4983458

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees