JP2018146440A - Environment recognition device - Google Patents

Environment recognition device Download PDF

Info

Publication number
JP2018146440A
JP2018146440A JP2017043054A JP2017043054A JP2018146440A JP 2018146440 A JP2018146440 A JP 2018146440A JP 2017043054 A JP2017043054 A JP 2017043054A JP 2017043054 A JP2017043054 A JP 2017043054A JP 2018146440 A JP2018146440 A JP 2018146440A
Authority
JP
Japan
Prior art keywords
sensor
base
environment recognition
information
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017043054A
Other languages
Japanese (ja)
Inventor
頌平 酒井
Shohei Sakai
頌平 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
Original Assignee
Toyota Industries Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Industries Corp filed Critical Toyota Industries Corp
Priority to JP2017043054A priority Critical patent/JP2018146440A/en
Publication of JP2018146440A publication Critical patent/JP2018146440A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an environment recognition device capable of easily recognizing a surrounding environment.SOLUTION: An environment recognition device includes: a first sensor 30 mounted on a base 20 and acquiring positional information of an object existing around the base 20; and a second sensor 40 mounted on the base 20 and having an angle of view narrower than the angle of view of the first sensor 30 and acquiring image information of the object existing around the base 20. The environment recognition device further includes a calculation part for recognizing the surrounding environment from the image information of the object by the second sensor 40 acquired by having the object into the field of view of the second sensor 40 from the positional information of the object acquired by the first sensor 30 and recognizing the surrounding environment from the positional information of the object acquired by the first sensor 30.SELECTED DRAWING: Figure 1

Description

本発明は、環境認識装置に関するものである。   The present invention relates to an environment recognition device.

移動ロボット等において周囲の環境を認識する機能が求められる。この機能を実現するためにレーザレンジファインダ(LRF)等の距離センサを用いた環境認識装置が提案されている。また、環境認識を十分に行うために、環境認識装置に距離センサだけでなくカメラを搭載した環境認識装置についても提案されている(例えば、特許文献1等)。   A function of recognizing the surrounding environment is required in a mobile robot or the like. In order to realize this function, an environment recognition device using a distance sensor such as a laser range finder (LRF) has been proposed. In addition, in order to sufficiently perform environment recognition, an environment recognition apparatus in which not only a distance sensor but also a camera is mounted on the environment recognition apparatus has been proposed (for example, Patent Document 1).

特開2016−150410号公報Japanese Patent Laid-Open No. 2006-150410

ところで、周囲の環境を認識する環境認識装置において、単に2種類のセンサ(距離センサとカメラ)を用いて周囲の物体を検知するだけでは情報処理の負荷との観点から改善が求められている。   By the way, in the environment recognition apparatus for recognizing the surrounding environment, improvement is demanded from the viewpoint of information processing load by simply detecting surrounding objects using two types of sensors (distance sensor and camera).

本発明の目的は、容易に周囲の環境を認識することができる環境認識装置を提供することにある。   An object of the present invention is to provide an environment recognition device that can easily recognize the surrounding environment.

請求項1に記載の発明では、基台に装着され、基台の周囲に存在する物体の位置情報を取得する第1のセンサと、前記基台に装着され、前記第1のセンサの画角よりも狭い画角を有し、基台の周囲に存在する物体の画像情報を取得する第2のセンサと、前記第1のセンサにより取得した物体の位置情報から前記第2のセンサの視界に物体を入れることにより取得した前記第2のセンサによる物体の画像情報、及び、前記第1のセンサにより取得した物体の位置情報から周囲の環境を認識する演算部と、を備えることを要旨とする。   According to the first aspect of the present invention, a first sensor that is mounted on the base and obtains position information of an object existing around the base, and an angle of view of the first sensor that is mounted on the base. A second sensor having a narrower angle of view and acquiring image information of an object existing around the base, and the position information of the object acquired by the first sensor in the field of view of the second sensor The gist is provided with an arithmetic unit that recognizes the surrounding environment from the image information of the object obtained by the second sensor acquired by inserting the object and the position information of the object acquired by the first sensor. .

請求項1に記載の発明によれば、第1のセンサにより、基台の周囲に存在する物体の位置情報を取得することができる。第2のセンサにより、基台の周囲に存在する物体の画像情報を取得することができる。第2のセンサは、第1のセンサの画角よりも狭い画角を有する。演算部により、第1のセンサにより取得した物体の位置情報から第2のセンサの視界に物体を入れることにより取得した第2のセンサによる物体の画像情報、及び、前記第1のセンサにより取得した物体の位置情報から周囲の環境が認識される。よって、容易に周囲の環境を認識することができる。   According to the first aspect of the present invention, it is possible to acquire position information of an object existing around the base by the first sensor. With the second sensor, image information of an object existing around the base can be acquired. The second sensor has a field angle narrower than that of the first sensor. The calculation unit obtains the image information of the object by the second sensor obtained by putting the object into the field of view of the second sensor from the position information of the object obtained by the first sensor, and the image obtained by the first sensor. The surrounding environment is recognized from the position information of the object. Therefore, the surrounding environment can be easily recognized.

請求項2に記載のように、請求項1に記載の環境認識装置において、前記基台に、前記第2のセンサを物体に向かせるための向き変更手段を更に備えるとよい。
請求項3に記載のように、請求項1又は2に記載の環境認識装置において、前記第1のセンサはレーザレンジファインダであり、前記第2のセンサはリニアイメージセンサであるとよい。
As described in claim 2, in the environment recognition device according to claim 1, the base may further include orientation changing means for directing the second sensor toward the object.
As described in claim 3, in the environment recognition device according to claim 1 or 2, the first sensor may be a laser range finder, and the second sensor may be a linear image sensor.

請求項4に記載のように、請求項3に記載の環境認識装置において、前記演算部は、前記第1のセンサであるレーザレンジファインダによって基台の周囲に存在する物体の数と位置を検知し、前記第2のセンサであるリニアイメージセンサによって物体の形状と色を検知し、この物体の位置と形状と色から、保存してある参照情報と照合するとよい。   According to a fourth aspect of the present invention, in the environment recognition device according to the third aspect, the calculation unit detects the number and positions of objects present around the base by the laser range finder as the first sensor. Then, the shape and color of the object may be detected by the linear image sensor which is the second sensor, and the stored reference information may be collated from the position, shape and color of the object.

本発明によれば、容易に周囲の環境を認識することができる。   According to the present invention, the surrounding environment can be easily recognized.

(a)は実施形態における車両及びその周辺の概略平面図、(b)は車両及びその周辺の概略正面図。(A) is a schematic plan view of the vehicle and its periphery in an embodiment, (b) is a schematic front view of a vehicle and its periphery. 作用を説明するための車両及びその周辺の概略平面図。The schematic plan view of the vehicle and its periphery for demonstrating an effect | action. 作用を説明するための車両及びその周辺の概略平面図。The schematic plan view of the vehicle and its periphery for demonstrating an effect | action. 環境認識装置のブロック図。The block diagram of an environment recognition apparatus. 車両の一部を示す斜視図。The perspective view which shows a part of vehicle. 別例の車両の斜視図。The perspective view of the vehicle of another example. 各種センサの特性を示す図。The figure which shows the characteristic of various sensors.

以下、本発明を具体化した一実施形態を図面に従って説明する。
図1(a),(b)に示すように、車両には環境認識装置10が搭載されている。環境認識装置10は、1つの第1のセンサ30と、1つの第2のセンサ40を備える。第1のセンサ30及び第2のセンサ40は基台20に装着されている。第1のセンサ30はレーザレンジファインダ(LRF)である。第2のセンサ40はリニアイメージセンサである。第1のセンサ30は、基台20の周囲に存在する物体の位置情報を取得するためのものである。第2のセンサ40は、基台20の周囲に存在する物体の画像情報を取得するためのものである。
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, an embodiment of the invention will be described with reference to the drawings.
As shown in FIGS. 1A and 1B, an environment recognition device 10 is mounted on the vehicle. The environment recognition device 10 includes one first sensor 30 and one second sensor 40. The first sensor 30 and the second sensor 40 are mounted on the base 20. The first sensor 30 is a laser range finder (LRF). The second sensor 40 is a linear image sensor. The first sensor 30 is for acquiring position information of an object existing around the base 20. The second sensor 40 is for acquiring image information of an object existing around the base 20.

図1(a),(b)及び図5に示すように、基台20に、回転部材T1とアクチュエータ60を備える。図5を用いて説明すると、基台20に円柱状の回転部材T1が回転可能に支持されている。回転部材T1の上面は水平面となっている。回転部材T1はアクチュエータ60としてのモータにより回転する。   As shown in FIGS. 1A, 1 </ b> B, and 5, the base 20 includes a rotating member T <b> 1 and an actuator 60. If it demonstrates using FIG. 5, the column-shaped rotation member T1 is supported by the base 20 so that rotation is possible. The upper surface of the rotating member T1 is a horizontal plane. The rotating member T1 is rotated by a motor as the actuator 60.

回転部材T1の上面には、第1のセンサ30であるレーザレンジファインダ(LRF)が固定されている。第1のセンサ30であるレーザレンジファインダ(LRF)は円柱形をなしている。第1のセンサ30であるレーザレンジファインダ(LRF)の画角αは、図1(a)に示すように例えば270度であり、広角である。また、第1のセンサ30は車両の進行方向(前方)を向いており、画角の中心が車両前方となっている。   A laser range finder (LRF) as the first sensor 30 is fixed on the upper surface of the rotating member T1. The laser range finder (LRF) which is the first sensor 30 has a cylindrical shape. The angle of view α of the laser range finder (LRF) that is the first sensor 30 is, for example, 270 degrees and a wide angle as shown in FIG. The first sensor 30 faces the traveling direction (front) of the vehicle, and the center of the angle of view is the front of the vehicle.

第1のセンサ30であるレーザレンジファインダ(LRF)の上面には、第2のセンサ40であるリニアイメージセンサが固定されている。第2のセンサ40であるリニアイメージセンサは柱状をなし、鉛直線上に延びている。第2のセンサ40であるリニアイメージセンサは鉛直軸上に複数の撮像素子41が一列に並べられて配置されており、直交3軸座標系における1軸の画像情報が得られる。この情報には形状と色を含む。   On the upper surface of the laser range finder (LRF) that is the first sensor 30, a linear image sensor that is the second sensor 40 is fixed. The linear image sensor which is the second sensor 40 has a columnar shape and extends on a vertical line. The linear image sensor, which is the second sensor 40, has a plurality of image sensors 41 arranged in a line on the vertical axis, and obtains uniaxial image information in an orthogonal three-axis coordinate system. This information includes shape and color.

第2のセンサ40であるリニアイメージセンサの画角βは、図1(a)に示すように例えば10度であり、狭角である。つまり、第2のセンサ40は、第1のセンサ30の画角αよりも狭い画角βを有する。より詳しくは、水平方向における視野は、第1のセンサ30は広く、第2のセンサ40は狭くなっている。そして、向き変更手段としてのアクチュエータ60により回転部材T1を鉛直方向を回転軸として回転させることにより第2のセンサ40で物体の画像情報を取得すべく第2のセンサ40を物体に向かわせることができるようになっている。   The angle of view β of the linear image sensor that is the second sensor 40 is, for example, 10 degrees as shown in FIG. That is, the second sensor 40 has an angle of view β that is narrower than the angle of view α of the first sensor 30. More specifically, the visual field in the horizontal direction is such that the first sensor 30 is wide and the second sensor 40 is narrow. Then, the second sensor 40 may be directed to the object so as to acquire image information of the object by the second sensor 40 by rotating the rotating member T1 with the vertical direction as the rotation axis by the actuator 60 as the direction changing means. It can be done.

図4に示すように、環境認識装置10は、演算部50を備える。演算部50は、第1のセンサ30により取得した物体の位置情報から第2のセンサ40の視界に物体を入れることにより取得した第2のセンサ40による物体の画像情報、及び、第1のセンサ30により取得した物体の位置情報から周囲の環境を認識することができるように構成されている。   As shown in FIG. 4, the environment recognition device 10 includes a calculation unit 50. The computing unit 50 includes the object image information obtained by the second sensor 40 obtained by putting the object into the field of view of the second sensor 40 based on the object position information obtained by the first sensor 30, and the first sensor. The surrounding environment can be recognized from the position information of the object acquired by 30.

詳しくは、演算部50は、環境認識部51と制御部52と個体識別部53を有する。環境認識部51には、第1のセンサ30であるレーザレンジファインダ(LRF)から取得した情報が送られてくる。制御部52には環境認識部51から位置情報が送られてくる。この位置情報に基づいて制御部52はアクチュエータ60を駆動する。アクチュエータ60の駆動に伴い第2のセンサ40であるリニアイメージセンサから取得された情報が個体識別部53に送られてくる。演算部50は環境データ保持部55と接続されている。環境データ保持部55には、環境データとして物体の位置と形状と色についての情報が保存されている。演算部50は環境データ保持部55に保存された環境データの取り出し及び環境データの更新を行うことができるようになっている。   Specifically, the calculation unit 50 includes an environment recognition unit 51, a control unit 52, and an individual identification unit 53. Information acquired from a laser range finder (LRF) as the first sensor 30 is sent to the environment recognition unit 51. Position information is sent from the environment recognition unit 51 to the control unit 52. Based on this position information, the controller 52 drives the actuator 60. As the actuator 60 is driven, information acquired from the linear image sensor that is the second sensor 40 is sent to the individual identification unit 53. The computing unit 50 is connected to the environmental data holding unit 55. The environment data holding unit 55 stores information about the position, shape, and color of the object as environment data. The computing unit 50 can extract environmental data stored in the environmental data holding unit 55 and update the environmental data.

次に、作用について説明する。
図1(a),(b)に示すように、演算部50は、第1のセンサ30であるレーザレンジファインダ(LRF)によって基台20の周囲に存在する物体(H1,H2,W1)の数と位置を検知する。図1(a),(b)においては、物体として、人H1、人H2、壁W1が周囲に存在する状況を示している。物体(H1,H2,W1)の数は「3」であり、物体としての人H1の位置は車両前方を基準として角度が+θ1であり、距離がL1である。物体としての人H2の位置は車両前方を基準として角度が−θ2であり、距離がL2である。物体としての壁W1の位置は車両前方を基準として角度が−θ3であり、距離がL3である。なお、物体の角度の表記において、反時計回りを+とし、時計回りを−としている。
Next, the operation will be described.
As shown in FIGS. 1A and 1B, the calculation unit 50 uses the laser range finder (LRF) as the first sensor 30 to detect the objects (H 1, H 2, W 1) existing around the base 20. Detect number and position. 1A and 1B show a situation in which a person H1, a person H2, and a wall W1 exist as objects. The number of the objects (H1, H2, W1) is “3”, the position of the person H1 as the object is an angle + θ1 with respect to the front of the vehicle, and the distance is L1. The position of the person H2 as an object has an angle of −θ2 with respect to the front of the vehicle, and a distance of L2. The position of the wall W1 as an object is -θ3 with respect to the front of the vehicle, and the distance is L3. In the notation of the angle of the object, the counterclockwise direction is + and the clockwise direction is −.

そして、図2に示すように、演算部50は、アクチュエータ60の駆動により第2のセンサ40であるリニアイメージセンサを物体としての人H1を撮像できる範囲に回転させる。そして、演算部50は、第2のセンサ40であるリニアイメージセンサによって物体としての人H1の形状と色を検知する。   Then, as illustrated in FIG. 2, the calculation unit 50 rotates the linear image sensor, which is the second sensor 40, within a range where the person H <b> 1 as an object can be imaged by driving the actuator 60. And the calculating part 50 detects the shape and color of the person H1 as an object with the linear image sensor which is the 2nd sensor 40. FIG.

同様に、物体としての人H2についても演算部50は、アクチュエータ60の駆動により第2のセンサ40であるリニアイメージセンサを物体としての人H2を撮像できる範囲に回転させる。そして、演算部50は、第2のセンサ40であるリニアイメージセンサによって物体としての人H2の形状と色を検知する。   Similarly, for the person H2 as an object, the arithmetic unit 50 rotates the linear image sensor, which is the second sensor 40, to the range where the person H2 as an object can be imaged by driving the actuator 60. And the calculating part 50 detects the shape and color of the person H2 as an object with the linear image sensor which is the 2nd sensor 40. FIG.

また、物体としての壁W1についても図3に示すように、演算部50は、アクチュエータ60の駆動により第2のセンサ40であるリニアイメージセンサを物体としての壁W1を撮像できる範囲に回転させる。そして、演算部50は、第2のセンサ40であるリニアイメージセンサによって物体としての壁W1の形状と色を検知する。   As for the wall W1 as the object, as shown in FIG. 3, the calculation unit 50 rotates the linear image sensor, which is the second sensor 40, to the range where the wall W1 as the object can be imaged by driving the actuator 60. And the calculating part 50 detects the shape and color of the wall W1 as an object with the linear image sensor which is the 2nd sensor 40. FIG.

このようにして演算部50は、人H1の形状と色、人H2の形状と色、壁W1の形状と色を検知した後、物体としての人H1,H2、壁W1の位置と形状と色から、保存してある参照情報と照合する。   In this way, the calculation unit 50 detects the shape and color of the person H1, the shape and color of the person H2, and the shape and color of the wall W1, and then the position, shape, and color of the person H1, H2, and the wall W1 as objects. From this, the stored reference information is verified.

ここで、演算部50は、第2のセンサ40であるリニアイメージセンサによって物体の形状と色を検知するので、人H1が例えば青色の服を着ており、人H2が赤色の服を着ている場合等、人H1と人H2とを識別することができる。この物体の位置と形状と色から、保存してある参照情報と照合することができる。   Here, since the calculation unit 50 detects the shape and color of the object by the linear image sensor which is the second sensor 40, the person H1 is wearing blue clothes, for example, and the person H2 is wearing red clothes. For example, the person H1 and the person H2 can be identified. From the position, shape and color of the object, it can be compared with the stored reference information.

以下、詳しく説明する。
図4において、環境認識部51は、第1のセンサ30であるレーザレンジファインダ(LRF)のデータを基に、周囲に存在する物体の数と位置を把握する。詳しくは、環境認識部51は第1のセンサ30であるレーザレンジファインダ(LRF)のデータを受け取り、データのクラスタリング、即ち、領域分割を行う。クラスタリングを行うことで、周囲に存在する人H1,H2や壁W1等の物体の数と位置を検知する。
This will be described in detail below.
In FIG. 4, the environment recognizing unit 51 grasps the number and positions of objects existing in the vicinity based on data of a laser range finder (LRF) that is the first sensor 30. Specifically, the environment recognition unit 51 receives data of a laser range finder (LRF) that is the first sensor 30, and performs data clustering, that is, region division. By performing clustering, the number and positions of objects such as people H1 and H2 and walls W1 existing around are detected.

制御部52は、アクチュエータ60によって第2のセンサ40であるリニアメージセンサをヨー方向(水平方向)に駆動する。つまり、制御部52は環境認識部51よりクラスタの数と位置を受け取り、アクチュエータ60を駆動して第2のセンサ40であるリニアイメージセンサを各クラスタに順次向ける。   The controller 52 drives the linear image sensor as the second sensor 40 in the yaw direction (horizontal direction) by the actuator 60. That is, the control unit 52 receives the number and position of clusters from the environment recognition unit 51, drives the actuator 60, and sequentially directs the linear image sensor as the second sensor 40 to each cluster.

個体識別部53は、第2のセンサ40であるリニアイメージセンサによる物体の形状と色、及び、第1のセンサ30であるレーザレンジファインダによる物体の位置についての情報を基に物体の個体識別を行う。   The individual identification unit 53 performs individual identification of an object based on information on the shape and color of the object by the linear image sensor that is the second sensor 40 and the position of the object by the laser range finder that is the first sensor 30. Do.

つまり、個体識別部53は、環境認識部51よりクラスタの位置、及び、第2のセンサ40であるリニアイメージセンサよりクラスタの形状と色についての情報を受け取る。個体識別部53は、環境データ保持部55に保存してある環境オブジェクトの位置と形状と色を参照し、受信したクラスタの位置と形状と色についての情報と照合する。そして、最もクラスタに類似する環境オブジェクトの位置、形状、色を、クラスタの位置、形状、色で更新する。また、クラスタに類似する環境オブジェクトが存在しない場合、新規環境オブジェクトを生成し、環境オブジェクトの位置、形状、色を、クラスタの位置、形状、色とする。   That is, the individual identification unit 53 receives information about the cluster position from the environment recognition unit 51 and the shape and color of the cluster from the linear image sensor that is the second sensor 40. The individual identification unit 53 refers to the position, shape, and color of the environmental object stored in the environment data holding unit 55 and collates with the received information about the position, shape, and color of the cluster. Then, the position, shape, and color of the environmental object that is most similar to the cluster are updated with the position, shape, and color of the cluster. If there is no environment object similar to the cluster, a new environment object is generated, and the position, shape, and color of the environment object are set as the position, shape, and color of the cluster.

以下、図7を用いて説明する。
図7は物体検知用の各種のセンサの特性を一覧にしたものである。図7において、センサの種類として、レーザレンジファインダ(LRF)を用いた場合、カメラを用いた場合、及び、レーザレンジファインダ(LRF)とカメラとを用いた場合である。特性としては、コスト、検知範囲及び識別能力である。2種類のセンサによる環境認識には、コスト、検知範囲、識別能力の面で図7のようなメリット・デメリットがある。ここで、識別能力とは、人や壁などの物体(個体)を識別する能力を指している。
Hereinafter, a description will be given with reference to FIG.
FIG. 7 is a list of characteristics of various sensors for object detection. In FIG. 7, as a sensor type, a laser range finder (LRF) is used, a camera is used, and a laser range finder (LRF) and a camera are used. The characteristics are cost, detection range, and discrimination ability. Environment recognition by two types of sensors has advantages and disadvantages as shown in FIG. 7 in terms of cost, detection range, and discrimination ability. Here, the discrimination ability refers to the ability to identify an object (individual) such as a person or a wall.

図7において、特性が優れている場合は○で、劣っている場合は×で、その中間の場合は△で表している。
それぞれのセンサの特性について具体的に述べる。
In FIG. 7, when the characteristic is excellent, it is indicated by ◯, when it is inferior, it is indicated by ×, and when it is intermediate, it is indicated by Δ.
The characteristics of each sensor will be specifically described.

まず、レーザレンジファインダ(LRF)はカメラに比べて一般に広範囲の画角を有し、検知範囲に優れる。しかし、物体の位置情報のみを取得するセンサであるため、物体同士が検出ライン上で重なった場合に、それぞれの物体を識別する能力に乏しい。   First, a laser range finder (LRF) generally has a wider field angle than a camera and has an excellent detection range. However, since it is a sensor that acquires only the position information of an object, when the objects overlap on the detection line, the ability to identify each object is poor.

次に、カメラは物体の形状と色についての情報を取得できるため、個々の物体を識別する能力に優れている。しかし、カメラの画角はレーザレンジファインダ(LRF)に比べて狭いため、検知範囲が狭い。加えて、カメラから得る情報は二次元的であるため、一次元情報を出力するレーザレンジファインダ(LRF)と比較し、情報の処理にかかるコストが高い。   Next, since the camera can acquire information about the shape and color of an object, it has an excellent ability to identify individual objects. However, since the angle of view of the camera is narrower than that of a laser range finder (LRF), the detection range is narrow. In addition, since the information obtained from the camera is two-dimensional, the cost for processing information is higher than that of a laser range finder (LRF) that outputs one-dimensional information.

これらのセンサの欠点を解決するために、レーザレンジファインダ(LRF)とカメラを組み合わせて用いることが考えられる。レーザレンジファインダ(LRF)とカメラを組み合わせることで、検知範囲と識別能力の両立が実現できる。しかし、センサが出力する情報を処理するコストが高くなる。また、高機能な演算部が必要となるとともに処理負荷が大きくなることに伴い発熱量が大きくなることにより演算部を冷却するための冷却装置の搭載が必要となる。このため、環境認識装置をロボットなどに組み込む際に設計上の制約が発生する。   In order to solve the drawbacks of these sensors, it is conceivable to use a laser range finder (LRF) and a camera in combination. By combining a laser range finder (LRF) and a camera, it is possible to realize both the detection range and the discrimination capability. However, the cost for processing the information output from the sensor increases. In addition, a high-function computing unit is required, and as the processing load increases, the amount of heat generation increases, so that it is necessary to mount a cooling device for cooling the computing unit. For this reason, design restrictions occur when the environment recognition apparatus is incorporated into a robot or the like.

本実施形態においては、レーザレンジファインダ(LRF)とリニアイメージセンサの組み合わせによる環境認識を行うべく、まず、レーザレンジファインダ(LRF)によって広範囲の環境認識を行い、周囲に存在する物体の数と位置を把握する。その後、リニアイメージセンサを個々の物体に対して向けることで、物体の形状と色についての情報を取得する。物体毎の形状と色を比較することで、個々の物体を識別する。ここで、リニアイメージセンサが出力する情報は一次元的であり、カメラに比べて情報を処理するのに必要なコストが少ない。そのため、従来の環境認識装置に比べ演算負荷が軽くなることから冷却装置での消費電力の少なく、カメラに比べリニアイメージセンサを用いることにより小型の環境認識装置を実現できる。その結果、従来品よりも計算コストが低く小型な環境認識装置を構築できる。   In the present embodiment, in order to perform environment recognition using a combination of a laser range finder (LRF) and a linear image sensor, first, a wide range of environment recognition is performed by the laser range finder (LRF), and the number and positions of objects present in the vicinity. To figure out. After that, by directing the linear image sensor toward each object, information on the shape and color of the object is acquired. Individual objects are identified by comparing the shape and color of each object. Here, the information output from the linear image sensor is one-dimensional, and the cost required to process the information is less than that of the camera. For this reason, the calculation load is lighter than that of the conventional environment recognition device, so that the power consumption of the cooling device is small, and a compact environment recognition device can be realized by using a linear image sensor compared to the camera. As a result, it is possible to construct a small environment recognition device with a lower calculation cost than the conventional product.

上記実施形態によれば、以下のような効果を得ることができる。
(1)環境認識装置10の構成として、基台20に装着され、基台20の周囲に存在する物体の位置情報を取得する第1のセンサ30と、基台20に装着され、第1のセンサ30の画角よりも狭い画角を有し、基台20の周囲に存在する物体の画像情報を取得する第2のセンサ40を備える。さらに、環境認識装置10は、第1のセンサ30により取得した物体の位置情報から第2のセンサ40の視界に物体を入れることにより取得した第2のセンサ40による物体の画像情報、及び、第1のセンサ30により取得した物体の位置情報から周囲の環境を認識する演算部50を備える。よって、容易に周囲の環境を認識することができる。
According to the above embodiment, the following effects can be obtained.
(1) As a configuration of the environment recognition device 10, a first sensor 30 that is mounted on the base 20 and acquires position information of an object existing around the base 20 and a base 20 is mounted. A second sensor 40 having an angle of view narrower than the angle of view of the sensor 30 and acquiring image information of an object existing around the base 20 is provided. Furthermore, the environment recognition apparatus 10 includes the object image information obtained by the second sensor 40 obtained by putting the object in the field of view of the second sensor 40 from the position information of the object obtained by the first sensor 30, and the first A calculation unit 50 that recognizes the surrounding environment from the position information of the object acquired by one sensor 30 is provided. Therefore, the surrounding environment can be easily recognized.

(2)基台20に、第2のセンサ40を物体に向かせるための向き変更手段としてのアクチュエータ60を更に備える。よって、容易に第2のセンサ40を物体に向かせることができる。   (2) The base 20 further includes an actuator 60 as direction changing means for directing the second sensor 40 toward the object. Therefore, the second sensor 40 can be easily directed to the object.

(3)第1のセンサ30はレーザレンジファインダ(LRF)であり、第2のセンサ40はリニアイメージセンサであるので、実用的である。
(4)演算部50は、第1のセンサ30であるレーザレンジファインダによって基台20の周囲に存在する物体の数と位置を検知し、第2のセンサ40であるリニアイメージセンサによって物体の形状と色を検知し、この物体の位置と形状と色から、保存してある参照情報と照合する。よって、時系列で周囲の環境を認識することができる。
(3) Since the first sensor 30 is a laser range finder (LRF) and the second sensor 40 is a linear image sensor, it is practical.
(4) The calculation unit 50 detects the number and position of objects existing around the base 20 with the laser range finder that is the first sensor 30, and the shape of the object with the linear image sensor that is the second sensor 40. The color is detected, and the stored reference information is collated from the position, shape, and color of the object. Therefore, the surrounding environment can be recognized in time series.

実施形態は前記に限定されるものではなく、例えば、次のように具体化してもよい。
○ 図6に示すように、4輪オムニホイール車両等の車体を旋回させることでリニアイメージセンサ(40)の向きを変更するようにしてもよい。この場合、追加のアクチュエータが不要である。つまり、図6においては、基台21における左右には車輪22,23が設けられ、車輪22又は車輪23を正逆回転する、あるいは、車輪22及び車輪23を正逆回転することにより、その場所での旋回によって基台20の向きを変えて第2のセンサ40を物体に向かせる。
The embodiment is not limited to the above, and may be embodied as follows, for example.
As shown in FIG. 6, the orientation of the linear image sensor (40) may be changed by turning a vehicle body such as a four-wheel omni-wheel vehicle. In this case, no additional actuator is required. That is, in FIG. 6, wheels 22 and 23 are provided on the left and right of the base 21, and the wheel 22 or the wheel 23 is rotated forward or reverse, or the wheel 22 and the wheel 23 are rotated forward or reverse, thereby The direction of the base 20 is changed by turning in order to make the second sensor 40 face the object.

○ 第1のセンサ30はレーザレンジファインダ(LRF)であったが、超音波方式のセンサであってもよい。
○ 第2のセンサ40はリニアイメージセンサであったが、これに限ることはない。つまり、色(カラー)についての情報も取得できるものであったが白黒の情報を取得できるものであってもよい。
The first sensor 30 is a laser range finder (LRF), but may be an ultrasonic sensor.
The second sensor 40 is a linear image sensor, but is not limited to this. That is, although information on color (color) can be acquired, monochrome information may be acquired.

○ 第2のセンサとしてリニアイメージセンサを用いたが、これに限ることはない。例えば、一次元画像に代わり二次元画像をとることができるセンサであってもよい。
○ 車両に環境認識装置10を搭載したが、これに限らない。例えば、移動ロボットに環境認識装置10を搭載してもよい。
○ Although a linear image sensor is used as the second sensor, the present invention is not limited to this. For example, a sensor that can take a two-dimensional image instead of a one-dimensional image may be used.
O Although environment recognition device 10 was carried in vehicles, it is not restricted to this. For example, the environment recognition device 10 may be mounted on a mobile robot.

10…環境認識装置、20…基台、30…第1のセンサ、40…第2のセンサ、50…演算部、60…アクチュエータ。   DESCRIPTION OF SYMBOLS 10 ... Environment recognition apparatus, 20 ... Base, 30 ... 1st sensor, 40 ... 2nd sensor, 50 ... Calculation part, 60 ... Actuator.

Claims (4)

基台に装着され、基台の周囲に存在する物体の位置情報を取得する第1のセンサと、
前記基台に装着され、前記第1のセンサの画角よりも狭い画角を有し、基台の周囲に存在する物体の画像情報を取得する第2のセンサと、
前記第1のセンサにより取得した物体の位置情報から前記第2のセンサの視界に物体を入れることにより取得した前記第2のセンサによる物体の画像情報、及び、前記第1のセンサにより取得した物体の位置情報から周囲の環境を認識する演算部と、
を備えることを特徴とする環境認識装置。
A first sensor mounted on a base and for acquiring position information of an object existing around the base;
A second sensor mounted on the base and having an angle of view narrower than the angle of view of the first sensor, and acquiring image information of an object existing around the base;
Image information of the object obtained by the second sensor obtained by putting the object in the field of view of the second sensor from the position information of the object obtained by the first sensor, and the object obtained by the first sensor A computing unit that recognizes the surrounding environment from the position information of
An environment recognition apparatus comprising:
前記基台に、前記第2のセンサを物体に向かせるための向き変更手段を更に備えることを特徴とする請求項1に記載の環境認識装置。   The environment recognition apparatus according to claim 1, further comprising orientation changing means for directing the second sensor toward an object on the base. 前記第1のセンサはレーザレンジファインダであり、前記第2のセンサはリニアイメージセンサであることを特徴とする請求項1又は2に記載の環境認識装置。   The environment recognition apparatus according to claim 1, wherein the first sensor is a laser range finder, and the second sensor is a linear image sensor. 前記演算部は、
前記第1のセンサであるレーザレンジファインダによって基台の周囲に存在する物体の数と位置を検知し、前記第2のセンサであるリニアイメージセンサによって物体の形状と色を検知し、この物体の位置と形状と色から、保存してある参照情報と照合することを特徴とする請求項3に記載の環境認識装置。
The computing unit is
The number and position of an object existing around the base are detected by the laser range finder as the first sensor, and the shape and color of the object are detected by the linear image sensor as the second sensor. 4. The environment recognition apparatus according to claim 3, wherein the reference information stored is collated from the position, shape and color.
JP2017043054A 2017-03-07 2017-03-07 Environment recognition device Pending JP2018146440A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017043054A JP2018146440A (en) 2017-03-07 2017-03-07 Environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017043054A JP2018146440A (en) 2017-03-07 2017-03-07 Environment recognition device

Publications (1)

Publication Number Publication Date
JP2018146440A true JP2018146440A (en) 2018-09-20

Family

ID=63591969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017043054A Pending JP2018146440A (en) 2017-03-07 2017-03-07 Environment recognition device

Country Status (1)

Country Link
JP (1) JP2018146440A (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044859A (en) * 2001-07-30 2003-02-14 Matsushita Electric Ind Co Ltd Device for tracing movement and method for tracing person
JP2004280451A (en) * 2003-03-14 2004-10-07 Matsushita Electric Works Ltd Autonomous moving device
JP2011145812A (en) * 2010-01-13 2011-07-28 Ihi Corp Laser sensor and detection target determination method using the same
JP2011158278A (en) * 2010-01-29 2011-08-18 Pasuko:Kk Method and device for filtering laser data
US20140132758A1 (en) * 2012-11-15 2014-05-15 Videoiq, Inc. Multi-dimensional virtual beam detection for video analytics
JP2014154898A (en) * 2013-02-05 2014-08-25 Nissan Motor Co Ltd Object detection device
CN105957107A (en) * 2016-04-27 2016-09-21 北京博瑞空间科技发展有限公司 Pedestrian detecting and tracking method and device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044859A (en) * 2001-07-30 2003-02-14 Matsushita Electric Ind Co Ltd Device for tracing movement and method for tracing person
JP2004280451A (en) * 2003-03-14 2004-10-07 Matsushita Electric Works Ltd Autonomous moving device
JP2011145812A (en) * 2010-01-13 2011-07-28 Ihi Corp Laser sensor and detection target determination method using the same
JP2011158278A (en) * 2010-01-29 2011-08-18 Pasuko:Kk Method and device for filtering laser data
US20140132758A1 (en) * 2012-11-15 2014-05-15 Videoiq, Inc. Multi-dimensional virtual beam detection for video analytics
JP2014154898A (en) * 2013-02-05 2014-08-25 Nissan Motor Co Ltd Object detection device
CN105957107A (en) * 2016-04-27 2016-09-21 北京博瑞空间科技发展有限公司 Pedestrian detecting and tracking method and device

Similar Documents

Publication Publication Date Title
CN108137096B (en) System for parking a vehicle
TWI687652B (en) Distance sensor (2)
EP2693366B1 (en) Robots comprising projectors for projecting images on identified projection surfaces
US20180081053A1 (en) Video to radar
JP2010064546A (en) Parking assist device
WO2009081920A1 (en) Moving state estimation device
CN111975745B (en) Robot system
US11796999B2 (en) Systems and methods for monitoring a self-driving vehicle
JP2018106695A (en) Method of operating autonomously traveling transfer vehicle
US11729367B2 (en) Wide viewing angle stereo camera apparatus and depth image processing method using the same
US20210255630A1 (en) Mobile object control apparatus, mobile object control method, and program
JP2018173707A (en) Person estimation system and estimation program
EP3729243A1 (en) User-wearable systems and methods to collect data and provide information
JP2006302035A5 (en)
JP2019008531A (en) Mobile vehicle
JP2018146440A (en) Environment recognition device
JP6516241B2 (en) Gesture input device
KR20170022357A (en) Automatic parking method and system
Pidurkar et al. Monocular camera based computer vision system for cost effective autonomous vehicle
CN110871440B (en) Method and device for controlling robot running
JP2009026209A (en) Autonomous moving device
KR20040045572A (en) Method calculating rotated angles of robot cleaner
JP2020154764A (en) Information processing apparatus and reading system
Zhang et al. An interactive control system for mobile robot based on cloud services
CN110069065B (en) AGV website positioning system based on laser navigation and picture discernment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200812

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201222