JP2018146440A - Environment recognition device - Google Patents
Environment recognition device Download PDFInfo
- Publication number
- JP2018146440A JP2018146440A JP2017043054A JP2017043054A JP2018146440A JP 2018146440 A JP2018146440 A JP 2018146440A JP 2017043054 A JP2017043054 A JP 2017043054A JP 2017043054 A JP2017043054 A JP 2017043054A JP 2018146440 A JP2018146440 A JP 2018146440A
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- base
- environment recognition
- information
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 6
- 238000001816 cooling Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 1
- 230000020169 heat generation Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000000034 method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、環境認識装置に関するものである。 The present invention relates to an environment recognition device.
移動ロボット等において周囲の環境を認識する機能が求められる。この機能を実現するためにレーザレンジファインダ(LRF)等の距離センサを用いた環境認識装置が提案されている。また、環境認識を十分に行うために、環境認識装置に距離センサだけでなくカメラを搭載した環境認識装置についても提案されている(例えば、特許文献1等)。 A function of recognizing the surrounding environment is required in a mobile robot or the like. In order to realize this function, an environment recognition device using a distance sensor such as a laser range finder (LRF) has been proposed. In addition, in order to sufficiently perform environment recognition, an environment recognition apparatus in which not only a distance sensor but also a camera is mounted on the environment recognition apparatus has been proposed (for example, Patent Document 1).
ところで、周囲の環境を認識する環境認識装置において、単に2種類のセンサ(距離センサとカメラ)を用いて周囲の物体を検知するだけでは情報処理の負荷との観点から改善が求められている。 By the way, in the environment recognition apparatus for recognizing the surrounding environment, improvement is demanded from the viewpoint of information processing load by simply detecting surrounding objects using two types of sensors (distance sensor and camera).
本発明の目的は、容易に周囲の環境を認識することができる環境認識装置を提供することにある。 An object of the present invention is to provide an environment recognition device that can easily recognize the surrounding environment.
請求項1に記載の発明では、基台に装着され、基台の周囲に存在する物体の位置情報を取得する第1のセンサと、前記基台に装着され、前記第1のセンサの画角よりも狭い画角を有し、基台の周囲に存在する物体の画像情報を取得する第2のセンサと、前記第1のセンサにより取得した物体の位置情報から前記第2のセンサの視界に物体を入れることにより取得した前記第2のセンサによる物体の画像情報、及び、前記第1のセンサにより取得した物体の位置情報から周囲の環境を認識する演算部と、を備えることを要旨とする。 According to the first aspect of the present invention, a first sensor that is mounted on the base and obtains position information of an object existing around the base, and an angle of view of the first sensor that is mounted on the base. A second sensor having a narrower angle of view and acquiring image information of an object existing around the base, and the position information of the object acquired by the first sensor in the field of view of the second sensor The gist is provided with an arithmetic unit that recognizes the surrounding environment from the image information of the object obtained by the second sensor acquired by inserting the object and the position information of the object acquired by the first sensor. .
請求項1に記載の発明によれば、第1のセンサにより、基台の周囲に存在する物体の位置情報を取得することができる。第2のセンサにより、基台の周囲に存在する物体の画像情報を取得することができる。第2のセンサは、第1のセンサの画角よりも狭い画角を有する。演算部により、第1のセンサにより取得した物体の位置情報から第2のセンサの視界に物体を入れることにより取得した第2のセンサによる物体の画像情報、及び、前記第1のセンサにより取得した物体の位置情報から周囲の環境が認識される。よって、容易に周囲の環境を認識することができる。 According to the first aspect of the present invention, it is possible to acquire position information of an object existing around the base by the first sensor. With the second sensor, image information of an object existing around the base can be acquired. The second sensor has a field angle narrower than that of the first sensor. The calculation unit obtains the image information of the object by the second sensor obtained by putting the object into the field of view of the second sensor from the position information of the object obtained by the first sensor, and the image obtained by the first sensor. The surrounding environment is recognized from the position information of the object. Therefore, the surrounding environment can be easily recognized.
請求項2に記載のように、請求項1に記載の環境認識装置において、前記基台に、前記第2のセンサを物体に向かせるための向き変更手段を更に備えるとよい。
請求項3に記載のように、請求項1又は2に記載の環境認識装置において、前記第1のセンサはレーザレンジファインダであり、前記第2のセンサはリニアイメージセンサであるとよい。
As described in claim 2, in the environment recognition device according to claim 1, the base may further include orientation changing means for directing the second sensor toward the object.
As described in claim 3, in the environment recognition device according to claim 1 or 2, the first sensor may be a laser range finder, and the second sensor may be a linear image sensor.
請求項4に記載のように、請求項3に記載の環境認識装置において、前記演算部は、前記第1のセンサであるレーザレンジファインダによって基台の周囲に存在する物体の数と位置を検知し、前記第2のセンサであるリニアイメージセンサによって物体の形状と色を検知し、この物体の位置と形状と色から、保存してある参照情報と照合するとよい。 According to a fourth aspect of the present invention, in the environment recognition device according to the third aspect, the calculation unit detects the number and positions of objects present around the base by the laser range finder as the first sensor. Then, the shape and color of the object may be detected by the linear image sensor which is the second sensor, and the stored reference information may be collated from the position, shape and color of the object.
本発明によれば、容易に周囲の環境を認識することができる。 According to the present invention, the surrounding environment can be easily recognized.
以下、本発明を具体化した一実施形態を図面に従って説明する。
図1(a),(b)に示すように、車両には環境認識装置10が搭載されている。環境認識装置10は、1つの第1のセンサ30と、1つの第2のセンサ40を備える。第1のセンサ30及び第2のセンサ40は基台20に装着されている。第1のセンサ30はレーザレンジファインダ(LRF)である。第2のセンサ40はリニアイメージセンサである。第1のセンサ30は、基台20の周囲に存在する物体の位置情報を取得するためのものである。第2のセンサ40は、基台20の周囲に存在する物体の画像情報を取得するためのものである。
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, an embodiment of the invention will be described with reference to the drawings.
As shown in FIGS. 1A and 1B, an
図1(a),(b)及び図5に示すように、基台20に、回転部材T1とアクチュエータ60を備える。図5を用いて説明すると、基台20に円柱状の回転部材T1が回転可能に支持されている。回転部材T1の上面は水平面となっている。回転部材T1はアクチュエータ60としてのモータにより回転する。
As shown in FIGS. 1A, 1 </ b> B, and 5, the
回転部材T1の上面には、第1のセンサ30であるレーザレンジファインダ(LRF)が固定されている。第1のセンサ30であるレーザレンジファインダ(LRF)は円柱形をなしている。第1のセンサ30であるレーザレンジファインダ(LRF)の画角αは、図1(a)に示すように例えば270度であり、広角である。また、第1のセンサ30は車両の進行方向(前方)を向いており、画角の中心が車両前方となっている。
A laser range finder (LRF) as the
第1のセンサ30であるレーザレンジファインダ(LRF)の上面には、第2のセンサ40であるリニアイメージセンサが固定されている。第2のセンサ40であるリニアイメージセンサは柱状をなし、鉛直線上に延びている。第2のセンサ40であるリニアイメージセンサは鉛直軸上に複数の撮像素子41が一列に並べられて配置されており、直交3軸座標系における1軸の画像情報が得られる。この情報には形状と色を含む。
On the upper surface of the laser range finder (LRF) that is the
第2のセンサ40であるリニアイメージセンサの画角βは、図1(a)に示すように例えば10度であり、狭角である。つまり、第2のセンサ40は、第1のセンサ30の画角αよりも狭い画角βを有する。より詳しくは、水平方向における視野は、第1のセンサ30は広く、第2のセンサ40は狭くなっている。そして、向き変更手段としてのアクチュエータ60により回転部材T1を鉛直方向を回転軸として回転させることにより第2のセンサ40で物体の画像情報を取得すべく第2のセンサ40を物体に向かわせることができるようになっている。
The angle of view β of the linear image sensor that is the
図4に示すように、環境認識装置10は、演算部50を備える。演算部50は、第1のセンサ30により取得した物体の位置情報から第2のセンサ40の視界に物体を入れることにより取得した第2のセンサ40による物体の画像情報、及び、第1のセンサ30により取得した物体の位置情報から周囲の環境を認識することができるように構成されている。
As shown in FIG. 4, the
詳しくは、演算部50は、環境認識部51と制御部52と個体識別部53を有する。環境認識部51には、第1のセンサ30であるレーザレンジファインダ(LRF)から取得した情報が送られてくる。制御部52には環境認識部51から位置情報が送られてくる。この位置情報に基づいて制御部52はアクチュエータ60を駆動する。アクチュエータ60の駆動に伴い第2のセンサ40であるリニアイメージセンサから取得された情報が個体識別部53に送られてくる。演算部50は環境データ保持部55と接続されている。環境データ保持部55には、環境データとして物体の位置と形状と色についての情報が保存されている。演算部50は環境データ保持部55に保存された環境データの取り出し及び環境データの更新を行うことができるようになっている。
Specifically, the
次に、作用について説明する。
図1(a),(b)に示すように、演算部50は、第1のセンサ30であるレーザレンジファインダ(LRF)によって基台20の周囲に存在する物体(H1,H2,W1)の数と位置を検知する。図1(a),(b)においては、物体として、人H1、人H2、壁W1が周囲に存在する状況を示している。物体(H1,H2,W1)の数は「3」であり、物体としての人H1の位置は車両前方を基準として角度が+θ1であり、距離がL1である。物体としての人H2の位置は車両前方を基準として角度が−θ2であり、距離がL2である。物体としての壁W1の位置は車両前方を基準として角度が−θ3であり、距離がL3である。なお、物体の角度の表記において、反時計回りを+とし、時計回りを−としている。
Next, the operation will be described.
As shown in FIGS. 1A and 1B, the
そして、図2に示すように、演算部50は、アクチュエータ60の駆動により第2のセンサ40であるリニアイメージセンサを物体としての人H1を撮像できる範囲に回転させる。そして、演算部50は、第2のセンサ40であるリニアイメージセンサによって物体としての人H1の形状と色を検知する。
Then, as illustrated in FIG. 2, the
同様に、物体としての人H2についても演算部50は、アクチュエータ60の駆動により第2のセンサ40であるリニアイメージセンサを物体としての人H2を撮像できる範囲に回転させる。そして、演算部50は、第2のセンサ40であるリニアイメージセンサによって物体としての人H2の形状と色を検知する。
Similarly, for the person H2 as an object, the
また、物体としての壁W1についても図3に示すように、演算部50は、アクチュエータ60の駆動により第2のセンサ40であるリニアイメージセンサを物体としての壁W1を撮像できる範囲に回転させる。そして、演算部50は、第2のセンサ40であるリニアイメージセンサによって物体としての壁W1の形状と色を検知する。
As for the wall W1 as the object, as shown in FIG. 3, the
このようにして演算部50は、人H1の形状と色、人H2の形状と色、壁W1の形状と色を検知した後、物体としての人H1,H2、壁W1の位置と形状と色から、保存してある参照情報と照合する。
In this way, the
ここで、演算部50は、第2のセンサ40であるリニアイメージセンサによって物体の形状と色を検知するので、人H1が例えば青色の服を着ており、人H2が赤色の服を着ている場合等、人H1と人H2とを識別することができる。この物体の位置と形状と色から、保存してある参照情報と照合することができる。
Here, since the
以下、詳しく説明する。
図4において、環境認識部51は、第1のセンサ30であるレーザレンジファインダ(LRF)のデータを基に、周囲に存在する物体の数と位置を把握する。詳しくは、環境認識部51は第1のセンサ30であるレーザレンジファインダ(LRF)のデータを受け取り、データのクラスタリング、即ち、領域分割を行う。クラスタリングを行うことで、周囲に存在する人H1,H2や壁W1等の物体の数と位置を検知する。
This will be described in detail below.
In FIG. 4, the
制御部52は、アクチュエータ60によって第2のセンサ40であるリニアメージセンサをヨー方向(水平方向)に駆動する。つまり、制御部52は環境認識部51よりクラスタの数と位置を受け取り、アクチュエータ60を駆動して第2のセンサ40であるリニアイメージセンサを各クラスタに順次向ける。
The
個体識別部53は、第2のセンサ40であるリニアイメージセンサによる物体の形状と色、及び、第1のセンサ30であるレーザレンジファインダによる物体の位置についての情報を基に物体の個体識別を行う。
The
つまり、個体識別部53は、環境認識部51よりクラスタの位置、及び、第2のセンサ40であるリニアイメージセンサよりクラスタの形状と色についての情報を受け取る。個体識別部53は、環境データ保持部55に保存してある環境オブジェクトの位置と形状と色を参照し、受信したクラスタの位置と形状と色についての情報と照合する。そして、最もクラスタに類似する環境オブジェクトの位置、形状、色を、クラスタの位置、形状、色で更新する。また、クラスタに類似する環境オブジェクトが存在しない場合、新規環境オブジェクトを生成し、環境オブジェクトの位置、形状、色を、クラスタの位置、形状、色とする。
That is, the
以下、図7を用いて説明する。
図7は物体検知用の各種のセンサの特性を一覧にしたものである。図7において、センサの種類として、レーザレンジファインダ(LRF)を用いた場合、カメラを用いた場合、及び、レーザレンジファインダ(LRF)とカメラとを用いた場合である。特性としては、コスト、検知範囲及び識別能力である。2種類のセンサによる環境認識には、コスト、検知範囲、識別能力の面で図7のようなメリット・デメリットがある。ここで、識別能力とは、人や壁などの物体(個体)を識別する能力を指している。
Hereinafter, a description will be given with reference to FIG.
FIG. 7 is a list of characteristics of various sensors for object detection. In FIG. 7, as a sensor type, a laser range finder (LRF) is used, a camera is used, and a laser range finder (LRF) and a camera are used. The characteristics are cost, detection range, and discrimination ability. Environment recognition by two types of sensors has advantages and disadvantages as shown in FIG. 7 in terms of cost, detection range, and discrimination ability. Here, the discrimination ability refers to the ability to identify an object (individual) such as a person or a wall.
図7において、特性が優れている場合は○で、劣っている場合は×で、その中間の場合は△で表している。
それぞれのセンサの特性について具体的に述べる。
In FIG. 7, when the characteristic is excellent, it is indicated by ◯, when it is inferior, it is indicated by ×, and when it is intermediate, it is indicated by Δ.
The characteristics of each sensor will be specifically described.
まず、レーザレンジファインダ(LRF)はカメラに比べて一般に広範囲の画角を有し、検知範囲に優れる。しかし、物体の位置情報のみを取得するセンサであるため、物体同士が検出ライン上で重なった場合に、それぞれの物体を識別する能力に乏しい。 First, a laser range finder (LRF) generally has a wider field angle than a camera and has an excellent detection range. However, since it is a sensor that acquires only the position information of an object, when the objects overlap on the detection line, the ability to identify each object is poor.
次に、カメラは物体の形状と色についての情報を取得できるため、個々の物体を識別する能力に優れている。しかし、カメラの画角はレーザレンジファインダ(LRF)に比べて狭いため、検知範囲が狭い。加えて、カメラから得る情報は二次元的であるため、一次元情報を出力するレーザレンジファインダ(LRF)と比較し、情報の処理にかかるコストが高い。 Next, since the camera can acquire information about the shape and color of an object, it has an excellent ability to identify individual objects. However, since the angle of view of the camera is narrower than that of a laser range finder (LRF), the detection range is narrow. In addition, since the information obtained from the camera is two-dimensional, the cost for processing information is higher than that of a laser range finder (LRF) that outputs one-dimensional information.
これらのセンサの欠点を解決するために、レーザレンジファインダ(LRF)とカメラを組み合わせて用いることが考えられる。レーザレンジファインダ(LRF)とカメラを組み合わせることで、検知範囲と識別能力の両立が実現できる。しかし、センサが出力する情報を処理するコストが高くなる。また、高機能な演算部が必要となるとともに処理負荷が大きくなることに伴い発熱量が大きくなることにより演算部を冷却するための冷却装置の搭載が必要となる。このため、環境認識装置をロボットなどに組み込む際に設計上の制約が発生する。 In order to solve the drawbacks of these sensors, it is conceivable to use a laser range finder (LRF) and a camera in combination. By combining a laser range finder (LRF) and a camera, it is possible to realize both the detection range and the discrimination capability. However, the cost for processing the information output from the sensor increases. In addition, a high-function computing unit is required, and as the processing load increases, the amount of heat generation increases, so that it is necessary to mount a cooling device for cooling the computing unit. For this reason, design restrictions occur when the environment recognition apparatus is incorporated into a robot or the like.
本実施形態においては、レーザレンジファインダ(LRF)とリニアイメージセンサの組み合わせによる環境認識を行うべく、まず、レーザレンジファインダ(LRF)によって広範囲の環境認識を行い、周囲に存在する物体の数と位置を把握する。その後、リニアイメージセンサを個々の物体に対して向けることで、物体の形状と色についての情報を取得する。物体毎の形状と色を比較することで、個々の物体を識別する。ここで、リニアイメージセンサが出力する情報は一次元的であり、カメラに比べて情報を処理するのに必要なコストが少ない。そのため、従来の環境認識装置に比べ演算負荷が軽くなることから冷却装置での消費電力の少なく、カメラに比べリニアイメージセンサを用いることにより小型の環境認識装置を実現できる。その結果、従来品よりも計算コストが低く小型な環境認識装置を構築できる。 In the present embodiment, in order to perform environment recognition using a combination of a laser range finder (LRF) and a linear image sensor, first, a wide range of environment recognition is performed by the laser range finder (LRF), and the number and positions of objects present in the vicinity. To figure out. After that, by directing the linear image sensor toward each object, information on the shape and color of the object is acquired. Individual objects are identified by comparing the shape and color of each object. Here, the information output from the linear image sensor is one-dimensional, and the cost required to process the information is less than that of the camera. For this reason, the calculation load is lighter than that of the conventional environment recognition device, so that the power consumption of the cooling device is small, and a compact environment recognition device can be realized by using a linear image sensor compared to the camera. As a result, it is possible to construct a small environment recognition device with a lower calculation cost than the conventional product.
上記実施形態によれば、以下のような効果を得ることができる。
(1)環境認識装置10の構成として、基台20に装着され、基台20の周囲に存在する物体の位置情報を取得する第1のセンサ30と、基台20に装着され、第1のセンサ30の画角よりも狭い画角を有し、基台20の周囲に存在する物体の画像情報を取得する第2のセンサ40を備える。さらに、環境認識装置10は、第1のセンサ30により取得した物体の位置情報から第2のセンサ40の視界に物体を入れることにより取得した第2のセンサ40による物体の画像情報、及び、第1のセンサ30により取得した物体の位置情報から周囲の環境を認識する演算部50を備える。よって、容易に周囲の環境を認識することができる。
According to the above embodiment, the following effects can be obtained.
(1) As a configuration of the
(2)基台20に、第2のセンサ40を物体に向かせるための向き変更手段としてのアクチュエータ60を更に備える。よって、容易に第2のセンサ40を物体に向かせることができる。
(2) The
(3)第1のセンサ30はレーザレンジファインダ(LRF)であり、第2のセンサ40はリニアイメージセンサであるので、実用的である。
(4)演算部50は、第1のセンサ30であるレーザレンジファインダによって基台20の周囲に存在する物体の数と位置を検知し、第2のセンサ40であるリニアイメージセンサによって物体の形状と色を検知し、この物体の位置と形状と色から、保存してある参照情報と照合する。よって、時系列で周囲の環境を認識することができる。
(3) Since the
(4) The
実施形態は前記に限定されるものではなく、例えば、次のように具体化してもよい。
○ 図6に示すように、4輪オムニホイール車両等の車体を旋回させることでリニアイメージセンサ(40)の向きを変更するようにしてもよい。この場合、追加のアクチュエータが不要である。つまり、図6においては、基台21における左右には車輪22,23が設けられ、車輪22又は車輪23を正逆回転する、あるいは、車輪22及び車輪23を正逆回転することにより、その場所での旋回によって基台20の向きを変えて第2のセンサ40を物体に向かせる。
The embodiment is not limited to the above, and may be embodied as follows, for example.
As shown in FIG. 6, the orientation of the linear image sensor (40) may be changed by turning a vehicle body such as a four-wheel omni-wheel vehicle. In this case, no additional actuator is required. That is, in FIG. 6,
○ 第1のセンサ30はレーザレンジファインダ(LRF)であったが、超音波方式のセンサであってもよい。
○ 第2のセンサ40はリニアイメージセンサであったが、これに限ることはない。つまり、色(カラー)についての情報も取得できるものであったが白黒の情報を取得できるものであってもよい。
The
The
○ 第2のセンサとしてリニアイメージセンサを用いたが、これに限ることはない。例えば、一次元画像に代わり二次元画像をとることができるセンサであってもよい。
○ 車両に環境認識装置10を搭載したが、これに限らない。例えば、移動ロボットに環境認識装置10を搭載してもよい。
○ Although a linear image sensor is used as the second sensor, the present invention is not limited to this. For example, a sensor that can take a two-dimensional image instead of a one-dimensional image may be used.
O Although
10…環境認識装置、20…基台、30…第1のセンサ、40…第2のセンサ、50…演算部、60…アクチュエータ。
DESCRIPTION OF
Claims (4)
前記基台に装着され、前記第1のセンサの画角よりも狭い画角を有し、基台の周囲に存在する物体の画像情報を取得する第2のセンサと、
前記第1のセンサにより取得した物体の位置情報から前記第2のセンサの視界に物体を入れることにより取得した前記第2のセンサによる物体の画像情報、及び、前記第1のセンサにより取得した物体の位置情報から周囲の環境を認識する演算部と、
を備えることを特徴とする環境認識装置。 A first sensor mounted on a base and for acquiring position information of an object existing around the base;
A second sensor mounted on the base and having an angle of view narrower than the angle of view of the first sensor, and acquiring image information of an object existing around the base;
Image information of the object obtained by the second sensor obtained by putting the object in the field of view of the second sensor from the position information of the object obtained by the first sensor, and the object obtained by the first sensor A computing unit that recognizes the surrounding environment from the position information of
An environment recognition apparatus comprising:
前記第1のセンサであるレーザレンジファインダによって基台の周囲に存在する物体の数と位置を検知し、前記第2のセンサであるリニアイメージセンサによって物体の形状と色を検知し、この物体の位置と形状と色から、保存してある参照情報と照合することを特徴とする請求項3に記載の環境認識装置。
The computing unit is
The number and position of an object existing around the base are detected by the laser range finder as the first sensor, and the shape and color of the object are detected by the linear image sensor as the second sensor. 4. The environment recognition apparatus according to claim 3, wherein the reference information stored is collated from the position, shape and color.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017043054A JP2018146440A (en) | 2017-03-07 | 2017-03-07 | Environment recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017043054A JP2018146440A (en) | 2017-03-07 | 2017-03-07 | Environment recognition device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018146440A true JP2018146440A (en) | 2018-09-20 |
Family
ID=63591969
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017043054A Pending JP2018146440A (en) | 2017-03-07 | 2017-03-07 | Environment recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018146440A (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003044859A (en) * | 2001-07-30 | 2003-02-14 | Matsushita Electric Ind Co Ltd | Device for tracing movement and method for tracing person |
JP2004280451A (en) * | 2003-03-14 | 2004-10-07 | Matsushita Electric Works Ltd | Autonomous moving device |
JP2011145812A (en) * | 2010-01-13 | 2011-07-28 | Ihi Corp | Laser sensor and detection target determination method using the same |
JP2011158278A (en) * | 2010-01-29 | 2011-08-18 | Pasuko:Kk | Method and device for filtering laser data |
US20140132758A1 (en) * | 2012-11-15 | 2014-05-15 | Videoiq, Inc. | Multi-dimensional virtual beam detection for video analytics |
JP2014154898A (en) * | 2013-02-05 | 2014-08-25 | Nissan Motor Co Ltd | Object detection device |
CN105957107A (en) * | 2016-04-27 | 2016-09-21 | 北京博瑞空间科技发展有限公司 | Pedestrian detecting and tracking method and device |
-
2017
- 2017-03-07 JP JP2017043054A patent/JP2018146440A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003044859A (en) * | 2001-07-30 | 2003-02-14 | Matsushita Electric Ind Co Ltd | Device for tracing movement and method for tracing person |
JP2004280451A (en) * | 2003-03-14 | 2004-10-07 | Matsushita Electric Works Ltd | Autonomous moving device |
JP2011145812A (en) * | 2010-01-13 | 2011-07-28 | Ihi Corp | Laser sensor and detection target determination method using the same |
JP2011158278A (en) * | 2010-01-29 | 2011-08-18 | Pasuko:Kk | Method and device for filtering laser data |
US20140132758A1 (en) * | 2012-11-15 | 2014-05-15 | Videoiq, Inc. | Multi-dimensional virtual beam detection for video analytics |
JP2014154898A (en) * | 2013-02-05 | 2014-08-25 | Nissan Motor Co Ltd | Object detection device |
CN105957107A (en) * | 2016-04-27 | 2016-09-21 | 北京博瑞空间科技发展有限公司 | Pedestrian detecting and tracking method and device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108137096B (en) | System for parking a vehicle | |
TWI687652B (en) | Distance sensor (2) | |
EP2693366B1 (en) | Robots comprising projectors for projecting images on identified projection surfaces | |
US20180081053A1 (en) | Video to radar | |
JP2010064546A (en) | Parking assist device | |
WO2009081920A1 (en) | Moving state estimation device | |
CN111975745B (en) | Robot system | |
US11796999B2 (en) | Systems and methods for monitoring a self-driving vehicle | |
JP2018106695A (en) | Method of operating autonomously traveling transfer vehicle | |
US11729367B2 (en) | Wide viewing angle stereo camera apparatus and depth image processing method using the same | |
US20210255630A1 (en) | Mobile object control apparatus, mobile object control method, and program | |
JP2018173707A (en) | Person estimation system and estimation program | |
EP3729243A1 (en) | User-wearable systems and methods to collect data and provide information | |
JP2006302035A5 (en) | ||
JP2019008531A (en) | Mobile vehicle | |
JP2018146440A (en) | Environment recognition device | |
JP6516241B2 (en) | Gesture input device | |
KR20170022357A (en) | Automatic parking method and system | |
Pidurkar et al. | Monocular camera based computer vision system for cost effective autonomous vehicle | |
CN110871440B (en) | Method and device for controlling robot running | |
JP2009026209A (en) | Autonomous moving device | |
KR20040045572A (en) | Method calculating rotated angles of robot cleaner | |
JP2020154764A (en) | Information processing apparatus and reading system | |
Zhang et al. | An interactive control system for mobile robot based on cloud services | |
CN110069065B (en) | AGV website positioning system based on laser navigation and picture discernment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190607 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200610 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200616 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200812 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201222 |