JP2020042446A - Information processing system, information processing method, and information processing program - Google Patents
Information processing system, information processing method, and information processing program Download PDFInfo
- Publication number
- JP2020042446A JP2020042446A JP2018168234A JP2018168234A JP2020042446A JP 2020042446 A JP2020042446 A JP 2020042446A JP 2018168234 A JP2018168234 A JP 2018168234A JP 2018168234 A JP2018168234 A JP 2018168234A JP 2020042446 A JP2020042446 A JP 2020042446A
- Authority
- JP
- Japan
- Prior art keywords
- unobservable
- reaction object
- state
- information processing
- reaction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、光学情報を処理する情報処理システム、情報処理方法、及び情報処理プログラムに関する。 The present invention relates to an information processing system for processing optical information, an information processing method, and an information processing program.
従来より、移動体に設置されたカメラで撮像された画像を分析することで、他の移動体等の物体を検知して、移動体の移動支援や自動運転を行うシステムが知られている。このようなシステムとして、例えば、車載カメラの撮像画像を分析することで、車両の前方の歩行者や他車両を検知して、運転者に警告を出力する運転支援システムが実用化されている(例えば、特許文献1)。 2. Description of the Related Art Conventionally, there has been known a system that analyzes an image captured by a camera installed on a moving body, detects an object such as another moving body, and performs movement support or automatic driving of the moving body. As such a system, for example, a driving support system that detects a pedestrian or another vehicle ahead of a vehicle by analyzing an image captured by a vehicle-mounted camera and outputs a warning to the driver has been put into practical use ( For example, Patent Document 1).
しかしながら、従来のシステムでは、カメラの撮像画像に映り込む物体は検出できるが、他の物体に遮蔽された物体や画角外の物体など、撮像画像に映らない物体の存在に基づいて運転支援や自動運転のための情報を得ることはできなかった。 However, in the conventional system, an object reflected in a captured image of a camera can be detected, but driving assistance or the like is performed based on the presence of an object not reflected in the captured image, such as an object shielded by another object or an object out of the angle of view. No information was available for autonomous driving.
そこで、本発明は、撮像画像に映らない物体の存在の情報を得ることができる情報処理システム、情報処理方法、及び情報処理プログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide an information processing system, an information processing method, and an information processing program that can obtain information on the presence of an object that does not appear in a captured image.
本発明の一態様の情報処理システムは、光学的なセンシングによって所定範囲内の光学情報を生成する光学センシング部(10)と、前記光学情報から反応物体を検出する反応物体検出部(22)と、前記光学情報に基づいて、前記反応物体の状態を認識する状態認識部(23)と、前記反応物体の状態に基づいて、前記光学情報から検出されない観察不能物体の存在を推定する存在推定部(24)とを備えた構成を有する。 An information processing system according to one embodiment of the present invention includes an optical sensing unit (10) that generates optical information within a predetermined range by optical sensing, and a reactive object detection unit (22) that detects a reactive object from the optical information. A state recognizing unit (23) for recognizing a state of the reactive object based on the optical information; and a presence estimating unit for estimating the presence of an unobservable object not detected from the optical information based on the state of the reactive object. (24).
本発明によれば、撮像画像に映っている反応物体の状態に基づいて、観察不能領域にある観察不能物体の存在を推定するので、カメラでは撮像できない観察不能物体についても、その存在を推定することができる。 According to the present invention, the presence of an unobservable object in an unobservable region is estimated based on the state of a reaction object reflected in a captured image. Therefore, the presence of an unobservable object that cannot be imaged by a camera is also estimated. be able to.
以下、図面を参照して本発明の実施の形態を説明する。なお、以下に説明する実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明の実施にあたっては、実施の形態に応じた具体的構成が適宜採用されてよい。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiment described below shows an example in which the present invention is implemented, and the present invention is not limited to the specific configuration described below. In carrying out the present invention, a specific configuration according to the embodiment may be appropriately adopted.
図1は、本発明の実施の形態の情報処理システムの利用状況を示す図である。図1の例では、本発明の実施の形態の情報処理システム100が車両C1に適用されている。また、図1の例では、情報処理システム100が適用された車両C1が道路を走行しており、交差点に差し掛かっている。車両C1には、情報処理システム100を構成する光学センシング装置10が設けられている。
FIG. 1 is a diagram showing a use situation of the information processing system according to the embodiment of the present invention. In the example of FIG. 1, the
本実施の形態において、光学センシング装置10は、撮像をすることでカラーの画像を生成するカメラである。カメラの光軸は、車両C1の前方を向いており、車両C1の前方を撮像可能である。カメラは、画角Fで撮像可能である。しかしながら、左右の建造物によって遮蔽される図1中の斜線領域は、カメラの死角となり、カメラの撮像画像によって直接その状況を把握することはできない。また、当然ながら画角Fの外側についてもカメラの撮像画像によって直接その状況を把握することはできない。図1の例では、車両C1の前方の交差点に横方向から侵入しようとする車両C2は、カメラの死角にあり、カメラの撮像画像には映らない。
In the present embodiment, the
一方で、図1の例では、交差点の向こう側には反応物体Rとしての歩行者がおり、車両C1の方を向いている。この歩行者は、他の物体に遮蔽されることなくカメラによって観察され、撮像画像内に映り込む。 On the other hand, in the example of FIG. 1, a pedestrian as the reactive object R is located on the other side of the intersection, and is facing the vehicle C1. This pedestrian is observed by the camera without being blocked by another object, and is reflected in the captured image.
図2は、図1の車両C1に搭載された光学センシング装置10によって撮像される画像を示す図である。撮像画像内の左右の斜線領域は、撮像画像の死角領域O1、O2である。また、撮像画像の左右の周囲の外側の斜線領域は、撮像画像の画角外領域O3、O4である。
FIG. 2 is a diagram illustrating an image captured by the
左側の死角領域O1には壁の向こう側に車両C2が存在しているが、この車両C2は撮像画像には映っていない。また、右側の死角領域O2についても、壁の背後に他車両がいたとしても当該他車両は撮像画像には映らない。さらに、画角外領域O3、O4についても、当然ながら他車両がいたとしても当該他車両は撮像画像には映らない。以下では、これらの死角領域O1、O2、及び画角外領域O3、O4のように観察不能な物体(以下、「観察不能物体」という。)がいる可能性がある領域を「観察不能領域」という。 Although the vehicle C2 exists behind the wall in the blind spot area O1 on the left side, the vehicle C2 is not shown in the captured image. Also, regarding the blind spot area O2 on the right side, even if there is another vehicle behind the wall, the other vehicle is not reflected in the captured image. Further, regarding the out-of-view areas O3 and O4, even if there is another vehicle, the other vehicle is not reflected in the captured image. In the following, a region where there is a possibility that an unobservable object (hereinafter, referred to as an “unobservable object”) such as the blind spot regions O1 and O2 and the out-of-angle regions O3 and O4 is referred to as an “inobservable region”. That.
一方で、前方の交差点の向こう側には反応物体Rとしての歩行者が映っている。本実施の形態の情報処理システム100は、図1のような状況で図2のような撮像画像が得られた場合に、この撮像画像を用いて、観察不能領域に観察不能物体が存在するかを推定することで、図1の例において死角領域O1に車両C2が存在することを推定しようとするものである。
On the other hand, a pedestrian as a reaction object R is reflected on the other side of the front intersection. The
図3は、本発明の実施の形態の情報処理システムの構成を示すブロック図である。情報処理システム100は、光学センシング装置10と、情報処理装置20とを備えている。光学センシング装置10は、光学センシング手段を用いて所定範囲内の光学情報を生成する。本実施の形態では、光学センシング手段として光学系、撮像素子、画像処理プロセッサ等を含むカメラを採用する。このカメラは、光学情報として、カメラの画角に応じた2次元カラー画像を生成する。
FIG. 3 is a block diagram showing a configuration of the information processing system according to the embodiment of the present invention. The
情報処理装置20は、光学センシング装置10で撮像によって生成された撮像画像を入力して、この撮像画像に基づいて、この撮像画像から検出されない観察不能物体の存在を推定する。このために、情報処理装置20は、領域設定部21、反応物体検出部22、状態認識部23、及び存在推定部24を備えている。なお、情報処理装置20は、プロセッサ、メモリ、記憶装置等からなるコンピュータが、所定のプログラムを実行することで実現される。
The
情報処理装置20は、車両に搭載され、車両内で観察不能物体の存在を推定する。なお、情報処理装置20の一部または全部の構成が、他のコンピュータに備えられていてもよい。この場合に、情報処理装置20の一部または全部を搭載した車両と光学センシング装置10を搭載した車両とは通信可能である。この場合は、光学センシング装置10は、得られた光学情報を情報処理装置20に送信する。
The
領域設定部21は、光学センシング装置10から入力された画像において観察不能物体の存在を推定する対象とする観察不能領域を設定する。具体的には、領域設定部21は、光学センシング装置10から入力された撮像画像から死角領域を検出し、この死角領域を観察不能領域として設定する。画像から死角領域を検出する方法としては、任意の方法を用いることができる。例えば、ニューラルネットワーク等の機械学習によって大量の車載カメラの画像の死角領域を学習しておくことで、光学センシング装置10から入力された画像から死角領域を検出してもよい。
The
また、領域設定部21は、光学センシング装置10から入力された画像の所定方向の周囲にある画角外領域を観察不能領域として設定する。本実施の形態では、領域設定部21は、画像の左右の周囲にある画角外領域を観察不能領域として設定する。
In addition, the
反応物体検出部22は、光学センシング装置10から入力された撮像画像から反応物体を検出する。この反応物体検出にも、ニューラルネットワーク等の機械学習による推定を採用することができる。具体的には、反応物体検出部22は、R−CNN(Regions with Convolutional Neural Networks)、Faster−RCNN、SSD(Single Shot Multibox Detector)、Yolo(You only lock once)、Mask R−CNN等によって撮像画像から反応物体を検出できる。
The reactive
反応物体検出部22は、まず、撮像画像から物体を検出して、検出した物体にアノテーションを行って、アノテーションデータとして「歩行者」、「車両」、「二輪車」、「自転車」、「横断歩道」、「標識」等のラベルを付す。これらのラベルのうち、移動可能な物体についてはその旨のタグが付されている。反応物体検出部22は、検出した物体に付されたラベルに移動可能な物体である旨のタグが付されている場合に、その物体を反応物体として検出する。本実施の形態では、「歩行者」、「車両」、「二輪車」、「自転車」のラベルに、移動する物体である旨のタグが付されている。
The reaction
反応物体とは、周りの環境に応じて反応する物体である。即ち、歩行者、車両、二輪車、自転車は、周囲の障害物(他の車両等)に反応して、移動を停止する、急いで移動する等の反応をする。歩行者の場合には、さらに、周囲の障害物に反応して、視線を向ける、驚く等の反応をすることもある。 A reaction object is an object that reacts according to the surrounding environment. That is, pedestrians, vehicles, two-wheeled vehicles, and bicycles react to surrounding obstacles (other vehicles and the like) and stop responding or move in a hurry. In the case of a pedestrian, the robot may react to surrounding obstacles, turn the gaze, and react in a surprising manner.
状態認識部23は、観察不能物体の存在を推定するために、反応物体検出部22にて検出された反応物体について、撮像画像に基づいて、当該反応物体の状態を認識する。本実施の形態では、状態認識部23は、歩行者、車両、二輪車、自転車等の状態として、停止している、移動している等の反応物体の行動を推定する。状態認識部23も、ニューラルネットワーク等の機械学習によって、ある反応物体に対応する状態を大量に学習しておくことで、反応物体の状態を認識できる。
The
状態認識部23は、反応物体の状態をラベリングする。反応物体の状態は、反応物体毎に定義されている。例えば、歩行者については、状態ラベルとして、停止、歩行、早歩き、駆け足、左側注視、右側注視、驚き、挙手等のラベルが用意されている。また、例えば、車両については、状態ラベルとして、停車、走行、徐行、左ウィンカ、右ウィンカ、ハザード、左折、右折、後退等のラベルが用意されている。
The
存在推定部24は、状態認識部23にて認識された反応物体の状態に基づいて、画像から検出されない観察不能物体の存在を推定する。存在推定部24は、まず、検出された反応物体の位置と、当該反応物体の状態とに基づいて、観察不能物体の存在を推定する死角領域と反応物体とを対応付ける。本実施の形態では、検出された反応物体に最も近い死角領域について、当該反応物体の状態に基づいて当該死角領域における観察不能物体の存在を推定する。
The
このために、存在推定部24は、検出された観察不能領域及び反応物体のそれぞれの重心を求める。存在推定部24は、各反応物体の重心と、各観察不能領域の重心との間の距離を求め、各観察不能領域について、重心間の距離が最も近い反応物体を対応付ける。そして、存在推定部24は、各観察不能領域に対応付けられた反応物体の状態に基づいて、当該観察不能領域における観察不能物体の存在を推定する。
For this purpose, the
存在推定部24は、状態認識部23で認識された反応物体の状態と、当該反応物体に対応付けられた観察不能領域における観察不能物体の存在確率との対応関係を規定したルールテーブルを有する。
The
図4は、反応物体が歩行者である場合のルールテーブルの例を示す図である。この例では、歩行者の状態として、驚く、立ち止まる、方向転換、急ぐ、一定速度が定義されており、それぞれについて、当該歩行者に対応する観察不能領域における観察不能物体の存在確率が規定されている。存在推定部24は、ルールテーブルを参照して、状態認識部23にて認識された反応物体の状態に対応する観測不能物体の存在確率を求めることで、観察不能物体の存在を推定する。存在推定部24は、推定結果として観察不能物体の存在確率を出力する。
FIG. 4 is a diagram illustrating an example of a rule table when the reaction object is a pedestrian. In this example, as the state of the pedestrian, surprise, stop, change direction, hurry, and constant speed are defined, and for each of them, the existence probability of the unobservable object in the unobservable area corresponding to the pedestrian is defined. I have. The
存在推定部24から出力された推定結果は、種々の用途に用いることができる。例えば、情報処理システム100が車両に適用される場合には、車両は、推定結果に基づいて、制動等の車両制御を行ってよく、あるいは、運転者に注意喚起をしてもよい。
The estimation result output from the
図5は、本実施の形態の情報処理システムの動作フロー図である。まず、光学センシング装置10は、撮像を行って撮像画像を生成する(ステップS51)。次に、領域設定部21は、撮像画像から死角領域を検出し、画角外領域とともに、観察不能領域として設定する(ステップS52)。具体的には、領域設定部21は、死角領域があればそれらを検出し、死角領域がない場合には周囲の画角外領域のみを観察不能領域として設定する。
FIG. 5 is an operation flowchart of the information processing system according to the present embodiment. First, the
反応物体検出部22は、撮像画像から反応物体を検出する(ステップS53)。撮像画像から反応物体が検出されなかった場合には(ステップS53にてNO)、そのまま処理を終了する。撮像画像に反応物体がある場合には、反応物体検出部22は、撮像画像から反応物体がラベリングされて検出される(ステップS53にてYES)。
The reaction
状態認識部23は、検出された反応物体の状態を認識する(ステップS54)。なお、領域設定部21による領域設定の処理(ステップS52)と、物体検出部22による物体検出処理(ステップS53)及び状態認識部23による状態認識処理(ステップS54)とは、並行して行ってよい。
The
存在推定部24は、領域設定部21にて設定された観察不能領域と、状態認識部23にて認識された反応物体の状態とに基づいて、観察不能物体の存在を推定する(ステップS55)。
The
図6は、存在推定部24による存在推定処理の動作フロー図である。存在推定部24は、まず、領域設定部21にて設定された観察不能領域をすべて読み出し(ステップS61)、各観察不能領域について、対応する反応物体を決定する(ステップS62)。
FIG. 6 is an operation flowchart of the presence estimation process by the
各観察不能領域について、対応する反応物体が決定された場合には(ステップS62にてYES)、当該観察不能領域について、当該対応する反応物体の状態とルールテーブルから観察不能物体の存在を推定する(ステップS63)。各観察不能領域について、対応する反応物体が決定できない場合には(ステップS62にてNO)、存在推定部24は、当該観察不能領域について観察不能物体が存在するかは不明であると判断する(ステップS64)。
When a corresponding reactive object is determined for each unobservable region (YES in step S62), the presence of the unobservable object is estimated from the state of the corresponding reactive object and the rule table for the unobservable region. (Step S63). If a corresponding reaction object cannot be determined for each unobservable region (NO in step S62), the
存在推定部24は、すべての観察不能領域について、推定結果を出力する(ステップS65)。具体的には、観察不能物体の存在を推定できた観察不能領域については推定結果として観察不能物体の存在確率を出力し、観察不能物体の存在が推定できなかった観察不能領域については不明であるとの推定結果を出力する。
The
以上のように、本実施の形態の情報処理システム100によれば、撮像画像に映っている反応物体の状態に基づいて、観察不能領域にある観察不能物体の存在を推定するので、カメラでは撮像できない観察不能物体についても、その存在を推定することができる。上記の実施の形態は、本発明の一態様に過ぎず、種々の変形が可能である。以下、変形例を説明する。
As described above, according to the
上記の実施の形態の情報処理システム100は、光学センシング装置10が車両に搭載されて、車両の前方における観察不能物体の存在を推定するものであったが、本発明の情報処理システムは、他の用途にも応用可能である。例えば、情報処理システム100は、自律移動ロボットに適用可能である。この場合には、光学センシング装置10がロボットに設置され、ロボットが自律的に移動するにあたって、進行方向前方の曲がり角の死角に観察不能物体としての人がいることを推定することができる。また、そのような人の存在を推定することで、推定結果に基づいて大回りで移動する等の自律移動制御を行うことができる。
The
また、情報処理システム100は、フォークリフトに適用可能である。この場合には、フォークリフトに光学センシング装置10を設置し、例えば、前方の曲がり角の死角に観察不能物体がいることを推定して、推定結果に基づいてブザーや振動で運転者に注意喚起をすることができる。また、情報処理システム100は、視覚障碍者支援システムに適用できる。この場合には、視覚障碍者が光学センシング装置10を所持ないし装着し、例えば、前方の曲がり角の死角に観察不能物体として人や車両がいることを推定して、推定結果に基づいてブザーや振動で視覚障碍者に注意喚起をすることができる。さらに、情報処理システム100は、ウェアラブルカメラやアクションカメラにも適用可能である。この場合には、死角に人がいるかもしれないことをブザーや振動でユーザに知らせることができる。
Further, the
また、上記の実施の形態では、光学センシング装置10としてカメラを用い、光学情報として画像を生成し、情報処理装置20は、光学センシング装置10で得られた1枚の撮像画像を処理することで観察不能物体の存在を推定したが、情報処理装置20は複数枚の連続する画像を処理することで観察不能物体の存在を推定してもよい。
In the above embodiment, a camera is used as the
この場合には、カメラは、連続して撮像を行って、連続的な撮像画像を生成して情報処理装置20に出力する。情報処理装置20の反応物体検出部22は、これらの連続的な撮像画像に基づいて反応物体を検出することができる。また、状態認識部23も、連続的な撮像画像に基づいて反応物体の状態を認識することができる。このように空間的な情報だけでなく時系列の情報も用いることで、反応物体検出部22や状態認識部23は、Two−Stream CNN、C3D、RNN(Recurrent Neural Network)、LSTM(Long Short-Term Memory)等の技術を用いて反応物体を検出したり、反応物体の状態を認識したりすることができる。
In this case, the camera continuously captures images, generates continuous captured images, and outputs the images to the
また、上記の実施の形態では、反応物体検出部22が反応物体を検出して、状態認識部23が検出された反応物体の状態を認識したが、これらの処理を同時に行ってもよい。即ち、撮像画像から反応物体を検出する際に、同時にその反応物体の状態も認識してよい。例えば、停止している歩行者、左ウィンカを出している車両のように反応物体を検出してよい。特に、画像情報に加えて時系列の情報を用いることで、このような検出を有効に行うことができる。
Further, in the above-described embodiment, the reaction
また、上記の実施の形態では、光学センシング装置10として、撮像によって画像を生成するカメラ(即ち、単眼カメラ)を採用したが、光学センシング装置10は、光学的なセンシングによって所定範囲内の光学情報を生成するものであれば、他の態様であってもよい。例えば、光学センシング装置10は、画角内の3次元情報を取得する3次元撮像システムであってよい。3次元撮像システムとしての光学センシング装置10は、ステレオカメラであってよく、あるいは、単眼カメラに加えて、赤外線デプスセンサ、超音波センサ、ミリ波レーダ、LiDAR(Light Detection and Ranging)を用いて距離画像を生成するシステムであってもよい。
Further, in the above-described embodiment, a camera that generates an image by imaging (that is, a monocular camera) is adopted as the
このように、光学センシング装置10が、光学情報として、平面的な情報だけでなく、立体情報又は距離情報等の3次元情報を得ることで、領域設定部21において、死角領域を好適に検出することができる。領域設定部21は、立体情報又は距離情報に基づいて、デプスの飛び値に基づいて死角領域を検出することができる。
As described above, the
また、上記の実施の形態では、存在推定部24は、各観察不能領域について、当該領域に最も近い反応物体を対応付けて、対応付けられた反応物体の状態に基づいて当該観察不能領域における観察不能物体の存在を推定した。この場合には、1つの反応物体が複数の観察不能領域に対応付けられることがある一方で、いずれの反応物体にも対応付けられない観察不能領域も存在し得る。
Further, in the above embodiment, the
観察不能領域と反応物体との対応付けは上記に限られない。存在推定部24は、各反応物体について、重心間距離が最も近い観察不能領域を対応付けてもよい。この場合には、1つの観察不能領域が複数の反応物体に対応付けられることがある一方で、いずれの観察不能領域にも対応付けられない反応物体も存在し得る。
The association between the unobservable region and the reaction object is not limited to the above. The
また、存在推定部24は、すべての観察不能領域とすべての反応物体との重心間距離を求めて、重心間距離が所定の閾値以下であるすべての観察不能領域と反応物体とを対応付けてもよい。また、存在推定部24は、重心間距離が所定値以下である最も近い反応物体と観察不能領域とを対応付けてもよい。
The
さらに、存在推定部24は、状態認識部23が人間(歩行者や車両の運転手)の視線方向を認識して、存在推定部24が視線方向に基づいて観察不能領域と反応物体との対応付けを行ってよい。例えば、歩行者の視線が観察不能領域を通過する場合に、それらの歩行者と観察不能領域とを対応付けてよい。また、歩行者の視線と観察不能物体の重心との距離が所定値以下である場合に、それらの歩行者と観察不能領域とを対応付けてよい。
Further, the
また、上記の実施の形態では、存在推定部24は、観察不能領域と反応物体との間の距離を評価するのに、重心間距離を用いたが、これに限らず、例えば、反応物体の重心と、観察不能領域におけるその反応物体の重心に最も近い部分との間の距離に基づいて、対応付けを行ってよい。また、存在推定部24は、反応物体の重心以外の点を基準点として、観察不能領域と反応物体との間の距離を測ってもよい。
In the above embodiment, the
また、上記の実施の形態では、存在推定部24は、推定結果として、各観察不能領域について観察不能物体が存在する確率を出力したが、この確率を閾値処理して、観察不能物体が存在するかしないかを推定結果として出力してよい。また、存在推定部24は、閾値処理をすることで、存在する、存在しないという2値の判断ではなく、存在確率を低、中、高等として複数段階に離散的に表現する推定結果を出力してもよい。さらに、存在推定部24は、存在確率が所定の閾値以上である場合にのみ、その旨の信号を出力してもよい。
In the above embodiment, the
また、領域設定部21は、撮像画像から観察不能領域として死角領域を検出するが、検出された反応物体と観察不能領域との対応付けができれば、この死角領域は撮像画像から厳密に正確な位置及び形状で検出されなくてもよいものであり、それが存在する画像内のおよその位置及び形状が特定されればよいものである。
The
また、画角外領域については、撮像画像の縁に基準点を設定して、この基準点と反応物体の基準点(例えば、重心)との位置関係に基づいて対応付けを行ってもよい。なお、領域設定部21は、観察不能領域として死角領域を検出せずに、画角外領域のみを設定してもよく、逆に、画角外領域は設定せずに死角領域のみを検出して設定してもよい。
In addition, a reference point may be set at the edge of the captured image for the area outside the angle of view, and may be associated based on the positional relationship between the reference point and the reference point (for example, the center of gravity) of the reaction object. Note that the
また、上記の実施の形態では、存在推定部24は、ルールテーブルを参照して、認識した状態に対応する存在確率を求めたが、観察不能物体の存在を推定する方法はこれに限られない。存在推定部24は、例えば、反応物体の状態に対応する観察不能物体の存在のデータを収集して、統計確率で観察不能物体の存在を推定してもよい。また、存在推定部24は、ニューラルネットワーク等の機械学習によって、反応物体の状態に対応する観察不能物体の存在確率を求めてもよい。
Further, in the above embodiment, the
さらに、存在推定部24は、1つの観察不能領域に対して複数の反応物体が対応付けられている場合に、各反応物体に基づいて推定される存在確率の最大確率を出力としてもよいし、各反応物体に基づいて推定される存在確率の重み付け和をとることで、観察不能物体の存在確率を求めてもよい。
Furthermore, when a plurality of reaction objects are associated with one unobservable region, the
また、存在推定部24は、反応物体の状態に応じて観察不能物体の存在確率を求めるのみでなく、その内容、即ち観察不能物体が何であるのかを推定するようにしてよい。
Further, the
また、上記の実施の形態では、光学センシング装置10と情報処理装置20とが別体の装置として情報処理システム100が構成されていたが、これらが一体となって情報処理システム100が構成されてもよい。
Further, in the above-described embodiment, the
以上のように、本発明は、撮像画像に映っている反応物体の状態に基づいて、観察不能領域にある観察不能物体の存在を推定するので、カメラでは撮像できない観察不能物体についても、その存在を推定することができるという効果を有し、光学情報を処理する情報処理システム等として有用である。 As described above, the present invention estimates the presence of an unobservable object in an unobservable region based on the state of a reaction object reflected in a captured image. Can be estimated, and is useful as an information processing system or the like for processing optical information.
10 光学センシング装置,20 情報処理装置,21 領域設定部,
22 反応物体検出部,23 状態認識部,24 存在推定部
10 optical sensing device, 20 information processing device, 21 area setting unit,
22 Reaction object detection unit, 23 State recognition unit, 24 Presence estimation unit
Claims (13)
前記光学情報から反応物体を検出する反応物体検出部(22)と、
前記光学情報に基づいて、前記反応物体の状態を認識する状態認識部(23)と、
前記反応物体の状態に基づいて、前記光学情報から検出されない観察不能物体の存在を推定する存在推定部(24)と、
を備えた、情報処理システム。 An optical sensing unit (10) for generating optical information within a predetermined range by optical sensing;
A reaction object detection unit (22) for detecting a reaction object from the optical information;
A state recognition unit (23) for recognizing a state of the reaction object based on the optical information;
A presence estimating unit (24) for estimating the presence of an unobservable object that is not detected from the optical information based on a state of the reaction object;
An information processing system comprising:
前記存在推定部は、前記観察不能領域における前記観察不能物体の存在を推定する、請求項1に記載の情報処理システム。 An area setting unit (21) for setting an unobservable area to be a target for estimating the presence of the unobservable object;
The information processing system according to claim 1, wherein the presence estimation unit estimates the presence of the unobservable object in the unobservable region.
前記状態認識部は、連続的に生成された複数の前記光学情報に基づいて、前記反応物体の状態を認識する、請求項1に記載の情報処理システム。 The optical sensing unit continuously generates the optical information,
The information processing system according to claim 1, wherein the state recognition unit recognizes a state of the reaction object based on the plurality of pieces of optical information that are continuously generated.
前記存在推定部は、少なくとも前記反応物体が停止している状態にあるときには、前記観察不能物体が存在すると推定する、請求項1に記載の情報処理システム。 The state recognition unit can recognize at least a state in which the reaction object is stopped and a state in which the reaction object is moving,
The information processing system according to claim 1, wherein the presence estimation unit estimates that the unobservable object exists at least when the reaction object is in a stopped state.
前記存在推定部は、前記反応物体の状態に基づいて、当該反応物体に対応する前記観察不能領域について前記観察不能物体の存在を推定する、請求項2に記載の情報処理システム。 The area setting unit sets the unobservable area closest to the reaction object as an unobservable area corresponding to the reaction object,
The information processing system according to claim 2, wherein the presence estimation unit estimates the presence of the unobservable object in the unobservable region corresponding to the reaction object, based on the state of the reaction object.
前記存在推定部は、前記反応物体の状態に基づいて、当該反応物体に対応する前記観察不能領域について前記観察不能物体の存在を推定する、請求項2に記載の情報処理システム。 The region setting unit sets the unobservable region within a predetermined distance from the reaction object as an unobservable region corresponding to the reaction object,
The information processing system according to claim 2, wherein the presence estimation unit estimates the presence of the unobservable object in the unobservable region corresponding to the reaction object, based on the state of the reaction object.
前記領域設定部は、前記反応物体の注意方向にある前記観察不能領域を当該反応物体に対応する観察不能領域として設定し、
前記存在推定部は、前記反応物体の状態に基づいて、当該反応物体に対応する前記観察不能領域について前記観察不能物体の存在を推定する、請求項2に記載の情報処理システム。 The state recognition unit recognizes the attention direction of the reaction object,
The area setting unit sets the unobservable area in the attention direction of the reaction object as an unobservable area corresponding to the reaction object,
The information processing system according to claim 2, wherein the presence estimation unit estimates the presence of the unobservable object in the unobservable region corresponding to the reaction object, based on the state of the reaction object.
前記光学情報から反応物体を検出する反応物体検出ステップと、
前記光学情報に基づいて、前記反応物体の状態を認識する状態認識ステップと、
前記反応物体の状態に基づいて、前記光学情報から検出されない観察不能物体の存在を推定する存在推定ステップと、
を備えた、情報処理方法。 An imaging step of generating optical information within a predetermined range by optical sensing,
A reaction object detection step of detecting a reaction object from the optical information,
A state recognition step of recognizing a state of the reaction object based on the optical information,
Based on the state of the reaction object, presence estimation step of estimating the presence of an unobservable object not detected from the optical information,
An information processing method comprising:
前記光学情報から反応物体を検出する反応物体検出部、
前記光学情報に基づいて、前記反応物体の状態を認識する状態認識部、及び
前記反応物体の状態に基づいて、前記光学情報から検出されない観察不能物体の存在を推定する存在推定部、
として機能させる情報処理プログラム。 A computer that obtains the optical information from an optical sensing device that generates optical information within a predetermined range by optical sensing,
A reaction object detection unit that detects a reaction object from the optical information,
A state recognition unit that recognizes the state of the reaction object based on the optical information, and a presence estimation unit that estimates the presence of an unobservable object that is not detected from the optical information based on the state of the reaction object.
Information processing program to function as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018168234A JP2020042446A (en) | 2018-09-07 | 2018-09-07 | Information processing system, information processing method, and information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018168234A JP2020042446A (en) | 2018-09-07 | 2018-09-07 | Information processing system, information processing method, and information processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020042446A true JP2020042446A (en) | 2020-03-19 |
Family
ID=69798300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018168234A Pending JP2020042446A (en) | 2018-09-07 | 2018-09-07 | Information processing system, information processing method, and information processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020042446A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022030547A1 (en) * | 2020-08-07 | 2022-02-10 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Monitoring information processing device, monitoring information processing method and monitoring information processing program |
JP2022027306A (en) * | 2020-07-31 | 2022-02-10 | トヨタ自動車株式会社 | Mobile body disturbance detection device, mobile body disturbance detection system, and mobile body disturbance detection program |
JP2022030839A (en) * | 2020-08-07 | 2022-02-18 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Monitor information processing apparatus, monitor information processing method and monitor information processing program |
JP2022030841A (en) * | 2020-08-07 | 2022-02-18 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Monitoring information processing device, monitoring information processing method, and monitoring information processing program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008293099A (en) * | 2007-05-22 | 2008-12-04 | Mazda Motor Corp | Driving support device for vehicle |
JP2015187806A (en) * | 2014-03-27 | 2015-10-29 | 日本精機株式会社 | Alarm system for vehicle |
WO2018158911A1 (en) * | 2017-03-02 | 2018-09-07 | 日産自動車株式会社 | Drive assistance method and drive assistance device |
-
2018
- 2018-09-07 JP JP2018168234A patent/JP2020042446A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008293099A (en) * | 2007-05-22 | 2008-12-04 | Mazda Motor Corp | Driving support device for vehicle |
JP2015187806A (en) * | 2014-03-27 | 2015-10-29 | 日本精機株式会社 | Alarm system for vehicle |
WO2018158911A1 (en) * | 2017-03-02 | 2018-09-07 | 日産自動車株式会社 | Drive assistance method and drive assistance device |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022027306A (en) * | 2020-07-31 | 2022-02-10 | トヨタ自動車株式会社 | Mobile body disturbance detection device, mobile body disturbance detection system, and mobile body disturbance detection program |
JP7359099B2 (en) | 2020-07-31 | 2023-10-11 | トヨタ自動車株式会社 | Mobile object interference detection device, mobile object interference detection system, and mobile object interference detection program |
WO2022030547A1 (en) * | 2020-08-07 | 2022-02-10 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Monitoring information processing device, monitoring information processing method and monitoring information processing program |
JP2022030839A (en) * | 2020-08-07 | 2022-02-18 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Monitor information processing apparatus, monitor information processing method and monitor information processing program |
JP2022030841A (en) * | 2020-08-07 | 2022-02-18 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Monitoring information processing device, monitoring information processing method, and monitoring information processing program |
JP7479988B2 (en) | 2020-08-07 | 2024-05-09 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Monitoring information processing device, monitoring information processing method, and monitoring information processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10144474B2 (en) | Collision detection | |
US9524643B2 (en) | Orientation sensitive traffic collision warning system | |
JP2020042446A (en) | Information processing system, information processing method, and information processing program | |
JP6450294B2 (en) | Object detection apparatus, object detection method, and program | |
JP6453490B2 (en) | Method and apparatus for recognizing and evaluating road surface reflections | |
US20040246114A1 (en) | Image processing system for a vehicle | |
KR102044193B1 (en) | System and Method for alarming collision of vehicle with support vector machine | |
WO2017171082A1 (en) | Vehicle control device and vehicle control method | |
EP2557550A1 (en) | Vehicle periphery monitoring device, vehicle periphery monitoring method, and vehicle device | |
JP6477453B2 (en) | Object detection device and object detection method | |
JP4415856B2 (en) | Method for detecting the forward perimeter of a road vehicle by a perimeter sensing system | |
Aytekin et al. | Increasing driving safety with a multiple vehicle detection and tracking system using ongoing vehicle shadow information | |
JP2009064410A (en) | Method for detecting moving objects in blind spot of vehicle and blind spot detection device | |
KR20130007243A (en) | Method and system for warning forward collision using camera | |
JP2018516799A5 (en) | ||
JP2016045903A (en) | Object recognition device and vehicle control system | |
JP2009237898A (en) | Image recognition device | |
JP4937844B2 (en) | Pedestrian detection device | |
KR20130054637A (en) | Apparatus and method detecting object in automatic parking system | |
Rajendar et al. | Prediction of stopping distance for autonomous emergency braking using stereo camera pedestrian detection | |
KR20160131196A (en) | Device for detecting an obstacle | |
JP5747593B2 (en) | Standard vehicle speed calculation device and program | |
Nayak et al. | Vision-based techniques for identifying emergency vehicles | |
Bruno et al. | Real-Time Pedestrian Detection and Tracking System Using Deep Learning and Kalman filter: Applications on Embedded Systems in Advanced Driver Assistance Systems. | |
KR20190051464A (en) | Autonomous emergency braking apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220401 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220816 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230228 |