JP2020042446A - Information processing system, information processing method, and information processing program - Google Patents

Information processing system, information processing method, and information processing program Download PDF

Info

Publication number
JP2020042446A
JP2020042446A JP2018168234A JP2018168234A JP2020042446A JP 2020042446 A JP2020042446 A JP 2020042446A JP 2018168234 A JP2018168234 A JP 2018168234A JP 2018168234 A JP2018168234 A JP 2018168234A JP 2020042446 A JP2020042446 A JP 2020042446A
Authority
JP
Japan
Prior art keywords
unobservable
reaction object
state
information processing
reaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018168234A
Other languages
Japanese (ja)
Inventor
正樹 稲葉
Masaki Inaba
正樹 稲葉
健一 成岡
Kenichi Naruoka
健一 成岡
玉津 幸政
Yukimasa Tamatsu
玉津  幸政
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018168234A priority Critical patent/JP2020042446A/en
Publication of JP2020042446A publication Critical patent/JP2020042446A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide an information processing system capable of estimating presence of an object that does not appear in a captured image.SOLUTION: An information processing system 100 includes: an optical sensing section 10 for generating optical information within a predetermined range by optical sensing; a reaction object detection section 22 for detecting a reaction object from optical information; a state recognition section 23 for recognizing a state of a reaction object on the basis of optical information; and a presence estimation section 24 for estimating presence of an observation impossible object that is not detected from optical information on the basis of a state of a reaction object.SELECTED DRAWING: Figure 3

Description

本発明は、光学情報を処理する情報処理システム、情報処理方法、及び情報処理プログラムに関する。   The present invention relates to an information processing system for processing optical information, an information processing method, and an information processing program.

従来より、移動体に設置されたカメラで撮像された画像を分析することで、他の移動体等の物体を検知して、移動体の移動支援や自動運転を行うシステムが知られている。このようなシステムとして、例えば、車載カメラの撮像画像を分析することで、車両の前方の歩行者や他車両を検知して、運転者に警告を出力する運転支援システムが実用化されている(例えば、特許文献1)。   2. Description of the Related Art Conventionally, there has been known a system that analyzes an image captured by a camera installed on a moving body, detects an object such as another moving body, and performs movement support or automatic driving of the moving body. As such a system, for example, a driving support system that detects a pedestrian or another vehicle ahead of a vehicle by analyzing an image captured by a vehicle-mounted camera and outputs a warning to the driver has been put into practical use ( For example, Patent Document 1).

特開2014−6700号公報JP 2014-6700 A

しかしながら、従来のシステムでは、カメラの撮像画像に映り込む物体は検出できるが、他の物体に遮蔽された物体や画角外の物体など、撮像画像に映らない物体の存在に基づいて運転支援や自動運転のための情報を得ることはできなかった。   However, in the conventional system, an object reflected in a captured image of a camera can be detected, but driving assistance or the like is performed based on the presence of an object not reflected in the captured image, such as an object shielded by another object or an object out of the angle of view. No information was available for autonomous driving.

そこで、本発明は、撮像画像に映らない物体の存在の情報を得ることができる情報処理システム、情報処理方法、及び情報処理プログラムを提供することを目的とする。   Therefore, an object of the present invention is to provide an information processing system, an information processing method, and an information processing program that can obtain information on the presence of an object that does not appear in a captured image.

本発明の一態様の情報処理システムは、光学的なセンシングによって所定範囲内の光学情報を生成する光学センシング部(10)と、前記光学情報から反応物体を検出する反応物体検出部(22)と、前記光学情報に基づいて、前記反応物体の状態を認識する状態認識部(23)と、前記反応物体の状態に基づいて、前記光学情報から検出されない観察不能物体の存在を推定する存在推定部(24)とを備えた構成を有する。   An information processing system according to one embodiment of the present invention includes an optical sensing unit (10) that generates optical information within a predetermined range by optical sensing, and a reactive object detection unit (22) that detects a reactive object from the optical information. A state recognizing unit (23) for recognizing a state of the reactive object based on the optical information; and a presence estimating unit for estimating the presence of an unobservable object not detected from the optical information based on the state of the reactive object. (24).

本発明によれば、撮像画像に映っている反応物体の状態に基づいて、観察不能領域にある観察不能物体の存在を推定するので、カメラでは撮像できない観察不能物体についても、その存在を推定することができる。   According to the present invention, the presence of an unobservable object in an unobservable region is estimated based on the state of a reaction object reflected in a captured image. Therefore, the presence of an unobservable object that cannot be imaged by a camera is also estimated. be able to.

図1は、本発明の実施の形態の情報処理システムの利用状況を示す図である。FIG. 1 is a diagram showing a use situation of the information processing system according to the embodiment of the present invention. 図2は、図1の車両C1に搭載された光学センシング装置によって撮像される画像を示す図である。FIG. 2 is a diagram illustrating an image captured by the optical sensing device mounted on the vehicle C1 of FIG. 図3は、本発明の実施の形態の情報処理システムの構成を示すブロック図である。FIG. 3 is a block diagram showing a configuration of the information processing system according to the embodiment of the present invention. 図4は、反応物体が歩行者である場合のルールテーブルの例を示す図である。FIG. 4 is a diagram illustrating an example of a rule table when the reaction object is a pedestrian. 図5は、本実施の形態の情報処理システムの動作フロー図である。FIG. 5 is an operation flowchart of the information processing system according to the present embodiment. 図6は、存在推定部による存在推定処理の動作フロー図である。FIG. 6 is an operation flowchart of the presence estimation process by the presence estimation unit.

以下、図面を参照して本発明の実施の形態を説明する。なお、以下に説明する実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明の実施にあたっては、実施の形態に応じた具体的構成が適宜採用されてよい。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiment described below shows an example in which the present invention is implemented, and the present invention is not limited to the specific configuration described below. In carrying out the present invention, a specific configuration according to the embodiment may be appropriately adopted.

図1は、本発明の実施の形態の情報処理システムの利用状況を示す図である。図1の例では、本発明の実施の形態の情報処理システム100が車両C1に適用されている。また、図1の例では、情報処理システム100が適用された車両C1が道路を走行しており、交差点に差し掛かっている。車両C1には、情報処理システム100を構成する光学センシング装置10が設けられている。   FIG. 1 is a diagram showing a use situation of the information processing system according to the embodiment of the present invention. In the example of FIG. 1, the information processing system 100 according to the embodiment of the present invention is applied to a vehicle C1. In the example of FIG. 1, the vehicle C1 to which the information processing system 100 is applied is traveling on a road, and is approaching an intersection. The vehicle C1 is provided with an optical sensing device 10 that constitutes the information processing system 100.

本実施の形態において、光学センシング装置10は、撮像をすることでカラーの画像を生成するカメラである。カメラの光軸は、車両C1の前方を向いており、車両C1の前方を撮像可能である。カメラは、画角Fで撮像可能である。しかしながら、左右の建造物によって遮蔽される図1中の斜線領域は、カメラの死角となり、カメラの撮像画像によって直接その状況を把握することはできない。また、当然ながら画角Fの外側についてもカメラの撮像画像によって直接その状況を把握することはできない。図1の例では、車両C1の前方の交差点に横方向から侵入しようとする車両C2は、カメラの死角にあり、カメラの撮像画像には映らない。   In the present embodiment, the optical sensing device 10 is a camera that generates a color image by capturing an image. The optical axis of the camera faces the front of the vehicle C1, and can capture an image of the front of the vehicle C1. The camera can capture an image at an angle of view F. However, the hatched area in FIG. 1 that is shielded by the left and right buildings becomes the blind spot of the camera, and the situation cannot be directly grasped by the image captured by the camera. Also, naturally, the situation outside the angle of view F cannot be directly grasped by the image captured by the camera. In the example of FIG. 1, the vehicle C2 that is about to enter the intersection in front of the vehicle C1 from the lateral direction is at the blind spot of the camera, and is not reflected in the image captured by the camera.

一方で、図1の例では、交差点の向こう側には反応物体Rとしての歩行者がおり、車両C1の方を向いている。この歩行者は、他の物体に遮蔽されることなくカメラによって観察され、撮像画像内に映り込む。   On the other hand, in the example of FIG. 1, a pedestrian as the reactive object R is located on the other side of the intersection, and is facing the vehicle C1. This pedestrian is observed by the camera without being blocked by another object, and is reflected in the captured image.

図2は、図1の車両C1に搭載された光学センシング装置10によって撮像される画像を示す図である。撮像画像内の左右の斜線領域は、撮像画像の死角領域O1、O2である。また、撮像画像の左右の周囲の外側の斜線領域は、撮像画像の画角外領域O3、O4である。   FIG. 2 is a diagram illustrating an image captured by the optical sensing device 10 mounted on the vehicle C1 of FIG. The hatched areas on the left and right in the captured image are the blind spot areas O1 and O2 of the captured image. The hatched areas outside the left and right surroundings of the captured image are the out-of-angle regions O3 and O4 of the captured image.

左側の死角領域O1には壁の向こう側に車両C2が存在しているが、この車両C2は撮像画像には映っていない。また、右側の死角領域O2についても、壁の背後に他車両がいたとしても当該他車両は撮像画像には映らない。さらに、画角外領域O3、O4についても、当然ながら他車両がいたとしても当該他車両は撮像画像には映らない。以下では、これらの死角領域O1、O2、及び画角外領域O3、O4のように観察不能な物体(以下、「観察不能物体」という。)がいる可能性がある領域を「観察不能領域」という。   Although the vehicle C2 exists behind the wall in the blind spot area O1 on the left side, the vehicle C2 is not shown in the captured image. Also, regarding the blind spot area O2 on the right side, even if there is another vehicle behind the wall, the other vehicle is not reflected in the captured image. Further, regarding the out-of-view areas O3 and O4, even if there is another vehicle, the other vehicle is not reflected in the captured image. In the following, a region where there is a possibility that an unobservable object (hereinafter, referred to as an “unobservable object”) such as the blind spot regions O1 and O2 and the out-of-angle regions O3 and O4 is referred to as an “inobservable region”. That.

一方で、前方の交差点の向こう側には反応物体Rとしての歩行者が映っている。本実施の形態の情報処理システム100は、図1のような状況で図2のような撮像画像が得られた場合に、この撮像画像を用いて、観察不能領域に観察不能物体が存在するかを推定することで、図1の例において死角領域O1に車両C2が存在することを推定しようとするものである。   On the other hand, a pedestrian as a reaction object R is reflected on the other side of the front intersection. The information processing system 100 according to the present embodiment, when a captured image as illustrated in FIG. 2 is obtained in the situation as illustrated in FIG. 1, uses the captured image to determine whether an unobservable object exists in the unobservable area. Is intended to estimate that the vehicle C2 exists in the blind spot area O1 in the example of FIG.

図3は、本発明の実施の形態の情報処理システムの構成を示すブロック図である。情報処理システム100は、光学センシング装置10と、情報処理装置20とを備えている。光学センシング装置10は、光学センシング手段を用いて所定範囲内の光学情報を生成する。本実施の形態では、光学センシング手段として光学系、撮像素子、画像処理プロセッサ等を含むカメラを採用する。このカメラは、光学情報として、カメラの画角に応じた2次元カラー画像を生成する。   FIG. 3 is a block diagram showing a configuration of the information processing system according to the embodiment of the present invention. The information processing system 100 includes an optical sensing device 10 and an information processing device 20. The optical sensing device 10 generates optical information within a predetermined range by using optical sensing means. In the present embodiment, a camera including an optical system, an image sensor, an image processor, and the like is employed as the optical sensing means. This camera generates, as optical information, a two-dimensional color image corresponding to the angle of view of the camera.

情報処理装置20は、光学センシング装置10で撮像によって生成された撮像画像を入力して、この撮像画像に基づいて、この撮像画像から検出されない観察不能物体の存在を推定する。このために、情報処理装置20は、領域設定部21、反応物体検出部22、状態認識部23、及び存在推定部24を備えている。なお、情報処理装置20は、プロセッサ、メモリ、記憶装置等からなるコンピュータが、所定のプログラムを実行することで実現される。   The information processing device 20 inputs a captured image generated by the optical sensing device 10 by imaging, and estimates the presence of an unobservable object that is not detected from the captured image based on the captured image. For this purpose, the information processing device 20 includes an area setting unit 21, a reaction object detection unit 22, a state recognition unit 23, and a presence estimation unit 24. Note that the information processing device 20 is realized by a computer including a processor, a memory, a storage device, and the like executing a predetermined program.

情報処理装置20は、車両に搭載され、車両内で観察不能物体の存在を推定する。なお、情報処理装置20の一部または全部の構成が、他のコンピュータに備えられていてもよい。この場合に、情報処理装置20の一部または全部を搭載した車両と光学センシング装置10を搭載した車両とは通信可能である。この場合は、光学センシング装置10は、得られた光学情報を情報処理装置20に送信する。   The information processing device 20 is mounted on a vehicle and estimates the presence of an unobservable object in the vehicle. Note that some or all of the configuration of the information processing device 20 may be provided in another computer. In this case, a vehicle equipped with a part or all of the information processing device 20 and a vehicle equipped with the optical sensing device 10 can communicate with each other. In this case, the optical sensing device 10 transmits the obtained optical information to the information processing device 20.

領域設定部21は、光学センシング装置10から入力された画像において観察不能物体の存在を推定する対象とする観察不能領域を設定する。具体的には、領域設定部21は、光学センシング装置10から入力された撮像画像から死角領域を検出し、この死角領域を観察不能領域として設定する。画像から死角領域を検出する方法としては、任意の方法を用いることができる。例えば、ニューラルネットワーク等の機械学習によって大量の車載カメラの画像の死角領域を学習しておくことで、光学センシング装置10から入力された画像から死角領域を検出してもよい。   The region setting unit 21 sets an unobservable region as a target for estimating the presence of an unobservable object in an image input from the optical sensing device 10. Specifically, the area setting unit 21 detects a blind spot area from the captured image input from the optical sensing device 10, and sets the blind spot area as an unobservable area. Any method can be used as a method for detecting a blind spot area from an image. For example, the blind spot area may be detected from the image input from the optical sensing device 10 by learning the blind spot area of a large number of images of the vehicle-mounted camera by machine learning such as a neural network.

また、領域設定部21は、光学センシング装置10から入力された画像の所定方向の周囲にある画角外領域を観察不能領域として設定する。本実施の形態では、領域設定部21は、画像の左右の周囲にある画角外領域を観察不能領域として設定する。   In addition, the region setting unit 21 sets a region outside the angle of view around a predetermined direction of the image input from the optical sensing device 10 as a non-observable region. In the present embodiment, the region setting unit 21 sets the region outside the angle of view around the left and right of the image as the unobservable region.

反応物体検出部22は、光学センシング装置10から入力された撮像画像から反応物体を検出する。この反応物体検出にも、ニューラルネットワーク等の機械学習による推定を採用することができる。具体的には、反応物体検出部22は、R−CNN(Regions with Convolutional Neural Networks)、Faster−RCNN、SSD(Single Shot Multibox Detector)、Yolo(You only lock once)、Mask R−CNN等によって撮像画像から反応物体を検出できる。   The reactive object detection unit 22 detects a reactive object from the captured image input from the optical sensing device 10. Estimation based on machine learning, such as a neural network, can also be used for this reaction object detection. Specifically, the reaction object detection unit 22 captures images using R-CNN (Regions with Convolutional Neural Networks), Faster-RCNN, SSD (Single Shot Multibox Detector), Yoro (You only lock once), Mask R-CNN, and the like. The reaction object can be detected from the image.

反応物体検出部22は、まず、撮像画像から物体を検出して、検出した物体にアノテーションを行って、アノテーションデータとして「歩行者」、「車両」、「二輪車」、「自転車」、「横断歩道」、「標識」等のラベルを付す。これらのラベルのうち、移動可能な物体についてはその旨のタグが付されている。反応物体検出部22は、検出した物体に付されたラベルに移動可能な物体である旨のタグが付されている場合に、その物体を反応物体として検出する。本実施の形態では、「歩行者」、「車両」、「二輪車」、「自転車」のラベルに、移動する物体である旨のタグが付されている。   The reaction object detection unit 22 first detects an object from a captured image, performs an annotation on the detected object, and outputs “pedestrian”, “vehicle”, “motorcycle”, “bicycle”, “crosswalk” as annotation data. ”,“ Signs ”, etc. Of these labels, movable objects are tagged with that effect. When the tag attached to the detected object has a tag indicating that the object is movable, the reactive object detection unit 22 detects the object as a reactive object. In the present embodiment, a tag indicating that the object is a moving object is attached to a label of “pedestrian”, “vehicle”, “motorcycle”, and “bicycle”.

反応物体とは、周りの環境に応じて反応する物体である。即ち、歩行者、車両、二輪車、自転車は、周囲の障害物(他の車両等)に反応して、移動を停止する、急いで移動する等の反応をする。歩行者の場合には、さらに、周囲の障害物に反応して、視線を向ける、驚く等の反応をすることもある。   A reaction object is an object that reacts according to the surrounding environment. That is, pedestrians, vehicles, two-wheeled vehicles, and bicycles react to surrounding obstacles (other vehicles and the like) and stop responding or move in a hurry. In the case of a pedestrian, the robot may react to surrounding obstacles, turn the gaze, and react in a surprising manner.

状態認識部23は、観察不能物体の存在を推定するために、反応物体検出部22にて検出された反応物体について、撮像画像に基づいて、当該反応物体の状態を認識する。本実施の形態では、状態認識部23は、歩行者、車両、二輪車、自転車等の状態として、停止している、移動している等の反応物体の行動を推定する。状態認識部23も、ニューラルネットワーク等の機械学習によって、ある反応物体に対応する状態を大量に学習しておくことで、反応物体の状態を認識できる。   The state recognizing unit 23 recognizes the state of the reactive object detected by the reactive object detection unit 22 based on the captured image in order to estimate the presence of the unobservable object. In the present embodiment, the state recognizing unit 23 estimates the behavior of the reactive object such as stopped or moving as the state of a pedestrian, vehicle, two-wheeled vehicle, bicycle, or the like. The state recognition unit 23 can recognize the state of the reaction object by learning a large amount of the state corresponding to the certain reaction object by machine learning such as a neural network.

状態認識部23は、反応物体の状態をラベリングする。反応物体の状態は、反応物体毎に定義されている。例えば、歩行者については、状態ラベルとして、停止、歩行、早歩き、駆け足、左側注視、右側注視、驚き、挙手等のラベルが用意されている。また、例えば、車両については、状態ラベルとして、停車、走行、徐行、左ウィンカ、右ウィンカ、ハザード、左折、右折、後退等のラベルが用意されている。   The state recognition unit 23 labels the state of the reaction object. The state of the reaction object is defined for each reaction object. For example, for a pedestrian, labels such as stop, walk, fast-walk, rush, left gaze, right gaze, surprise, and raised hand are prepared as state labels. Further, for example, for a vehicle, labels such as stop, run, slow, left blinker, right blinker, hazard, left turn, right turn, and reverse are prepared as state labels.

存在推定部24は、状態認識部23にて認識された反応物体の状態に基づいて、画像から検出されない観察不能物体の存在を推定する。存在推定部24は、まず、検出された反応物体の位置と、当該反応物体の状態とに基づいて、観察不能物体の存在を推定する死角領域と反応物体とを対応付ける。本実施の形態では、検出された反応物体に最も近い死角領域について、当該反応物体の状態に基づいて当該死角領域における観察不能物体の存在を推定する。   The presence estimating unit 24 estimates the presence of an unobservable object that is not detected from the image based on the state of the reaction object recognized by the state recognition unit 23. First, the presence estimating unit 24 associates a blind spot area for estimating the presence of an unobservable object with the reactive object based on the detected position of the reactive object and the state of the reactive object. In the present embodiment, the presence of an unobservable object in the blind spot area is estimated for the blind spot area closest to the detected reaction object based on the state of the reaction article.

このために、存在推定部24は、検出された観察不能領域及び反応物体のそれぞれの重心を求める。存在推定部24は、各反応物体の重心と、各観察不能領域の重心との間の距離を求め、各観察不能領域について、重心間の距離が最も近い反応物体を対応付ける。そして、存在推定部24は、各観察不能領域に対応付けられた反応物体の状態に基づいて、当該観察不能領域における観察不能物体の存在を推定する。   For this purpose, the existence estimating unit 24 obtains the respective centers of gravity of the detected unobservable region and the reaction object. The presence estimating unit 24 calculates the distance between the center of gravity of each reaction object and the center of gravity of each unobservable region, and associates the reaction object with the closest distance between the centers of gravity with each unobservable region. Then, the presence estimating unit 24 estimates the presence of the unobservable object in the unobservable region based on the state of the reaction object associated with each unobservable region.

存在推定部24は、状態認識部23で認識された反応物体の状態と、当該反応物体に対応付けられた観察不能領域における観察不能物体の存在確率との対応関係を規定したルールテーブルを有する。   The presence estimating unit 24 has a rule table that defines the correspondence between the state of the reaction object recognized by the state recognition unit 23 and the existence probability of the unobservable object in the unobservable region associated with the reaction object.

図4は、反応物体が歩行者である場合のルールテーブルの例を示す図である。この例では、歩行者の状態として、驚く、立ち止まる、方向転換、急ぐ、一定速度が定義されており、それぞれについて、当該歩行者に対応する観察不能領域における観察不能物体の存在確率が規定されている。存在推定部24は、ルールテーブルを参照して、状態認識部23にて認識された反応物体の状態に対応する観測不能物体の存在確率を求めることで、観察不能物体の存在を推定する。存在推定部24は、推定結果として観察不能物体の存在確率を出力する。   FIG. 4 is a diagram illustrating an example of a rule table when the reaction object is a pedestrian. In this example, as the state of the pedestrian, surprise, stop, change direction, hurry, and constant speed are defined, and for each of them, the existence probability of the unobservable object in the unobservable area corresponding to the pedestrian is defined. I have. The presence estimating unit 24 estimates the presence of the unobservable object by obtaining the existence probability of the unobservable object corresponding to the state of the reaction object recognized by the state recognition unit 23 with reference to the rule table. The existence estimating unit 24 outputs the existence probability of the unobservable object as the estimation result.

存在推定部24から出力された推定結果は、種々の用途に用いることができる。例えば、情報処理システム100が車両に適用される場合には、車両は、推定結果に基づいて、制動等の車両制御を行ってよく、あるいは、運転者に注意喚起をしてもよい。   The estimation result output from the existence estimation unit 24 can be used for various purposes. For example, when the information processing system 100 is applied to a vehicle, the vehicle may perform vehicle control such as braking based on the estimation result, or may alert the driver.

図5は、本実施の形態の情報処理システムの動作フロー図である。まず、光学センシング装置10は、撮像を行って撮像画像を生成する(ステップS51)。次に、領域設定部21は、撮像画像から死角領域を検出し、画角外領域とともに、観察不能領域として設定する(ステップS52)。具体的には、領域設定部21は、死角領域があればそれらを検出し、死角領域がない場合には周囲の画角外領域のみを観察不能領域として設定する。   FIG. 5 is an operation flowchart of the information processing system according to the present embodiment. First, the optical sensing device 10 performs imaging to generate a captured image (Step S51). Next, the area setting unit 21 detects a blind spot area from the captured image, and sets it as an unobservable area together with the area outside the angle of view (step S52). Specifically, the area setting unit 21 detects a blind spot area if there is one, and if there is no blind spot area, sets only the surrounding area outside the angle of view as an unobservable area.

反応物体検出部22は、撮像画像から反応物体を検出する(ステップS53)。撮像画像から反応物体が検出されなかった場合には(ステップS53にてNO)、そのまま処理を終了する。撮像画像に反応物体がある場合には、反応物体検出部22は、撮像画像から反応物体がラベリングされて検出される(ステップS53にてYES)。   The reaction object detection unit 22 detects a reaction object from the captured image (Step S53). If the reaction object has not been detected from the captured image (NO in step S53), the process ends. If there is a reaction object in the captured image, the reaction object detection unit 22 detects the reaction object by labeling it from the captured image (YES in step S53).

状態認識部23は、検出された反応物体の状態を認識する(ステップS54)。なお、領域設定部21による領域設定の処理(ステップS52)と、物体検出部22による物体検出処理(ステップS53)及び状態認識部23による状態認識処理(ステップS54)とは、並行して行ってよい。   The state recognition unit 23 recognizes the detected state of the reaction object (step S54). Note that the area setting processing by the area setting unit 21 (step S52), the object detection processing by the object detection unit 22 (step S53), and the state recognition processing by the state recognition unit 23 (step S54) are performed in parallel. Good.

存在推定部24は、領域設定部21にて設定された観察不能領域と、状態認識部23にて認識された反応物体の状態とに基づいて、観察不能物体の存在を推定する(ステップS55)。   The presence estimating unit 24 estimates the presence of the unobservable object based on the unobservable region set by the region setting unit 21 and the state of the reaction object recognized by the state recognizing unit 23 (step S55). .

図6は、存在推定部24による存在推定処理の動作フロー図である。存在推定部24は、まず、領域設定部21にて設定された観察不能領域をすべて読み出し(ステップS61)、各観察不能領域について、対応する反応物体を決定する(ステップS62)。   FIG. 6 is an operation flowchart of the presence estimation process by the presence estimation unit 24. First, the presence estimating unit 24 reads all the unobservable regions set by the region setting unit 21 (step S61), and determines a corresponding reaction object for each unobservable region (step S62).

各観察不能領域について、対応する反応物体が決定された場合には(ステップS62にてYES)、当該観察不能領域について、当該対応する反応物体の状態とルールテーブルから観察不能物体の存在を推定する(ステップS63)。各観察不能領域について、対応する反応物体が決定できない場合には(ステップS62にてNO)、存在推定部24は、当該観察不能領域について観察不能物体が存在するかは不明であると判断する(ステップS64)。   When a corresponding reactive object is determined for each unobservable region (YES in step S62), the presence of the unobservable object is estimated from the state of the corresponding reactive object and the rule table for the unobservable region. (Step S63). If a corresponding reaction object cannot be determined for each unobservable region (NO in step S62), the existence estimating unit 24 determines that it is unknown whether there is an unobservable object for the unobservable region ( Step S64).

存在推定部24は、すべての観察不能領域について、推定結果を出力する(ステップS65)。具体的には、観察不能物体の存在を推定できた観察不能領域については推定結果として観察不能物体の存在確率を出力し、観察不能物体の存在が推定できなかった観察不能領域については不明であるとの推定結果を出力する。   The existence estimating unit 24 outputs estimation results for all unobservable regions (step S65). Specifically, for the unobservable region where the existence of the unobservable object could be estimated, the existence probability of the unobservable object is output as the estimation result, and the unobservable region where the existence of the unobservable object could not be estimated is unknown. Is output.

以上のように、本実施の形態の情報処理システム100によれば、撮像画像に映っている反応物体の状態に基づいて、観察不能領域にある観察不能物体の存在を推定するので、カメラでは撮像できない観察不能物体についても、その存在を推定することができる。上記の実施の形態は、本発明の一態様に過ぎず、種々の変形が可能である。以下、変形例を説明する。   As described above, according to the information processing system 100 of the present embodiment, the presence of the unobservable object in the unobservable region is estimated based on the state of the reaction object reflected in the captured image. Even for unobservable unobservable objects, their existence can be estimated. The above embodiment is merely an embodiment of the present invention, and various modifications are possible. Hereinafter, modified examples will be described.

上記の実施の形態の情報処理システム100は、光学センシング装置10が車両に搭載されて、車両の前方における観察不能物体の存在を推定するものであったが、本発明の情報処理システムは、他の用途にも応用可能である。例えば、情報処理システム100は、自律移動ロボットに適用可能である。この場合には、光学センシング装置10がロボットに設置され、ロボットが自律的に移動するにあたって、進行方向前方の曲がり角の死角に観察不能物体としての人がいることを推定することができる。また、そのような人の存在を推定することで、推定結果に基づいて大回りで移動する等の自律移動制御を行うことができる。   The information processing system 100 according to the above-described embodiment has the optical sensing device 10 mounted on a vehicle and estimates the presence of an unobservable object in front of the vehicle. It can also be applied to applications. For example, the information processing system 100 is applicable to an autonomous mobile robot. In this case, the optical sensing device 10 is installed on the robot, and when the robot moves autonomously, it can be estimated that there is a person as an unobservable object at a blind spot at a turning corner ahead in the traveling direction. By estimating the presence of such a person, it is possible to perform autonomous movement control such as making a large round trip based on the estimation result.

また、情報処理システム100は、フォークリフトに適用可能である。この場合には、フォークリフトに光学センシング装置10を設置し、例えば、前方の曲がり角の死角に観察不能物体がいることを推定して、推定結果に基づいてブザーや振動で運転者に注意喚起をすることができる。また、情報処理システム100は、視覚障碍者支援システムに適用できる。この場合には、視覚障碍者が光学センシング装置10を所持ないし装着し、例えば、前方の曲がり角の死角に観察不能物体として人や車両がいることを推定して、推定結果に基づいてブザーや振動で視覚障碍者に注意喚起をすることができる。さらに、情報処理システム100は、ウェアラブルカメラやアクションカメラにも適用可能である。この場合には、死角に人がいるかもしれないことをブザーや振動でユーザに知らせることができる。   Further, the information processing system 100 is applicable to a forklift. In this case, the optical sensing device 10 is installed on the forklift, and for example, it is estimated that there is an unobservable object at the blind spot at the front corner, and the driver is alerted by a buzzer or vibration based on the estimation result. be able to. Further, the information processing system 100 can be applied to a visually impaired person support system. In this case, a visually impaired person carries or wears the optical sensing device 10, for example, presumes that a person or a vehicle is present as an unobservable object at a blind spot in a forward corner, and outputs a buzzer or vibration based on the estimation result. Can alert the visually impaired. Further, the information processing system 100 is also applicable to a wearable camera and an action camera. In this case, the user can be notified by a buzzer or vibration that there may be a person in the blind spot.

また、上記の実施の形態では、光学センシング装置10としてカメラを用い、光学情報として画像を生成し、情報処理装置20は、光学センシング装置10で得られた1枚の撮像画像を処理することで観察不能物体の存在を推定したが、情報処理装置20は複数枚の連続する画像を処理することで観察不能物体の存在を推定してもよい。   In the above embodiment, a camera is used as the optical sensing device 10, an image is generated as optical information, and the information processing device 20 processes a single captured image obtained by the optical sensing device 10. Although the presence of the unobservable object has been estimated, the information processing device 20 may estimate the presence of the unobservable object by processing a plurality of continuous images.

この場合には、カメラは、連続して撮像を行って、連続的な撮像画像を生成して情報処理装置20に出力する。情報処理装置20の反応物体検出部22は、これらの連続的な撮像画像に基づいて反応物体を検出することができる。また、状態認識部23も、連続的な撮像画像に基づいて反応物体の状態を認識することができる。このように空間的な情報だけでなく時系列の情報も用いることで、反応物体検出部22や状態認識部23は、Two−Stream CNN、C3D、RNN(Recurrent Neural Network)、LSTM(Long Short-Term Memory)等の技術を用いて反応物体を検出したり、反応物体の状態を認識したりすることができる。   In this case, the camera continuously captures images, generates continuous captured images, and outputs the images to the information processing device 20. The reaction object detection unit 22 of the information processing device 20 can detect a reaction object based on these continuous captured images. Further, the state recognition unit 23 can also recognize the state of the reaction object based on the continuous captured images. By using not only spatial information but also time-series information, the reactive object detection unit 22 and the state recognition unit 23 can use the Two-Stream CNN, C3D, RNN (Recurrent Neural Network), and LSTM (Long Short- Using a technique such as Term Memory), a reaction object can be detected or the state of the reaction object can be recognized.

また、上記の実施の形態では、反応物体検出部22が反応物体を検出して、状態認識部23が検出された反応物体の状態を認識したが、これらの処理を同時に行ってもよい。即ち、撮像画像から反応物体を検出する際に、同時にその反応物体の状態も認識してよい。例えば、停止している歩行者、左ウィンカを出している車両のように反応物体を検出してよい。特に、画像情報に加えて時系列の情報を用いることで、このような検出を有効に行うことができる。   Further, in the above-described embodiment, the reaction object detection unit 22 detects the reaction object, and the state recognition unit 23 recognizes the detected state of the reaction object. However, these processes may be performed simultaneously. That is, when detecting the reaction object from the captured image, the state of the reaction object may be recognized at the same time. For example, a reactive object may be detected, such as a stopped pedestrian or a vehicle emitting a left blinker. In particular, such detection can be effectively performed by using time-series information in addition to image information.

また、上記の実施の形態では、光学センシング装置10として、撮像によって画像を生成するカメラ(即ち、単眼カメラ)を採用したが、光学センシング装置10は、光学的なセンシングによって所定範囲内の光学情報を生成するものであれば、他の態様であってもよい。例えば、光学センシング装置10は、画角内の3次元情報を取得する3次元撮像システムであってよい。3次元撮像システムとしての光学センシング装置10は、ステレオカメラであってよく、あるいは、単眼カメラに加えて、赤外線デプスセンサ、超音波センサ、ミリ波レーダ、LiDAR(Light Detection and Ranging)を用いて距離画像を生成するシステムであってもよい。   Further, in the above-described embodiment, a camera that generates an image by imaging (that is, a monocular camera) is adopted as the optical sensing device 10, but the optical sensing device 10 uses the optical information within a predetermined range by optical sensing. Other modes may be used as long as they generate. For example, the optical sensing device 10 may be a three-dimensional imaging system that acquires three-dimensional information within the angle of view. The optical sensing device 10 as a three-dimensional imaging system may be a stereo camera, or, in addition to a monocular camera, a range image using an infrared depth sensor, an ultrasonic sensor, a millimeter wave radar, and LiDAR (Light Detection and Ranging). May be generated.

このように、光学センシング装置10が、光学情報として、平面的な情報だけでなく、立体情報又は距離情報等の3次元情報を得ることで、領域設定部21において、死角領域を好適に検出することができる。領域設定部21は、立体情報又は距離情報に基づいて、デプスの飛び値に基づいて死角領域を検出することができる。   As described above, the optical sensing device 10 preferably obtains not only planar information but also three-dimensional information such as three-dimensional information or distance information as optical information, so that the area setting unit 21 suitably detects a blind spot area. be able to. The area setting unit 21 can detect a blind spot area based on a depth jump value based on stereoscopic information or distance information.

また、上記の実施の形態では、存在推定部24は、各観察不能領域について、当該領域に最も近い反応物体を対応付けて、対応付けられた反応物体の状態に基づいて当該観察不能領域における観察不能物体の存在を推定した。この場合には、1つの反応物体が複数の観察不能領域に対応付けられることがある一方で、いずれの反応物体にも対応付けられない観察不能領域も存在し得る。   Further, in the above embodiment, the presence estimating unit 24 associates each non-observable region with the reaction object closest to the region, and performs observation in the non-observable region based on the state of the associated reaction object. The existence of impossible objects was estimated. In this case, while one reaction object may be associated with a plurality of unobservable regions, there may be unobservable regions that cannot be associated with any of the reaction objects.

観察不能領域と反応物体との対応付けは上記に限られない。存在推定部24は、各反応物体について、重心間距離が最も近い観察不能領域を対応付けてもよい。この場合には、1つの観察不能領域が複数の反応物体に対応付けられることがある一方で、いずれの観察不能領域にも対応付けられない反応物体も存在し得る。   The association between the unobservable region and the reaction object is not limited to the above. The presence estimating unit 24 may associate an unobservable region with the closest distance between the centers of gravity for each reaction object. In this case, one unobservable region may be associated with a plurality of reactive objects, but there may be a reactive object that is not associated with any of the unobservable regions.

また、存在推定部24は、すべての観察不能領域とすべての反応物体との重心間距離を求めて、重心間距離が所定の閾値以下であるすべての観察不能領域と反応物体とを対応付けてもよい。また、存在推定部24は、重心間距離が所定値以下である最も近い反応物体と観察不能領域とを対応付けてもよい。   The presence estimating unit 24 obtains the distance between the centers of gravity of all the unobservable regions and all the reaction objects, and associates all the unobservable regions with the distance between the centers of gravity equal to or smaller than a predetermined threshold with the reactive objects. Is also good. Further, the presence estimation unit 24 may associate the closest reaction object whose distance between the centers of gravity is equal to or less than a predetermined value with the unobservable region.

さらに、存在推定部24は、状態認識部23が人間(歩行者や車両の運転手)の視線方向を認識して、存在推定部24が視線方向に基づいて観察不能領域と反応物体との対応付けを行ってよい。例えば、歩行者の視線が観察不能領域を通過する場合に、それらの歩行者と観察不能領域とを対応付けてよい。また、歩行者の視線と観察不能物体の重心との距離が所定値以下である場合に、それらの歩行者と観察不能領域とを対応付けてよい。   Further, the presence estimating unit 24 recognizes the gaze direction of the human (pedestrian or driver of the vehicle) by the state recognizing unit 23, and the presence estimating unit 24 determines the correspondence between the unobservable region and the reactive object based on the gaze direction. May be attached. For example, when the pedestrian's line of sight passes through the unobservable region, those pedestrians may be associated with the unobservable region. In addition, when the distance between the pedestrian's line of sight and the center of gravity of the unobservable object is equal to or less than a predetermined value, those pedestrians may be associated with the unobservable region.

また、上記の実施の形態では、存在推定部24は、観察不能領域と反応物体との間の距離を評価するのに、重心間距離を用いたが、これに限らず、例えば、反応物体の重心と、観察不能領域におけるその反応物体の重心に最も近い部分との間の距離に基づいて、対応付けを行ってよい。また、存在推定部24は、反応物体の重心以外の点を基準点として、観察不能領域と反応物体との間の距離を測ってもよい。   In the above embodiment, the presence estimation unit 24 uses the distance between the centers of gravity to evaluate the distance between the unobservable region and the reaction object. However, the present invention is not limited thereto. Correspondence may be performed based on the distance between the center of gravity and a portion closest to the center of gravity of the reaction object in the unobservable region. Further, the existence estimation unit 24 may measure the distance between the unobservable region and the reaction object using a point other than the center of gravity of the reaction object as a reference point.

また、上記の実施の形態では、存在推定部24は、推定結果として、各観察不能領域について観察不能物体が存在する確率を出力したが、この確率を閾値処理して、観察不能物体が存在するかしないかを推定結果として出力してよい。また、存在推定部24は、閾値処理をすることで、存在する、存在しないという2値の判断ではなく、存在確率を低、中、高等として複数段階に離散的に表現する推定結果を出力してもよい。さらに、存在推定部24は、存在確率が所定の閾値以上である場合にのみ、その旨の信号を出力してもよい。   In the above embodiment, the existence estimating unit 24 outputs the probability that an unobservable object exists for each unobservable region as an estimation result. Whether or not to do so may be output as the estimation result. In addition, the presence estimation unit 24 performs threshold processing, and outputs an estimation result that discretely expresses the existence probability as a low, a medium, a high, and the like in a plurality of stages, instead of the binary determination that the presence or absence is present. You may. Furthermore, the presence estimating unit 24 may output a signal to that effect only when the presence probability is equal to or more than a predetermined threshold.

また、領域設定部21は、撮像画像から観察不能領域として死角領域を検出するが、検出された反応物体と観察不能領域との対応付けができれば、この死角領域は撮像画像から厳密に正確な位置及び形状で検出されなくてもよいものであり、それが存在する画像内のおよその位置及び形状が特定されればよいものである。   The area setting unit 21 detects a blind spot area as an unobservable area from the captured image. If the detected reaction object can be associated with the unobservable area, the blind spot area can be accurately positioned from the captured image. And the shape need not be detected, and it is only necessary to specify the approximate position and shape in the image where it exists.

また、画角外領域については、撮像画像の縁に基準点を設定して、この基準点と反応物体の基準点(例えば、重心)との位置関係に基づいて対応付けを行ってもよい。なお、領域設定部21は、観察不能領域として死角領域を検出せずに、画角外領域のみを設定してもよく、逆に、画角外領域は設定せずに死角領域のみを検出して設定してもよい。   In addition, a reference point may be set at the edge of the captured image for the area outside the angle of view, and may be associated based on the positional relationship between the reference point and the reference point (for example, the center of gravity) of the reaction object. Note that the area setting unit 21 may set only the area outside the angle of view without detecting the blind area as the unobservable area. Conversely, the area setting unit 21 may detect only the blind area without setting the area outside the angle of view. May be set.

また、上記の実施の形態では、存在推定部24は、ルールテーブルを参照して、認識した状態に対応する存在確率を求めたが、観察不能物体の存在を推定する方法はこれに限られない。存在推定部24は、例えば、反応物体の状態に対応する観察不能物体の存在のデータを収集して、統計確率で観察不能物体の存在を推定してもよい。また、存在推定部24は、ニューラルネットワーク等の機械学習によって、反応物体の状態に対応する観察不能物体の存在確率を求めてもよい。   Further, in the above embodiment, the presence estimating unit 24 refers to the rule table to determine the presence probability corresponding to the recognized state, but the method of estimating the presence of the unobservable object is not limited to this. . The presence estimating unit 24 may, for example, collect data on the presence of an unobservable object corresponding to the state of the reaction object, and estimate the presence of the unobservable object with statistical probability. Further, the existence estimating unit 24 may obtain the existence probability of the unobservable object corresponding to the state of the reaction object by machine learning such as a neural network.

さらに、存在推定部24は、1つの観察不能領域に対して複数の反応物体が対応付けられている場合に、各反応物体に基づいて推定される存在確率の最大確率を出力としてもよいし、各反応物体に基づいて推定される存在確率の重み付け和をとることで、観察不能物体の存在確率を求めてもよい。   Furthermore, when a plurality of reaction objects are associated with one unobservable region, the existence estimation unit 24 may output the maximum probability of the existence probability estimated based on each reaction object, The existence probability of the unobservable object may be obtained by taking a weighted sum of the existence probabilities estimated based on each reaction object.

また、存在推定部24は、反応物体の状態に応じて観察不能物体の存在確率を求めるのみでなく、その内容、即ち観察不能物体が何であるのかを推定するようにしてよい。   Further, the existence estimating unit 24 may not only calculate the existence probability of the unobservable object according to the state of the reaction object, but also estimate its content, that is, what the unobservable object is.

また、上記の実施の形態では、光学センシング装置10と情報処理装置20とが別体の装置として情報処理システム100が構成されていたが、これらが一体となって情報処理システム100が構成されてもよい。   Further, in the above-described embodiment, the information processing system 100 is configured as the optical sensing device 10 and the information processing device 20 are separate devices, but the information processing system 100 is configured by integrating them. Is also good.

以上のように、本発明は、撮像画像に映っている反応物体の状態に基づいて、観察不能領域にある観察不能物体の存在を推定するので、カメラでは撮像できない観察不能物体についても、その存在を推定することができるという効果を有し、光学情報を処理する情報処理システム等として有用である。   As described above, the present invention estimates the presence of an unobservable object in an unobservable region based on the state of a reaction object reflected in a captured image. Can be estimated, and is useful as an information processing system or the like for processing optical information.

10 光学センシング装置,20 情報処理装置,21 領域設定部,
22 反応物体検出部,23 状態認識部,24 存在推定部
10 optical sensing device, 20 information processing device, 21 area setting unit,
22 Reaction object detection unit, 23 State recognition unit, 24 Presence estimation unit

Claims (13)

光学的なセンシングによって所定範囲内の光学情報を生成する光学センシング部(10)と、
前記光学情報から反応物体を検出する反応物体検出部(22)と、
前記光学情報に基づいて、前記反応物体の状態を認識する状態認識部(23)と、
前記反応物体の状態に基づいて、前記光学情報から検出されない観察不能物体の存在を推定する存在推定部(24)と、
を備えた、情報処理システム。
An optical sensing unit (10) for generating optical information within a predetermined range by optical sensing;
A reaction object detection unit (22) for detecting a reaction object from the optical information;
A state recognition unit (23) for recognizing a state of the reaction object based on the optical information;
A presence estimating unit (24) for estimating the presence of an unobservable object that is not detected from the optical information based on a state of the reaction object;
An information processing system comprising:
前記観察不能物体の存在を推定する対象とする観察不能領域を設定する領域設定部(21)をさらに備え、
前記存在推定部は、前記観察不能領域における前記観察不能物体の存在を推定する、請求項1に記載の情報処理システム。
An area setting unit (21) for setting an unobservable area to be a target for estimating the presence of the unobservable object;
The information processing system according to claim 1, wherein the presence estimation unit estimates the presence of the unobservable object in the unobservable region.
前記領域設定部は、前記光学情報から、前記所定範囲内の死角領域を検出して、前記死角領域を前記観察不能領域として設定する、請求項2に記載の情報処理システム。   The information processing system according to claim 2, wherein the area setting unit detects a blind spot area within the predetermined range from the optical information, and sets the blind spot area as the non-observable area. 前記領域設定部は、前記所定範囲外の領域を前記観察不能領域として設定する、請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the area setting unit sets an area outside the predetermined range as the unobservable area. 前記光学センシング部は、カメラを用い、前記光学情報として画角範囲内の画像を生成する、請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the optical sensing unit uses a camera to generate an image within an angle of view range as the optical information. 前記光学センシング部は、3次元撮像システムを用い、前記光学情報として画角範囲内の3次元画像を生成する、請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the optical sensing unit uses a three-dimensional imaging system to generate a three-dimensional image within an angle of view range as the optical information. 前記光学センシング部は、連続的に前記光学情報を生成し、
前記状態認識部は、連続的に生成された複数の前記光学情報に基づいて、前記反応物体の状態を認識する、請求項1に記載の情報処理システム。
The optical sensing unit continuously generates the optical information,
The information processing system according to claim 1, wherein the state recognition unit recognizes a state of the reaction object based on the plurality of pieces of optical information that are continuously generated.
前記状態認識部は、少なくとも前記反応物体が停止している状態及び前記反応物体が移動している状態を認識可能であり、
前記存在推定部は、少なくとも前記反応物体が停止している状態にあるときには、前記観察不能物体が存在すると推定する、請求項1に記載の情報処理システム。
The state recognition unit can recognize at least a state in which the reaction object is stopped and a state in which the reaction object is moving,
The information processing system according to claim 1, wherein the presence estimation unit estimates that the unobservable object exists at least when the reaction object is in a stopped state.
前記領域設定部は、前記反応物体に最も近い前記観察不能領域を当該反応物体に対応する観察不能領域として設定し、
前記存在推定部は、前記反応物体の状態に基づいて、当該反応物体に対応する前記観察不能領域について前記観察不能物体の存在を推定する、請求項2に記載の情報処理システム。
The area setting unit sets the unobservable area closest to the reaction object as an unobservable area corresponding to the reaction object,
The information processing system according to claim 2, wherein the presence estimation unit estimates the presence of the unobservable object in the unobservable region corresponding to the reaction object, based on the state of the reaction object.
前記領域設定部は、前記反応物体から所定の距離内にある前記観察不能領域を当該反応物体に対応する観察不能領域として設定し、
前記存在推定部は、前記反応物体の状態に基づいて、当該反応物体に対応する前記観察不能領域について前記観察不能物体の存在を推定する、請求項2に記載の情報処理システム。
The region setting unit sets the unobservable region within a predetermined distance from the reaction object as an unobservable region corresponding to the reaction object,
The information processing system according to claim 2, wherein the presence estimation unit estimates the presence of the unobservable object in the unobservable region corresponding to the reaction object, based on the state of the reaction object.
前記状態認識部は、前記反応物体の注意方向を認識し、
前記領域設定部は、前記反応物体の注意方向にある前記観察不能領域を当該反応物体に対応する観察不能領域として設定し、
前記存在推定部は、前記反応物体の状態に基づいて、当該反応物体に対応する前記観察不能領域について前記観察不能物体の存在を推定する、請求項2に記載の情報処理システム。
The state recognition unit recognizes the attention direction of the reaction object,
The area setting unit sets the unobservable area in the attention direction of the reaction object as an unobservable area corresponding to the reaction object,
The information processing system according to claim 2, wherein the presence estimation unit estimates the presence of the unobservable object in the unobservable region corresponding to the reaction object, based on the state of the reaction object.
光学的なセンシングによって所定範囲内の光学情報を生成する撮像ステップと、
前記光学情報から反応物体を検出する反応物体検出ステップと、
前記光学情報に基づいて、前記反応物体の状態を認識する状態認識ステップと、
前記反応物体の状態に基づいて、前記光学情報から検出されない観察不能物体の存在を推定する存在推定ステップと、
を備えた、情報処理方法。
An imaging step of generating optical information within a predetermined range by optical sensing,
A reaction object detection step of detecting a reaction object from the optical information,
A state recognition step of recognizing a state of the reaction object based on the optical information,
Based on the state of the reaction object, presence estimation step of estimating the presence of an unobservable object not detected from the optical information,
An information processing method comprising:
光学的なセンシングによって所定範囲内の光学情報を生成する光学センシング装置から前記光学情報を取得するコンピュータを、
前記光学情報から反応物体を検出する反応物体検出部、
前記光学情報に基づいて、前記反応物体の状態を認識する状態認識部、及び
前記反応物体の状態に基づいて、前記光学情報から検出されない観察不能物体の存在を推定する存在推定部、
として機能させる情報処理プログラム。
A computer that obtains the optical information from an optical sensing device that generates optical information within a predetermined range by optical sensing,
A reaction object detection unit that detects a reaction object from the optical information,
A state recognition unit that recognizes the state of the reaction object based on the optical information, and a presence estimation unit that estimates the presence of an unobservable object that is not detected from the optical information based on the state of the reaction object.
Information processing program to function as
JP2018168234A 2018-09-07 2018-09-07 Information processing system, information processing method, and information processing program Pending JP2020042446A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018168234A JP2020042446A (en) 2018-09-07 2018-09-07 Information processing system, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018168234A JP2020042446A (en) 2018-09-07 2018-09-07 Information processing system, information processing method, and information processing program

Publications (1)

Publication Number Publication Date
JP2020042446A true JP2020042446A (en) 2020-03-19

Family

ID=69798300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018168234A Pending JP2020042446A (en) 2018-09-07 2018-09-07 Information processing system, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP2020042446A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022030547A1 (en) * 2020-08-07 2022-02-10 エヌ・ティ・ティ・コミュニケーションズ株式会社 Monitoring information processing device, monitoring information processing method and monitoring information processing program
JP2022027306A (en) * 2020-07-31 2022-02-10 トヨタ自動車株式会社 Mobile body disturbance detection device, mobile body disturbance detection system, and mobile body disturbance detection program
JP2022030839A (en) * 2020-08-07 2022-02-18 エヌ・ティ・ティ・コミュニケーションズ株式会社 Monitor information processing apparatus, monitor information processing method and monitor information processing program
JP2022030841A (en) * 2020-08-07 2022-02-18 エヌ・ティ・ティ・コミュニケーションズ株式会社 Monitoring information processing device, monitoring information processing method, and monitoring information processing program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008293099A (en) * 2007-05-22 2008-12-04 Mazda Motor Corp Driving support device for vehicle
JP2015187806A (en) * 2014-03-27 2015-10-29 日本精機株式会社 Alarm system for vehicle
WO2018158911A1 (en) * 2017-03-02 2018-09-07 日産自動車株式会社 Drive assistance method and drive assistance device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008293099A (en) * 2007-05-22 2008-12-04 Mazda Motor Corp Driving support device for vehicle
JP2015187806A (en) * 2014-03-27 2015-10-29 日本精機株式会社 Alarm system for vehicle
WO2018158911A1 (en) * 2017-03-02 2018-09-07 日産自動車株式会社 Drive assistance method and drive assistance device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022027306A (en) * 2020-07-31 2022-02-10 トヨタ自動車株式会社 Mobile body disturbance detection device, mobile body disturbance detection system, and mobile body disturbance detection program
JP7359099B2 (en) 2020-07-31 2023-10-11 トヨタ自動車株式会社 Mobile object interference detection device, mobile object interference detection system, and mobile object interference detection program
WO2022030547A1 (en) * 2020-08-07 2022-02-10 エヌ・ティ・ティ・コミュニケーションズ株式会社 Monitoring information processing device, monitoring information processing method and monitoring information processing program
JP2022030839A (en) * 2020-08-07 2022-02-18 エヌ・ティ・ティ・コミュニケーションズ株式会社 Monitor information processing apparatus, monitor information processing method and monitor information processing program
JP2022030841A (en) * 2020-08-07 2022-02-18 エヌ・ティ・ティ・コミュニケーションズ株式会社 Monitoring information processing device, monitoring information processing method, and monitoring information processing program
JP7479988B2 (en) 2020-08-07 2024-05-09 エヌ・ティ・ティ・コミュニケーションズ株式会社 Monitoring information processing device, monitoring information processing method, and monitoring information processing program

Similar Documents

Publication Publication Date Title
US10144474B2 (en) Collision detection
US9524643B2 (en) Orientation sensitive traffic collision warning system
JP2020042446A (en) Information processing system, information processing method, and information processing program
JP6450294B2 (en) Object detection apparatus, object detection method, and program
JP6453490B2 (en) Method and apparatus for recognizing and evaluating road surface reflections
US20040246114A1 (en) Image processing system for a vehicle
KR102044193B1 (en) System and Method for alarming collision of vehicle with support vector machine
WO2017171082A1 (en) Vehicle control device and vehicle control method
EP2557550A1 (en) Vehicle periphery monitoring device, vehicle periphery monitoring method, and vehicle device
JP6477453B2 (en) Object detection device and object detection method
JP4415856B2 (en) Method for detecting the forward perimeter of a road vehicle by a perimeter sensing system
Aytekin et al. Increasing driving safety with a multiple vehicle detection and tracking system using ongoing vehicle shadow information
JP2009064410A (en) Method for detecting moving objects in blind spot of vehicle and blind spot detection device
KR20130007243A (en) Method and system for warning forward collision using camera
JP2018516799A5 (en)
JP2016045903A (en) Object recognition device and vehicle control system
JP2009237898A (en) Image recognition device
JP4937844B2 (en) Pedestrian detection device
KR20130054637A (en) Apparatus and method detecting object in automatic parking system
Rajendar et al. Prediction of stopping distance for autonomous emergency braking using stereo camera pedestrian detection
KR20160131196A (en) Device for detecting an obstacle
JP5747593B2 (en) Standard vehicle speed calculation device and program
Nayak et al. Vision-based techniques for identifying emergency vehicles
Bruno et al. Real-Time Pedestrian Detection and Tracking System Using Deep Learning and Kalman filter: Applications on Embedded Systems in Advanced Driver Assistance Systems.
KR20190051464A (en) Autonomous emergency braking apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230228