JP2018136917A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2018136917A
JP2018136917A JP2017186131A JP2017186131A JP2018136917A JP 2018136917 A JP2018136917 A JP 2018136917A JP 2017186131 A JP2017186131 A JP 2017186131A JP 2017186131 A JP2017186131 A JP 2017186131A JP 2018136917 A JP2018136917 A JP 2018136917A
Authority
JP
Japan
Prior art keywords
vehicle
sensor
moving body
sensing result
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017186131A
Other languages
Japanese (ja)
Other versions
JP7015665B2 (en
Inventor
育規 石井
Yasunori Ishii
育規 石井
弘章 浦部
Hiroaki Urabe
弘章 浦部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to US15/883,468 priority Critical patent/US10569768B2/en
Priority to CN201810105266.0A priority patent/CN108454631B/en
Priority to EP18156237.2A priority patent/EP3366539B1/en
Publication of JP2018136917A publication Critical patent/JP2018136917A/en
Application granted granted Critical
Publication of JP7015665B2 publication Critical patent/JP7015665B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus that appropriately supports traveling of a moving object even in a situation where sensing of a course by a sensor of the moving object such as a vehicle cannot be appropriately performed.SOLUTION: An information processing apparatus 100 A of a vehicle 1 A is comprised of: an acquiring unit 110 A that acquires a sensing result from a sensor that senses a course; a communication unit 120 A that receives a sensing result of the course of the vehicle 1 A from an external device (for example, a vehicle 1B); a determination unit 130 that determines whether or not a situation of the vehicle 1 A at a specific time point is a first situation where a sensing result acquired from the sensor satisfies a predetermined condition; a generation unit 140 for generating first information for controlling a movement of the vehicle 1 A based on the sensing result acquired from the sensor when the determination unit 130 determines that the first situation is established, and for generating first information based on a sensing result received from an external device when the determination unit 130 determines that the first situation is not established; and an output unit 150 for outputting the first information.SELECTED DRAWING: Figure 2

Description

本発明は、センサによる移動体の進路のセンシング結果に基づいて移動体の移動を支援する技術に関する。   The present invention relates to a technique for supporting movement of a moving body based on a sensing result of a course of the moving body by a sensor.

自動車は、例えば、各種センサ、各種アクチュエータ、各種電子制御ユニット(ECU:Electronic Control Unit)等の装置を備える。アクチュエータ、車載センサ等と接続された各種ECUは、相互に車載ネットワークで接続されており、各種の情報処理(データ入出力、演算等)を担う。各種ECUは、車載ネットワークによりデータの授受を行って連携することで、例えば自動車等の車両を制御する車両制御装置として機能し、或いは、その制御に必要な情報処理を行う情報処理装置として機能し得る。例えば、複数のECUは、連携することで先進運転者支援システム(ADAS:Advanced Driver Assistance System)の各機能(例えば、駐車支援機能、車線維持支援機能、衝突回避支援機能等)を実現する。例えば、衝突回避支援機能では、車載センサと接続されて進路上の障害物の検知を行うECU、障害物に衝突する可能性を判断して緊急ブレーキの制御指示を出す情報処理装置として働くECU、緊急ブレーキの制御指示に応じてブレーキを制御する車両制御装置として働くECU等が連携する。   The automobile includes, for example, devices such as various sensors, various actuators, and various electronic control units (ECUs). Various ECUs connected to actuators, in-vehicle sensors, and the like are connected to each other via an in-vehicle network, and perform various types of information processing (data input / output, computation, etc.). Various ECUs function as a vehicle control device that controls a vehicle such as an automobile, for example, or function as an information processing device that performs information processing necessary for the control by exchanging data via an in-vehicle network and cooperating with each other. obtain. For example, a plurality of ECUs realize respective functions of an advanced driver assistance system (ADAS: Advanced Driver Assistance System) (for example, a parking assistance function, a lane maintenance assistance function, a collision avoidance assistance function, and the like) by cooperation. For example, in the collision avoidance support function, an ECU that is connected to a vehicle-mounted sensor and detects obstacles on the course, an ECU that functions as an information processing device that determines the possibility of collision with an obstacle and issues an emergency brake control instruction, ECU etc. which work as a vehicle control device which controls a brake according to a control instruction of emergency brake cooperate.

先進運転者支援システム等では、車載センサ(例えばレーダー、イメージセンサ等)によるセンシング(観測等)の結果を用いて障害物の検知等を行って車両の走行支援のための機能(衝突回避支援機能等)を作動させるので、例えば車載センサによるセンシングの結果が、低い精度の場合、或いは、誤っている場合には、車両の走行支援を適切に行うことができなくなる。例えば車両の進行方向前方を撮像するイメージセンサにより生成される画像に基づく画像処理によって車両の前方の障害物のサイズ、位置等を検知することで走行支援を行うシステムでは、車両がトンネルに入った直後等に、障害物の検知を適切に行えないことがある。トンネルの外側の明るさに対して、トンネルの内側が極めて暗い状況(例えば晴天の昼間等)において、車両がある程度速い速度でトンネルに入ると、車両に搭載されたイメージセンサは、自動感度調整機能によっても感度の調整が間に合わず、トンネルに入った直後には不明瞭な画像を生成してしまう。これにより障害物の検知が適切に行えなくなる。   Advanced driver assistance systems, etc., detect obstacles using the results of sensing (observation, etc.) by in-vehicle sensors (for example, radar, image sensors, etc.) and support functions for driving the vehicle (collision avoidance support function). Etc.), for example, when the result of sensing by the in-vehicle sensor has low accuracy or is incorrect, it is not possible to appropriately perform driving support of the vehicle. For example, in a system that supports driving by detecting the size, position, etc. of an obstacle in front of the vehicle by image processing based on an image generated by an image sensor that captures the front of the vehicle in the traveling direction, the vehicle enters the tunnel Immediately after that, obstacles may not be detected properly. In situations where the inside of the tunnel is extremely dark compared to the brightness of the outside of the tunnel (for example, in the daytime in fine weather), when the vehicle enters the tunnel at a somewhat high speed, the image sensor installed in the vehicle has an automatic sensitivity adjustment function. However, the sensitivity cannot be adjusted in time, and an unclear image is generated immediately after entering the tunnel. As a result, the obstacle cannot be detected properly.

従来、自車両と前方障害物との接触を回避する走行安全装置において、自車両がトンネル内への進入直後の所定時間の間は危険回避処置が他のときよりも早期に取られるよう制御ロジックを変更する技術が知られている(特許文献1参照)。これは、トンネルへの車両の進入直後に運転者の視覚が明るさの急変に対応できず運転操作が鈍くなるので、早期に危険回避処置を行う技術である。   Conventionally, in a traveling safety device that avoids contact between the host vehicle and a front obstacle, control logic is used so that risk avoidance measures are taken earlier than the other times during a predetermined time immediately after the host vehicle enters the tunnel. Is known (see Patent Document 1). This is a technique for performing risk avoidance measures at an early stage because the driver's vision cannot cope with a sudden change in brightness immediately after the vehicle enters the tunnel and the driving operation becomes dull.

特開平6−44499号公報JP-A-6-44499

特許文献1の技術は、障害物への接近に対して早期に対処するものであるが、この技術を用いても、もしも車載センサによるセンシングの精度又は正確性の低下が生じてしまうと、適切に対処できない。   The technique of Patent Document 1 deals with an approach to an obstacle at an early stage, but even if this technique is used, if the accuracy or accuracy of sensing by the in-vehicle sensor is reduced, it is appropriate. Cannot cope with.

そこで、本開示は、移動体に搭載されたセンサ(例えば車載センサ)によるその移動体の進路のセンシングが適切に行えないような状況においても適切にその移動体の移動(走行)を支援するための情報処理装置を提供する。この移動体の走行を支援する情報処理装置は、例えばその移動体(車両等)に搭載される情報処理装置或いはその移動体とは別の移動体(別の車両等)に搭載される情報処理装置である。また、本開示は、車両等の移動体に搭載されたセンサによるその移動体の進路のセンシングが適切に行えないような状況においてもその移動体の走行に係る制御を適切に行うための情報処理方法、及び、その情報処理を、移動体に搭載されたコンピュータ(例えばECU等の車載コンピュータ)に行わせるためのプログラムを提供する。   Therefore, the present disclosure is intended to appropriately support movement (running) of a moving body even in a situation where a sensor (for example, a vehicle-mounted sensor) mounted on the moving body cannot properly sense the course of the moving body. An information processing apparatus is provided. The information processing apparatus that supports the traveling of the moving body is, for example, an information processing apparatus mounted on the moving body (vehicle or the like) or an information processing mounted on a moving body (another vehicle or the like) different from the moving body. Device. In addition, the present disclosure provides information processing for appropriately performing control related to traveling of a moving object even in a situation where a sensor mounted on the moving object such as a vehicle cannot appropriately sense the course of the moving object. A method and a program for causing a computer (for example, an in-vehicle computer such as an ECU) mounted on a moving body to perform the method and information processing thereof are provided.

上記課題を解決するために本発明の一態様に係る情報処理装置は、移動体に搭載される情報処理装置であって、前記移動体に搭載されて前記移動体の進路をセンシングするセンサからセンシング結果を取得する取得部と、前記移動体外の外部装置から前記移動体の進路についてのセンシング結果を受信する通信部と、特定の時点の前記移動体の状況が、前記センサから取得されるセンシング結果が所定条件を満たす第1状況であるか否かを、判定する判定部と、前記特定の時点の前記移動体の状況が前記第1状況であると前記判定部が判定した場合には前記センサから取得したセンシング結果に基づいて、前記移動体の移動を制御するための第1情報を生成し、前記特定の時点の前記移動体の状況が前記第1状況でないと前記判定部が判定した場合には前記外部装置から受信したセンシング結果に基づいて前記第1情報を生成する生成部と、前記第1情報を出力する出力部とを備える。   In order to solve the above-described problem, an information processing apparatus according to an aspect of the present invention is an information processing apparatus mounted on a moving body, and sensing is performed from a sensor mounted on the moving body and sensing the course of the moving body. An acquisition unit that acquires a result, a communication unit that receives a sensing result about the course of the moving body from an external device outside the moving body, and a sensing result in which the situation of the moving body at a specific time is acquired from the sensor A determination unit that determines whether or not the first condition satisfies a predetermined condition, and the sensor when the determination unit determines that the state of the moving body at the specific time is the first situation Based on the sensing result acquired from the first information, the first information for controlling the movement of the moving body is generated, and the determination unit determines that the state of the moving body at the specific time point is not the first state. If provided with a generating unit for generating the first information based on the sensing result received from the external device, and an output unit for outputting the first information.

また、上記課題を解決するために本発明の一態様に係る情報処理方法は、移動体において前記移動体の移動を支援するための情報処理方法であって、前記移動体の進路をセンシングするセンサからセンシング結果を取得する取得ステップと、前記移動体外の外部装置から前記移動体の進路についてのセンシング結果を受信する受信ステップと、特定の時点の前記移動体の状況が、前記センサから取得されるセンシング結果が所定条件を満たす第1状況である場合には、前記センサから取得したセンシング結果に基づいて、前記移動体の移動を制御するための第1情報を生成し、前記特定の時点の前記移動体の状況が前記第1状況でない場合には、前記外部装置から受信したセンシング結果に基づいて前記第1情報を生成する生成ステップとを含む。   In order to solve the above-described problem, an information processing method according to one aspect of the present invention is an information processing method for supporting movement of a moving object in a moving object, and a sensor that senses a course of the moving object. An acquisition step of acquiring a sensing result from the receiver, a receiving step of receiving a sensing result about a course of the moving object from an external device outside the moving object, and a situation of the moving object at a specific time point are acquired from the sensor. When the sensing result is a first situation that satisfies a predetermined condition, the first information for controlling the movement of the moving body is generated based on the sensing result acquired from the sensor, and the first information at the specific time point is generated. A generating step of generating the first information based on a sensing result received from the external device when the situation of the moving object is not the first situation; No.

また、上記課題を解決するために本発明の一態様に係るプログラムは、移動体に搭載されるコンピュータに所定情報処理を行わせるためのプログラムであって、所定情報処理は、前記移動体の進路をセンシングするセンサからセンシング結果を取得する取得ステップと、前記移動体外の外部装置から前記移動体の進路についてのセンシング結果を受信する受信ステップと、特定の時点の前記移動体の状況が、前記センサから取得されるセンシング結果が所定条件を満たす第1状況である場合には、前記センサから取得したセンシング結果に基づいて、前記移動体の移動を制御するための第1情報を生成し、前記特定の時点の前記移動体の状況が前記第1状況でない場合には、前記外部装置から受信したセンシング結果に基づいて前記第1情報を生成する生成ステップとを含む。   In order to solve the above problem, a program according to an aspect of the present invention is a program for causing a computer mounted on a mobile body to perform predetermined information processing, and the predetermined information processing is a course of the mobile body. An acquisition step of acquiring a sensing result from a sensor that senses a signal, a receiving step of receiving a sensing result about a path of the moving body from an external device outside the moving body, and a situation of the moving body at a specific time point If the sensing result acquired from the first condition satisfies the predetermined condition, first information for controlling the movement of the moving body is generated based on the sensing result acquired from the sensor, and the identification If the status of the mobile object at the time of is not the first status, the first information is based on the sensing result received from the external device. And a generation step of generating.

また、上記課題を解決するために本発明の一態様に係る情報処理装置は、第1移動体に搭載される情報処理装置であって、前記第1移動体における第1センサ又は前記第1移動体の周辺の第2センサから前記第1移動体の外部についてのセンシング結果を取得する取得部と、前記第2移動体の特定の時点の状況が、前記第2移動体に搭載されて前記第2移動体の進路をセンシングする第3センサから取得されるセンシング結果が所定条件を満たす第1状況であるかを判定する判定部と、前記特定の時点の前記第2移動体の状況が前記第1状況でないと判定されることに応じて、前記取得部が取得する前記第1センサ又は前記第2センサから取得されるセンシング結果を送信する通信部とを備える。   In order to solve the above-described problem, an information processing apparatus according to an aspect of the present invention is an information processing apparatus mounted on a first moving body, and includes the first sensor or the first movement in the first moving body. An acquisition unit that acquires a sensing result about the outside of the first moving body from a second sensor around the body, and a situation at a specific time point of the second moving body are mounted on the second moving body and the first A determination unit that determines whether a sensing result acquired from a third sensor that senses the path of the two moving bodies is a first situation that satisfies a predetermined condition; and a situation of the second moving body at the specific time point A communication unit that transmits a sensing result acquired from the first sensor or the second sensor acquired by the acquisition unit in response to a determination that the situation is not one.

本発明によれば、例えば車載センサによる車両の進路のセンシングが適切に行えないような状況においても適切にその車両の走行を支援することができる。   ADVANTAGE OF THE INVENTION According to this invention, the driving | running | working of the vehicle can be appropriately supported also in the condition where the course of the vehicle of a vehicle cannot be appropriately sensed by a vehicle-mounted sensor, for example.

トンネルの出入口付近を走行中の車両等を示す図である。It is a figure which shows the vehicle etc. which are drive | working near the entrance / exit of a tunnel. 相互に通信する情報処理装置を搭載した各車両の構成図である。It is a lineblock diagram of each vehicle carrying an information processor which communicates mutually. トンネルに進入する車両に搭載されたイメージセンサにより撮像された画像の例を示す図である。It is a figure which shows the example of the image imaged with the image sensor mounted in the vehicle which approachs a tunnel. 実施の形態1に係る車両に搭載された情報処理装置によるその車両の走行支援のための情報処理の一例を示すフローチャートである。4 is a flowchart illustrating an example of information processing for driving support of the vehicle by the information processing device mounted on the vehicle according to Embodiment 1; 実施の形態2に係る車両の走行支援のための情報処理の一例を示すフローチャートである。6 is a flowchart illustrating an example of information processing for driving support for a vehicle according to a second embodiment. 実施の形態3に係る車両の走行支援のための情報処理の一例を示すフローチャートである。12 is a flowchart illustrating an example of information processing for driving support for a vehicle according to a third embodiment. 車両に搭載された情報処理装置による他の車両の走行支援のための処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process for the driving assistance of the other vehicle by the information processing apparatus mounted in the vehicle.

車両の走行の支援のためには、車両に搭載されたセンサ(車載センサ)によるその車両の進路のセンシング結果に基づいて、車両の走行を支援するための走行支援情報(進路上の障害物、路面状態等に関連した情報等)を生成し、その走行支援情報を、ディスプレイへの表示等により車両のユーザ(運転者)に提示する、或いは、その走行支援情報を制御信号として車両制御装置(エンジン、ブレーキ、ステアリング等を制御するECU等)に送信することが有用となる。しかし、車載センサによる車両の進路のセンシングの精度が低下する状況では、進路上の障害物(例えば歩行者、他の車両、落石、車両からの落下物その他の物品等)、路面状態(例えば凹凸、水たまり、凍結部分)、進路上での火災等の検知が適切に行えず、適切に車両の走行支援を行うことができない。例えば、車両の前方等の進路を撮像するイメージセンサ(カメラ)が生成する画像に基づく画像処理により障害物等の検知を行う先進運転者支援システムを備える車両が、時速60kmで晴天の昼間等においてトンネルへと進入する際には、トンネルに入った直後に急に暗くなることから、イメージセンサの感度調整が遅れて一時的に画質の悪い画像を生成してしまう。その車両がトンネルから出た直後にも、明るさが急に明るくなることから、イメージセンサは、また一時的に画質の悪い画像を生成してしまう。そこで、トンネルの出入り口付近の通過時等といった、車載センサによるセンシング結果の質が低下する際に、車両外部からセンシング結果を受信して車両の走行支援に用いる制御方法等である情報処理方法に想到した。   In order to support driving of a vehicle, driving support information for supporting driving of the vehicle (obstacles on the route, on the basis of the sensing result of the vehicle's route by a sensor (vehicle-mounted sensor) mounted on the vehicle) Information related to road surface conditions, etc.) and presenting the driving support information to a vehicle user (driver) by display on the display or the like, or using the driving support information as a control signal as a vehicle control device ( It is useful to transmit to an ECU, etc. that controls the engine, brakes, steering, etc. However, in a situation where the accuracy of sensing the course of the vehicle by the in-vehicle sensor is reduced, obstacles on the path (for example, pedestrians, other vehicles, falling rocks, falling objects from the vehicles, etc.), road surface conditions (for example, unevenness) , Puddles, frozen parts), fires on the course, etc. cannot be detected properly, and the vehicle cannot be supported properly. For example, a vehicle equipped with an advanced driver support system that detects an obstacle or the like by image processing based on an image generated by an image sensor (camera) that captures a route ahead of the vehicle, etc., at daytime in fine weather at 60 km / h. When entering the tunnel, the image suddenly becomes dark immediately after entering the tunnel, so that the sensitivity adjustment of the image sensor is delayed and an image with poor image quality is temporarily generated. Immediately after the vehicle exits the tunnel, the brightness suddenly increases, so the image sensor temporarily generates an image with poor image quality. Therefore, when the quality of the sensing results from the in-vehicle sensor deteriorates, such as when passing near the entrance of a tunnel, an information processing method such as a control method for receiving the sensing results from the outside of the vehicle and using it for driving support of the vehicle is conceived. did.

本発明の一態様に係る情報処理装置等では、その方法により、車両の進路をセンシングする車載センサから所定基準を満たすセンシング結果が取得される状況(正常状況)か否かを判定し、正常状況でない場合には、車外(例えば対向車、先行車、路側機等)から、その車両の進路についてのセンシング結果を受信して走行支援に利用する。これにより、トンネルの出入り口等の車載センサのセンシング結果の質が低下する際に、不適切な走行支援情報の生成によって事故が生じる可能性を低減し得る。なお、ここでは主として車両の走行支援について説明するが、車載センサによるセンシング結果の質が低下する際に、車両外部からセンシング結果を受信して車両の走行支援に用いる情報処理方法は、車両以外の移動体(例えば、移動するロボット等)にも応用可能である。   In the information processing apparatus and the like according to one aspect of the present invention, the method determines whether a sensing result that satisfies a predetermined criterion is acquired from a vehicle-mounted sensor that senses the course of the vehicle (normal situation). If not, a sensing result about the course of the vehicle is received from outside the vehicle (for example, an oncoming vehicle, a preceding vehicle, a roadside machine, etc.) and used for driving support. Thereby, when the quality of the sensing result of the vehicle-mounted sensor such as the entrance and exit of the tunnel is lowered, it is possible to reduce the possibility of an accident due to generation of inappropriate driving support information. Here, the vehicle driving support is mainly described. However, when the quality of the sensing result by the in-vehicle sensor is deteriorated, the information processing method for receiving the sensing result from the outside of the vehicle and using it for the driving support of the vehicle is other than the vehicle. The present invention can also be applied to a moving body (for example, a moving robot).

本発明の一態様に係る情報処理装置は、移動体に搭載される情報処理装置であって、前記移動体に搭載されて前記移動体の進路をセンシングするセンサからセンシング結果を取得する取得部と、前記移動体外の外部装置から前記移動体の進路についてのセンシング結果を受信する通信部と、特定の時点の前記移動体の状況が、前記センサから取得されるセンシング結果が所定条件を満たす第1状況であるか否かを、判定する判定部と、前記特定の時点の前記移動体の状況が前記第1状況であると前記判定部が判定した場合には前記センサから取得したセンシング結果に基づいて、前記移動体の移動を制御するための第1情報を生成し、前記特定の時点の前記移動体の状況が前記第1状況でないと前記判定部が判定した場合には前記外部装置から受信したセンシング結果に基づいて前記第1情報を生成する生成部と、前記第1情報を出力する出力部とを備える。所定条件は、センシング結果が、実際のセンシングの対象の状態を適切に表した情報となっているか否かを区別する基準であり、適切であれば満たされ、適切でなければ満たされないように定めればよい。判定部による判定は、取得部が取得したセンシング結果に基づいて(例えば移動体が車両の場合において車載イメージセンサによるセンシング結果としての画像の解析等により)なされてもよいし、他の方法(例えば明るさの急変によりイメージセンサのセンシング精度が一時的に低下するトンネルの出入り口付近を車両が通過することを測位情報、地図情報等に基づいて検知する等)によって推定的になされてもよい。これにより、第1状況、すなわち正常状況においては、車載センサ等のセンサのセンシング結果が適切であるのでそのセンシング結果を用いて適切な移動支援が行え、第1状況でない場合、すなわち正常状況でない場合には、外部からのセンシング結果を、センサのセンシング結果の代わりとして或いは優先して用いること等によって、適切な移動支援が行える。   An information processing apparatus according to an aspect of the present invention is an information processing apparatus mounted on a moving body, and an acquisition unit that acquires a sensing result from a sensor that is mounted on the moving body and senses a route of the moving body; A communication unit that receives a sensing result about the path of the moving body from an external device outside the moving body, and a state of the moving body at a specific point in time, a sensing result acquired from the sensor satisfies a first condition Based on a sensing result acquired from the sensor when the determination unit determines whether or not the situation is the situation, and the determination unit determines that the situation of the moving body at the specific time is the first situation Generating the first information for controlling the movement of the moving body, and if the determination unit determines that the state of the moving body at the specific time point is not the first state, Comprising a generator configured to generate the first information based on the received sensing result, and an output unit for outputting the first information. Predetermined conditions are criteria for distinguishing whether or not the sensing result is information that appropriately represents the actual state of the sensing target, and is defined so that it is satisfied if it is appropriate and is not satisfied if it is not appropriate. Just do it. The determination by the determination unit may be made based on a sensing result acquired by the acquisition unit (for example, by analysis of an image as a sensing result by an in-vehicle image sensor when the moving body is a vehicle) or other methods (for example, It may be presumed that the vehicle passes through the vicinity of the entrance / exit of the tunnel where the sensing accuracy of the image sensor temporarily decreases due to a sudden change in brightness based on positioning information, map information, and the like. As a result, in the first situation, that is, in the normal situation, the sensing result of the sensor such as the vehicle-mounted sensor is appropriate, so that appropriate movement support can be performed using the sensing result. For example, appropriate movement support can be performed by using an external sensing result instead of or in preference to a sensor sensing result.

また、前記センサは、イメージセンサを含み、前記センシング結果は、画像情報を含んでいてもよい。   The sensor may include an image sensor, and the sensing result may include image information.

また、前記第1状況の判定は、各領域内の明るさの差異が所定程度以上である連続した2領域間を前記移動体が移動するかを判定することを含んでもよい。例えば、前記2領域間を前記移動体が移動するかを判定することは、前記移動体の位置の測定結果と、前記2領域の所在位置を示す位置情報とに基づいて、前記移動体が前記2領域の境界に接近しているかを判定することを含んでもよい。   In addition, the determination of the first situation may include determining whether the moving body moves between two consecutive regions where the difference in brightness within each region is greater than or equal to a predetermined level. For example, determining whether the moving body moves between the two areas is based on the measurement result of the position of the moving body and position information indicating the location of the two areas. It may include determining whether the boundary between the two regions is approached.

これにより、移動体がトンネルの出入り口付近等の明るさの差が大きな部分を走行しているか否かを、位置を用いて比較的容易に判定できるので、情報処理装置は、その判定の結果に応じて、第1情報の生成の基礎とすべき情報(センシング結果)を適切に選択できる。   As a result, it can be determined relatively easily using the position whether or not the moving body is traveling in a portion with a large difference in brightness, such as near the entrance of a tunnel. Accordingly, information (sensing result) that should be the basis for generating the first information can be appropriately selected.

あるいは、前記2領域間を前記移動体が移動するかを判定することは、前記イメージセンサから取得される画像情報の示す画像に前記2領域の境界が映っているかを判定することを含んでもよい。   Alternatively, determining whether the moving body moves between the two areas may include determining whether a boundary between the two areas is reflected in an image indicated by image information acquired from the image sensor. .

これにより、移動体が2領域の境界を移動することを、既存の構成であるイメージセンサを用いて判定することができる。したがって、コストの増加を抑制することができる。また、各領域内の明るさの差異が所定程度以上に大きな連続した2領域間を移動体が移動する際(例えば移動体がトンネルの内外領域間を移動する際)に、移動体の情報処理装置は、センサのセンシングが一時的に適切に行えなくても外部装置から受信したセンシング結果に基づいて第1情報の生成を行うので、適切な移動支援が可能となる。つまり、情報処理装置は、移動体の状況が第1の状況でなくても、外部装置のセンシング結果に基づいて第1情報の生成を行うため、適切な移動支援が可能となる。   Thereby, it can be determined using the image sensor which is an existing structure that a moving body moves the boundary of 2 area | regions. Therefore, an increase in cost can be suppressed. Further, when the moving body moves between two consecutive areas where the brightness difference in each area is larger than a predetermined level (for example, when the moving body moves between the inner and outer areas of the tunnel), the information processing of the moving body is performed. Since the device generates the first information based on the sensing result received from the external device even if the sensor sensing cannot be performed properly temporarily, appropriate movement support is possible. That is, since the information processing apparatus generates the first information based on the sensing result of the external device even if the state of the moving body is not the first state, appropriate movement support can be performed.

また、例えば、前記第1状況の判定は、前記イメージセンサから前記所定条件を満たすセンシング結果が取得されたか否かを判定することを含むこととしてもよい。これにより、イメージセンサによる実際のセンシング結果に基づいて判定するので、第1情報の生成のために外部装置から受信した情報を用いるべきか否かを適切に区別できる。   For example, the determination of the first situation may include determining whether a sensing result that satisfies the predetermined condition is acquired from the image sensor. Thereby, since it determines based on the actual sensing result by an image sensor, it can distinguish appropriately whether the information received from the external device should be used for the production | generation of 1st information.

また、例えば、前記第1状況の判定は、前記イメージセンサによるセンシング結果として生成された画像の画素値についての統計処理の結果と閾値との比較を含むこととしてもよい。これにより、移動体に搭載されたイメージセンサで撮像された画像が、移動体の進路上の障害物等を検出するために十分な質(精度等)を有するか否かを区別できる。   In addition, for example, the determination of the first situation may include a comparison between a result of statistical processing on a pixel value of an image generated as a sensing result by the image sensor and a threshold value. Thereby, it can be distinguished whether the image imaged with the image sensor mounted in the moving body has sufficient quality (accuracy, etc.) to detect an obstacle or the like on the path of the moving body.

また、例えば、前記所定条件は、前記イメージセンサにより生成される画像の所定数の画素値が、所定範囲に収まる場合に満たされず、当該所定範囲を超える場合に満たされることとしてもよい。これにより、例えば、十分な分解能を有する画像が撮像で得られないような場合には前記移動体の状況が第1状況ではないとして、第1状況とは異なるようにして(例えば外部装置から受信したセンシング結果に基づいて)、第1情報の生成を行うこととなる。このため、状況に応じて適切な移動支援が可能となる。   Further, for example, the predetermined condition may not be satisfied when a predetermined number of pixel values of an image generated by the image sensor fall within a predetermined range, but may be satisfied when the predetermined value exceeds the predetermined range. As a result, for example, when an image having sufficient resolution cannot be obtained by imaging, the state of the moving body is not the first situation and is different from the first situation (for example, received from an external device). The first information is generated based on the sensing result. For this reason, appropriate movement support according to the situation becomes possible.

また、例えば、前記生成部は、前記特定の時点の前記移動体の状況が前記第1状況でないと前記判定部が判定した場合には、前記センサから取得したセンシング結果に基づかずに前記第1情報を生成することとしてもよい。これにより、特定の時点の移動体の状況が第1状況(例えば正常状況)であればセンサのセンシング結果に基づいて移動体の移動支援がなされ、その状況が第1状況でなければセンサのセンシング結果が第1情報の生成に用いられないので、第1状況でない場合のセンサのセンシング結果に基づく進路上の障害物、路面状態等の誤検知、検知漏れ等による弊害の発生が防止される。   In addition, for example, when the determination unit determines that the state of the moving body at the specific time point is not the first state, the generation unit does not based on the sensing result acquired from the sensor. Information may be generated. Thereby, if the state of the moving body at a specific time is the first situation (for example, a normal situation), the moving body is supported based on the sensing result of the sensor. If the situation is not the first situation, the sensing of the sensor is performed. Since the result is not used for the generation of the first information, it is possible to prevent the occurrence of an adverse effect due to an erroneous detection of an obstacle on the route, a road surface state, or the like based on the sensing result of the sensor in the case of not being in the first situation, or a detection omission.

また、例えば、前記生成部は、前記特定の時点の前記移動体の状況が前記第1状況でないと前記判定部が判定した場合には、前記センサから取得したセンシング結果にも基づいて、前記センサからの当該センシング結果が前記第1情報に与える影響を、前記特定の時点の前記移動体の状況が前記第1状況であると前記判定部が判定した場合より抑制することとしてもよい。これにより、特定の時点の移動体の状況が第1状況(例えば正常状況)でない場合に、センサのセンシング結果と外部装置から受信したセンシング結果とを併用して第1情報の生成をするときにおいて、進路上の障害物、路面状態等の誤検知、検知漏れ等といった弊害の発生が低減され得る。   In addition, for example, when the determination unit determines that the state of the moving body at the specific time point is not the first state, the generation unit is configured to detect the sensor based on a sensing result acquired from the sensor. It is good also as suppressing the influence which the said sensing result from gives to said 1st information rather than the case where the said determination part determines that the condition of the said mobile body at the said specific time is the said 1st condition. Thereby, when the situation of the moving body at a specific time point is not the first situation (for example, the normal situation), the first information is generated by using the sensing result of the sensor and the sensing result received from the external device in combination. Further, the occurrence of adverse effects such as obstacles on the course, erroneous detection of road surface conditions, omission of detection, and the like can be reduced.

また、例えば、前記通信部は、各領域内の明るさの差異が所定程度以上である連続した2領域間を前記移動体が移動する前又は移動中に、前記外部装置に前記移動体の進路についてのセンシング結果の送信要求を送信することとしてもよい。これにより、情報処理装置が必要に応じて外部装置にセンシング結果の送信の契機を与えることができる。このため、外部装置では、常時センシング結果の送信を繰り返す必要がなく、主体的に送信すべきタイミングを決定するための構成を備えなくてもよい。   In addition, for example, the communication unit may cause the path of the moving body to move to the external device before or during the movement of the moving body between two consecutive areas in which the brightness difference in each area is equal to or greater than a predetermined level. It is good also as transmitting the transmission request | requirement of the sensing result about. Thereby, the information processing apparatus can give an opportunity to transmit the sensing result to the external apparatus as necessary. For this reason, the external device does not have to repeat transmission of the sensing result at all times, and does not have to have a configuration for determining the timing to be transmitted independently.

また、本発明の一態様に係る情報処理方法は、移動体において前記移動体の移動を支援するための情報処理方法であって、前記移動体の進路をセンシングするセンサからセンシング結果を取得する取得ステップと、前記移動体外の外部装置から前記移動体の進路についてのセンシング結果を受信する受信ステップと、特定の時点の前記移動体の状況が、前記センサから取得されるセンシング結果が所定条件を満たす第1状況である場合には、前記センサから取得したセンシング結果に基づいて、前記移動体の移動を制御するための第1情報を生成し、前記特定の時点の前記移動体の状況が前記第1状況でない場合には、前記外部装置から受信したセンシング結果に基づいて前記第1情報を生成する生成ステップとを含む。これにより、センサのセンシング結果が所定条件を満たす第1状況、すなわち適切である状況では、そのセンシング結果を用い、所定条件を満たさない状況、すなわち適切でない状況では、外部から受信したセンシング結果を用いることで、適切に移動体の移動支援を行うことが可能となる。   An information processing method according to an aspect of the present invention is an information processing method for supporting movement of the moving object in a moving object, and obtains a sensing result from a sensor that senses the path of the moving object. Receiving a sensing result about the course of the moving body from an external device outside the moving body, and the state of the moving body at a specific point in time, the sensing result acquired from the sensor satisfies a predetermined condition In the case of the first situation, first information for controlling the movement of the moving body is generated based on the sensing result acquired from the sensor, and the situation of the moving body at the specific time point is the first state. If the situation is not one, the generation step includes generating the first information based on a sensing result received from the external device. Thus, in the first situation where the sensing result of the sensor satisfies the predetermined condition, that is, the appropriate situation, the sensing result is used, and in the situation not satisfying the predetermined condition, that is, the inappropriate situation, the sensing result received from the outside is used. As a result, it is possible to appropriately support the movement of the moving object.

また、本発明の一態様に係るプログラムは、移動体に搭載されるコンピュータに所定情報処理を行わせるためのプログラムであって、所定情報処理は、前記移動体の進路をセンシングするセンサからセンシング結果を取得する取得ステップと、前記移動体外の外部装置から前記移動体の進路についてのセンシング結果を受信する受信ステップと、特定の時点の前記移動体の状況が、前記センサから取得されるセンシング結果が所定条件を満たす第1状況である場合には、前記センサから取得したセンシング結果に基づいて、前記移動体の移動を制御するための第1情報を生成し、前記特定の時点の前記移動体の状況が前記第1状況でない場合には、前記外部装置から受信したセンシング結果に基づいて前記第1情報を生成する生成ステップとを含む。このプログラムを、移動体に搭載されたコンピュータ等(プロセッサを備える装置)にインストールすることにより、そのプロセッサ(マイクロプロセッサ)がプログラムを実行することで、移動体への適切な移動支援が実現される。   A program according to one embodiment of the present invention is a program for causing a computer mounted on a moving body to perform predetermined information processing, and the predetermined information processing is performed by sensing a result of a sensor that senses the course of the moving body. A receiving step for receiving a sensing result about the course of the moving body from an external device outside the moving body, and a sensing result obtained from the sensor for the status of the moving body at a specific time point. If the first situation satisfies a predetermined condition, first information for controlling movement of the moving body is generated based on a sensing result acquired from the sensor, and the moving body at the specific time point is generated. A generation step of generating the first information based on a sensing result received from the external device when the situation is not the first situation; Including. By installing this program in a computer or the like (an apparatus having a processor) mounted on the moving body, the processor (microprocessor) executes the program, thereby realizing appropriate movement support to the moving body. .

また、本発明の一態様に係る情報処理装置は、第1移動体に搭載される情報処理装置であって、前記第1移動体における第1センサ又は前記第1移動体の周辺の第2センサから前記第1移動体の外部についてのセンシング結果を取得する取得部と、前記第2移動体の特定の時点の状況が、前記第2移動体に搭載されて前記第2移動体の進路をセンシングする第3センサから取得されるセンシング結果が所定条件を満たす第1状況であるかを判定する判定部と、前記特定の時点の前記第2移動体の状況が前記第1状況でないと判定されることに応じて、前記取得部によって前記第1センサ又は前記第2センサから取得されるセンシング結果を送信する通信部とを備える。これにより、第2移動体に搭載された第3センサでのセンシングが適切に行えない状況、すなわち第3センサのセンシング結果が所定条件を満たさない第1状況において、第2移動体(第2移動体の情報処理装置等)は、第1移動体からセンシング結果を受信し得るので、受信したセンシング結果を利用することで適切に第2移動体の移動支援を行うことが可能となる。   An information processing apparatus according to an aspect of the present invention is an information processing apparatus mounted on a first moving body, and is a first sensor in the first moving body or a second sensor around the first moving body. An acquisition unit for acquiring a sensing result about the outside of the first moving body, and a situation at a specific time point of the second moving body is mounted on the second moving body to sense the course of the second moving body A determination unit that determines whether a sensing result acquired from the third sensor is a first condition that satisfies a predetermined condition, and a condition of the second moving body at the specific time point is determined not to be the first condition According to circumstances, a communication unit that transmits a sensing result acquired from the first sensor or the second sensor by the acquisition unit. As a result, in a situation where sensing by the third sensor mounted on the second mobile body cannot be performed properly, that is, in a first situation where the sensing result of the third sensor does not satisfy the predetermined condition, the second mobile body (second movement Since the body information processing apparatus and the like can receive the sensing result from the first moving body, it is possible to appropriately support the movement of the second moving body by using the received sensing result.

また、例えば、前記取得部は、前記第1センサ又は前記第2センサから前記第2移動体の進路についてのセンシング結果を取得し、前記特定の時点の前記第2移動体の状況が前記第1状況であるかの判定は、各領域内の明るさの差異が所定程度以上である連続した2領域を前記第2移動体が移動するかを判定することを含み、前記通信部は、前記第1移動体が前記2領域の境界に接近したことに応じて前記第1センサ又は前記第2センサから取得されるセンシング結果を送信することとしてもよい。これにより、第2移動体は、要求しなくても必要時に第1移動体からセンシング結果を受信できるようになる。   In addition, for example, the acquisition unit acquires a sensing result about a path of the second moving body from the first sensor or the second sensor, and the state of the second moving body at the specific time point is the first sensor. Determining whether the situation is a situation includes determining whether the second moving body moves in two consecutive areas where the difference in brightness within each area is greater than or equal to a predetermined level. It is good also as transmitting the sensing result acquired from the said 1st sensor or the said 2nd sensor according to one moving body approaching the boundary of the said 2 area | region. Accordingly, the second moving body can receive the sensing result from the first moving body when necessary without requesting.

また、例えば、前記特定の時点の前記第2移動体の状況が前記第1状況であるかの判定は、前記通信部が前記第2移動体からセンシング結果の送信要求を受信したかを判定することを含み、前記通信部は、前記第2移動体から前記送信要求を受信したことに応じて前記第1センサ又は前記第2センサから取得されるセンシング結果を送信することとしてもよい。これにより、第1移動体の情報処理装置は、効率的に第2移動体の走行を支援することが可能となる。   Also, for example, the determination as to whether the state of the second mobile unit at the specific time point is the first state determines whether the communication unit has received a sensing result transmission request from the second mobile unit. The communication unit may transmit a sensing result acquired from the first sensor or the second sensor in response to receiving the transmission request from the second moving body. As a result, the information processing apparatus of the first moving body can efficiently support the traveling of the second moving body.

なお、これらの全般的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータで読み取り可能なCD−ROM等の記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム又は記録媒体の任意な組み合わせで実現されてもよい。   These general or specific aspects may be realized by a system, a method, an integrated circuit, a computer program, or a computer-readable recording medium such as a CD-ROM. The system, method, integrated circuit, computer You may implement | achieve with arbitrary combinations of a program or a recording medium.

以下、実施の形態に係る情報処理方法を用いる情報処理装置等について、図面を参照しながら説明する。ここで示す実施の形態は、いずれも本発明の一具体例を示すものである。従って、以下の実施の形態で示される数値、構成要素、構成要素の配置及び接続形態、並びに、ステップ(工程)及びステップの順序等は、一例であって本発明を限定するものではない。以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意に付加可能な構成要素である。また、各図は、模式図であり、必ずしも厳密に図示されたものではない。   Hereinafter, an information processing apparatus using the information processing method according to the embodiment will be described with reference to the drawings. Each of the embodiments shown here shows a specific example of the present invention. Therefore, numerical values, components, arrangement and connection forms of components, and steps (processes) and order of steps shown in the following embodiments are merely examples, and do not limit the present invention. Among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims can be arbitrarily added. Each figure is a mimetic diagram and is not necessarily illustrated strictly.

(実施の形態1)
以下、本発明の実施の一態様として、車両に搭載され、先進運転者支援システムを構成する情報処理装置等について図面を用いて説明する。
(Embodiment 1)
Hereinafter, as an embodiment of the present invention, an information processing apparatus and the like mounted on a vehicle and constituting an advanced driver assistance system will be described with reference to the drawings.

[1.1 車両の走行による状況変化]
まず、車両が走行により正常状況(車載センサから所定基準を満たすセンシング結果が取得される状況)から正常状況でない状況へ変化する例について図1を用いて説明する。図1は、トンネルの天井を透視して上から見た模式図であり、トンネルの出入り口付近を走行中の車両等を示す。なお、上述の所定基準は所定条件ともいい、正常状況は、センサから取得されるセンシング結果が所定条件を満たす第1状況である。
[1.1 Change in situation due to vehicle travel]
First, an example in which a vehicle changes from a normal state (a state in which a sensing result satisfying a predetermined standard is acquired from an in-vehicle sensor) to a non-normal state by traveling is described with reference to FIG. FIG. 1 is a schematic view of the tunnel ceiling seen from above, showing a vehicle or the like traveling near the entrance of the tunnel. The above-mentioned predetermined standard is also called a predetermined condition, and the normal situation is a first situation where the sensing result acquired from the sensor satisfies the predetermined condition.

図1では、車両1Aが、トンネル10の外部を走行し、トンネル10へと進入しようとして出入り口に接近している。晴天の昼間を想定すると、トンネル10の外部は明るく、トンネル10の内部は暗い。トンネル10内には、対向車である車両1Bが、車両1Aと逆方向に走行している。また、車両1Aの前方のトンネル10内には故障等で停止した車両(例えばトレーラー)等といった障害物11が存在する。車両1Aは、先進運転者支援システムを備え、車載センサであるイメージセンサ(カメラ)を用いて車両の進路を撮像して得られた画像に基づく画像処理によって進路上の障害物、路面状態等を検知し、その検知結果に応じた走行支援情報を生成する。走行支援情報は、車両の制御、ユーザ(運転者)への報知等に用いられる。車両1Aのイメージセンサでは、車両1Aがトンネル10の外部を走行している場合においては通常感度で撮像が行われ、車両1Aがトンネル10の内部等といった暗い場所を走行している場合においては自動感度調整機能により高感度で撮像が行われる。なお、上述の走行支援情報は、車両などの移動体の移動を制御するための情報であって、移動支援情報または第1情報ともいう。   In FIG. 1, the vehicle 1 </ b> A travels outside the tunnel 10 and approaches the doorway in an attempt to enter the tunnel 10. Assuming sunny daytime, the exterior of the tunnel 10 is bright and the interior of the tunnel 10 is dark. In the tunnel 10, a vehicle 1B that is an oncoming vehicle travels in the opposite direction to the vehicle 1A. Further, an obstacle 11 such as a vehicle (for example, a trailer) stopped due to a failure or the like exists in the tunnel 10 in front of the vehicle 1A. The vehicle 1A includes an advanced driver assistance system, and displays obstacles on the route, road surface conditions, and the like by image processing based on an image obtained by imaging the route of the vehicle using an image sensor (camera) that is an in-vehicle sensor. It detects, and produces | generates the driving assistance information according to the detection result. The driving support information is used for vehicle control, notification to a user (driver), and the like. The image sensor of the vehicle 1A captures images with normal sensitivity when the vehicle 1A is traveling outside the tunnel 10, and automatically when the vehicle 1A is traveling in a dark place such as the inside of the tunnel 10. Imaging is performed with high sensitivity by the sensitivity adjustment function. The travel support information described above is information for controlling the movement of a moving body such as a vehicle, and is also referred to as travel support information or first information.

車両1Aがトンネル10に進入した直後は、車両1Aのイメージセンサの自動感度調整機能の調整が遅延し、イメージセンサが生成する画像は、一時的に、例えば各画素の輝度が非常に低い等といった画質の悪い画像となり得る。画質の悪い画像に基づくと進路上の障害物等を適切に検知できない可能性がある。図1の例の場合では、車両1Aの車速がある程度速いと、トンネル10へと進入した直後の明るさの急激な変化によって車両1Aのイメージセンサのセンシング結果に基づく障害物11の検知が遅れてしまい、事故が発生しかねない。しかし、車両1A及び車両1Bは、車車間通信機能を備え、車両1Aは、車両1Bとの通信等によりこの事故の発生を未然に防ぐ機能を有している。   Immediately after the vehicle 1A enters the tunnel 10, the adjustment of the automatic sensitivity adjustment function of the image sensor of the vehicle 1A is delayed, and the image generated by the image sensor temporarily, for example, the brightness of each pixel is very low, etc. It can be an image with poor image quality. If an image with poor image quality is used, there is a possibility that an obstacle on the course cannot be detected properly. In the case of the example of FIG. 1, when the vehicle speed of the vehicle 1A is high to some extent, the detection of the obstacle 11 based on the sensing result of the image sensor of the vehicle 1A is delayed due to a rapid change in brightness immediately after entering the tunnel 10. An accident could occur. However, the vehicle 1A and the vehicle 1B have a vehicle-to-vehicle communication function, and the vehicle 1A has a function of preventing this accident from occurring through communication with the vehicle 1B.

[1.2 車両のシステム構成]
以下、車両1A及び車両1Bの構成について、主として車両1Aの走行支援(車両1Aの進路についてのセンシング等)に関連する構成に着目して説明する。
[1.2 Vehicle system configuration]
Hereinafter, the configuration of the vehicle 1A and the vehicle 1B will be described mainly focusing on the configuration related to the travel support of the vehicle 1A (sensing about the course of the vehicle 1A, etc.).

図2は、相互に通信する情報処理装置を搭載した車両1A及び車両1Bの構成を示す。   FIG. 2 shows the configuration of a vehicle 1A and a vehicle 1B equipped with information processing apparatuses that communicate with each other.

同図に示すように、車両1Aは、情報処理装置100Aと車載センサ200Aと車両制御装置210とを備える。   As shown in the figure, the vehicle 1A includes an information processing device 100A, an in-vehicle sensor 200A, and a vehicle control device 210.

車載センサ200Aは、車両1Aの進路をセンシングする1つ又は複数のセンサであり、センサの数はいくつでもよい。進路のセンシングには、例えば、イメージセンサ、レーダー、ライダー(LIDAR)等が用いられる。ここでは、一例として車載センサ200Aが、イメージセンサ(カメラ)を含むものとして説明する。車載センサ200Aは、車両1Aの進路(例えば前方)をセンシング(イメージセンサでは撮像して画像を生成)することでセンシング結果(画像等)を情報処理装置100Aに伝達する。   The in-vehicle sensor 200A is one or a plurality of sensors that sense the course of the vehicle 1A, and the number of sensors may be any number. For example, an image sensor, a radar, a rider (LIDAR), or the like is used for sensing the course. Here, as an example, the vehicle-mounted sensor 200A will be described as including an image sensor (camera). The in-vehicle sensor 200A transmits a sensing result (an image or the like) to the information processing apparatus 100A by sensing the course (for example, the front) of the vehicle 1A (taking an image by the image sensor to generate an image).

情報処理装置100Aは、1台の電子制御ユニット(ECU)又は車載ネットワーク(バス等)で接続された複数台のECUで構成され、車載センサ200Aから得たセンシング結果等に基づいて走行支援情報を生成して出力する機能を有する。   The information processing apparatus 100A includes a single electronic control unit (ECU) or a plurality of ECUs connected by an in-vehicle network (such as a bus), and travel support information is obtained based on sensing results obtained from the in-vehicle sensor 200A. It has a function to generate and output.

車両制御装置210は、1台又は複数台のECU(例えば車両のエンジン、ブレーキ、ステアリング等を制御するECU)で構成され、情報処理装置100Aから制御信号を伝えられると、制御信号に応じて、一部のECUに接続されたアクチュエータを駆動すること等により車両を制御する。   The vehicle control device 210 is composed of one or a plurality of ECUs (for example, an ECU that controls a vehicle engine, a brake, a steering, etc.), and when a control signal is transmitted from the information processing device 100A, according to the control signal, The vehicle is controlled by driving an actuator connected to some ECUs.

ECUは、例えば、プロセッサ(マイクロプロセッサ)、メモリ等のデジタル回路、アナログ回路、通信回路、入出力インタフェース等を含む装置である。メモリは、ROM、RAM等であり、プロセッサにより実行されるプログラム(ソフトウェアとしてのコンピュータプログラム)を記憶することができる。例えばプロセッサが、プログラム(コンピュータプログラム)に従って動作することにより、ECUは、情報処理装置100A或いは車両制御装置210としての機能等といった各種機能を実現することになる。なお、コンピュータプログラムは、所定の機能を達成するために、プロセッサに対する指令を示す命令コードが複数個組み合わされて構成されたものである。ECUは、バス等の車載ネットワークを介して同一車両内の他のECUと情報の授受を行い得る。情報処理装置100Aを構成する一部のECUは、車両1Aの車外の装置(外部装置)と通信する機能(車車間通信機能、路車間通信機能等)を有する。また、情報処理装置100Aを構成する一部のECUは、ディスプレイ等といったユーザに情報を提示する装置を備える。   The ECU is a device including, for example, a processor (microprocessor), a digital circuit such as a memory, an analog circuit, a communication circuit, and an input / output interface. The memory is a ROM, a RAM, or the like, and can store a program (computer program as software) executed by the processor. For example, when the processor operates according to a program (computer program), the ECU realizes various functions such as functions as the information processing apparatus 100A or the vehicle control apparatus 210. The computer program is configured by combining a plurality of instruction codes indicating instructions for the processor in order to achieve a predetermined function. The ECU can exchange information with other ECUs in the same vehicle via an in-vehicle network such as a bus. Some ECUs constituting the information processing apparatus 100A have functions (such as a vehicle-to-vehicle communication function and a road-to-vehicle communication function) that communicate with a device outside the vehicle (external device) of the vehicle 1A. Some ECUs constituting the information processing apparatus 100A include a device that presents information to the user, such as a display.

情報処理装置100Aは、走行支援情報を生成して出力する機能を実現するための構成として、図2に示すように、取得部110Aと、通信部120Aと、判定部130と、生成部140と、出力部150とを備える。   As illustrated in FIG. 2, the information processing apparatus 100 </ b> A has a function for generating and outputting the driving support information, and as illustrated in FIG. 2, the acquisition unit 110 </ b> A, the communication unit 120 </ b> A, the determination unit 130, and the generation unit 140. And an output unit 150.

取得部110Aは、ECUにおける、車載センサ200Aからセンシング結果を受け取る入力インタフェース、プログラムを実行するプロセッサ等で実現され、車載センサ200Aからセンシング結果を取得する。取得部110Aが取得するセンシング結果には、イメージセンサにより生成された画像が含まれる。取得部110Aが取得した画像に基づいて画像処理を行うことで、車両1Aの進路上の障害物、路面状態等の検知が可能となり得る。   110 A of acquisition parts are implement | achieved by the input interface which receives a sensing result from 200 A of vehicle-mounted sensors in ECU, the processor which performs a program, etc., and acquire a sensing result from 200 A of vehicle-mounted sensors. The sensing result acquired by the acquiring unit 110A includes an image generated by the image sensor. By performing image processing based on the image acquired by the acquisition unit 110A, it may be possible to detect an obstacle on the path of the vehicle 1A, a road surface state, and the like.

通信部120Aは、ECUにおけるプログラムを実行するプロセッサ、通信回路等で実現され、車両1Aの外部の外部装置と通信して、車両1Aの進路についてのセンシング結果を受信する。例えば、通信部120Aは、車両1Aの周囲に所在する外部装置に対して近距離無線通信技術等によりセンシング結果(車両1Aの進路についてのセンシング結果)の送信要求を送信し、この送信要求を受けて外部装置(例えば車両1Aの対向車である車両1Bの情報処理装置100B)から送信されるセンシング結果を受信する。送信要求には、例えば、車両1Aの識別情報と、車両1Aの位置情報(例えば車載センサ200Aにおける車両位置の測定用の測位センサ等が生成した情報)等が含まれる。測位センサは、例えばGPS(Global Positioning System)受信機、ジャイロセンサ等である。通信部120Aは、各領域内の明るさの差異が所定程度以上に大きな連続した2領域間を車両1Aが移動する際(例えばトンネル10の外部の領域からトンネル10の内部の領域へと明暗の境界を越えて進入する際)に、車両1Aの近くに所在する外部装置に対して送信要求を送信する。外部装置は、移動する装置(例えば対向車である車両1Bの情報処理装置100B、同じ方向に進む先行車の車載装置)でもよいし、移動しない装置(例えば明暗の境界付近に設置された路側機等)でもよいが、ここでは、車両1Bの情報処理装置100Bが送信要求を受信した場合に車両1Bの前方であって車両1Aの進路についてのセンシング結果を車両1Aの情報処理装置100Aに送信するものとして説明する。なお、車両1Aの先行車等、車両1B、車両1Bの後続車その他周囲の車両(つまり車両の車載装置)は、車両1Aからの送信要求を他の車両に転送してもよく、転送された送信要求を受けた車両が、車両1Aの進路についてのセンシング結果を車両1Aに、直接、或いは転送機能を有する他車両を介して間接的に、送信してもよい。通信部120Aによる送信要求の送信は、明るさの差異が大きな領域間の境界を超える前後に亘る期間内に行われることが有用である。ここでは、例えば、車両1Aがトンネル10の出入り口等の明暗の境界を越えた直後に送信する例を用いて説明するが、例えば、車両1Aがトンネル10の出入り口を通過する直前(例えば通過の数秒前、数十秒前等)であってもよい。このように、本実施の形態では、通信部120Aは、各領域内の明るさの差異が所定程度以上である連続した2領域間を車両1Aが移動する前又は移動中に、外部装置に車両1Aの進路についてのセンシング結果の送信要求を送信する。   120 A of communication parts are implement | achieved by the processor, communication circuit, etc. which run the program in ECU, communicate with the external apparatus outside the vehicle 1A, and receive the sensing result about the course of the vehicle 1A. For example, the communication unit 120A transmits a transmission request for a sensing result (sensing result for the course of the vehicle 1A) to the external device located around the vehicle 1A by using a short-range wireless communication technique or the like, and receives the transmission request. The sensing result transmitted from the external device (for example, the information processing device 100B of the vehicle 1B that is the oncoming vehicle of the vehicle 1A) is received. The transmission request includes, for example, identification information of the vehicle 1A, position information of the vehicle 1A (for example, information generated by a positioning sensor or the like for measuring the vehicle position in the in-vehicle sensor 200A), and the like. The positioning sensor is, for example, a GPS (Global Positioning System) receiver, a gyro sensor, or the like. When the vehicle 1A moves between two consecutive areas where the difference in brightness within each area is greater than a predetermined level (for example, from the area outside the tunnel 10 to the area inside the tunnel 10), the communication unit 120A When entering beyond the boundary), a transmission request is transmitted to an external device located near the vehicle 1A. The external device may be a moving device (for example, the information processing device 100B of the vehicle 1B that is an oncoming vehicle, an in-vehicle device of a preceding vehicle that travels in the same direction), or a device that does not move (for example, a roadside device installed near a light / dark boundary) However, here, when the information processing apparatus 100B of the vehicle 1B receives the transmission request, the sensing result about the course of the vehicle 1A in front of the vehicle 1B is transmitted to the information processing apparatus 100A of the vehicle 1A. It will be explained as a thing. It should be noted that the vehicle 1A, the vehicle preceding the vehicle 1B, the vehicle following the vehicle 1B, and other surrounding vehicles (that is, the in-vehicle device of the vehicle) may transfer the transmission request from the vehicle 1A to another vehicle. The vehicle that has received the transmission request may transmit the sensing result of the route of the vehicle 1A to the vehicle 1A directly or indirectly through another vehicle having a transfer function. The transmission of the transmission request by the communication unit 120A is usefully performed within a period before and after exceeding the boundary between regions where the difference in brightness is large. Here, for example, a description will be given using an example in which the vehicle 1A transmits immediately after crossing a light / dark boundary such as the entrance / exit of the tunnel 10, but for example, immediately before the vehicle 1A passes the entrance / exit of the tunnel 10 (for example, several seconds of passage). Before, several tens of seconds before). As described above, in the present embodiment, communication unit 120A causes vehicle to connect to an external device before or during movement of vehicle 1A between two consecutive regions where the difference in brightness within each region is greater than or equal to a predetermined level. A sensing result transmission request for the route of 1A is transmitted.

判定部130は、ECUにおけるプログラムを実行するプロセッサ等で実現され、車両1Aの状況が、車載センサ200Aから所定基準を満たすセンシング結果が取得される正常状況であるか否かを、判定する。言い換えれば、判定部130は、特定の時点の車両1Aの状況が、センサから取得されるセンシング結果が所定条件を満たす第1状況であるか否かを、判定する。判定部130は、例えば、各領域内の明るさの差異が所定程度以上に大きな連続した2領域間の境界を車両1Aが超えて領域間を移動する際に、車両1Aが正常状況にないと判定し得る。つまり、第1状況の判定は、各領域内の明るさの差異が所定程度以上である連続した2領域間を車両1Aが移動するかを判定することを含む。所定基準は、センシング結果が、実際のセンシング対象の状態を適切に表した情報となっているか否かを区別する基準であり、適切であれば満たされ、適切でなければ満たされない。所定基準は、例えば正確性、精度、信頼性等の評価基準等であり、その評価手法はいかなるものでもよい。ここでは、一例として、車載センサ200Aとしてのイメージセンサのセンシング結果である画像の各画素の輝度分布が全体的に明る過ぎる(例えば表現可能な輝度範囲を0から100%とした場合に全画素の輝度が90%以上である)又は暗過ぎる(例えば表現可能な輝度範囲を0から100%とした場合に例えば全画素の輝度が10%以下である)場合に所定基準を満たさず、その他の場合に所定基準を満たすものとする。   The determination unit 130 is realized by a processor or the like that executes a program in the ECU, and determines whether or not the state of the vehicle 1A is a normal state in which a sensing result that satisfies a predetermined criterion is acquired from the in-vehicle sensor 200A. In other words, the determination unit 130 determines whether or not the situation of the vehicle 1A at a specific time is a first situation where the sensing result acquired from the sensor satisfies a predetermined condition. For example, when the vehicle 1A moves between the areas where the difference in brightness in each area is larger than a predetermined level and the boundary between the two consecutive areas exceeds the boundary between the two areas, the determination unit 130 is not in a normal state. It can be determined. That is, the determination of the first situation includes determining whether the vehicle 1A moves between two consecutive regions where the difference in brightness within each region is greater than or equal to a predetermined level. The predetermined standard is a standard for discriminating whether or not the sensing result is information appropriately representing the actual state of the sensing target, and is satisfied if it is appropriate, and is not satisfied if it is not appropriate. The predetermined standard is, for example, an evaluation standard such as accuracy, precision, reliability, etc., and any evaluation method may be used. Here, as an example, the luminance distribution of each pixel of the image which is the sensing result of the image sensor as the in-vehicle sensor 200A is too bright as a whole (for example, when the representable luminance range is 0 to 100%, When the brightness is 90% or more) or too dark (for example, when the expressible brightness range is 0 to 100%, for example, the brightness of all pixels is 10% or less), the predetermined standard is not satisfied, and other cases Shall meet the prescribed criteria.

判定部130は、取得部110Aが実際に取得した車載センサ200A(例えばイメージセンサ)からのセンシング結果(例えば画像)に基づいて、例えば画像解析等によって正常状況であるか否かを判定することとしてもよいし、他の方法(車両1Aがトンネル10の出入り口に接近しているか否かの検知等)によって推定的に正常状況であるか否かを判定することとしてもよい。ここでは、判定部130が、取得部110Aが取得した、イメージセンサが生成した画像を解析することで、所定基準を満たすセンシング結果(画像)が取得されたか否かに基づいて、正常状況であるか否かの判定を行うものとして説明を続ける。例えば、判定部130は、取得部110Aがイメージセンサから取得した画像の各画素値についての統計処理の結果と閾値との比較によって、所定基準を満たすセンシング結果が取得されたか否かを区別する。一例として所定基準は、イメージセンサにより生成される画像の所定数の画素値が、所定範囲に収まる場合に満たされず、その所定範囲を超える場合に満たされる。より具体的な一例として、所定基準は、イメージセンサにより生成される画像の略全て(例えば95%以上、或いは、90%程度以上等)の画素の画素値としての輝度値が、所定狭範囲(輝度値を0〜255で表すときに0〜20、或いは、235〜255といった狭い範囲)に収まる場合に満たされず、その所定狭範囲を超えて広く分布している場合に満たされる。この場合において、その略全ての画素の輝度値がいずれも20以下や、いずれも250以上であれば所定基準は満たされない。なお、例えば輝度値を0〜255で表す場合において、統計処理として、各画素についての画素値(輝度値)の平均値の算出、中央値の算出等を行って、その算出結果が、20以下或いは250以上であれば所定基準が満たされず、それ以外であれば所定基準が満たされる等と規定してもよい。イメージセンサは、自動感度調整機能を有するが、明暗の変化への追随が遅れる等によって、明る過ぎる又は暗過ぎるという画像の画質の低下が一時的に生じ得る。そこで、判定部130では、例えば画素値と閾値との比較等によって画像について所定基準が満たされたか否かを判定することで、車両1Aが正常状況か否かを判定する。   The determination unit 130 determines, based on a sensing result (for example, an image) from the in-vehicle sensor 200A (for example, an image sensor) actually acquired by the acquisition unit 110A, for example, whether or not the normal state is obtained by image analysis or the like. Or it is good also as determining whether it is in a normal state presumably by other methods (detection etc. of whether the vehicle 1A is approaching the entrance / exit of the tunnel 10). Here, the determination unit 130 is in a normal state based on whether or not a sensing result (image) satisfying a predetermined criterion is acquired by analyzing the image generated by the image sensor acquired by the acquisition unit 110A. The description will be continued assuming that it is determined whether or not. For example, the determination unit 130 determines whether or not a sensing result that satisfies a predetermined criterion has been acquired by comparing a result of statistical processing for each pixel value of an image acquired from the image sensor by the acquisition unit 110A with a threshold value. As an example, the predetermined criterion is not satisfied when a predetermined number of pixel values of an image generated by the image sensor falls within a predetermined range, but is satisfied when the predetermined value exceeds the predetermined range. As a more specific example, the predetermined criterion is that the luminance value as the pixel value of almost all the images generated by the image sensor (for example, about 95% or more, or about 90% or more) is a predetermined narrow range ( When the luminance value is represented by 0 to 255, it is not satisfied when it falls within a narrow range (0 to 20 or 235 to 255), and is satisfied when it is widely distributed beyond the predetermined narrow range. In this case, if the luminance values of almost all the pixels are all 20 or less or all are 250 or more, the predetermined standard is not satisfied. For example, in the case where the luminance value is represented by 0 to 255, the average value of the pixel value (luminance value) for each pixel, the calculation of the median value, and the like are performed as statistical processing, and the calculation result is 20 or less. Alternatively, it may be defined that the predetermined standard is not satisfied if it is 250 or more, and the predetermined standard is satisfied otherwise. The image sensor has an automatic sensitivity adjustment function. However, due to a delay in following the change in light and dark, the image quality of the image that is too bright or too dark may temporarily occur. Therefore, the determination unit 130 determines whether or not the vehicle 1A is in a normal state by determining whether or not a predetermined criterion is satisfied for the image, for example, by comparing a pixel value with a threshold value.

このように、本実施の形態では、第1状況の判定は、イメージセンサから所定条件を満たすセンシング結果が取得されたか否かを判定することを含む。具体的には、第1状況の判定は、イメージセンサによるセンシング結果として生成された画像の画素値についての統計処理の結果と閾値との比較を含む。また、所定条件は、イメージセンサにより生成される画像の所定数の画素値が、所定範囲に収まる場合に満たされず、その所定範囲を超える場合に満たされる。   As described above, in the present embodiment, the determination of the first situation includes determining whether or not a sensing result satisfying a predetermined condition is acquired from the image sensor. Specifically, the determination of the first situation includes a comparison between a result of statistical processing on a pixel value of an image generated as a sensing result by the image sensor and a threshold value. The predetermined condition is not satisfied when a predetermined number of pixel values of an image generated by the image sensor are within a predetermined range, but is satisfied when the predetermined value exceeds the predetermined range.

生成部140は、ECUにおけるプログラムを実行するプロセッサ等で実現され、車両1Aが正常状況にあると判定部130が判定した場合には車載センサ200Aから取得部110Aを介して取得したセンシング結果に基づいて走行支援情報を生成し、車両1Aが正常状況にないと判定部130が判定した場合にはその車載センサ200Aから取得したセンシング結果に基づかずに、外部装置(例えば車両1Bの情報処理装置100B)から受信したセンシング結果に基づいて走行支援情報を生成する。具体例としては、車両1Aが、車載センサ200Aから所定基準を満たすセンシング結果が取得される正常状況にない場合、例えばトンネル10に進入した直後等には、車載センサ200Aによるセンシング結果としての画像の精度が低いので走行支援情報の生成にそのセンシング結果を利用せずに、送信要求に応じて車両1B等から送信されるセンシング結果を受信して利用する。これにより車載センサ200Aのセンシング結果の精度が低い場合においても、車両1Aの進路上の障害物、路面状態等の誤検知、検知漏れ等が防止され得る。なお、生成部140は、車両1Aが正常状況にある場合には、走行支援情報の生成に、外部装置から受信したセンシング結果を利用してもよいし、しなくてもよい。車両1Aが正常状況にある場合において、外部装置から受信したセンシング結果を利用するときには、車載センサ200Aでのセンシング結果が所定基準を満たす限り車載センサ200Aでのセンシング結果を優先して利用することが有用である。   The generation unit 140 is realized by a processor or the like that executes a program in the ECU, and based on the sensing result acquired from the in-vehicle sensor 200A via the acquisition unit 110A when the determination unit 130 determines that the vehicle 1A is in a normal state. When the determination unit 130 determines that the vehicle 1A is not in a normal situation, the external device (for example, the information processing device 100B of the vehicle 1B) is not based on the sensing result acquired from the in-vehicle sensor 200A. ) To generate driving support information based on the sensing result received from). As a specific example, when the vehicle 1A is not in a normal situation in which a sensing result satisfying a predetermined standard is acquired from the in-vehicle sensor 200A, for example, immediately after entering the tunnel 10, an image as a sensing result by the in-vehicle sensor 200A is displayed. Since the accuracy is low, the sensing result is not used for generating the driving support information, but the sensing result transmitted from the vehicle 1B or the like is received and used in response to the transmission request. Thereby, even when the accuracy of the sensing result of the in-vehicle sensor 200A is low, it is possible to prevent an obstacle on the path of the vehicle 1A, a false detection of a road surface condition, a detection omission, and the like. When the vehicle 1A is in a normal state, the generation unit 140 may or may not use the sensing result received from the external device for generating the driving support information. When the sensing result received from the external device is used when the vehicle 1A is in a normal state, the sensing result from the in-vehicle sensor 200A may be used preferentially as long as the sensing result from the in-vehicle sensor 200A satisfies a predetermined standard. Useful.

このように、本実施の形態では、生成部140は、特定の時点の車両1Aの状況が第1状況であると判定部130が判定した場合にはセンサから取得したセンシング結果に基づいて、車両1Aの移動を制御するための第1情報を生成し、特定の時点の車両1Aの状況が第1状況でないと判定部130が判定した場合には外部装置から受信したセンシング結果に基づいて第1情報を生成する。   As described above, in the present embodiment, when the determination unit 130 determines that the situation of the vehicle 1A at the specific time point is the first situation, the generation unit 140 determines the vehicle based on the sensing result acquired from the sensor. First information for controlling the movement of 1A is generated, and when the determination unit 130 determines that the situation of the vehicle 1A at a specific time point is not the first situation, the first information is based on the sensing result received from the external device. Generate information.

出力部150は、ECUにおける出力インタフェース等により実現され、生成部140により生成された走行支援情報を情報処理装置100Aから出力する。例えば、出力部150は、ディスプレイ等のユーザインタフェース装置を介して走行支援情報(例えば進路上の障害物までの距離、障害物の種類等の情報)を出力することで、ユーザに情報を提示(表示等)する。また、例えば、出力部150は、車両制御装置210に対して、その走行支援情報を制御信号として伝達(つまり送信)することで、車両制御装置210に車両1Aの走行に係る制御(エンジン、ブレーキ、ステアリング等の制御)を行わせる。   The output unit 150 is realized by an output interface or the like in the ECU, and outputs the travel support information generated by the generation unit 140 from the information processing apparatus 100A. For example, the output unit 150 presents information to the user by outputting travel support information (for example, information on the distance to the obstacle, the type of the obstacle, etc.) via a user interface device such as a display ( Display). In addition, for example, the output unit 150 transmits (that is, transmits) the travel support information as a control signal to the vehicle control device 210, thereby controlling the vehicle 1A to travel (engine, brake). , Steering, etc.).

また、図2に示すように、車両1Bは、情報処理装置100Bと車載センサ200Bとを備える。ここでは、車両1Aの走行支援に着目しているので、車両1Bにおいて車両制御装置等を省略しているが、車両1Bは、上述した車両1Aと同様の構成を備えるものであってもよく、逆に車両1Aも、この車両1Bと同様の構成を備えることとしてもよい。   As shown in FIG. 2, the vehicle 1B includes an information processing device 100B and an in-vehicle sensor 200B. Here, since the vehicle 1A is focused on driving support, the vehicle control device or the like is omitted in the vehicle 1B, but the vehicle 1B may have the same configuration as the vehicle 1A described above. Conversely, the vehicle 1A may have the same configuration as the vehicle 1B.

車両1Bの車載センサ200Bは、例えば車両1Bの外部(前方等)であって対向車(車両1A)の進路まで包含する範囲についてセンシングするセンサ(例えばイメージセンサ、レーダー、ライダー等)である。車載センサ200Bは、車両1Aの進路をセンシングすることでセンシング結果を情報処理装置100Bに伝達する。   The vehicle-mounted sensor 200B of the vehicle 1B is, for example, a sensor (for example, an image sensor, a radar, a rider, or the like) that senses a range outside the vehicle 1B (eg, ahead) and including the course of the oncoming vehicle (vehicle 1A). The in-vehicle sensor 200B transmits the sensing result to the information processing apparatus 100B by sensing the course of the vehicle 1A.

情報処理装置100Bは、車両1B内の1台の電子制御ユニット(ECU)又は車載ネットワーク(バス等)で接続された複数台のECUで構成され、機能面において取得部110B及び通信部120Bを有する。なお、情報処理装置100Bは、上述した情報処理装置100Aと同様の構成を包含するものであってもよいし、逆に情報処理装置100Aも、この情報処理装置100Bと同様の構成を備えることとしてもよい。   The information processing apparatus 100B includes a single electronic control unit (ECU) in the vehicle 1B or a plurality of ECUs connected by an in-vehicle network (such as a bus), and has an acquisition unit 110B and a communication unit 120B in terms of functions. . The information processing apparatus 100B may include the same configuration as the information processing apparatus 100A described above. Conversely, the information processing apparatus 100A also includes the same configuration as the information processing apparatus 100B. Also good.

取得部110Bは、ECUにおける入力インタフェース等により実現され、車載センサ200Bから得たセンシング結果を取得する。   The acquisition unit 110B is realized by an input interface or the like in the ECU, and acquires a sensing result obtained from the in-vehicle sensor 200B.

通信部120Bは、ECUにおける通信回路、プログラムを実行するプロセッサ等により実現され、車両1Bから所定近距離範囲内(例えば数十m以内等)を走行する他の車両(ここでは車両1A)において進路のセンシングが適切に行えなくなる状況が発生する際に、車載センサ200Bからのセンシング結果を当該他の車両(車両1A)に送信する。具体的には、通信部120Bは、車両1Aから送信要求を受信した際を、車両1Aにおいて進路のセンシングが適切に行えなくなる状況が発生する際であるとして、取得部110Bにより取得された車載センサ200Bからのセンシング結果の車両1Aへの送信を行う。   The communication unit 120B is realized by a communication circuit in the ECU, a processor that executes a program, and the like, and in other vehicles (here, the vehicle 1A) traveling within a predetermined short distance range (for example, within several tens of meters) from the vehicle 1B. When a situation where the sensing of the vehicle cannot be performed properly occurs, the sensing result from the in-vehicle sensor 200B is transmitted to the other vehicle (vehicle 1A). Specifically, when the communication unit 120B receives a transmission request from the vehicle 1A, the vehicle-mounted sensor acquired by the acquisition unit 110B is assumed to be a time when a situation in which the route sensing cannot be performed properly in the vehicle 1A occurs. The sensing result from 200B is transmitted to the vehicle 1A.

[1.3 車両1Aの車載センサ200Aが撮像する画像の例]
図3は、トンネル10に進入する車両1Aのイメージセンサ(車載センサ200A)により撮像された画像の例を示す。図3の(a)、(b)、(c)は、車両1Aのイメージセンサによりこの順に撮像された画像の例である。なお、これら3つの各画像間の時間にもイメージセンサは繰り返し画像を撮像している。
[1.3 Example of Image Captured by In-Vehicle Sensor 200A of Vehicle 1A]
FIG. 3 shows an example of an image captured by the image sensor (vehicle-mounted sensor 200 </ b> A) of the vehicle 1 </ b> A entering the tunnel 10. (A), (b), and (c) of FIG. 3 are examples of images taken in this order by the image sensor of the vehicle 1A. Note that the image sensor repeatedly captures images during the time between these three images.

図3の(a)は、トンネル10の外部から出入り口に車両1Aが近付いている際に車載センサ200Aが撮像した画像(つまり撮像により生成された画像)を示す。晴天の昼間等においてトンネル10の外部に対して内部は極めて暗く、トンネル10の外部から撮像した画像では内部の様子を十分に表せない。図3の(b)は、車両1Aがトンネル10の出入り口を通過して内部へ入った直後に車載センサ200Aが撮像した画像を示す。トンネル10内に入った直後では、イメージセンサの自動感度調整が明るさの急激な変化のために遅れ、このため撮像した画像の各画素の輝度値が極めて低い、暗い画像が生成される。この画像からは画像解析によって車両1Aの進路上の障害物等を適切に検知することが困難となる。図3の(c)は、車両1Aがトンネル10の出入り口を通過して内部へ入って十数秒等が経過した際に撮像された画像を示す。この画像では、感度が適切に調整されており、画像解析により車両1Aの進路上の障害物等(例えば故障車両等)を適切に検知でき、障害物等の位置、サイズ等の検知が可能となる。なお、画像からの障害物等の検知に、いかなる画像解析技術を用いてもよい。   FIG. 3A shows an image captured by the in-vehicle sensor 200A when the vehicle 1A is approaching the entrance / exit from the outside of the tunnel 10 (that is, an image generated by imaging). The inside of the tunnel 10 is extremely dark with respect to the outside of the tunnel 10 in a sunny daytime or the like, and an image taken from the outside of the tunnel 10 cannot sufficiently represent the inside. FIG. 3B shows an image captured by the in-vehicle sensor 200A immediately after the vehicle 1A passes through the entrance of the tunnel 10 and enters the inside. Immediately after entering the tunnel 10, the automatic sensitivity adjustment of the image sensor is delayed due to a rapid change in brightness, and thus a dark image is generated in which the luminance value of each pixel of the captured image is extremely low. From this image, it becomes difficult to properly detect obstacles on the course of the vehicle 1A by image analysis. FIG. 3 (c) shows an image captured when the vehicle 1A passes through the entrance / exit of the tunnel 10 and enters the interior, and ten or more seconds have elapsed. In this image, the sensitivity is appropriately adjusted, and it is possible to appropriately detect an obstacle (for example, a failed vehicle) on the path of the vehicle 1A by image analysis, and to detect the position, size, etc. of the obstacle. Become. Any image analysis technique may be used to detect an obstacle or the like from the image.

車載センサ200Aにより図3の(b)の画像が生成されるような場合には、この画像に基づいて車両1Aの走行の支援のための走行支援情報を生成することが適切ではない。そのため、このような場合には、車両1Aの情報処理装置100Aは、その画像の各画素の輝度値等に基づいて、車両1Aが、所定基準を満たす画像が取得される正常状況にないと判定して、車両1B等に車両1Aの進路についてのセンシング結果の送信要求を送信し、例えば車両1Bからセンシング結果を受信して、走行支援情報の生成のために用いる。これにより、情報処理装置100Aは、図3の(b)のような画像が撮像される時間においても適切に車両1Aの走行支援を行うことができる。   When the image shown in FIG. 3B is generated by the in-vehicle sensor 200A, it is not appropriate to generate travel support information for assisting the travel of the vehicle 1A based on this image. Therefore, in such a case, the information processing apparatus 100A of the vehicle 1A determines that the vehicle 1A is not in a normal situation in which an image satisfying a predetermined criterion is acquired based on the luminance value of each pixel of the image. Then, a sensing result transmission request for the course of the vehicle 1A is transmitted to the vehicle 1B and the like, for example, the sensing result is received from the vehicle 1B, and is used to generate travel support information. Thereby, the information processing apparatus 100A can appropriately perform the driving assistance of the vehicle 1A even during the time when the image as shown in FIG. 3B is captured.

[1.4 情報処理装置100Aの動作]
図4は、情報処理装置100Aによる車両1Aの走行支援のための情報処理の一例を示すフローチャートである。以下、車両1Aが晴天の昼間にトンネル10に進入する場合(図1参照)を例として、図4に即して、情報処理装置100Aの動作について説明する。
[1.4 Operation of Information Processing Apparatus 100A]
FIG. 4 is a flowchart illustrating an example of information processing for driving support of the vehicle 1A by the information processing apparatus 100A. Hereinafter, the operation of the information processing apparatus 100 </ b> A will be described with reference to FIG. 4, taking as an example the case where the vehicle 1 </ b> A enters the tunnel 10 in the daytime in fine weather (see FIG. 1).

車両1Aの情報処理装置100Aは、取得部110Aにより、車両1Aの進路をセンシングする車載センサ200A(イメージセンサ等)からセンシング結果(画像等)を取得する(ステップS11)。   Information processing apparatus 100A of vehicle 1A acquires a sensing result (image or the like) from in-vehicle sensor 200A (image sensor or the like) that senses the course of vehicle 1A by acquisition unit 110A (step S11).

次に、情報処理装置100Aは、判定部130により、車載センサ200Aから所定基準を満たすセンシング結果としての画像(例えば暗過ぎなく明る過ぎない適切な画像)が取得される正常状況であるか否かを判定する(ステップS12)。   Next, whether or not the information processing apparatus 100A is in a normal state in which the determination unit 130 acquires an image (for example, an appropriate image that is not too dark and not too bright) as a sensing result that satisfies a predetermined criterion from the in-vehicle sensor 200A. Is determined (step S12).

車両1Aがトンネル10に到達する前は、或いはトンネル10の出入り口を通過して十分な時間(例えば十数秒等)が経過した後は、車載センサ200Aから所定基準を満たす画像(適切な画像)が得られ、車両1Aは正常状況にあると判定される。   Before the vehicle 1A reaches the tunnel 10, or after a sufficient time (for example, ten seconds or more) has passed after passing through the entrance and exit of the tunnel 10, an image (appropriate image) satisfying a predetermined standard is obtained from the in-vehicle sensor 200A. As a result, it is determined that the vehicle 1A is in a normal state.

ステップS12で正常状況であると判定した場合には、情報処理装置100Aは、生成部140により、取得部110Aが取得した車載センサ200Aからのセンシング結果としての画像に基づいて画像処理により障害物等を検知し、その検知結果に基づいて走行支援情報を生成する(ステップS13)。続いて、情報処理装置100Aは、生成された走行支援情報を出力部150により出力(例えば、車両制御装置210へ送出、ディスプレイに表示等)して(ステップS14)、ステップS11での処理に戻る。   If it is determined in step S12 that the situation is normal, the information processing apparatus 100A causes the generation unit 140 to perform obstacles and the like by image processing based on the image as the sensing result from the in-vehicle sensor 200A acquired by the acquisition unit 110A. And driving support information is generated based on the detection result (step S13). Subsequently, the information processing apparatus 100A outputs (for example, sends to the vehicle control apparatus 210, displays on the display, etc.) the generated driving support information by the output unit 150 (step S14), and returns to the process in step S11. .

車両1Aがトンネル10の出入り口を通過して明るい領域から暗い領域へと入った直後には、車載センサ200Aから所定基準を満たす画像が得られず、車両1Aは正常状況にないと判定される。   Immediately after the vehicle 1A passes through the entrance and exit of the tunnel 10 and enters the dark region from the bright region, an image satisfying the predetermined standard is not obtained from the in-vehicle sensor 200A, and it is determined that the vehicle 1A is not in a normal state.

ステップS12で正常状況でないと判定した場合には、情報処理装置100Aは、通信部120Aにより、外部装置(例えば対向車である車両1Bの情報処理装置100B)に車両1Aの進路についてのセンシング結果の送信要求を送信する(ステップS15)。車両1Bでは、情報処理装置100Bが送信要求に対応して車載センサ200Bにより取得したセンシング結果を送信するので、通信部120Aは、車両1Bから送信されるセンシング結果を受信する(ステップS16)。次に、生成部140が、車両1B(情報処理装置100B)から受信したセンシング結果に基づいて、車両1Aの進路上の障害物等の検知を行ってその検知結果等を示す走行支援情報を生成する(ステップS17)。つまり、生成部140は、特定の時点の車両1Aの状況が第1状況でないと判定部130が判定した場合には、センサから取得したセンシング結果に基づかずに第1情報を生成する。続いて、情報処理装置100Aは、生成された走行支援情報を出力部150により出力して(ステップS14)、ステップS11での処理に戻る。   If it is determined in step S12 that the situation is not normal, the information processing apparatus 100A sends an external device (for example, the information processing apparatus 100B of the vehicle 1B that is an oncoming vehicle) to the sensing result about the course of the vehicle 1A by the communication unit 120A. A transmission request is transmitted (step S15). In the vehicle 1B, since the information processing apparatus 100B transmits the sensing result acquired by the in-vehicle sensor 200B in response to the transmission request, the communication unit 120A receives the sensing result transmitted from the vehicle 1B (step S16). Next, based on the sensing result received from the vehicle 1B (information processing apparatus 100B), the generation unit 140 detects obstacles on the course of the vehicle 1A and generates driving support information indicating the detection result and the like. (Step S17). That is, when the determination unit 130 determines that the situation of the vehicle 1A at a specific time is not the first situation, the generation unit 140 generates the first information without being based on the sensing result acquired from the sensor. Subsequently, the information processing apparatus 100A outputs the generated travel support information by the output unit 150 (step S14), and returns to the process in step S11.

このように、情報処理装置100Aは、車両1Aが、正常状況(車載センサ200Aから所定基準を満たすセンシング結果としての画像が取得される状況)にない場合、つまり車載センサ200Aによるセンシング結果の精度が極めて低下する場合においても、外部装置からセンシング結果を受信することで適切に走行支援情報を生成することができる。   As described above, the information processing apparatus 100A has a case where the vehicle 1A is not in a normal state (a state in which an image as a sensing result satisfying a predetermined standard is acquired from the in-vehicle sensor 200A), that is, the accuracy of the sensing result by the in-vehicle sensor 200A. Even in the case of a significant decrease, the driving support information can be appropriately generated by receiving the sensing result from the external device.

(実施の形態2)
以下、上述した実施の形態1に係る情報処理装置100Aの動作を一部変形した実施の形態について説明する。
(Embodiment 2)
Hereinafter, an embodiment in which the operation of the information processing apparatus 100A according to Embodiment 1 described above is partially modified will be described.

[2.1 車両のシステム構成]
本実施の形態では、情報処理装置100Aを搭載する車両1A、及び、車両1Aの近くを走行する車両1Bのシステム構成は、実施の形態1で示したもの(図2参照)と概ね同様であるので、各車両の構成等について図2で示す符号を用い、説明を適宜省略する。即ち、車両1A及び車両1Bの構成は、ここで特に示さない点については、実施の形態1と同様である。
[2.1 Vehicle system configuration]
In the present embodiment, the system configuration of the vehicle 1A on which the information processing apparatus 100A is mounted and the vehicle 1B traveling near the vehicle 1A is substantially the same as that shown in the first embodiment (see FIG. 2). Therefore, the reference numerals shown in FIG. 2 are used for the configuration of each vehicle and the description thereof is omitted as appropriate. That is, the configurations of the vehicle 1A and the vehicle 1B are the same as those of the first embodiment, except that they are not particularly shown here.

実施の形態1では、情報処理装置100Aが、車載センサ200Aに含まれるイメージセンサが撮像した画像の各画素の輝度に基づいて、車両1Aが、所定基準を満たすセンシング結果が取得できる正常状況にあるか否かを、判定して、正常状況にない場合に外部装置にセンシング結果の送信要求を送信する例を示した。これに対して、本実施の形態では、イメージセンサが撮像した画像の各画素の輝度に基づく判定を行うより前に、情報処理装置100Aが、別の方法で、所定基準を満たすセンシング結果が取得困難な状況であるか否かを判定し、その困難な状況であれば外部装置にセンシング結果の送信要求を送信する。   In the first embodiment, the information processing apparatus 100A is in a normal state in which the vehicle 1A can acquire a sensing result that satisfies a predetermined criterion based on the luminance of each pixel of an image captured by the image sensor included in the in-vehicle sensor 200A. An example has been shown in which it is determined whether or not a sensing result transmission request is transmitted to an external device when the normal state is not present. On the other hand, in this embodiment, the information processing apparatus 100A obtains a sensing result that satisfies a predetermined criterion by another method before making a determination based on the luminance of each pixel of the image captured by the image sensor. It is determined whether or not the situation is difficult. If the situation is difficult, a sensing result transmission request is transmitted to the external device.

[2.2 情報処理装置100Aの動作]
図5は、本実施の形態における情報処理装置100Aによる車両1Aの走行支援のための情報処理の一例を示すフローチャートである。以下、車両1Aが晴天の昼間にトンネル10に進入する場合(図1参照)を例として、図5に即して、情報処理装置100Aの動作について説明する。
[2.2 Operation of information processing apparatus 100A]
FIG. 5 is a flowchart illustrating an example of information processing for driving support of the vehicle 1A by the information processing apparatus 100A according to the present embodiment. Hereinafter, the operation of the information processing apparatus 100 </ b> A will be described with reference to FIG. 5, taking as an example the case where the vehicle 1 </ b> A enters the tunnel 10 in the daytime in fine weather (see FIG. 1).

車両1Aの情報処理装置100Aは、取得部110Aにより、車両1Aの進路をセンシングする車載センサ200A(イメージセンサ等)からセンシング結果(画像等)を取得する(ステップS21)。   The information processing apparatus 100A of the vehicle 1A acquires a sensing result (image or the like) from the in-vehicle sensor 200A (image sensor or the like) that senses the course of the vehicle 1A by the acquisition unit 110A (step S21).

情報処理装置100Aは、車載センサ200Aから所定基準を満たすセンシング結果としての画像の取得が困難な状況(例えば車両1Aが、明るさの大きく異なる連続した2領域の境界付近を走行している状況)か否かを判定する(ステップS22)。具体的には、情報処理装置100Aは、例えば、トンネル10の出入り口付近を車両1Aが走行している状況を、車載センサ200Aから所定基準を満たす画像の取得が困難な状況であると判定する。トンネル10の出入り口付近を車両1Aが走行しているか否かは、例えば、予め定められたトンネル10の出入り口の画像の特徴(図3の(a)に示すようなトンネルの外部から見たトンネルの出入り口の外観に係る特徴等)とイメージセンサにより生成された画像から抽出された特徴等とを比較する画像処理等によって判別可能である。また、トンネル10の出入り口に設置された路側機が近距離無線通信技術によって発信するビーコン等を受信できるか否かによって判別してもよい。また、測位センサによる車両1Aの位置の測定結果と、トンネル10の出入り口の所在位置を示す位置情報(地図情報)とを比較することによって判別してもよい。つまり、上述の2領域間を車両1Aが移動するかを判定することは、車両1Aの位置の測定結果と、その2領域の所在位置を示す位置情報とに基づいて、車両1Aがその2領域の境界に接近しているかを判定することを含む。これらにより、後述するステップS25で、車載センサ200Aから所定基準を満たすセンシング結果が取得される正常状況でないと判定した場合に必要となる、外部装置から受信されたセンシング結果が得られることになる。   In the information processing apparatus 100A, it is difficult to acquire an image as a sensing result that satisfies a predetermined criterion from the in-vehicle sensor 200A (for example, a situation where the vehicle 1A is traveling near the boundary between two consecutive regions having greatly different brightnesses). It is determined whether or not (step S22). Specifically, for example, the information processing apparatus 100A determines that the situation in which the vehicle 1A is traveling near the entrance / exit of the tunnel 10 is a situation in which it is difficult to acquire an image satisfying a predetermined criterion from the in-vehicle sensor 200A. Whether or not the vehicle 1A is traveling near the entrance / exit of the tunnel 10 is determined by, for example, the characteristics of a predetermined image of the entrance / exit of the tunnel 10 (the tunnel as viewed from the outside of the tunnel as shown in FIG. 3A). It is possible to discriminate by image processing or the like that compares a feature or the like relating to the appearance of the doorway) and a feature or the like extracted from the image generated by the image sensor. Moreover, you may discriminate | determine by whether the roadside machine installed in the entrance / exit of the tunnel 10 can receive the beacon etc. which are transmitted by near field communication technology. Moreover, you may discriminate | determine by comparing the measurement result of the position of the vehicle 1A by a positioning sensor, and the positional information (map information) which shows the location position of the entrance / exit of the tunnel 10. FIG. That is, determining whether the vehicle 1A moves between the two areas described above is based on the measurement result of the position of the vehicle 1A and the position information indicating the location of the two areas. Determining whether the boundary is approached. As a result, the sensing result received from the external device, which is necessary when it is determined in step S25 to be described later that it is not a normal situation in which the sensing result satisfying the predetermined standard is acquired from the in-vehicle sensor 200A, is obtained.

なお、上述の2領域間を車両1Aが移動するかを判定することは、イメージセンサから取得される画像情報の示す画像に2領域の境界が映っているかを判定することを含んでもよい。例えば、情報処理装置100Aは、画像にトンネルが映っていれば、2領域間を車両1Aが移動すると判定し、トンネルが映っていなければ、2領域間を車両1Aが移動しないと判定する。これにより、車両1Aが2領域の境界を移動することを、既存の構成であるイメージセンサを用いて判定することができる。したがって、コストの増加を抑制することができる。   Note that determining whether the vehicle 1A moves between the two regions described above may include determining whether a boundary between the two regions is reflected in an image indicated by image information acquired from the image sensor. For example, the information processing apparatus 100A determines that the vehicle 1A moves between two areas if a tunnel is reflected in the image, and determines that the vehicle 1A does not move between the two areas if no tunnel is reflected. Thereby, it can be determined using the image sensor which is the existing configuration that the vehicle 1A moves between the boundaries of the two regions. Therefore, an increase in cost can be suppressed.

ステップS22で、車載センサ200Aから所定基準を満たす画像の取得が困難な状況であると判定した場合には、情報処理装置100Aは、通信部120Aにより、外部装置(例えば車両1Bの情報処理装置100B)に、車両1Aの進路についてのセンシング結果の送信要求を、送信する(ステップS23)。そして通信部120Aは、車両1Bから送信されるセンシング結果を受信する(ステップS24)。情報処理装置100Aは、ステップS22で、車載センサ200Aから所定基準を満たす画像の取得が困難な状況でないと判定した場合(例えばトンネル10に向かって走行中の車両1Aがまだトンネル10の出入口付近まで到達していない場合等)には、ステップS23、S24での処理をスキップする。   If it is determined in step S22 that it is difficult to obtain an image satisfying the predetermined standard from the in-vehicle sensor 200A, the information processing apparatus 100A causes the communication unit 120A to execute an external device (for example, the information processing apparatus 100B of the vehicle 1B). ) Transmits a sensing result transmission request for the route of the vehicle 1A (step S23). Then, the communication unit 120A receives the sensing result transmitted from the vehicle 1B (step S24). When the information processing apparatus 100 </ b> A determines in step S <b> 22 that it is not difficult to acquire an image satisfying the predetermined standard from the in-vehicle sensor 200 </ b> A (for example, the vehicle 1 </ b> A traveling toward the tunnel 10 is still near the entrance / exit of the tunnel 10. In the case where it has not reached, the processing in steps S23 and S24 is skipped.

情報処理装置100Aは、判定部130により、車載センサ200Aから所定基準を満たすセンシング結果としての画像(例えば暗過ぎなく明る過ぎない適切な画像)が取得される正常状況であるか否かを判定する(ステップS25)。この判定は、実施の形態1で示したステップS12での判定と同様である。但し、ステップS25では、情報処理装置100Aは、車両1Aのイメージセンサにより撮像された画像の輝度が明る過ぎる或いは暗過ぎる等を判別することなく、上述のステップS22での判定と同様の方法で、正常状況であるか否かの判定を行うこととしてもよい。即ち、情報処理装置100Aは、所定基準を満たす画像の取得が困難な状況であると判定した場合に正常状況でない見做し、その困難な状況でないと判定した場合には正常状況であると見做すことにより、ステップS25での正常状況であるか否かの判定を行ってもよい。   The information processing apparatus 100A determines whether or not the determination unit 130 is in a normal state in which an image (for example, an appropriate image that is neither too dark nor too bright) is acquired as a sensing result that satisfies a predetermined criterion from the in-vehicle sensor 200A. (Step S25). This determination is the same as the determination in step S12 shown in the first embodiment. However, in step S25, the information processing apparatus 100A does not determine whether the luminance of the image captured by the image sensor of the vehicle 1A is too bright or too dark, and the like, using the same method as the determination in step S22 described above. It is good also as determining whether it is a normal condition. That is, the information processing apparatus 100A considers that the situation is not normal when it is determined that it is difficult to acquire an image that satisfies the predetermined criteria, and assumes that the situation is normal when it is determined that the situation is not difficult. It may be determined whether or not it is a normal state in step S25 by hesitating.

ステップS25での判定の結果として、車両1Aが正常状況にある場合には、情報処理装置100Aは、生成部140により、車載センサ200Aから得られた画像に基づいて走行支援情報を生成して(ステップS26)、出力部150により、その走行支援情報を出力する(ステップS27)。また、車両1Aが正常状況にない場合には、情報処理装置100Aは、ステップS24で外部装置(例えば車両1Bの情報処理装置100B)から受信したセンシング結果に基づいて、生成部140により走行支援情報を生成して(ステップS28)、出力部150により走行支援情報を出力する(ステップS27)。また、情報処理装置100Aは、ステップS27での出力の後に、ステップS21での処理に戻る。   As a result of the determination in step S25, when the vehicle 1A is in a normal state, the information processing apparatus 100A generates travel support information based on the image obtained from the in-vehicle sensor 200A by the generation unit 140 ( In step S26, the driving support information is output by the output unit 150 (step S27). Further, when the vehicle 1A is not in a normal state, the information processing apparatus 100A causes the generation unit 140 to drive the driving support information based on the sensing result received from the external apparatus (for example, the information processing apparatus 100B of the vehicle 1B) in step S24. Is generated (step S28), and the driving support information is output by the output unit 150 (step S27). Further, the information processing apparatus 100A returns to the process in step S21 after the output in step S27.

このように、情報処理装置100Aは、車両1Aが、明るさの差異が大きな領域の間を移動する際等(つまり車載センサ200Aから所定基準を満たすセンシング結果としての画像の取得が困難となると推定される状況)において、外部装置(車両1B等の車両或いは路側機等)に車両1Aの進路についてのセンシング結果の送信要求を送信しておき、外部装置からセンシング結果を受信する。これにより、車載センサ200Aから所定基準を満たすセンシング結果としての画像が取得されなくなっても、情報処理装置100Aは、受信したセンシング結果を用いて適切に走行支援情報を生成することができる。また、外部装置にとっては、送信要求を待つことで、必要時にのみセンシング結果を送信することが可能となり、不要な通信を抑制し得る。   As described above, the information processing apparatus 100A estimates that it is difficult to acquire an image as a sensing result that satisfies a predetermined criterion from the vehicle-mounted sensor 200A when the vehicle 1A moves between areas where the difference in brightness is large. In the situation), a sensing result transmission request for the course of the vehicle 1A is transmitted to an external device (a vehicle such as the vehicle 1B or a roadside machine), and the sensing result is received from the external device. Thereby, even if the image as a sensing result satisfying the predetermined criterion is not acquired from the in-vehicle sensor 200A, the information processing apparatus 100A can appropriately generate the driving support information using the received sensing result. In addition, for an external device, by waiting for a transmission request, it is possible to transmit a sensing result only when necessary, and unnecessary communication can be suppressed.

(実施の形態3)
以下、上述した実施の形態1に係る情報処理装置100Aの動作を一部変形した、また別の実施の形態について説明する。
(Embodiment 3)
Hereinafter, another embodiment in which the operation of the information processing apparatus 100A according to the first embodiment is partially modified will be described.

[3.1 車両のシステム構成]
本実施の形態でも、情報処理装置100Aを搭載する車両1A、及び、車両1Aの近くを走行する車両1Bのシステム構成は、実施の形態1で示したもの(図2参照)と概ね同様であるので、各車両の構成等について図2で示す符号を用い、説明を適宜省略する。即ち、車両1A及び車両1Bの構成は、ここで特に示さない点については、実施の形態1と同様である。
[3.1 Vehicle system configuration]
Also in the present embodiment, the system configuration of the vehicle 1A on which the information processing apparatus 100A is mounted and the vehicle 1B that travels near the vehicle 1A is substantially the same as that shown in the first embodiment (see FIG. 2). Therefore, the reference numerals shown in FIG. 2 are used for the configuration of each vehicle and the description thereof is omitted as appropriate. That is, the configurations of the vehicle 1A and the vehicle 1B are the same as those of the first embodiment, except that they are not particularly shown here.

実施の形態1では、情報処理装置100Aが、車載センサ200Aに含まれるイメージセンサが撮像した画像の各画素の輝度に基づいて、車両1Aが、所定基準を満たすセンシング結果が取得できる正常状況にあるか否かを、判定して、正常状況にない場合に外部装置にセンシング結果の送信要求を送信する例を示した。これに対して、本実施の形態では、外部装置がセンシング結果を自発的に送信し、情報処理装置100Aは送信要求の送信を行わずに、外部装置からセンシング結果を受信する。   In the first embodiment, the information processing apparatus 100A is in a normal state in which the vehicle 1A can acquire a sensing result that satisfies a predetermined criterion based on the luminance of each pixel of an image captured by the image sensor included in the in-vehicle sensor 200A. An example has been shown in which it is determined whether or not a sensing result transmission request is transmitted to an external device when the normal state is not present. On the other hand, in the present embodiment, the external device spontaneously transmits the sensing result, and the information processing apparatus 100A receives the sensing result from the external device without transmitting the transmission request.

[3.2 情報処理装置100Aの動作]
図6は、本実施の形態における情報処理装置100Aによる車両1Aの走行支援のための情報処理の一例を示すフローチャートである。以下、車両1Aが晴天の昼間にトンネル10に進入する場合(図1参照)を例として、図6に即して、情報処理装置100Aの動作について説明する。
[3.2 Operation of Information Processing Device 100A]
FIG. 6 is a flowchart illustrating an example of information processing for driving support of the vehicle 1A by the information processing apparatus 100A according to the present embodiment. Hereinafter, the operation of the information processing apparatus 100 </ b> A will be described with reference to FIG. 6, taking as an example the case where the vehicle 1 </ b> A enters the tunnel 10 in the daytime in fine weather (see FIG. 1).

車両1Aの情報処理装置100Aは、取得部110Aにより、車両1Aの進路をセンシングする車載センサ200A(イメージセンサ等)からセンシング結果(画像等)を取得する(ステップS31)。   Information processing apparatus 100A of vehicle 1A acquires a sensing result (image or the like) from in-vehicle sensor 200A (image sensor or the like) that senses the course of vehicle 1A by acquisition unit 110A (step S31).

また、情報処理装置100Aは、通信部120Aにより、近距離無線通信技術によって外部装置(車両、路側機等の装置)から、車両1Aの進路についてのセンシング結果が送信されている場合にそのセンシング結果を受信する(ステップS32)。ここでは、外部装置は、トンネル10の出入り口付近においてセンシングして得られたセンシング結果を送信するものとする。外部装置の1つとしての車両1Bの情報処理装置100Bによるセンシング結果の送信については図7を用いて後述する。なお、外部装置は、送信するセンシング結果には、そのセンシングした位置等の付加情報を付して送信してもよい。   In addition, the information processing apparatus 100 </ b> A has a sensing result when the communication unit 120 </ b> A transmits a sensing result about the course of the vehicle 1 </ b> A from an external device (an apparatus such as a vehicle or a roadside machine) by the short-range wireless communication technology. Is received (step S32). Here, it is assumed that the external device transmits a sensing result obtained by sensing in the vicinity of the entrance / exit of the tunnel 10. The transmission of the sensing result by the information processing apparatus 100B of the vehicle 1B as one of the external apparatuses will be described later with reference to FIG. Note that the external device may transmit the sensing result to be transmitted with additional information such as the sensed position.

次に、情報処理装置100Aは、判定部130により、車載センサ200Aから所定基準を満たすセンシング結果としての画像(例えば暗過ぎなく明る過ぎない適切な画像)が取得される正常状況であるか否かを判定する(ステップS33)。   Next, whether or not the information processing apparatus 100A is in a normal state in which the determination unit 130 acquires an image (for example, an appropriate image that is not too dark and not too bright) as a sensing result that satisfies a predetermined criterion from the in-vehicle sensor 200A. Is determined (step S33).

車両1Aがトンネル10に到達する前は、或いはトンネル10の出入り口を通過して十分な時間(例えば十数秒等)が経過した後は、車載センサ200Aから所定基準を満たす画像(適切な画像)が得られ、車両1Aは正常状況にあると判定される。   Before the vehicle 1A reaches the tunnel 10, or after a sufficient time (for example, ten seconds or more) has passed after passing through the entrance and exit of the tunnel 10, an image (appropriate image) satisfying a predetermined standard is obtained from the in-vehicle sensor 200A. As a result, it is determined that the vehicle 1A is in a normal state.

ステップS33で正常状況であると判定した場合には、情報処理装置100Aは、生成部140により、取得部110Aが取得した車載センサ200Aからのセンシング結果としての画像に基づいて画像処理により障害物等を検知し、その検知結果に基づいて走行支援情報を生成する(ステップS34)。続いて、情報処理装置100Aは、生成された走行支援情報を出力部150により出力(例えば、車両制御装置210へ送出、ディスプレイに表示等)して(ステップS35)、ステップS31での処理に戻る。   If it is determined in step S33 that the situation is normal, the information processing apparatus 100A causes the generation unit 140 to perform obstacles and the like by image processing based on the image as the sensing result from the in-vehicle sensor 200A acquired by the acquisition unit 110A. And driving support information is generated based on the detection result (step S34). Subsequently, the information processing apparatus 100A outputs (for example, sends to the vehicle control apparatus 210, displays on the display, etc.) the generated driving support information by the output unit 150 (step S35), and returns to the process in step S31. .

車両1Aがトンネル10の出入り口を通過して明るい領域から暗い領域へと入った直後には、車載センサ200Aから所定基準を満たす画像が得られず、車両1Aは正常状況にないと判定される。   Immediately after the vehicle 1A passes through the entrance and exit of the tunnel 10 and enters the dark region from the bright region, an image satisfying the predetermined standard is not obtained from the in-vehicle sensor 200A, and it is determined that the vehicle 1A is not in a normal state.

ステップS33で正常状況でないと判定した場合には、情報処理装置100Aは、ステップS32で通信部120Aが受信した外部装置(例えば対向車である車両1Bの情報処理装置100B)からの車両1Aの進路についてのセンシング結果に基づいて、車両1Aの進路上の障害物等の検知を行ってその検知結果等を示す走行支援情報を生成する(ステップS36)。続いて、情報処理装置100Aは、生成された走行支援情報を出力部150により出力して(ステップS35)、ステップS31での処理に戻る。   If it is determined in step S33 that the situation is not normal, the information processing apparatus 100A determines the course of the vehicle 1A from the external device (for example, the information processing apparatus 100B of the vehicle 1B that is an oncoming vehicle) received by the communication unit 120A in step S32. Based on the sensing result for, an obstacle on the course of the vehicle 1A is detected, and driving support information indicating the detection result is generated (step S36). Subsequently, the information processing apparatus 100A outputs the generated travel support information by the output unit 150 (step S35), and returns to the process in step S31.

なお、トンネル10に向かって走行中の車両1Aがまだトンネル10の出入口付近まで到達していない場合には、情報処理装置100Aは、ステップS32でのセンシング結果の受信に失敗してもよい。この場合において、イメージセンサ等の車載センサ200Aによるセンシング結果としての画像等が適切に取得できるはずであり、ステップS34に進み、車両1Aの走行支援のためにその車載センサ200Aからの適切な画像(つまり所定基準を満たすセンシング結果)に基づいて走行支援情報を適切に生成できるからである。車両1Aにとっては、車載センサ200Aから所定基準を満たすセンシング結果(例えばイメージセンサで撮像される画像)が得られる限りにおいて優先的に車載センサ200Aからのセンシング結果(画像等)に基づいて走行支援情報を生成することが有用となる。   Note that if the vehicle 1A traveling toward the tunnel 10 has not yet reached the vicinity of the entrance / exit of the tunnel 10, the information processing apparatus 100A may fail to receive the sensing result in step S32. In this case, an image or the like as a sensing result by the in-vehicle sensor 200A such as an image sensor should be appropriately acquired, and the process proceeds to step S34, and an appropriate image (from the in-vehicle sensor 200A for driving support of the vehicle 1A ( That is, the driving support information can be appropriately generated based on the sensing result that satisfies the predetermined standard. For the vehicle 1A, the driving support information is preferentially based on the sensing result (image or the like) from the in-vehicle sensor 200A as long as a sensing result (for example, an image captured by the image sensor) satisfying a predetermined standard is obtained from the in-vehicle sensor 200A. It is useful to generate

[3.3 情報処理装置100Bの動作等]
以下、車両1Aの対向車(図1参照)となる車両1Bの情報処理装置100Bについて説明する。
[3.3 Operation of Information Processing Apparatus 100B]
Hereinafter, the information processing apparatus 100B of the vehicle 1B that is the oncoming vehicle (see FIG. 1) of the vehicle 1A will be described.

車両1Bの情報処理装置100Bの通信部120Bは、近距離(例えば数十m等の所定近距離範囲内)を走行する他の車両(例えば車両1A)において進路のセンシングが適切に行えなくなる状況が発生する際に、車載センサ200Bからのセンシング結果の、他の車両への送信を行う。実施の形態1では、通信部120Bは、車両1A(つまり車両1Aの情報処理装置100A)から送信要求を受信した際を、車両1Aにおいて進路のセンシングが適切に行えなくなる状況が発生する際であるとして、取得部110Bにより取得された車載センサ200Bからのセンシング結果の車両1Aへの送信を行うこととした。しかし、本実施の形態では、車両1Bの通信部120Bは、各領域内の明るさの差異が所定程度以上に大きな連続した2領域に接近した際(ここでは一例としてトンネル10の出入り口付近に接近した際)を、車両1Aにおいて進路のセンシングが適切に行えなくなる状況が発生する際であるとして、車載センサ200Bからのセンシング結果を送信する。なお、センシング結果は、車両1Bの周辺または車両1Aの進路上に異常が発生した場合にのみ送信されるとしてもよい。例えば、車両1Bの通信部120Bは、車両1Bの周辺または車両1Aの進路上において事故、崩落または渋滞が発生した場合にのみ、センシング結果を送信する。また、センシングの有無が当該異常の発生に応じて制御されてもよい。   There is a situation in which the communication unit 120B of the information processing apparatus 100B of the vehicle 1B cannot properly sense the course in another vehicle (for example, the vehicle 1A) that travels in a short distance (for example, within a predetermined short distance range such as several tens of meters). When it occurs, the sensing result from the in-vehicle sensor 200B is transmitted to another vehicle. In the first embodiment, communication unit 120B receives a transmission request from vehicle 1A (that is, information processing apparatus 100A of vehicle 1A) when a situation occurs in which vehicle 1A cannot properly sense the course. As described above, the sensing result from the in-vehicle sensor 200B acquired by the acquisition unit 110B is transmitted to the vehicle 1A. However, in the present embodiment, when the communication unit 120B of the vehicle 1B approaches two consecutive regions where the brightness difference in each region is greater than a predetermined level (here, as an example, the communication unit 120B approaches the vicinity of the entrance / exit of the tunnel 10) ), The sensing result from the in-vehicle sensor 200B is transmitted, assuming that the situation where the sensing of the course cannot be performed properly in the vehicle 1A occurs. The sensing result may be transmitted only when an abnormality occurs around the vehicle 1B or on the course of the vehicle 1A. For example, the communication unit 120B of the vehicle 1B transmits the sensing result only when an accident, collapse, or traffic jam occurs around the vehicle 1B or on the course of the vehicle 1A. Moreover, the presence or absence of sensing may be controlled according to the occurrence of the abnormality.

情報処理装置100Bが、トンネル10内を走行中の車両1Bがトンネル10の出入り口付近に接近したか否かを判定する方法としていかなる方法を用いてもよい。車両1Bがトンネル10の出入り口付近に接近したか否かは、例えば、予め定められたトンネル10の出入り口の画像の特徴(トンネルの内部から見たトンネルの出入り口に係る特徴等)とイメージセンサにより生成された画像から抽出された特徴等とを比較する画像処理等によって判別可能である。また、情報処理装置100Bは、車両1Bがトンネル10の出入り口付近に接近したか否かを、トンネル10の出入り口に設置された路側機が近距離無線通信技術によって発信するビーコン等を受信できるか否かによって判別してもよい。また、車両1Bの位置の測定結果と、トンネル10の出入り口の所在位置を示す位置情報(地図情報)とを比較することによって判別してもよい。   Any method may be used as a method by which the information processing apparatus 100B determines whether the vehicle 1B traveling in the tunnel 10 has approached the vicinity of the entrance / exit of the tunnel 10. Whether or not the vehicle 1B has approached the vicinity of the entrance / exit of the tunnel 10 is generated by, for example, predetermined image features of the entrance / exit of the tunnel 10 (features related to the entrance / exit of the tunnel viewed from inside the tunnel) and an image sensor. It can be determined by image processing or the like that compares features extracted from the extracted images. In addition, the information processing apparatus 100B can receive whether or not the vehicle 1B has approached the vicinity of the entrance / exit of the tunnel 10 and can receive a beacon transmitted by the short-range wireless communication technology by a roadside device installed at the entrance / exit of the tunnel 10 It may be determined depending on the situation. Moreover, you may discriminate | determine by comparing the measurement result of the position of the vehicle 1B, and the positional information (map information) which shows the location position of the entrance / exit of the tunnel 10. FIG.

図7は、車両1Bの情報処理装置100Bによる他の車両の走行支援のための処理の一例を示すフローチャートである。以下、トンネル10内を走行中の車両1Bがトンネル10の出入り口付近に近づいた場合(図1参照)を例として、図7に即して、情報処理装置100Bの動作について説明する。   FIG. 7 is a flowchart illustrating an example of processing for driving assistance of another vehicle by the information processing apparatus 100B of the vehicle 1B. Hereinafter, the operation of the information processing apparatus 100B will be described with reference to FIG. 7, taking as an example the case where the vehicle 1B traveling in the tunnel 10 approaches the vicinity of the entrance / exit of the tunnel 10 (see FIG. 1).

車両1Bの情報処理装置100Bは、近距離を走行する車両が進路のセンシングを適切に行えなくなる状況であるかを繰り返し判定する(ステップS41)。例えば、トンネル10の出入り口付近では、明るさの大きく異なる領域間の境界が生じ、その境界を通過した車両のイメージセンサでは、その通過直後において適切な画像(明る過ぎなく暗過ぎない画像)が一時的に生成できないことがある。このため、一例としては、情報処理装置100Bは、トンネル10内を走行中の車両1Bがトンネル10の出入り口付近に接近した際に、車両1Bから近距離の車両(例えば車両1A)が進路のセンシングを適切に行えなくなる状況であると判定する。   The information processing apparatus 100B of the vehicle 1B repeatedly determines whether or not the vehicle traveling in a short distance cannot properly sense the course (step S41). For example, in the vicinity of the entrance / exit of the tunnel 10, a boundary between areas having greatly different brightness occurs, and in an image sensor of a vehicle that has passed through the boundary, an appropriate image (an image that is neither too bright nor too dark) is temporarily displayed immediately after the passage. May not be generated automatically. For this reason, as an example, when the vehicle 1B traveling in the tunnel 10 approaches the vicinity of the entrance / exit of the tunnel 10, the information processing apparatus 100B senses the route of the vehicle (for example, the vehicle 1A) at a short distance from the vehicle 1B. Is determined to be in a situation where it is impossible to properly perform.

ステップS41で、近距離を走行する車両(例えば車両1A)が進路のセンシングを適切に行えなくなる状況であると判定した場合に、情報処理装置100Bは、取得部110Bにより、車載センサ200Bからその近距離の車両(例えば車両1A)の進路を包含する範囲のセンシング結果を取得する(ステップS42)。   If it is determined in step S41 that the vehicle traveling in a short distance (for example, the vehicle 1A) cannot properly sense the course, the information processing apparatus 100B uses the acquisition unit 110B to move the vehicle from the in-vehicle sensor 200B. A sensing result of a range including the course of a vehicle (for example, vehicle 1A) at a distance is acquired (step S42).

続いて、情報処理装置100Bは、通信部120Bにより、ステップS42で取得したセンシング結果をその近距離の車両に、近距離無線通信技術によって送信する(ステップS43)。   Subsequently, the information processing apparatus 100B transmits the sensing result acquired in step S42 to the vehicle in the short distance by the communication unit 120B using the short-range wireless communication technology (step S43).

このように、本実施の形態では、情報処理装置100Bは、車両1Bにおける第1センサ又は車両1Bの周辺の第2センサから車両1Bの外部についてのセンシング結果を取得する取得部110Bと、車両1Aの特定の時点の状況が、車両1Aに搭載されて車両1Aの進路をセンシングする第3センサから取得されるセンシング結果が所定条件を満たす第1状況であるかを判定する判定部と、特定の時点の車両1Aの状況が第1状況でないと判定されることに応じて、取得部110Bによって第1センサ又は第2センサから取得されるセンシング結果を送信する通信部120Bとを備える。具体的には、取得部110Bは、第1センサ又は第2センサから車両1Bの進路についてのセンシング結果を取得し、特定の時点の車両1Aの状況が第1状況であるかの判定は、各領域内の明るさの差異が所定程度以上である連続した2領域を車両1Aが移動するかを判定することを含み、通信部120Bは、車両1Bが2領域の境界に接近したことに応じて第1センサ又は第2センサから取得されるセンシング結果を送信する。なお、車両1Aの状況が第1状況であるかの判定は、通信部120Bが車両1Aからセンシング結果の送信要求を受信したかを判定することを含み、通信部120Bは、車両1Aから送信要求を受信したことに応じて第1センサ又は第2センサから取得されるセンシング結果を送信してもよい。   As described above, in the present embodiment, the information processing apparatus 100B includes the acquisition unit 110B that acquires the sensing result about the outside of the vehicle 1B from the first sensor in the vehicle 1B or the second sensor around the vehicle 1B, and the vehicle 1A. A determination unit for determining whether the sensing result obtained from the third sensor that is mounted on the vehicle 1A and senses the course of the vehicle 1A is a first condition that satisfies a predetermined condition; A communication unit 120B that transmits a sensing result acquired from the first sensor or the second sensor by the acquisition unit 110B in response to determining that the situation of the vehicle 1A at the time is not the first situation. Specifically, the acquisition unit 110B acquires a sensing result about the course of the vehicle 1B from the first sensor or the second sensor, and determines whether the situation of the vehicle 1A at a specific time is the first situation. Including determining whether the vehicle 1A moves in two consecutive areas where the difference in brightness within the area is greater than or equal to a predetermined level, and the communication unit 120B determines that the vehicle 1B has approached the boundary between the two areas A sensing result acquired from the first sensor or the second sensor is transmitted. The determination of whether the situation of the vehicle 1A is the first situation includes determining whether the communication unit 120B has received a sensing result transmission request from the vehicle 1A, and the communication unit 120B transmits a transmission request from the vehicle 1A. The sensing result acquired from the first sensor or the second sensor may be transmitted in response to receiving the signal.

これにより、トンネル10の内部を走行する車両1Bがトンネル10の出入り口に接近した際に、車両1Bでセンシングした結果(センシング結果)が車両1Bから送信され、このセンシング結果を、トンネル10の外部からトンネル10の内部へと移動しているところの車両1Aが受信することになる。このため、車両1Aの情報処理装置100Aにおいて、図6で示したステップS32でのセンシング結果の受信が可能となり、車両1Aがトンネル10の内部に入った直後においても適切な走行支援が実現される。   As a result, when the vehicle 1B traveling inside the tunnel 10 approaches the doorway of the tunnel 10, a result (sensing result) sensed by the vehicle 1B is transmitted from the vehicle 1B, and this sensing result is transmitted from the outside of the tunnel 10. The vehicle 1A moving to the inside of the tunnel 10 receives it. For this reason, the information processing apparatus 100A of the vehicle 1A can receive the sensing result in step S32 shown in FIG. 6, and appropriate driving support is realized even immediately after the vehicle 1A enters the tunnel 10. .

(変形例等)
以上のように、本発明に係る技術の例示として実施の形態1〜3を説明した。しかしながら、本発明に係る技術は、これに限定されず、適宜、変更、置き換え、付加、省略等を行った実施の形態にも適用可能である。例えば、以下のような変形例も本発明の一実施態様に含まれる。
(Modifications, etc.)
As described above, Embodiments 1 to 3 have been described as examples of the technology according to the present invention. However, the technology according to the present invention is not limited to this, and can also be applied to embodiments in which changes, replacements, additions, omissions, etc. are made as appropriate. For example, the following modifications are also included in one embodiment of the present invention.

(1)上記実施の形態では、情報処理装置100Aは、車両1Aが、正常状況(車載センサ200Aから所定基準を満たすセンシング結果としての画像が取得される状況)であるか否かの判定を、車載センサ200Aにおけるイメージセンサが生成した画像の各輝度値に基づいて行う例を示した。また、その判定を、トンネルの出入り口付近に接近したか否かに基づいて推定的に行う例を示した。これは、イメージセンサが生成した画像の精度(例えば被写体の解像度等)が、明るさの急な変化により低下することに、対処するための一例である。しかし、明るさの急な変化が生じ得る状況は、トンネルの出入り口の付近を走行する場合には限られない。即ち、車両1Aは、トンネル10、地下駐車場或いは屋内駐車場等の出入り口を通過する場合(トンネル10等に入る場合及びトンネル10等から出る場合)、或いは、夜間に暗い領域から照明で照らされた明るい領域に進入するような場合、或いは、夜間に急に照明(例えば対向車の前照灯)で照らされるような場合等においても、車両1Aは、正常状況でない状況となる。従って、情報処理装置100Aは、正常状況であるか否かの判定を、地下駐車場或いは屋内駐車場の出入り口に接近したか否か等に基づいて行ってもよい。また、同様に、実施の形態3で示した車両1Bは、車載センサ200Bによるセンシング結果を、他の車両が正常状況でないと推定される場合において他の車両に送信すればよく、地下駐車場等の出入り口に接近した際、夜間に他の車両である対向車に対して前照灯で強い光(ハイビーム)を照射した際等において、そのセンシング結果の送信を行うこととしてもよい。また、車両1Bが黒い車体等の暗所で視認されにくい車体を有するのであれば、車両1Bが暗い場所を走行中に車両1Bが自車両の所在位置等を含むセンシング結果の、近距離の車両への送信を行い、車両1Bが白い車体等の光を反射し易い車体を有するのであれば、車両1Bが明るい場所を走行中に車両1Bが自車両の所在位置等を含むセンシング結果の、近距離の車両への送信を行うこととしてもよい。これにより、周囲を走行中の対向車等である車両1Aから車両1Bが観測しにくい場合において、車両1Aの情報処理装置100Aは、車両1Bから送信されるセンシング結果に基づいて車両1Bと衝突しないように適切に車両1Aの走行を支援することが可能となる。   (1) In the above embodiment, the information processing apparatus 100A determines whether or not the vehicle 1A is in a normal state (a state in which an image as a sensing result that satisfies a predetermined criterion is acquired from the in-vehicle sensor 200A). The example performed based on each luminance value of the image which the image sensor in in-vehicle sensor 200A generated was shown. Moreover, the example which performs the determination preferentially based on whether it approached the vicinity of the entrance / exit of a tunnel was shown. This is an example for dealing with a decrease in the accuracy (for example, the resolution of a subject) of an image generated by an image sensor due to a sudden change in brightness. However, the situation where a sudden change in brightness may occur is not limited to traveling near the entrance of a tunnel. That is, the vehicle 1A is illuminated with illumination from a dark area at the time of passing through the entrance of the tunnel 10, underground parking lot, indoor parking lot, etc. (when entering the tunnel 10, etc. and exiting from the tunnel 10, etc.). Even when the vehicle enters a bright area, or when it is suddenly illuminated by illumination (for example, a headlight of an oncoming vehicle) at night, the vehicle 1A is in an abnormal state. Therefore, the information processing apparatus 100 </ b> A may determine whether or not it is in a normal state based on whether or not an entrance to an underground parking lot or an indoor parking lot is approached. Similarly, the vehicle 1B shown in the third embodiment may transmit the sensing result by the in-vehicle sensor 200B to another vehicle when it is estimated that the other vehicle is not in a normal state, such as an underground parking lot When approaching the doorway of the vehicle, when a strong light (high beam) is irradiated to the oncoming vehicle, which is another vehicle, at night by a headlamp, the sensing result may be transmitted. Further, if the vehicle 1B has a vehicle body that is difficult to be seen in a dark place such as a black vehicle body, the vehicle 1B is a vehicle at a short distance as a result of sensing including the location of the vehicle 1B while the vehicle 1B is traveling in a dark place. If the vehicle 1B has a vehicle body that easily reflects light, such as a white vehicle body, the vehicle 1B travels in a bright place and the vehicle 1B It is good also as transmitting to the vehicle of distance. Thereby, when it is difficult to observe the vehicle 1B from the vehicle 1A such as an oncoming vehicle running around, the information processing apparatus 100A of the vehicle 1A does not collide with the vehicle 1B based on the sensing result transmitted from the vehicle 1B. Thus, it becomes possible to appropriately support the traveling of the vehicle 1A.

(2)上記実施の形態では、情報処理装置100Aの生成部140は、車両1Aが正常状況にないと判定部130が判定した場合には、車載センサ200Aからのセンシング結果としての画像に基づかずに外部装置から受信したセンシング結果に基づいて走行支援情報を生成することとした。しかし、車両1Aが正常状況にない場合においても、車載センサ200Aからのセンシング結果としての画像と外部装置から受信したセンシング結果との両方に基づいて走行支援情報を生成することとしてもよい。但し、この正常状況にない場合においては、車載センサ200Aから取得したセンシング結果が走行支援情報に与える影響を、車両1Aが正常状況にあると判定部130が判定した場合より抑制して、走行支援情報の生成を行うことが有用である。具体例としては、情報処理装置100Aは、正常状況においては車載センサ200Aからのセンシング結果(画像)を100%利用する或いは外部装置から受信したセンシング結果と併用するが両方のセンシング結果が相反するとき等において車載センサ200Aのセンシング結果の方を優先して利用し、正常状況でない状況下では、外部装置から受信したセンシング結果と車載センサ200Aのセンシング結果とを例えば加重平均で車載センサの方を低く重み付けて利用し、或いは、両方の結果が相反する場合に外部装置から受信したセンシング結果を優先して利用することとしてもよい。このように、生成部140は、特定の時点の車両1Aの状況が第1状況でないと判定部130が判定した場合には、センサから取得したセンシング結果にも基づいて、センサからのセンシング結果が第1情報に与える影響を、特定の時点の車両1Aの状況が第1状況であると判定部130が判定した場合より抑制してもよい。   (2) In the above embodiment, when the determination unit 130 determines that the vehicle 1A is not in a normal state, the generation unit 140 of the information processing device 100A is not based on an image as a sensing result from the in-vehicle sensor 200A. The driving support information is generated based on the sensing result received from the external device. However, even when the vehicle 1A is not in a normal state, the driving support information may be generated based on both the image as the sensing result from the in-vehicle sensor 200A and the sensing result received from the external device. However, when the vehicle is not in the normal state, the influence of the sensing result acquired from the in-vehicle sensor 200A on the driving support information is suppressed compared to the case where the determination unit 130 determines that the vehicle 1A is in the normal state. It is useful to generate information. As a specific example, the information processing apparatus 100A uses 100% of the sensing result (image) from the in-vehicle sensor 200A in a normal state or uses it together with the sensing result received from the external device, but the two sensing results conflict. For example, the sensing result of the in-vehicle sensor 200A is preferentially used, and in a non-normal situation, the sensing result received from the external device and the sensing result of the in-vehicle sensor 200A are reduced by, for example, a weighted average. It is good also as using it giving priority and using the sensing result received from the external device when both results conflict. As described above, when the determination unit 130 determines that the situation of the vehicle 1A at the specific time point is not the first situation, the generation unit 140 determines that the sensing result from the sensor is based on the sensing result acquired from the sensor. You may suppress the influence which acts on 1st information from the case where the determination part 130 determines with the condition of the vehicle 1A of a specific time being a 1st condition.

(3)上記実施の形態では、車両1Aに搭載される情報処理装置100Aが、車両1Aに搭載されたセンサによるセンシング結果が適切でない場合に外部装置から受信したセンシング結果に基づいて車両1Aの走行を支援する例、或いは、車両1Bに搭載される情報処理装置100Bが、車両1Bに搭載されたセンサによるセンシングを車両1Aに送信することで車両1Aの走行を支援する例等を示した。しかし、このような情報処理装置は、車両以外の移動体(例えば移動するロボット等)に搭載される装置であってもよい。例えば一の移動体に搭載される情報処理装置100Aは、その移動体に搭載されたセンサ(移動体搭載センサ)から所定基準を満たすセンシング結果(例えばイメージセンサが撮像した画像)が取得される正常状況においては、そのセンシング結果に基づいてその移動体の移動(走行等)を支援する移動支援情報(走行支援情報等)を生成し、その正常状況でない状況においては、外部装置から受信したセンシング結果に基づいてその移動体の移動(走行等)を支援する移動支援情報(走行支援情報等)を生成することとしてもよい。また、例えば第1移動体に搭載される情報処理装置100Bが、その第1移動体における移動体搭載センサによるセンシング結果(或いはその第1移動体の周辺の路側機等から取得したその路側機等のセンサによるセンシング結果)を、近距離を走行する第2移動体において進路のセンシングが適切に行えなくなる状況が発生する際に、その第2移動体に送信することとしてもよい。第2移動体への送信は、宛先を特定しない情報の送信(所謂ブロードキャスト)であってもよい。即ち、上記実施の形態で示した車両1Bを、車両以外の移動体(第1移動体)としてもよく、また、車両1Aを、車両以外の移動体(第2移動体)としてもよい。   (3) In the above embodiment, the information processing apparatus 100A mounted on the vehicle 1A travels on the vehicle 1A based on the sensing result received from the external device when the sensing result from the sensor mounted on the vehicle 1A is not appropriate. Or an example in which the information processing apparatus 100B mounted on the vehicle 1B supports the traveling of the vehicle 1A by transmitting sensing by a sensor mounted on the vehicle 1B to the vehicle 1A. However, such an information processing apparatus may be an apparatus mounted on a moving body (for example, a moving robot) other than the vehicle. For example, in the information processing apparatus 100A mounted on one moving body, a sensing result (for example, an image captured by an image sensor) that satisfies a predetermined standard is acquired from a sensor (moving body mounting sensor) mounted on the moving body. In the situation, movement support information (running support information, etc.) that supports the movement of the moving body (running, etc.) is generated based on the sensing result, and in the non-normal situation, the sensing result received from the external device It is also possible to generate movement support information (travel support information, etc.) that supports the movement (travel, etc.) of the mobile body based on the above. In addition, for example, the information processing apparatus 100B mounted on the first moving body senses the sensing result of the moving body mounting sensor in the first moving body (or the roadside machine acquired from the roadside machine around the first moving body, etc. The sensing result of the sensor (2) may be transmitted to the second moving body when a situation occurs where the second moving body traveling in a short distance cannot properly sense the course. Transmission to the second mobile unit may be transmission of information that does not specify a destination (so-called broadcast). That is, the vehicle 1B described in the above embodiment may be a moving body other than the vehicle (first moving body), and the vehicle 1A may be a moving body other than the vehicle (second moving body).

(4)上記実施の形態で示した各種処理の手順(例えば図4〜図7に示した処理手順等)の実行順序は、必ずしも、上述した通りの順序に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えたり、複数の手順を並列に行ったり、その手順の一部を省略したりすることができる。また、情報処理装置100A、100Bは、外部のサーバ装置等と通信することによって、車両等に係る情報処理方法の一部の処理(例えば図4〜図7における一部のステップ等)をそのサーバ装置等に分担させてもよい。また、車両1Bと同様に路側機が車両1Aの進路についてのセンシング結果を送信する場合において、外部のサーバ装置等を経由して車両1Aにセンシング結果を送信することとしてもよい。   (4) The order of execution of the various processing procedures shown in the above-described embodiment (for example, the processing procedures shown in FIGS. 4 to 7) is not necessarily limited to the order described above. The execution order can be changed, a plurality of procedures can be performed in parallel, or a part of the procedures can be omitted without departing from the gist. Further, the information processing apparatuses 100A and 100B communicate with an external server apparatus or the like to perform a part of the information processing method (for example, some steps in FIGS. 4 to 7) related to the vehicle or the like. You may share with an apparatus etc. Further, when the roadside machine transmits a sensing result about the course of the vehicle 1A as in the case of the vehicle 1B, the sensing result may be transmitted to the vehicle 1A via an external server device or the like.

(5)上記実施の形態では、情報処理装置100Aは、車両1Aが、正常状況(車載センサ200Aから所定基準を満たすセンシング結果が取得される状況)にあるか否かを判定する例として、イメージセンサが撮像により生成した画像の各画素の画素値に基づく判定、或いは、明るさの差の大きな領域間の境界(例えばトンネル10の出入り口等)の付近か否かによる判定等の例を示した。これは、車載センサ200Aとしてのイメージセンサが撮像により生成する画像の精度が、急に明るさの変化する際に一時的に低下する点に着目した例である。しかし、同様に車載センサ200Aとしてのイメージセンサのセンシング結果の精度が低下する例としては、車両1Aの進路に霧、豪雨が発生している場合等が挙げられる。霧、豪雨等の場合に対応するために、情報処理装置100Aを、例えば、イメージセンサが撮像により生成した画像の解析により、被写体の解像度が低く、ぼけた状態である場合には、車両1Aが正常状況にないと判定し、その他の場合に正常状況にあると判定するように、構成してもよい。また、車載センサ200Aとしてイメージセンサ以外のセンサ(例えばレーダー、ライダー等)によるセンシング(観測)の精度が低下するような場合を、所定基準を満たさないと規定してもよい。即ち、車両1Aの走行環境によって車載センサ200Aによるセンシングの精度が低下する際に、情報処理装置100Aは、車両1Aが正常状況にないと判定して、外部装置からセンシング(観測)による情報(センシング結果)を受信して、その受信したセンシング結果に基づいて車両1Aの走行支援のための走行支援情報を生成することとしてもよい。   (5) In the above embodiment, the information processing apparatus 100A is an example of determining whether or not the vehicle 1A is in a normal state (a state in which a sensing result satisfying a predetermined standard is acquired from the in-vehicle sensor 200A). An example of determination based on the pixel value of each pixel of an image generated by the sensor by the sensor, or determination based on whether or not the boundary between areas having a large difference in brightness (for example, the entrance / exit of the tunnel 10) is shown. . This is an example paying attention to the point that the accuracy of the image generated by the image sensor as the in-vehicle sensor 200A is temporarily lowered when the brightness suddenly changes. However, similarly, as an example in which the accuracy of the sensing result of the image sensor as the in-vehicle sensor 200A is reduced, there is a case where fog or heavy rain occurs in the course of the vehicle 1A. In order to cope with the case of fog, heavy rain, etc., if the information processing apparatus 100A is in a blurred state with a low resolution of the subject, for example, by analyzing an image generated by the image sensor, the vehicle 1A You may comprise so that it may determine with not being in a normal condition, and determining with being in a normal condition in other cases. Moreover, you may prescribe | regulate not satisfy | filling a predetermined reference | standard when the precision of the sensing (observation) by sensors (for example, radar, a rider, etc.) other than an image sensor falls as in-vehicle sensor 200A. That is, when the accuracy of sensing by the in-vehicle sensor 200A is lowered due to the traveling environment of the vehicle 1A, the information processing apparatus 100A determines that the vehicle 1A is not in a normal state, and information (sensing) by sensing (observation) from an external device. Result) and driving support information for driving support of the vehicle 1A may be generated based on the received sensing result.

(6)上記実施の形態における情報処理装置100A、100Bは、メモリ、プロセッサ等を含むECUを備え、メモリに記憶されたプログラム(ソフトウェア)を実行するプロセッサ等によって各種機能を実現する例を示したが、ソフトウェアを用いずに、専用のハードウェア(デジタル回路等)によりその機能を実現することとしてもよい。   (6) The information processing apparatuses 100A and 100B according to the above-described embodiment include an ECU including a memory, a processor, and the like, and an example is shown in which various functions are realized by a processor that executes a program (software) stored in the memory. However, the function may be realized by dedicated hardware (digital circuit or the like) without using software.

(7)上記実施の形態における各装置を構成する構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとして
もよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAM等を含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記録されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。また、上記各装置を構成する構成要素の各部は、個別に1チップ化されていてもよいし、一部又は全部を含むように1チップ化されてもよい。また、ここでは、システムLSIとしたが、集積度の違いにより、IC、LSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や
、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。更には、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。
(7) Part or all of the constituent elements constituting each device in the above embodiment may be constituted by one system LSI (Large Scale Integration). The system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip. Specifically, the system LSI is a computer system including a microprocessor, a ROM, a RAM, and the like. . A computer program is recorded in the RAM. The system LSI achieves its functions by the microprocessor operating according to the computer program. In addition, each part of the constituent elements constituting each of the above devices may be individually made into one chip, or may be made into one chip so as to include a part or all of them. Although the system LSI is used here, it may be called IC, LSI, super LSI, or ultra LSI depending on the degree of integration. Further, the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI, or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used. Furthermore, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology. Biotechnology can be applied as a possibility.

(8)上記各装置を構成する構成要素の一部又は全部は、各装置に脱着可能なICカード又は単体のモジュールから構成されているとしてもよい。前記ICカード又は前記モジュールは、マイクロプロセッサ、ROM、RAM等から構成されるコンピュータシステムである。前記ICカード又は前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、前記ICカード又は前記モジュールは、その機能を達成する。このICカード又はこのモジュールは、耐タンパ性を有するとしてもよい。   (8) A part or all of the constituent elements constituting each of the above devices may be configured as an IC card or a single module that can be attached to and detached from each device. The IC card or the module is a computer system including a microprocessor, a ROM, a RAM, and the like. The IC card or the module may include the super multifunctional LSI described above. The IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.

(9)本発明の一態様としては、例えば図4〜図7等に示す処理手順の全部又は一部を含む情報処理方法であるとしてもよい。例えば、情報処理方法は、車両1A(移動体)において走行に係る制御を行うための方法として、車両1Aの進路をセンシングする車載センサ200A(移動体搭載センサ)からセンシング結果を取得する取得ステップ(例えばステップS11等)と、車両1Aの外部の外部装置から車両1Aの進路についてのセンシング結果を受信する受信ステップ(例えばステップS16等)と、車両1Aの状況が、車載センサ200Aから所定基準を満たすセンシング結果が取得される正常状況である場合には車載センサ200Aから取得したセンシング結果に基づいて車両1Aの走行の制御に用いる走行支援情報を生成し、車両1Aが正常状況にない場合にはその外部装置から受信したセンシング結果に基づいて走行支援情報を生成する生成ステップ(例えばステップS12、S13、S17等)とを含む。また、本発明の一態様としては、この情報処理方法に係る処理(所定情報処理)をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。また、本発明の一態様としては、前記コンピュータプログラム又は前記デジタル信号をコンピュータで読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu-ray(登録商標) Disc)、半導体メモリ等に記録したものとしてもよい。また、これらの記
録媒体に記録されている前記デジタル信号であるとしてもよい。また、本発明の一態様としては、前記コンピュータプログラム又は前記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。また、本発明の一態様としては、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記録しており、前記マイクロプロセッサは、前記コンピュータプログラムに従って動作するとしてもよい。また、前記プログラム若しくは前記デジタル信号を前記記録媒体に記録して移送することにより、又は、前記プログラム若しくは前記デジタル信号を、前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
(9) As one aspect of the present invention, for example, an information processing method including all or part of the processing procedures shown in FIGS. For example, in the information processing method, as a method for performing control related to traveling in the vehicle 1A (moving body), an acquisition step of acquiring a sensing result from an in-vehicle sensor 200A (moving body mounted sensor) that senses the course of the vehicle 1A ( For example, step S11 etc.), the receiving step (for example, step S16 etc.) which receives the sensing result about the course of the vehicle 1A from the external device outside the vehicle 1A, and the situation of the vehicle 1A satisfy the predetermined standard from the in-vehicle sensor 200A. When the sensing result is a normal condition acquired, driving support information used for controlling the driving of the vehicle 1A is generated based on the sensing result acquired from the in-vehicle sensor 200A, and when the vehicle 1A is not in a normal condition Generation step for generating driving support information based on a sensing result received from an external device For example and a step S12, S13, S17, etc.). In addition, as an aspect of the present invention, the information processing method (predetermined information processing) may be a computer program that realizes the processing by a computer, or may be a digital signal including the computer program. In one embodiment of the present invention, the computer program or the digital signal can be read by a computer, such as a flexible disk, a hard disk, a CD-ROM, an MO, a DVD, a DVD-ROM, a DVD-RAM, and a BD. (Blu-ray (registered trademark) Disc), recorded on a semiconductor memory, or the like. The digital signal may be recorded on these recording media. Further, as one aspect of the present invention, the computer program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network typified by the Internet, data broadcasting, or the like. Further, an aspect of the present invention may be a computer system including a microprocessor and a memory, the memory recording the computer program, and the microprocessor operating according to the computer program. . Also, by recording and transferring the program or the digital signal on the recording medium, or by transferring the program or the digital signal via the network or the like, by another independent computer system It may be carried out.

(10)上記実施の形態及び上記変形例で示した各構成要素及び機能を任意に組み合わせることで実現される形態も本発明の範囲に含まれる。   (10) Embodiments realized by arbitrarily combining the constituent elements and functions shown in the embodiment and the modified examples are also included in the scope of the present invention.

本発明は、車両等の移動体の走行を支援するために利用可能である。   The present invention can be used to support traveling of a moving body such as a vehicle.

1A、1B 車両
10 トンネル
11 障害物
100A、100B 情報処理装置
110A、110B 取得部
120A、120B 通信部
130 判定部
140 生成部
150 出力部
200A、200B 車載センサ
210 車両制御装置
1A, 1B Vehicle 10 Tunnel 11 Obstacle 100A, 100B Information processing device 110A, 110B Acquisition unit 120A, 120B Communication unit 130 Determination unit 140 Generation unit 150 Output unit 200A, 200B In-vehicle sensor 210 Vehicle control device

Claims (16)

移動体に搭載される情報処理装置であって、
前記移動体に搭載されて前記移動体の進路をセンシングするセンサからセンシング結果を取得する取得部と、
前記移動体外の外部装置から前記移動体の進路についてのセンシング結果を受信する通信部と、
特定の時点の前記移動体の状況が、前記センサから取得されるセンシング結果が所定条件を満たす第1状況であるか否かを、判定する判定部と、
前記特定の時点の前記移動体の状況が前記第1状況であると前記判定部が判定した場合には前記センサから取得したセンシング結果に基づいて、前記移動体の移動を制御するための第1情報を生成し、前記特定の時点の前記移動体の状況が前記第1状況でないと前記判定部が判定した場合には前記外部装置から受信したセンシング結果に基づいて前記第1情報を生成する生成部と、
前記第1情報を出力する出力部とを備える
情報処理装置。
An information processing apparatus mounted on a moving body,
An acquisition unit that acquires a sensing result from a sensor that is mounted on the moving body and senses the course of the moving body;
A communication unit that receives a sensing result about a path of the moving body from an external device outside the moving body;
A determination unit that determines whether the state of the moving body at a specific time is a first state in which a sensing result acquired from the sensor satisfies a predetermined condition;
When the determination unit determines that the state of the moving body at the specific time point is the first state, a first for controlling movement of the moving body based on a sensing result acquired from the sensor Generating information to generate the first information based on a sensing result received from the external device when the determination unit determines that the state of the moving object at the specific time point is not the first state And
An information processing apparatus comprising: an output unit that outputs the first information.
前記センサは、イメージセンサを含み、
前記センシング結果は、画像情報を含む
請求項1に記載の情報処理装置。
The sensor includes an image sensor,
The information processing apparatus according to claim 1, wherein the sensing result includes image information.
前記第1状況の判定は、各領域内の明るさの差異が所定程度以上である連続した2領域間を前記移動体が移動するかを判定することを含む
請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the determination of the first situation includes determining whether the moving body moves between two consecutive areas in which a difference in brightness within each area is greater than or equal to a predetermined level. .
前記2領域間を前記移動体が移動するかを判定することは、前記移動体の位置の測定結果と、前記2領域の所在位置を示す位置情報とに基づいて、前記移動体が前記2領域の境界に接近しているかを判定することを含む、
請求項3に記載の情報処理装置。
It is determined whether the moving body moves between the two areas based on a measurement result of the position of the moving body and position information indicating a location of the two areas. Including determining whether they are approaching the boundary of
The information processing apparatus according to claim 3.
前記2領域間を前記移動体が移動するかを判定することは、前記イメージセンサから取得される画像情報の示す画像に前記2領域の境界が映っているかを判定することを含む
請求項3に記載の情報処理装置。
The determining whether the moving body moves between the two regions includes determining whether a boundary between the two regions is reflected in an image indicated by image information acquired from the image sensor. The information processing apparatus described.
前記第1状況の判定は、前記イメージセンサから前記所定条件を満たすセンシング結果が取得されたか否かを判定することを含む
請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the determination of the first situation includes determining whether a sensing result that satisfies the predetermined condition is acquired from the image sensor.
前記第1状況の判定は、前記イメージセンサによるセンシング結果として生成された画像の画素値についての統計処理の結果と閾値との比較を含む
請求項6に記載の情報処理装置。
The information processing apparatus according to claim 6, wherein the determination of the first situation includes a comparison between a statistical processing result and a threshold value regarding a pixel value of an image generated as a sensing result by the image sensor.
前記所定条件は、前記イメージセンサにより生成される画像の所定数の画素値が、所定範囲に収まる場合に満たされず、当該所定範囲を超える場合に満たされる
請求項6に記載の情報処理装置。
The information processing apparatus according to claim 6, wherein the predetermined condition is not satisfied when a predetermined number of pixel values of an image generated by the image sensor are within a predetermined range, but is satisfied when the predetermined value exceeds the predetermined range.
前記生成部は、前記特定の時点の前記移動体の状況が前記第1状況でないと前記判定部が判定した場合には、前記センサから取得したセンシング結果に基づかずに前記第1情報を生成する
請求項2〜8のいずれか一項に記載の情報処理装置。
The generation unit generates the first information without being based on a sensing result acquired from the sensor when the determination unit determines that the state of the moving body at the specific time point is not the first state. The information processing apparatus according to any one of claims 2 to 8.
前記生成部は、前記特定の時点の前記移動体の状況が前記第1状況でないと前記判定部が判定した場合には、前記センサから取得したセンシング結果にも基づいて、前記センサからの当該センシング結果が前記第1情報に与える影響を、前記特定の時点の前記移動体の状況が前記第1状況であると前記判定部が判定した場合より抑制する
請求項2〜8のいずれか一項に記載の情報処理装置。
When the determination unit determines that the state of the moving body at the specific time point is not the first state, the generation unit detects the sensing from the sensor based on the sensing result acquired from the sensor. The influence which a result gives to said 1st information is suppressed rather than the case where the above-mentioned judgment part judges that the situation of the above-mentioned mobile object of the above-mentioned specific time is the above-mentioned 1st situation. The information processing apparatus described.
前記通信部は、各領域内の明るさの差異が所定程度以上である連続した2領域間を前記移動体が移動する前又は移動中に、前記外部装置に前記移動体の進路についてのセンシング結果の送信要求を送信する
請求項2〜8のいずれか一項に記載の情報処理装置。
The communication unit detects a result of sensing the path of the moving body to the external device before or during the movement of the moving body between two consecutive areas where the brightness difference in each area is a predetermined level or more. The information processing apparatus according to any one of claims 2 to 8.
移動体に搭載されるプロセッサが実行する情報処理方法であって、
前記移動体の進路をセンシングするセンサからセンシング結果を取得する取得ステップと、
前記移動体外の外部装置から前記移動体の進路についてのセンシング結果を受信する受信ステップと、
特定の時点の前記移動体の状況が、前記センサから取得されるセンシング結果が所定条件を満たす第1状況である場合には、前記センサから取得したセンシング結果に基づいて、前記移動体の移動を制御するための第1情報を生成し、前記特定の時点の前記移動体の状況が前記第1状況でない場合には、前記外部装置から受信したセンシング結果に基づいて前記第1情報を生成する生成ステップとを含む
情報処理方法。
An information processing method executed by a processor mounted on a mobile object,
An acquisition step of acquiring a sensing result from a sensor that senses the path of the moving body;
A receiving step of receiving a sensing result about a path of the moving body from an external device outside the moving body;
When the state of the moving body at a specific time is the first state in which the sensing result acquired from the sensor satisfies a predetermined condition, the moving body is moved based on the sensing result acquired from the sensor. Generation of generating first information for controlling, and generating the first information based on a sensing result received from the external device when the state of the moving body at the specific time is not the first state An information processing method including steps.
移動体に搭載されるコンピュータに所定情報処理を行わせるためのプログラムであって、
所定情報処理は、
前記移動体の進路をセンシングするセンサからセンシング結果を取得する取得ステップと、
前記移動体外の外部装置から前記移動体の進路についてのセンシング結果を受信する受信ステップと、
特定の時点の前記移動体の状況が、前記センサから取得されるセンシング結果が所定条件を満たす第1状況である場合には、前記センサから取得したセンシング結果に基づいて、前記移動体の移動を制御するための第1情報を生成し、前記特定の時点の前記移動体の状況が前記第1状況でない場合には、前記外部装置から受信したセンシング結果に基づいて前記第1情報を生成する生成ステップとを含む
プログラム。
A program for causing a computer mounted on a mobile body to perform predetermined information processing,
The predetermined information processing
An acquisition step of acquiring a sensing result from a sensor that senses the path of the moving body;
A receiving step of receiving a sensing result about a path of the moving body from an external device outside the moving body;
When the state of the moving body at a specific time is the first state in which the sensing result acquired from the sensor satisfies a predetermined condition, the moving body is moved based on the sensing result acquired from the sensor. Generation of generating first information for controlling, and generating the first information based on a sensing result received from the external device when the state of the moving body at the specific time is not the first state A program that includes steps.
第1移動体に搭載される情報処理装置であって、
前記第1移動体における第1センサ又は前記第1移動体の周辺の第2センサから前記第1移動体の外部についてのセンシング結果を取得する取得部と、
前記第2移動体の特定の時点の状況が、前記第2移動体に搭載されて前記第2移動体の進路をセンシングする第3センサから取得されるセンシング結果が所定条件を満たす第1状況であるかを判定する判定部と、
前記特定の時点の前記第2移動体の状況が前記第1状況でないと判定されることに応じて、前記取得部によって前記第1センサ又は前記第2センサから取得されるセンシング結果を送信する通信部とを備える
情報処理装置。
An information processing apparatus mounted on a first moving body,
An acquisition unit that acquires a sensing result about the outside of the first moving body from a first sensor in the first moving body or a second sensor around the first moving body;
The situation at a specific time point of the second moving body is a first situation in which a sensing result obtained from a third sensor mounted on the second moving body and sensing the course of the second moving body satisfies a predetermined condition. A determination unit for determining whether there is,
Communication for transmitting a sensing result obtained from the first sensor or the second sensor by the obtaining unit in response to determining that the state of the second moving body at the specific time point is not the first situation An information processing apparatus.
前記取得部は、前記第1センサ又は前記第2センサから前記第2移動体の進路についてのセンシング結果を取得し、
前記特定の時点の前記第2移動体の状況が前記第1状況であるかの判定は、各領域内の明るさの差異が所定程度以上である連続した2領域を前記第2移動体が移動するかを判定することを含み、
前記通信部は、前記第1移動体が前記2領域の境界に接近したことに応じて前記第1センサ又は前記第2センサから取得されるセンシング結果を送信する
請求項14に記載の情報処理装置。
The acquisition unit acquires a sensing result about a path of the second moving body from the first sensor or the second sensor,
Whether or not the state of the second moving body at the specific time point is the first state is determined by moving the second moving body in two consecutive areas where the brightness difference in each area is equal to or greater than a predetermined level. Including determining whether to
The information processing apparatus according to claim 14, wherein the communication unit transmits a sensing result acquired from the first sensor or the second sensor in response to the first moving body approaching a boundary between the two regions. .
前記特定の時点の前記第2移動体の状況が前記第1状況であるかの判定は、前記通信部が前記第2移動体からセンシング結果の送信要求を受信したかを判定することを含み、
前記通信部は、前記第2移動体から前記送信要求を受信したことに応じて前記第1センサ又は前記第2センサから取得されるセンシング結果を送信する
請求項14に記載の情報処理装置。
Determining whether the status of the second mobile unit at the specific time is the first status includes determining whether the communication unit has received a sensing result transmission request from the second mobile unit,
The information processing apparatus according to claim 14, wherein the communication unit transmits a sensing result acquired from the first sensor or the second sensor in response to receiving the transmission request from the second moving body.
JP2017186131A 2017-02-22 2017-09-27 Information processing equipment, information processing methods and programs Active JP7015665B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/883,468 US10569768B2 (en) 2017-02-22 2018-01-30 Information processing apparatus, information processing method, and non-transitory recording medium
CN201810105266.0A CN108454631B (en) 2017-02-22 2018-02-02 Information processing apparatus, information processing method, and recording medium
EP18156237.2A EP3366539B1 (en) 2017-02-22 2018-02-12 Information processing apparatus and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017031419 2017-02-22
JP2017031419 2017-02-22

Publications (2)

Publication Number Publication Date
JP2018136917A true JP2018136917A (en) 2018-08-30
JP7015665B2 JP7015665B2 (en) 2022-02-03

Family

ID=63365617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017186131A Active JP7015665B2 (en) 2017-02-22 2017-09-27 Information processing equipment, information processing methods and programs

Country Status (1)

Country Link
JP (1) JP7015665B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019119582A1 (en) 2018-07-20 2020-01-23 Shimano Inc. DOUBLE BEARING ROLE
CN113415269A (en) * 2020-03-02 2021-09-21 本田技研工业株式会社 Vehicle communication system, vehicle communication device, program, and monitoring object detection method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008126905A (en) * 2006-11-22 2008-06-05 Toyota Motor Corp Control device of transmittance of vehicle window
JP2008299676A (en) * 2007-05-31 2008-12-11 Toyota Motor Corp Dead angle information requesting/providing devices and inter-vehicle communication system using the same
JP2015102449A (en) * 2013-11-26 2015-06-04 日産自動車株式会社 Vehicle self position estimation apparatus and vehicle self position estimation method
US20150341620A1 (en) * 2014-05-23 2015-11-26 Lg Electronics Inc. Stereo camera and driver assistance apparatus and vehicle including the same
DE102014210147A1 (en) * 2014-05-27 2015-12-03 Continental Teves Ag & Co. Ohg Vehicle control system for autonomous guidance of a vehicle
WO2017029847A1 (en) * 2015-08-19 2017-02-23 ソニー株式会社 Information processing device, information processing method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008126905A (en) * 2006-11-22 2008-06-05 Toyota Motor Corp Control device of transmittance of vehicle window
JP2008299676A (en) * 2007-05-31 2008-12-11 Toyota Motor Corp Dead angle information requesting/providing devices and inter-vehicle communication system using the same
JP2015102449A (en) * 2013-11-26 2015-06-04 日産自動車株式会社 Vehicle self position estimation apparatus and vehicle self position estimation method
US20150341620A1 (en) * 2014-05-23 2015-11-26 Lg Electronics Inc. Stereo camera and driver assistance apparatus and vehicle including the same
DE102014210147A1 (en) * 2014-05-27 2015-12-03 Continental Teves Ag & Co. Ohg Vehicle control system for autonomous guidance of a vehicle
WO2017029847A1 (en) * 2015-08-19 2017-02-23 ソニー株式会社 Information processing device, information processing method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019119582A1 (en) 2018-07-20 2020-01-23 Shimano Inc. DOUBLE BEARING ROLE
CN113415269A (en) * 2020-03-02 2021-09-21 本田技研工业株式会社 Vehicle communication system, vehicle communication device, program, and monitoring object detection method
JP7478552B2 (en) 2020-03-02 2024-05-07 本田技研工業株式会社 Vehicle communication system, program, and method for detecting monitored object

Also Published As

Publication number Publication date
JP7015665B2 (en) 2022-02-03

Similar Documents

Publication Publication Date Title
CN108454631B (en) Information processing apparatus, information processing method, and recording medium
US11155249B2 (en) Systems and methods for causing a vehicle response based on traffic light detection
US11993290B2 (en) Predicting and responding to cut in vehicles and altruistic responses
US20210027073A1 (en) Vehicular control system
US10176720B2 (en) Auto driving control system
US9950668B2 (en) Device for providing driving support based on predicted position of preceeding vehicle
CN102779430B (en) Collision-warning system, controller and method of operating thereof after the night of view-based access control model
JP6402684B2 (en) Display device
US20120101711A1 (en) Collision Warning Apparatus
JP6971020B2 (en) Anomaly detection device and anomaly detection method
US10369995B2 (en) Information processing device, information processing method, control device for vehicle, and control method for vehicle
US20160031371A1 (en) In-vehicle apparatus
US20240142607A1 (en) Information processing device, information processing method, computer program, and mobile device
US11508161B2 (en) Driving support system and server device
CN115892013A (en) System, control circuit, method, apparatus, and storage medium for operating a vehicle
JP2019207651A (en) Detection device and detection system
US11181924B2 (en) System and method for performing differential analysis of vehicles
CN116034359A (en) Method for environment detection with at least two mutually independent imaging environment detection sensors, device for carrying out the method, vehicle and correspondingly designed computer program
US11361687B2 (en) Advertisement display device, vehicle, and advertisement display method
JP7015665B2 (en) Information processing equipment, information processing methods and programs
US11536583B2 (en) Information display device, control method, and storage medium
JP4961311B2 (en) Driving support device and driving support method
JP2020088604A (en) Travel control device, control method, and program
US20220036099A1 (en) Moving body obstruction detection device, moving body obstruction detection system, moving body obstruction detection method, and storage medium
EP3865815A1 (en) Vehicle-mounted system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220124