JP4412261B2 - Traffic simulation apparatus, method and program - Google Patents

Traffic simulation apparatus, method and program Download PDF

Info

Publication number
JP4412261B2
JP4412261B2 JP2005259769A JP2005259769A JP4412261B2 JP 4412261 B2 JP4412261 B2 JP 4412261B2 JP 2005259769 A JP2005259769 A JP 2005259769A JP 2005259769 A JP2005259769 A JP 2005259769A JP 4412261 B2 JP4412261 B2 JP 4412261B2
Authority
JP
Japan
Prior art keywords
recognition
driver
visual field
vehicle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005259769A
Other languages
Japanese (ja)
Other versions
JP2007072809A (en
Inventor
広宣 北岡
博子 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2005259769A priority Critical patent/JP4412261B2/en
Publication of JP2007072809A publication Critical patent/JP2007072809A/en
Application granted granted Critical
Publication of JP4412261B2 publication Critical patent/JP4412261B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、交通シミュレーション装置、方法及びプログラムに係り、特に、ドライバの認知、判断エラーを考慮して移動体の動きをシミュレーションする交通シミュレーション装置、方法及びプログラムに関する。   The present invention relates to a traffic simulation apparatus, method, and program, and more particularly, to a traffic simulation apparatus, method, and program for simulating movement of a moving object in consideration of driver recognition and judgment errors.

道路交通システムを計画する場合、どこに何を整備すれば交通渋滞が発生しないか等の効果を事前に評価することが必要である。そこで、車両一台一台の挙動をコンピュータ上で再現し、交通の流れや渋滞の様子をシミュレートする道路交通シミュレーション装置が提案されている(特許文献1参照。)。   When planning a road traffic system, it is necessary to evaluate in advance the effects such as where and what should be maintained to prevent traffic congestion. In view of this, a road traffic simulation device that reproduces the behavior of each vehicle on a computer and simulates traffic flow and traffic congestion has been proposed (see Patent Document 1).

特許文献1の道路交通シミュレーション装置は、複数の移動体と道路交通環境とをコンピュータ上で表現し前記移動体により発生する交通状況を模擬する。具体的には、移動体の各々は、仮想的なドライバによる運転操作をモデル化したドライバモデルと、各移動体の物理的な挙動をモデル化した車両運動モデルとの組合せである移動体モデルで表現されている。そして、移動体モデルは、各々独立にコンピュータ上で表現された道路交通環境内を通行する。また、種々の道路交通環境に反応してドライバモデルの出力値が車両運動モデルに与えられることによって、各移動体モデルは、詳細な車両挙動を表現する。
特開2004−199287号公報
The road traffic simulation apparatus of Patent Document 1 represents a plurality of moving objects and a road traffic environment on a computer and simulates a traffic situation generated by the moving objects. Specifically, each mobile object is a mobile object model that is a combination of a driver model that models a driving operation by a virtual driver and a vehicle motion model that models the physical behavior of each mobile object. It is expressed. The mobile body model passes through the road traffic environment expressed on the computer independently of each other. Further, each vehicle model expresses a detailed vehicle behavior by giving the output value of the driver model to the vehicle motion model in response to various road traffic environments.
JP 2004-199287 A

このドライバモデルは、特許文献1の図6に示すように、交通環境データベース20から得られる通行可能領域等のデータに基づいて、移動体が設定経路に追従するための経路を計算し、通行困難領域や他の移動体の通行困難度を移動体からの視界に変換した見かけの通行困難度分布を生成する。したがって、ドライバの行動が建物等の物理的制約と道路交通法等の法規的制約によって決まってしまい、ドライバの周辺状況の認知状態、その認知に基づく判断が考慮されていない。   As shown in FIG. 6 of Patent Document 1, this driver model calculates a route for a moving body to follow a set route based on data such as a passable area obtained from the traffic environment database 20, and makes it difficult to pass. An apparent difficulty level distribution is generated by converting the difficulty level of an area or another moving object into a field of view from the moving object. Therefore, the driver's behavior is determined by physical restrictions such as buildings and legal restrictions such as the Road Traffic Law, and the recognition state of the driver's surrounding situation and judgment based on the recognition are not considered.

また、ドライバモデルはエラーがないのが前提となっている。このため、道路交通シミュレーション装置は、交通事故の発生をシミュレートすることができない。   The driver model is premised on no errors. For this reason, the road traffic simulation apparatus cannot simulate the occurrence of a traffic accident.

例えば、道路において事故が起きた場合、原因として、ドライバの認識ミス、判断ミス、操作ミスが考えられる。交差点での事故では、原因として、前方の対向車、信号、標識を「気づかなかった」や「見えなかった」などの認識ミス、見えているが速度を誤認し間に合うと思った判断ミス、ハンドル操作を誤ったなどの操作ミスがあげられる。   For example, when an accident occurs on a road, the cause may be a driver's recognition error, determination error, or operation error. In the case of an accident at an intersection, the cause is a misrecognition such as `` I did not notice '' or `` I could not see '' the oncoming vehicle, signal, and sign ahead, misjudgment that I could see but missed the speed, handle Operation mistakes such as incorrect operation can be given.

特に、認識ミスは、日照による明るさ、認識対象の色、天候、背景、などの条件により左右される。また、視認できる状況であっても、ドライバの覚睡度によって、「ぼんやりして見落とした」など認識できないこともある。これらは、ドライバによって状況は異なるが、確率的に起きると考えられる。   In particular, the recognition error depends on conditions such as the brightness due to sunlight, the color of the recognition target, the weather, and the background. Also, even if the situation is visible, the driver may not be able to recognize such as “has been overlooked” depending on the driver's arousal level. These are considered to occur probabilistically, although the situation varies depending on the driver.

このようなドライバのミスに対して、機器によりドライバを補助し、情報提供および車両制御により事故発生を低減させる様々な安全システムが実用化されている。   In response to such driver mistakes, various safety systems have been put into practical use that assist the driver with equipment and reduce the occurrence of accidents by providing information and controlling the vehicle.

例えば、赤外光と画像処理を用いた安全システムは、夜間において人間が視認しにくい条件であっても、赤外光に感度を持つカメラで撮像される画像により、周辺の物体を認識、検出することが可能であり、これらの情報をドライバに提供する。   For example, a safety system that uses infrared light and image processing recognizes and detects surrounding objects from images captured by a camera that is sensitive to infrared light, even under conditions that are difficult for humans to see at night. And provide this information to the driver.

また、レーダーを使った安全システムは、車両周辺の物体までの距離を高精度に検出し、このままの進路、速度を維持した場合に物体に衝突する可能性がある場合は、ドライバへの情報提供や車両の制御を行う。   The radar-based safety system detects the distance to objects around the vehicle with high accuracy, and provides information to the driver if there is a possibility of collision with the object if the course and speed are maintained. And control the vehicle.

無線装置を使った安全システムは、無線装置を搭載した車両から車の位置や速度情報が送信され、それを路上の中継装置を経由して、または直接他の車両に送信する。この情報を受信した車両は、自車の位置に対する周辺車両の位置や速度などを把握し、危険な状態であるかを判断する。危険な場合は、ドライバへの情報提供や車両の制御を行う。   In a safety system using a wireless device, vehicle position and speed information is transmitted from a vehicle equipped with the wireless device, and the information is transmitted to another vehicle via a relay device on the road or directly. The vehicle that has received this information grasps the positions and speeds of the surrounding vehicles with respect to the position of the own vehicle, and determines whether it is in a dangerous state. If it is dangerous, provide information to the driver and control the vehicle.

このような安全システムの普及を図るためには、機器を導入することによりどの程度、事故を低減する効果があるかを検証する必要がある。そして、これらの検証には、人間がミスをしたときにシステムがカバーできるかを評価できる必要がある。また、このような機器により自車の事故が回避できたとしても、例えば緊急ブレーキのように急な回避行動により後続車の追突など新たな事故を誘発する可能性もあるため、このようなことも検証することも重要である。   In order to promote the spread of such a safety system, it is necessary to verify to what extent the effects of reducing accidents can be reduced by introducing equipment. And these verifications need to be able to evaluate whether the system can cover when humans make mistakes. In addition, even if an accident of the own vehicle can be avoided by such a device, a new accident such as a rear-end collision of a succeeding vehicle may be induced by a sudden avoidance action such as an emergency brake. It is also important to verify.

安全システムは、条件によって周囲の状況が認識できず、ドライバに有用な情報提供や車両制御が行えない場合もある。システムの有効性評価は、考えうる全ての条件で動作させる場合を想定しなければならない。   The safety system may not be able to recognize surrounding conditions depending on conditions, and may not be able to provide useful information or control the vehicle. The effectiveness of the system must be assumed to operate under all conceivable conditions.

しかしながら、システムが動作する交通状況や気象条件など考えられる様々な条件の組み合わせに対して、実車で効果確認するのは時間的および費用的に困難である。そのため、様々な条件で評価を実施できるシミュレーションでこれら評価することは有用である。   However, it is difficult in terms of time and cost to confirm the effect with an actual vehicle for various combinations of possible conditions such as traffic conditions and weather conditions in which the system operates. Therefore, it is useful to perform these evaluations using a simulation that can be evaluated under various conditions.

本発明は、上述した課題を解決するために提案されたものであり、周辺状況の認知状態や判断を考慮して交通シミュレーションを行う交通シミュレーション装置、方法及びプログラムを提供することを目的とする。   The present invention has been proposed to solve the above-described problems, and an object of the present invention is to provide a traffic simulation apparatus, method, and program for performing a traffic simulation in consideration of the perceived state and judgment of the surrounding situation.

本発明に係る交通シミュレーション装置は、移動体の挙動量に基づいて道路上の移動体の動きをシミュレーションする交通シミュレーション装置であって、視野画像を記憶した記憶手段と、前記記憶手段に記憶された視野画像に基づいて、前記移動体の位置情報に対応するドライバの視野画像を生成する生成手段と、前記生成手段により生成されたドライバの視野画像に基づいて、認識対象物の存在認識度、認識速度、及び認識距離の少なくとも1つを算出する認識手段と、前記認識手段により算出された前記少なくとも1つの認識対象物の存在認識度、認識速度、及び認識距離に基づいて、ドライバの次の行動を判断する判断手段と、前記判断手段により判断されたドライバの次の行動に基づいて、前記移動体を操作する操作手段と、前記操作手段の操作に応じて移動体の挙動量を演算する車両挙動量演算手段と、を備えている。 A traffic simulation apparatus according to the present invention is a traffic simulation apparatus that simulates the movement of a moving object on a road based on the amount of behavior of the moving object, the storage means storing a visual field image, and the storage means Generation means for generating a driver's visual field image corresponding to the position information of the moving body based on the visual field image, and presence recognition degree and recognition of the recognition object based on the driver's visual field image generated by the generating means A recognition means for calculating at least one of speed and recognition distance; and a driver's next action based on the presence recognition degree, recognition speed, and recognition distance of the at least one recognition object calculated by the recognition means. Determination means for determining, based on the driver's next action determined by the determination means, operating means for operating the moving body, And a, and vehicle motion amount calculating means for calculating a motion amount of the moving object according to the operation of the work unit.

認識手段は、ドライバの認識の仕方を模したものであり、ドライバの視野画像に基づいて、ドライバの認識の程度を反映した認識対象物の存在認識度、認識速度、認識距離の少なくとも1つを算出する。この視野画像は、予め記憶装置に用意しておいたものでもよいし、ネットワークを介して送信されたものでもよい。 The recognition means imitates the way of recognition of the driver, and based on the driver's visual field image, at least one of the presence recognition degree, recognition speed, and recognition distance of the recognition object reflecting the degree of recognition of the driver is obtained. calculate. This visual field image may be prepared in advance in a storage device, or may be transmitted via a network.

判断手段は、ドライバの判断の仕方を模したものであり、算出された少なくとも1つの認識対象物の存在認識度、認識速度、及び認識距離に基づいて、ドライバの次の行動を判断する。よって、ドライバが認知ミスをすると判断エラーが生じることがあり、また認知ミスをしなくても判断エラーが生じることもある。操作手段は、判断されたドライバの次の行動に基づいて、前記移動体を操作する。 The determination unit imitates the driver's determination method , and determines the next action of the driver based on the calculated presence recognition degree, recognition speed, and recognition distance of at least one recognition object . Therefore, if the driver makes a recognition error, a determination error may occur, and even if the driver does not make a recognition error, a determination error may occur. The operation means operates the moving body based on the determined next action of the driver.

したがって、交通シミュレーション装置は、視野画像に基づいて、認識対象物の存在認識度、認識速度、認識距離の少なくとも1つを算出し、算出された少なくとも1つの認識対象物の存在認識度、認識速度、及び認識距離に基づいて、次の行動を判断し、移動体を操作することによって、周辺状況の認知状態や判断を考慮して交通シミュレーションを行うことができる。 Therefore, the traffic simulation device calculates at least one of the presence recognition degree, the recognition speed, and the recognition distance of the recognition object based on the visual field image, and the calculated presence recognition degree and recognition speed of the calculated at least one recognition object. By determining the next action based on the recognition distance and operating the moving body, the traffic simulation can be performed in consideration of the recognition state and determination of the surrounding situation.

また、本発明は、交通シミュレーション方法及びプログラムにも適用可能である。   The present invention can also be applied to a traffic simulation method and program.

本発明に係る交通シミュレーション装置、方法及びプログラムは、視野画像に基づいて、認識対象物の存在認識度、認識速度、認識距離の少なくとも1つを算出し、算出された少なくとも1つの認識対象物の存在認識度、認識速度、及び認識距離に基づいて、次の行動を判断し、移動体を操作することによって、周辺状況の認知状態や判断を考慮して交通シミュレーションを行うことができる。 The traffic simulation device, method, and program according to the present invention calculate at least one of the presence recognition degree, recognition speed, and recognition distance of a recognition object based on a visual field image, and calculate at least one of the calculated recognition object. By determining the next action based on the presence recognition degree, the recognition speed, and the recognition distance, and operating the moving body, a traffic simulation can be performed in consideration of the recognition state and determination of the surrounding situation.

以下、本発明の好ましい実施の形態について図面を参照しながら詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施形態に係る交通シミュレーション装置の構成を示すブロック図である。交通シミュレーション装置は、各移動体(例えば車両)の動きをシミュレーションしながらその結果を例えば図示しない表示装置に表示し、交通事故の発生件数を計測するものである。   FIG. 1 is a block diagram showing a configuration of a traffic simulation apparatus according to an embodiment of the present invention. The traffic simulation device displays the result on a display device (not shown), for example, while simulating the movement of each mobile body (for example, a vehicle), and measures the number of traffic accidents.

ここで、交通シミュレーション装置は、移動体をモデル化した移動体モデル部10A、10B、10Cを道路上に配置して、移動体モデル部10A、10B、10Cの交通状況をシミュレーションする。なお、3つの移動体モデル部をそれぞれ区別するときはA〜Cの符号を付すが、3つの移動体モデル部を区別する必要がないときはA〜Cの符号を省略する。   Here, the traffic simulation apparatus arranges the moving body model units 10A, 10B, and 10C that model the moving body on the road, and simulates the traffic situation of the moving body model units 10A, 10B, and 10C. In addition, when distinguishing three mobile body model parts, the code | symbol of AC is attached | subjected, but when it is not necessary to distinguish three mobile body model parts, the code | symbol of AC is abbreviate | omitted.

交通シミュレーション装置は、移動体をモデル化した移動体モデル部10と、移動体モデル部10の交通状況を管理する交通状況管理部30と、道路ネットワークデータ、走行車両データ、視野画像等のその他必要なデータを記憶した交通データベース40と、移動体モデル部10を空間配置する空間配置部50と、各移動体モデル部10が衝突するか否かを判定する衝突判定部60と、道路に設置され移動体モデル部10との間で通信する路側通信部70と、路側通信部70を制御する路車間通信システム部80と、を備えている。   The traffic simulation apparatus includes a moving body model unit 10 that models a moving body, a traffic state management unit 30 that manages the traffic state of the moving body model unit 10, and other needs such as road network data, traveling vehicle data, and field-of-view images. Installed on the road, a traffic database 40 storing various data, a space placement unit 50 for spatially placing the mobile body model unit 10, a collision determination unit 60 for judging whether or not each mobile body model unit 10 collides. A roadside communication unit 70 that communicates with the mobile body model unit 10 and a road-vehicle communication system unit 80 that controls the roadside communication unit 70 are provided.

移動体モデル部10A、10B、10Cは、いずれも路上の物体を認識する認識部11と、次に移行すべき行動を判断する判断部12と、移動体の操作量を決定する操作部13と、決定された操作量に基づいて移動体の挙動を演算する挙動演算部14と、を備えている。   The mobile body model units 10A, 10B, and 10C each include a recognition unit 11 that recognizes an object on the road, a determination unit 12 that determines an action to be moved next, and an operation unit 13 that determines an operation amount of the mobile body. And a behavior calculation unit 14 that calculates the behavior of the moving body based on the determined operation amount.

認識部11は、ドライバの道路状況の認識の仕方を模したものであり、空間配置部50によって道路空間上に配置された移動体(例えば車両)や路上物体の位置関係をもとに、ドライバの視点位置において車両、路上物体を認識する。   The recognizing unit 11 simulates the way the driver recognizes the road situation. Based on the positional relationship between a moving object (for example, a vehicle) or a road object arranged on the road space by the space arranging unit 50, the recognizing unit 11 The vehicle and the road object are recognized at the viewpoint position.

判断部12は、ドライバの判断の仕方を模したものであり、交差点までの距離、周辺車両の有無や位置、速度をもとに次に移行すべき行動を判断する。判断部12は、例えば、進行方向の行動として「停止する」、「速度を維持する」、「徐行する」、横方向の行動として「車線変更する」、「右に寄る」、「右折する」などを決定する。   The determination unit 12 imitates a driver's determination method, and determines an action to be moved next based on the distance to the intersection, the presence / absence / position of a surrounding vehicle, and the speed. The determination unit 12 may, for example, “stop”, “maintain speed”, “slow down” as the action in the traveling direction, “change lane”, “stop to the right”, “turn right” as the action in the lateral direction. Etc.

操作部13は、ドライバの操作の仕方を模したものであり、決定された行動に基づいて移動体の操作量を決定する。操作部13は、例えば進行方向の操作量については、現在の車両速度に基づいて、目標状態へ移行するための加減速度を決定し、移動体毎の特性に従ってアクセルおよびブレーキの操作量を決定する。また、操作部13は、横方向の操作量については、現在の車両速度と現在のハンドル操舵量に基づいて次のハンドル操舵量を決定する。   The operation unit 13 imitates how the driver operates, and determines the operation amount of the moving body based on the determined action. For example, for the operation amount in the traveling direction, the operation unit 13 determines the acceleration / deceleration for shifting to the target state based on the current vehicle speed, and determines the accelerator and brake operation amounts according to the characteristics of each moving body. . Further, the operation unit 13 determines the next steering amount for the lateral operation amount based on the current vehicle speed and the current steering amount.

挙動演算部14は、操作部13によって決定された操作量に従って移動体の挙動を演算する。各移動体は、重量、排気量などが異なるため、同じ操作量であっても挙動は異なる。   The behavior calculation unit 14 calculates the behavior of the moving body according to the operation amount determined by the operation unit 13. Since each moving body is different in weight, displacement, etc., the behavior differs even with the same operation amount.

ここで、移動体モデル部10A、10Bは交通情報を提供し及び/又は移動体を制御してドライバを補助する安全システムを更に備えているが、移動体モデル部10Cは安全システムを備えていない。   Here, the mobile body model units 10A and 10B further include a safety system that provides traffic information and / or controls the mobile body to assist the driver, but the mobile body model unit 10C does not include a safety system. .

例えば、移動体モデル部10Aは、上記の安全システムである車載装置部20Aを更に備えている。車載装置部20Aは、カメラやレーダーなどで物体を計測・認識するセンシング部21と、路側通信部70との間で無線通信する通信部22と、例えば画像処理や電波の強度を計測する処理部23と、ドライバに周辺常用を提供する情報提供部24と、他の移動体との衝突を回避するように移動体の動作を制御する移動体制御部25と、を備えている。   For example, the moving body model unit 10A further includes an in-vehicle device unit 20A that is the safety system. The in-vehicle device unit 20A includes a sensing unit 21 that measures and recognizes an object with a camera, a radar, and the like, a communication unit 22 that wirelessly communicates with the roadside communication unit 70, and a processing unit that measures, for example, image processing and radio wave intensity. 23, an information providing unit 24 that provides peripheral usage to the driver, and a moving body control unit 25 that controls the operation of the moving body so as to avoid collision with other moving bodies.

センシング部21は、例えばカメラやレーダー装置からなる。センシング部21は、例えばカメラの場合、ステレオ法やオプティカルフロー法による対象物までの距離を認識したり、画像処理によって車両、歩行者、自転車、白線、周辺物などを認識したりする。センシング部21は、レーダー装置の場合、レーザやミリ波によって対象物までの距離を認識する。   The sensing unit 21 is composed of, for example, a camera or a radar device. For example, in the case of a camera, the sensing unit 21 recognizes a distance to an object by a stereo method or an optical flow method, or recognizes a vehicle, a pedestrian, a bicycle, a white line, a peripheral object, or the like by image processing. In the case of a radar device, the sensing unit 21 recognizes a distance to an object by a laser or a millimeter wave.

通信部22は、路側通信部70との路車間通信や、同様な装置を搭載した移動体同士の車車間通信により、周辺車両の位置、速度などの情報を送受信する。   The communication unit 22 transmits and receives information such as the position and speed of surrounding vehicles by road-to-vehicle communication with the roadside communication unit 70 and vehicle-to-vehicle communication between moving bodies equipped with similar devices.

処理部23は、センシング部21や通信部22からの情報に基づいて、ドライバに例えば接近車両の情報を伝えるか否かを判断し、情報を伝える場合には情報提供部24に情報を伝達する。   Based on information from the sensing unit 21 and the communication unit 22, the processing unit 23 determines whether or not to notify the driver of, for example, information on an approaching vehicle, and transmits the information to the information providing unit 24 when the information is transmitted. .

情報提供部24は、伝達された情報をディスプレイ装置などによってドライバに提供する。なお、情報提供部24は、処理部23から情報が伝達された場合、ドライバに提供した情報を判断部12に入力する。これにより、判断部12は、ある確率を持って提供された情報に対して次に移行すべき行動を判断する。   The information providing unit 24 provides the transmitted information to the driver by a display device or the like. When the information is transmitted from the processing unit 23, the information providing unit 24 inputs the information provided to the driver to the determination unit 12. Thereby, the determination part 12 determines the action which should move to the next with respect to the information provided with a certain probability.

移動体制御部25は、処理部23で処理された状況に応じて移動体制御、例えばブレーキ制御を行う。このとき、挙動演算部14は、操作部13で決定された操作量に加えて移動体制御部25で決定される操作量(例えばブレーキ操作量)に従って、移動体の挙動を演算する。   The moving body control unit 25 performs moving body control, for example, brake control according to the situation processed by the processing unit 23. At this time, the behavior calculation unit 14 calculates the behavior of the moving body according to the operation amount (for example, the brake operation amount) determined by the moving body control unit 25 in addition to the operation amount determined by the operation unit 13.

一方、移動体モデル部10Bの車載装置部20Bは、車載装置部20Aの構成からセンシング部21を除いたものである。また、移動体モデル部10Cは、安全システム、つまり車載装置部を備えていない。   On the other hand, the in-vehicle device unit 20B of the moving body model unit 10B is obtained by removing the sensing unit 21 from the configuration of the in-vehicle device unit 20A. Further, the moving body model unit 10C does not include a safety system, that is, an in-vehicle device unit.

交通状況管理部30は、計算ステップ毎の個々の車の位置、速度、加速度を管理する。また、道路上を走行する車両の発生、消滅も管理する。車両の発生消滅は、全てスケジュールされたもので与えてもよいし、特定区間での発生割合で与えてもよい。   The traffic situation management unit 30 manages the position, speed, and acceleration of each vehicle for each calculation step. It also manages the generation and disappearance of vehicles traveling on the road. The occurrence / disappearance of the vehicle may be given in a scheduled manner, or may be given as a percentage of occurrence in a specific section.

空間配置部50は、交通状況管理部で管理されている各車の位置情報や速度情報に従って、各車を道路空間上に配置する。衝突判定部60は、空間配置部によって道路空間上に配置された車や路上物体の位置関係を比較することで、車と路上物体および車と車の衝突を判定する。衝突する車両の速度、重量、衝突安全性から衝突による車両および乗員の被害を演算する。   The space arrangement unit 50 arranges each vehicle on the road space according to the position information and speed information of each vehicle managed by the traffic condition management unit. The collision determination unit 60 determines the collision between the vehicle and the road object and the vehicle and the vehicle by comparing the positional relationship between the vehicle and the road object placed on the road space by the space placement unit. The vehicle and passenger damage due to the collision is calculated from the speed, weight, and collision safety of the collision vehicle.

以上のように構成された交通シミュレーション装置は次のように動作する。以下では、移動体として車両を用いて説明する。   The traffic simulation apparatus configured as described above operates as follows. Below, it demonstrates using a vehicle as a moving body.

図2は、時刻Tにおいて自車Cが交差点で右折する状況を示す図である。各車両は破線の方向に移動するものとし、自車Cはこの交差点で右折する。以下では、ドライバが対向車の認知およびその際の判断により進行方向の操作量を決める手順についてのべる。なお、本実施形態は、対向車の認知について中心に述べるが、そのほかにも信号、歩行者、周辺建物などの認識、判断、操作量決定も行う。また同様に、水平方向の判断、操作量決定も実施する。   FIG. 2 is a diagram illustrating a situation where the vehicle C turns right at the intersection at time T. Each vehicle is assumed to move in the direction of the broken line, and the own vehicle C makes a right turn at this intersection. In the following, the procedure for the driver to determine the amount of operation in the traveling direction based on the recognition of the oncoming vehicle and the determination at that time will be described. In addition, although this embodiment mainly describes recognition of an oncoming vehicle, the recognition, judgment, and operation amount determination of a signal, a pedestrian, a surrounding building, etc. are also performed besides that. Similarly, horizontal determination and operation amount determination are also performed.

図3は、自車Cの右折処理ルーチンを示すフローチャートである。右折処理ルーチンは、所定計算ステップ毎に実行される。自車Cに対応する移動体モデル部10Cは次のように処理を実行する。   FIG. 3 is a flowchart showing a right turn processing routine of the host vehicle C. The right turn processing routine is executed at every predetermined calculation step. The moving body model unit 10C corresponding to the host vehicle C executes processing as follows.

最初に、認識部11は、自車Cが右折するための判断に用いられる存在認識度、認識距離、認識速度を算出する。ここでは、ドライバAが自車Cを運転している場合を例に挙げて説明する。   First, the recognizing unit 11 calculates the presence recognition degree, the recognition distance, and the recognition speed used for the determination for the host vehicle C to turn right. Here, a case where the driver A is driving the vehicle C will be described as an example.

具体的にステップS1では、認識部11は、空間配置部50によって配置された自車Cの情報に基づいて、自車Cのドライバの視点における視野画像を生成して、ステップS2に移行する。   Specifically, in step S1, the recognition unit 11 generates a visual field image at the viewpoint of the driver of the host vehicle C based on the information of the host vehicle C placed by the space placement unit 50, and proceeds to step S2.

図4は、時刻Tにおける視野画像の一例を示す図である。視野画像は、投影変換等によって表現され、ドライバの視界に相当する画像である。図4の視野画像には、対向車Aのみが現れている。時間の経過と共に自車Cを含む各車両が移動すると、認識部11は、ドライバの視野の変化に応じた視野画像を生成する。   FIG. 4 is a diagram illustrating an example of a visual field image at time T. The visual field image is an image that is expressed by projection conversion or the like and corresponds to the visual field of the driver. Only the oncoming vehicle A appears in the field-of-view image of FIG. When each vehicle including the host vehicle C moves with time, the recognition unit 11 generates a visual field image corresponding to a change in the visual field of the driver.

図5は、時刻(T+t)における視野画像の一例を示す図である。図5の視野画像には、対向車Aだけでなく対向車Bも現れている。   FIG. 5 is a diagram illustrating an example of a visual field image at time (T + t). In the view image of FIG. 5, not only the oncoming vehicle A but also the oncoming vehicle B appears.

ステップS2では、認識部11は視野画像に輪郭線抽出処理を行い、ステップS3では、認識部11は輪郭線で囲まれる認識対象の面積を視野内面積として算出して、ステップS4に移行する。   In step S2, the recognition unit 11 performs contour line extraction processing on the visual field image. In step S3, the recognition unit 11 calculates the area of the recognition target surrounded by the contour line as the area in the visual field, and the process proceeds to step S4.

図6及び図7は、図4及び図5の視野画像に対して輪郭抽出処理を行った結果を示す図である。図8は、認識対象の面積である視野内面積を示す図である。視野内面積とは、ドライバの視野における認識対象物の面積を示す。   6 and 7 are diagrams illustrating the results of performing the contour extraction process on the visual field images of FIGS. 4 and 5. FIG. 8 is a diagram illustrating the in-view area, which is the area of the recognition target. The area in the visual field indicates the area of the recognition target object in the visual field of the driver.

認識対象物の認識のし易さは、明るさや背景とのコントラストなどによっても異なる。背景などのコントラストが低く認識しにくい状況では、輪郭線が抽出されにくくなり、認識性と同様に視野内面積も減少する。このため、視野内面積は、環境に応じた認識の難易度を表現できる。なお、本実施形態では、輪郭抽出により認識対象の面積を算出したが、2値化処理などの画像処理手法により、直接面積を求めてもよい。   The ease of recognizing the recognition object also varies depending on the brightness and contrast with the background. In a situation where the contrast is low and difficult to recognize, the contour line is difficult to be extracted, and the visual field area is reduced as well as the recognizability. For this reason, the visual field area can express the difficulty of recognition according to the environment. In the present embodiment, the area to be recognized is calculated by contour extraction. However, the area may be directly obtained by an image processing method such as binarization.

ステップS4では、認識部11は、認識対象物の存在認識度を算出する。なお、図5及び7に示すように、認識対象物が複数あるときは、認識部11は各々の認識対象物の存在認識度を算出する。存在認識度は、ドライバの視野中の物体の認識度合いを示し、値が小さいほど存在を認識していないことを示す。なお、存在認識度は、必要に応じて百分率に換算されたものが使用される。具体的には、認識部11は次の式(1)を演算してステップS5に移行する。   In step S4, the recognition unit 11 calculates the presence recognition degree of the recognition object. As shown in FIGS. 5 and 7, when there are a plurality of recognition objects, the recognition unit 11 calculates the presence recognition degree of each recognition object. The presence recognition level indicates the recognition level of an object in the driver's field of view, and the smaller the value, the more the presence is not recognized. Note that the presence recognition level is converted into a percentage as necessary. Specifically, the recognition unit 11 calculates the following expression (1) and proceeds to step S5.

存在認識度=[視野内面積]÷[視野全面積]×[視野係数]×[覚醒度]
・・・(1)
Presence recognition level = [field area] ÷ [total field area] × [field factor] × [wakefulness]
... (1)

ここで、視野全面積は、視野全体の面積を示す。視野係数は、視野内の位置による認識の程度を示し、中心地点は高く、周辺になるに従い低くなる。これにより注視点近辺は認識しやすく、それ以外の周辺視野は認識しにくいことが表現される。   Here, the total area of the visual field indicates the area of the entire visual field. The visual field coefficient indicates the degree of recognition according to the position in the visual field, the central point is high, and becomes lower as it goes to the periphery. This expresses that the vicinity of the gazing point is easy to recognize, and the other peripheral visual fields are difficult to recognize.

図9は、視野係数の一例を示す図である。同図に示すように、視野係数は、画像の中心地点では1.0、その周囲の範囲では0.8、端の方では0.4になっている。なお、視野係数は、ドライバの視力に応じて変更してもよい。   FIG. 9 is a diagram illustrating an example of the visual field coefficient. As shown in the figure, the visual field coefficient is 1.0 at the center point of the image, 0.8 in the surrounding area, and 0.4 at the end. Note that the visual field coefficient may be changed according to the visual acuity of the driver.

また、覚醒度は、ドライバの覚醒の度合いを示し、ぼんやりしている状態では認識度が下がることを表現する。   In addition, the awakening level indicates the level of awakening of the driver, and expresses that the recognition level decreases in a blurred state.

図10は、ドライバの覚醒度の頻度分布の例を示す。本実施形態では、覚醒度は、全ドライバに対して確率的な分布で与えられる。   FIG. 10 shows an example of the frequency distribution of the driver's arousal level. In this embodiment, the arousal level is given in a probabilistic distribution for all drivers.

ステップS5では、認識部11は、認識対象物の存在認識度、実際の距離、実際の速度を用いて、距離認識度及び速度認識度を演算する。具体的には、認識部11は次の式(2)及び(3)を演算して、ステップS6に移行する。   In step S5, the recognition unit 11 calculates a distance recognition degree and a speed recognition degree by using the presence recognition degree of the recognition target object, the actual distance, and the actual speed. Specifically, the recognition unit 11 calculates the following expressions (2) and (3), and proceeds to step S6.

認識距離=[距離]×(1+k1×1/[存在認識度]) ・・・(2)
認識速度=[速度]×(1−k2×1/[存在認識度]) ・・・(3)
Recognition distance = [distance] × (1 + k1 × 1 / [existence recognition degree]) (2)
Recognition speed = [speed] × (1-k2 × 1 / [existence recognition degree]) (3)

k1、k2はパラメータである。認識距離、認識速度は、実際の距離、速度に対して、視野から認識できる速度、距離を示す。存在認識度が低い、つまり存在を認識しにくい場面ほど、ドライバは距離を遠くに認知し、速度を遅く認知する。   k1 and k2 are parameters. The recognition distance and the recognition speed indicate the speed and distance that can be recognized from the visual field with respect to the actual distance and speed. For scenes with a low degree of presence recognition, that is, when it is difficult to recognize the presence, the driver perceives the distance further and perceives the speed slower.

ステップS6では、認識部11は、存在認識度、認識距離、認識速度を、次の判断を行うために、一時的に記憶装置に記憶して、ステップS7に移行する。また、認識部11は、ドライバの特性に応じて、条件によって前の計算ステップで演算した存在認識度、認識距離、認識速度を呼び出し、次の判断を行うために保持してもよい。前の計算ステップで演算した存在認識度、認識距離、認識速度を用いるのは、高齢者などによる認識遅れを表現するものである。   In step S6, the recognition unit 11 temporarily stores the presence recognition degree, the recognition distance, and the recognition speed in the storage device in order to make the next determination, and proceeds to step S7. Further, the recognition unit 11 may call the presence recognition degree, the recognition distance, and the recognition speed calculated in the previous calculation step depending on the characteristics of the driver, and hold them for the next determination. Using the presence recognition degree, the recognition distance, and the recognition speed calculated in the previous calculation step expresses a recognition delay caused by an elderly person or the like.

つぎに、判断部12は、自車Cが右折する場合において、認識部11で算出された存在認識度、認識距離、認識速度に基づいて、周囲の状況を判断して次の行動を決定する。認識部11は、右折時では、次の4つの項目を判断する。   Next, when the vehicle C turns right, the determination unit 12 determines the next action by determining the surrounding situation based on the presence recognition degree, the recognition distance, and the recognition speed calculated by the recognition unit 11. . The recognition unit 11 determines the following four items when turning right.

1.対向車の有無
2.自車とぶつかる進路か否か
3.進行した場合、衝突するか否か
4.対向車が来ると考えられる可能性
1. 1. Oncoming car 2. Whether it is a path to collide with your vehicle. 3. Whether to collide when progressing Possibility that oncoming car will come

そして、判断部12は、行動を決定するために次のデータを用いる。   And the judgment part 12 uses the following data in order to determine action.

図11は、ドライバの特性を示す図である。個々のドライバに対して、ドライバの特性を示す「慎重度」、「熟練度」、「身体能力度」が0.0〜1.0の間で設定されている。「慎重度」は運転の慎重さを示し、乱暴な運転をするドライバの値は低くなる。「熟練度」は運転経験からくる熟練の度合いを示し、初心者ドライバの値は低くなる。「身体能力度」は視力、反応時間など身体的な能力を示し、高齢者ドライバの値は低くなる。   FIG. 11 is a diagram illustrating the characteristics of the driver. For each driver, “carefulness”, “skilledness”, and “physical ability” indicating the characteristics of the driver are set between 0.0 and 1.0. “Prudentity” indicates driving caution, and the value of drivers who drive violently is low. “Skill level” indicates the level of skill that comes from driving experience, and the value of a beginner driver is low. “Physical ability” indicates physical ability such as visual acuity and reaction time, and the value of an elderly driver is low.

例えば、40歳台で運転暦が20年の慎重な運転をするドライバAの場合、「慎重度」、「熟練度」、「身体能力度」を、0.9、1.0、0.7とする。20歳台で運転暦が3年のやや乱暴な運転をするドライバBの場合、「慎重度」、「熟練度」、「身体能力度」をそれぞれ0.3、0.2、1.0とする。これらの値は、ドライバに対するアンケートなどによって、分布を調査し、その調査結果をもとに確率的に設定される。   For example, in the case of driver A who is careful driving with a driving calendar of 20 years in the 40s, the “carefulness”, “skill level”, and “physical ability level” are 0.9, 1.0, 0.7. And In the case of driver B who is driving somewhat violently with a driving calendar of 3 years at the age of 20 years old, the “carefulness”, “skill level”, and “physical ability level” are 0.3, 0.2, and 1.0, respectively. To do. These values are stochastically set based on the results of a survey of the distribution by a questionnaire to the driver.

また、認識部11は、後述するステップにおいて認識存在度評価値、到達時間評価値、対向車予測評価値を使用する。これらの評価値は、次の式(4)で求められる。   Moreover, the recognition part 11 uses a recognition presence degree evaluation value, an arrival time evaluation value, and an oncoming vehicle prediction evaluation value in the step mentioned later. These evaluation values are obtained by the following equation (4).

[評価値]=(α×[慎重度]+β×[熟練度]+γ×[身体能力度])
/(α+β+γ)・・・(4)
[Evaluation value] = (α × [Prudentity level] + β × [Proficiency level] + γ × [Physical ability level])
/ (Α + β + γ) (4)

α、β、γはそれぞれ慎重度係数、熟練度係数、身体能力度係数である。ここで、認識存在度評価値、到達時間評価値、対向車予測評価値のいずれを求めるかによって、各係数は異なった値になる。   α, β, and γ are a cautiousness coefficient, a skill level coefficient, and a physical ability level coefficient, respectively. Here, each coefficient has a different value depending on which of the recognition presence degree evaluation value, the arrival time evaluation value, and the oncoming vehicle prediction evaluation value is obtained.

図12は、評価値毎の慎重度係数、熟練度係数、身体能力度係数を示す図である。例えば、存在認識度評価値を求めるときは、α、β、γはそれぞれ3、0、2になる。到達時間評価値を求めるときは、α、β、γはそれぞれ2、2、1になる。   FIG. 12 is a diagram illustrating a cautiousness coefficient, a skill level coefficient, and a physical ability level coefficient for each evaluation value. For example, when obtaining the presence recognition degree evaluation value, α, β, and γ are 3, 0, and 2, respectively. When obtaining the arrival time evaluation value, α, β, and γ are 2, 2, and 1, respectively.

また、判断部12は、後述するステップにおいて、評価値を用いて存在認識度閾値、到達時間閾値、対向車がくる可能性を設定する。   In addition, the determination unit 12 sets the presence recognition threshold value, the arrival time threshold value, and the possibility of an oncoming vehicle using an evaluation value in steps to be described later.

図13は、評価値に対応する存在認識度閾値、到達時間閾値、対向車がくる可能性を示す図である。例えば、存在認識度評価値が0.9の場合、存在認識度閾値は3(%)である。到達時間評価値が0.3の場合、到達時間閾値は2.3(秒)である。対向車予測評価値が0.5の場合、対向車がくる可能性は50(%)である。   FIG. 13 is a diagram illustrating the presence recognition threshold value, the arrival time threshold value, and the possibility of an oncoming vehicle corresponding to the evaluation value. For example, when the presence recognition level evaluation value is 0.9, the presence recognition level threshold is 3 (%). When the arrival time evaluation value is 0.3, the arrival time threshold is 2.3 (seconds). When the oncoming vehicle prediction evaluation value is 0.5, the possibility of an oncoming vehicle is 50 (%).

判断部12は、以上のようなデータを用いて、次のステップS7〜S14の処理を実行する。   The determination unit 12 executes the processes of the following steps S7 to S14 using the data as described above.

ステップS7では、判断部12は、信号条件、すなわち信号灯火による進行の可否を判断する。具体的には、判断部12は、信号が青であるか否かを判断し、肯定判断のときは進行可能であるのでステップS8に移行し、否定判断のときは進行可能でないのでステップS11に移行する。   In step S <b> 7, the determination unit 12 determines whether or not the signal condition, that is, the progress due to the signal lamp is possible. Specifically, the determination unit 12 determines whether or not the signal is blue. When the determination is affirmative, the determination unit 12 proceeds to step S8. When the determination is negative, the determination unit 12 proceeds to step S11. Transition.

ステップS8では、判断部12は、対向車が存在するか否かを判断する。複数の対向車が認識された場合、自車Cから最も距離の近い対向車が判断対象となる。具体的には、判断部12は、ステップS4で算出された存在認識度が存在認識度閾値を超えているか否かを判断する。存在認識度閾値は、次のように求められる。   In step S8, the determination unit 12 determines whether there is an oncoming vehicle. When a plurality of oncoming vehicles are recognized, the oncoming vehicle that is closest to the own vehicle C is determined. Specifically, the determination unit 12 determines whether or not the presence recognition level calculated in step S4 exceeds a presence recognition level threshold value. The presence recognition threshold value is obtained as follows.

判断部12は、最初に、式(4)に従って存在認識度評価値を算出する。図11に示すドライバAの特性、及び図12に示す存在認識度評価値を求めるための係数α、β、γを用いると、ドライバAの存在認識度評価値は式(5)になる。   The determination unit 12 first calculates the presence recognition level evaluation value according to the equation (4). When the characteristics of the driver A shown in FIG. 11 and the coefficients α, β, and γ for obtaining the presence recognition degree evaluation value shown in FIG. 12 are used, the presence recognition degree evaluation value of the driver A is expressed by Expression (5).

(ドライバAの存在認識度評価値)=(3×0.9+0×1.0+2×0.7)/5
=0.8 ・・・(5)
(Evaluation value of presence recognition of driver A) = (3 × 0.9 + 0 × 1.0 + 2 × 0.7) / 5
= 0.8 (5)

図13によると、評価値0.8に対応する存在認識度閾値は4(%)である。そこで、判断部12は、ステップS4で算出された存在認識度(%)が存在認識度閾値4(%)を超えたか否かを判断する。肯定判断のときは、ドライバAは対向車の存在を認識したとみなしてステップS9に移行する。否定判断のときは、ドライバAは対向車の存在を認識していないとみなして、ステップS12に移行する。   According to FIG. 13, the presence recognition threshold corresponding to the evaluation value 0.8 is 4 (%). Therefore, the determination unit 12 determines whether or not the presence recognition level (%) calculated in step S4 exceeds the presence recognition level threshold 4 (%). If the determination is affirmative, the driver A assumes that the oncoming vehicle has been recognized and proceeds to step S9. If a negative determination is made, it is assumed that the driver A has not recognized the presence of the oncoming vehicle, and the process proceeds to step S12.

ステップS9では、判断部12は、対向車は自車Cと衝突するような進路上にあるか否かを判断する。具体的には、判断部12は、対向車の方向指示器の状態、ステップS5で算出された認識距離及び認識速度により、対向車の進路を予想する。そして、対向車の進路と自車Cの進路が交差する(又は重なる)ときは、対向車は自車Cと衝突するような進路上にあると判断する。例えば、自車が右折で、対向車が直進または左折の場合は、自車Cの進路上に対向車があると判断する。そして、肯定判断のときはステップS10に移行し、否定判断のときはステップS14に移行する。   In step S <b> 9, the determination unit 12 determines whether or not the oncoming vehicle is on a path that collides with the host vehicle C. Specifically, the determination unit 12 predicts the course of the oncoming vehicle based on the state of the direction indicator of the oncoming vehicle, the recognition distance and the recognition speed calculated in step S5. When the course of the oncoming vehicle and the course of the own vehicle C intersect (or overlap), it is determined that the oncoming vehicle is on a course that collides with the own vehicle C. For example, when the host vehicle is turning right and the oncoming vehicle is going straight or turning left, it is determined that there is an oncoming vehicle on the course of the host vehicle C. If the determination is affirmative, the process proceeds to step S10. If the determination is negative, the process proceeds to step S14.

ステップS10では、判断部12は、自車Cと対向車が衝突するか否かを判断する。具体的には、判断部12は、ステップS5で算出された認識距離及び認識速度、自車の速度に基づいて到達時間を算出し、この到達時間が到達時間閾値を超えているか否かを判断する。到達時間閾値は、次のように求められる。   In step S10, the determination part 12 determines whether the own vehicle C and an oncoming vehicle collide. Specifically, the determination unit 12 calculates the arrival time based on the recognition distance and the recognition speed calculated in step S5, and the speed of the host vehicle, and determines whether or not this arrival time exceeds the arrival time threshold value. To do. The arrival time threshold value is obtained as follows.

判断部12は、最初に、式(4)に従って到達時間評価値を算出する。図11及び図12のデータを用いると、ドライバAの到達時間評価値は式(6)になる。   The determination unit 12 first calculates the arrival time evaluation value according to the equation (4). When the data of FIGS. 11 and 12 is used, the arrival time evaluation value of the driver A is expressed by Equation (6).

(ドライバAの到達時間評価値)=(2×0.9+2×1.0+1×0.7)/5
=0.9 ・・・(6)
(Driver A arrival time evaluation value) = (2 × 0.9 + 2 × 1.0 + 1 × 0.7) / 5
= 0.9 (6)

図13によると、評価値0.9に対応する到達時間閾値は3.8(秒)である。なお、ドライバBの場合、到達時間評価値は0.4、到達時間閾値は2.6になる。そこで、判断部12は、ドライバAについて、既に算出した到達時間(秒)が到達時間閾値3.8(秒)を超えたか否かを判断する。肯定判断のときは、自車Cは対向車と衝突しないとみなしてステップS14に移行する。否定判断のときは、ドライバAは対向車に衝突するとみなして、ステップS11に移行する。   According to FIG. 13, the arrival time threshold value corresponding to the evaluation value 0.9 is 3.8 (seconds). In the case of driver B, the arrival time evaluation value is 0.4, and the arrival time threshold is 2.6. Therefore, the determination unit 12 determines whether or not the arrival time (seconds) already calculated for the driver A exceeds the arrival time threshold value 3.8 (seconds). If the determination is affirmative, it is considered that the vehicle C does not collide with the oncoming vehicle, and the process proceeds to step S14. If a negative determination is made, the driver A is assumed to collide with the oncoming vehicle, and the process proceeds to step S11.

ステップS11では、判断部12は、自車Cの速度をゼロにすることを決定し、ステップS16に移行する。   In step S11, the determination part 12 determines making the speed of the own vehicle C zero, and transfers to step S16.

一方、ステップS12では、判断部12は、自車Cの速度を速度vに上げることを決定し、ステップS13に移行する。   On the other hand, in step S12, the determination unit 12 determines to increase the speed of the host vehicle C to the speed v, and proceeds to step S13.

ステップS13では、判断部12は、ドライバAの視野外に対向車が存在する可能性があるか否かを判断する。ここでは、ドライバが対向車を認知できなくても、経験的に見えていない部分から対向車が来る可能性がある。そこで、判断部12は、確率的に対向車の有無を判断する。   In step S <b> 13, the determination unit 12 determines whether there is a possibility that an oncoming vehicle exists outside the field of view of the driver A. Here, even if the driver cannot recognize the oncoming vehicle, there is a possibility that the oncoming vehicle will come from a part that is not seen empirically. Therefore, the determination unit 12 determines the presence / absence of an oncoming vehicle stochastically.

判断部12は、最初に、式(4)に従って対向車予測評価値を算出する。図11に示すドライバAの特性、及び図12に示す対向車予測評価値を求めるための係数α、β、γを用いると、ドライバAの対向車予測評価値は式(7)になる。   First, the determination unit 12 calculates an oncoming vehicle predicted evaluation value according to Equation (4). When the characteristics of the driver A shown in FIG. 11 and the coefficients α, β, and γ for obtaining the oncoming vehicle prediction evaluation value shown in FIG. 12 are used, the oncoming vehicle prediction evaluation value of the driver A is expressed by Equation (7).

(ドライバAの対向車予測評価値)=(2×0.9+3×1.0+0×0.7)/5
=1.0 ・・・(7)
(Driver A's oncoming vehicle prediction evaluation value) = (2 × 0.9 + 3 × 1.0 + 0 × 0.7) / 5
= 1.0 (7)

図13によると、評価値1.0に対応する対向車がくる可能性は100(%)である。そこで、判断部12は、対向車がくる可能性が所定の閾値(例えば30%)を超えているか否かを判断する。肯定判断のときは対向車がくるとみなして、ステップS11に移行し、否定判断のときは対向車がこないとみなして、ステップS16に移行する。   According to FIG. 13, the possibility of an oncoming vehicle corresponding to the evaluation value 1.0 is 100 (%). Therefore, the determination unit 12 determines whether or not the possibility of an oncoming vehicle exceeds a predetermined threshold (for example, 30%). If an affirmative determination is made, it is considered that an oncoming vehicle is coming, and the process proceeds to step S11.

以上のように、判断部12は、存在認識度、到達時間に基づいて、対向車の有無、衝突するか否か等の交通判断を行う。しかし、存在認識度、到達時間はドライバの認識の程度によって大きく異なってしまう。そこで、判断部12は、個々のドライバに最適な閾値を設定し、その閾値と存在認識度や到達時間と比較することによって、ドライバの特性に応じた交通判断をシミュレーションすることができる。   As described above, the determination unit 12 performs traffic determination such as the presence / absence of an oncoming vehicle and whether or not there is a collision based on the presence recognition degree and the arrival time. However, the degree of presence recognition and the arrival time vary greatly depending on the degree of driver recognition. Therefore, the determination unit 12 can simulate traffic determination according to the characteristics of the driver by setting an optimal threshold value for each driver and comparing the threshold value with the presence recognition level and arrival time.

ステップS16では、操作部23は、ステップS11又はステップS12で決定された目標速度になるように、ドライバデータ及び車両データを用いてブレーキ操作量又はアクセル操作量を演算し、ステップS17に移行する。   In step S16, the operation unit 23 calculates the brake operation amount or the accelerator operation amount using the driver data and the vehicle data so as to achieve the target speed determined in step S11 or step S12, and proceeds to step S17.

例えば、判断部12で決定された速度がゼロの場合、操作部13は、自車Cの停止状態を維持できるように、または停止状態まで減速するように、ブレーキ操作量を演算する。また、判断部12で決定された速度がvの場合、操作部13は、自車Cが速度vとなるようにアクセル開度を演算する。目標とする速度vは、適切な範囲の中でドライバ毎に異なる値を設定してもよい。   For example, when the speed determined by the determination unit 12 is zero, the operation unit 13 calculates the brake operation amount so that the stop state of the host vehicle C can be maintained or the vehicle can be decelerated to the stop state. When the speed determined by the determination unit 12 is v, the operation unit 13 calculates the accelerator opening so that the host vehicle C has the speed v. The target speed v may be set to a different value for each driver within an appropriate range.

ステップS17では、挙動演算部14は、操作部13で求められた操作量に基づいて自車Cの速度及び加速度を算出する。このようにして算出された自車Cの速度及び加速度は、交通状況管理部30に供給される。   In step S <b> 17, the behavior calculation unit 14 calculates the speed and acceleration of the host vehicle C based on the operation amount obtained by the operation unit 13. The speed and acceleration of the host vehicle C calculated in this way are supplied to the traffic condition management unit 30.

その結果、空間配置部50は、交通状況管理部30で管理されている各車の位置情報、速度、加速度等の情報に従って自車Cを道路空間上に再配置し、自車Cをシミュレーションすることができる。   As a result, the space placement unit 50 rearranges the own vehicle C on the road space according to information such as position information, speed, and acceleration managed by the traffic condition management unit 30 and simulates the own vehicle C. be able to.

ここで、1計算ステップ前では、判断部12が「対向車無し」と判断し(ステップS8の否定判断)、目標速度を設定して(ステップS12)、その結果自車Cが加速している状態であっても、次の現計算ステップでは、判断部12が対向車を認識し(ステップS8の肯定判定)、停止すると判断する(ステップS11)場合がある。この場合、自車Cは、ある速度から停止状態への急制動となることがある。このとき、自車Cが対向車と衝突するかどうかは、前の計算ステップでの速度や判断遅れの時間によって異なる。つまり、自車Cと対向車は衝突する場合もあり、制動によって衝突しない場合もある。   Here, before one calculation step, the determination unit 12 determines that “no oncoming vehicle” (negative determination in step S8), sets a target speed (step S12), and as a result, the host vehicle C accelerates. Even in the state, in the next current calculation step, the determination unit 12 may recognize the oncoming vehicle (affirmative determination in step S8) and determine to stop (step S11). In this case, the host vehicle C may suddenly brake from a certain speed to a stopped state. At this time, whether or not the own vehicle C collides with the oncoming vehicle varies depending on the speed and the determination delay time in the previous calculation step. In other words, the host vehicle C and the oncoming vehicle may collide, and may not collide due to braking.

ここでは、車両Cの移動体モデル部10Cの右折処理ルーチンを説明したが、対向側の車両Bの移動体モデル部10Bも同様に自車の速度及び加速度を決定することができる。例えば、自車が直進であっても、視野内において自車の進路上に車両が進行してくると判断した場合は、減速すると判断し、衝突しないように速度を低下させることができる。   Here, the right turn processing routine of the moving body model unit 10C of the vehicle C has been described, but the moving body model unit 10B of the opposite vehicle B can similarly determine the speed and acceleration of the own vehicle. For example, even if the vehicle is traveling straight, if it is determined that the vehicle is traveling on the course of the vehicle within the field of view, it can be determined that the vehicle is decelerating and the speed can be reduced so as not to collide.

空間配置部50は、交通状況管理部30で管理されている各車の位置情報、速度、加速度等の情報に従って、各車を道路空間上に再配置し、各車両の動きをシミュレーションすることができる。   The space arrangement unit 50 can re-arrange each vehicle on the road space according to information such as position information, speed, acceleration, and the like managed by the traffic condition management unit 30, and simulate the movement of each vehicle. it can.

衝突判定部60は、空間配置部50によって道路空間上に配置された車両や路上物体の位置関係を比較することで、車両と路上物体、および車両と車両の衝突を判定する。衝突判定部60は、車が衝突すると判断した場合は、衝突の大きさを算出する。   The collision determination unit 60 determines the collision between the vehicle and the road object and between the vehicle and the vehicle by comparing the positional relationship between the vehicle and the road object placed on the road space by the space placement unit 50. When the collision determination unit 60 determines that the car collides, the collision determination unit 60 calculates the magnitude of the collision.

例えば、自車Cの衝突直前の速度VC、重量MC、対向車Bの衝突直前前の速度VB、重量MB、自車Cの衝突安全係数KCとした場合、自車Cが衝突によって受けるエネルギーEは、例えば次の式(8)で求められる。 For example, when the speed V C and the weight M C just before the collision of the host vehicle C , the speed V B and the weight M B just before the collision of the oncoming vehicle B, and the collision safety coefficient K C of the host vehicle C, The energy E received by the collision is obtained by the following equation (8), for example.

E=KC[(1/2)MCC 2 +(1/2)MBB 2] ・・・(8) E = K C [(1/2) M C V C 2 + (1/2) M B V B 2 ] (8)

衝突判定部60は、式(8)のエネルギーEによって、事故による衝突の大きさを分類する。   The collision determination unit 60 classifies the magnitude of the collision due to the accident based on the energy E of Expression (8).

以上のように、本発明の実施形態に係る交通シミュレーションは、ドライバの認識、判断、操作に基づいて車両の挙動量を演算し、その挙動量に基づいて各々の移動体の動きをシミュレーションする。これにより、上記交通シミュレーション装置は、ドライバの認知ミス、判断エラーを考慮して、移動体の動きをシミュレーションすることができる。   As described above, the traffic simulation according to the embodiment of the present invention calculates the behavior amount of the vehicle based on the driver's recognition, determination, and operation, and simulates the movement of each moving body based on the behavior amount. Thereby, the said traffic simulation apparatus can simulate the motion of a moving body in consideration of a driver's recognition mistake and judgment error.

上記交通シミュレーション装置は、ドライバの視野画像に基づいて、ドライバの認知の程度を反映した認識対象物の存在認識度、認識速度、認識距離を算出し、これらの算出結果を用いてドライバの次の行動を判断するので、ドライバの認知ミス及びそれによって引き起こされる判断エラーを再現することができる。   The traffic simulation device calculates the presence recognition level, the recognition speed, and the recognition distance of the recognition target object that reflects the degree of recognition of the driver based on the driver's visual field image, and uses these calculation results to determine the next of the driver. Since the action is determined, it is possible to reproduce a driver's recognition error and a determination error caused thereby.

さらに、上記交通シミュレーション装置は、ドライバの各々の特性に応じて次の行動を判断するための閾値を設定するので、ドライバの統計的な特性を利用することによって、より現実的な交通シミュレーションを行うことができる。   Furthermore, since the traffic simulation apparatus sets a threshold for determining the next action according to each characteristic of the driver, a more realistic traffic simulation is performed by using the statistical characteristics of the driver. be able to.

[安全装置の評価]
車両事故は、ドライバの判断、例えば対向車の認知ミスなどによって起きる。このような車両事故を防止するために、ドライバの安全運転を補助する安全システムを搭載した車両もある。以下では、様々な安全システムを搭載した車両のシミュレーションについて説明する。
[Evaluation of safety devices]
A vehicle accident occurs due to a driver's judgment, for example, a recognition error of an oncoming vehicle. In order to prevent such a vehicle accident, there is also a vehicle equipped with a safety system that assists the driver's safe driving. Below, the simulation of the vehicle carrying various safety systems is explained.

(通信システムの場合)
車車間通信システムでは、送信地点と受信地点の間に遮蔽物が存在しても、電波が回折し建物で反射するため、無線通信できる場合がある。ここでは、移動体モデル部10A及び10Bが無線通信するものとする。
(For communication systems)
In the inter-vehicle communication system, even if there is a shield between the transmission point and the reception point, radio waves may be diffracted and reflected by the building, so that wireless communication may be possible. Here, it is assumed that the mobile body model units 10A and 10B perform wireless communication.

図14は、電波の回折と反射を示す図である。回折の場合はナイフエッジ法、反射の場合はレイトレーシング法などで、電波強度が求められる。そこで、例えば、移動体モデル部10Aの車載装置部20Aは、対向車である移動体モデル部10Bの車載装置部20Bから送信された電波に対して、回折や反射を経て、自車で受信する電波強度が閾値を上回る場合は、通信が成功するものとし、通信によって対向車の位置、速度などの情報を認識できる。   FIG. 14 is a diagram showing diffraction and reflection of radio waves. In the case of diffraction, the radio wave intensity is obtained by the knife-edge method and in the case of reflection by the ray tracing method. Therefore, for example, the in-vehicle device unit 20A of the moving body model unit 10A receives the radio wave transmitted from the in-vehicle device unit 20B of the moving body model unit 10B, which is an oncoming vehicle, by the own vehicle through diffraction and reflection. If the radio wave intensity exceeds the threshold value, communication is assumed to be successful, and information such as the position and speed of the oncoming vehicle can be recognized by communication.

このような車車間通信システムでは、移動体モデル部10Aは、移動体モデル部10Bから送信された他車両Bの位置、速度と自車の位置、速度により、衝突するかを予測することができる。このため、移動体モデル部10は、視野で対向車Bを認識できなくても、無線通信により対向車Bを認知できるので、判断を変えることができる。   In such a vehicle-to-vehicle communication system, the mobile body model unit 10A can predict whether a collision will occur based on the position and speed of the other vehicle B transmitted from the mobile body model unit 10B and the position and speed of the own vehicle. . For this reason, even if the moving body model unit 10 cannot recognize the oncoming vehicle B in the field of view, it can recognize the oncoming vehicle B through wireless communication, and therefore can change the judgment.

例えば、情報提供部24がドライバの警報を発して情報提供した場合、認識部11は、式(1)の覚醒度を大きな値に変更して(例えば1以上の定数を乗じて)、存在認識度を算出すればよい。   For example, when the information providing unit 24 issues a driver alarm and provides information, the recognition unit 11 changes the arousal level of the expression (1) to a large value (for example, by multiplying by a constant of 1 or more) and recognizes the presence. What is necessary is just to calculate a degree.

情報提供部24が音声、文字、画像等によって周辺車両の有無に関する情報提供をした場合、認識部11は、式(1)で求められた存在認識度を大きな値に変更するとよい。情報提供部24が位置や速度を情報提供した場合、認識部11は、認識距離、認識速度をより正確な値に変更すればよい。   When the information providing unit 24 provides information regarding the presence or absence of a surrounding vehicle by voice, characters, images, or the like, the recognizing unit 11 may change the presence recognition degree obtained by Expression (1) to a large value. When the information providing unit 24 provides the position and speed information, the recognition unit 11 may change the recognition distance and the recognition speed to more accurate values.

ドライバの情報提供に対する信頼度も評価する場合は、情報提供に対して、情報を信じるドライバが確率的に分布するとしてもよく、情報を信用しないドライバの場合は、存在認識度などが変化しないとしてもよい。   When evaluating the reliability of information provided by the driver, drivers who believe in the information may be probabilistically distributed. For drivers who do not trust the information, the presence recognition level does not change. Also good.

(車両制御システムの場合)
また、車両制御システム、例えば移動体制御部25は、自車の進路上に対象車が進行すると予測した場合は、制動の操作量を決定し操作することで、衝突前に自車を停止させる。この場合は、操作部13は、ドライバが決定した操作量よりも、移動体制御部25が決定した操作量を優先する。なお、電波強度など無線通信が成立するか否かは、本装置内で演算してもよく、また外部の装置で演算した結果を使ってもよい。
(Vehicle control system)
In addition, when the vehicle control system, for example, the moving body control unit 25 predicts that the target vehicle travels on the course of the host vehicle, the host vehicle is stopped before the collision by determining and operating the braking operation amount. . In this case, the operation unit 13 gives priority to the operation amount determined by the moving body control unit 25 over the operation amount determined by the driver. Whether or not wireless communication such as radio wave intensity is established may be calculated in the present apparatus, or a result calculated by an external apparatus may be used.

(夜間の場合)
夜間の場合、空間配置部50は、道路空間を夜間に相当する明るさに設定し、自車がヘッドライトに相当する光源を発している状態を設定する。
(At night)
In the case of nighttime, the space arrangement unit 50 sets the road space to brightness corresponding to nighttime, and sets the state in which the vehicle emits a light source corresponding to headlights.

図15は、夜間の視野画像の一例を示す図である。空間配置部50が上記のように道路空間の明るさを設定することにより、認識部11は、パストレーシング法、レイトレーシング法などの処理によってドライバの視野画像を得る。その結果、判断部12は、夜間に置けるドライバの判断をシミュレーションできる。   FIG. 15 is a diagram illustrating an example of a night vision image. When the space arrangement unit 50 sets the brightness of the road space as described above, the recognition unit 11 obtains a driver's visual field image by processing such as a path tracing method and a ray tracing method. As a result, the determination unit 12 can simulate determination of a driver that can be placed at night.

これに対して、車両が赤外光を投影してカメラで撮影する夜間撮影システム(ナイトビジョン)の場合、空間配置部50は、赤外光の明るさや投影などの条件に合わせて道路空間の光量を設定する。   On the other hand, in the case of a night shooting system (night vision) in which the vehicle projects infrared light and shoots with a camera, the space placement unit 50 can adjust the road space according to conditions such as brightness of infrared light and projection. Set the amount of light.

図16は、赤外光を投影することによってカメラで撮影された視野画像の一例を示す図である。このように夜間撮影システムでは、認識部11がこの視野画像をカメラからの出力として処理し、判断部12がその処理結果を用いてドライバの判断を行うことによって、夜間撮影システムの効果を評価することができる。同様に、カメラを2台用いるステレオ方式の安全システムでは、それぞれのカメラ位置を視点とした視野画像が得られ、それらの視野画像を用いて評価される。   FIG. 16 is a diagram illustrating an example of a visual field image captured by a camera by projecting infrared light. As described above, in the night photographing system, the recognition unit 11 processes the visual field image as an output from the camera, and the determination unit 12 evaluates the effect of the night photographing system by making a driver's determination using the processing result. be able to. Similarly, in a stereo safety system using two cameras, field-of-view images with respective camera positions as viewpoints are obtained and evaluated using these field-of-view images.

カメラを使った安全システムにおいても、無線通信を使った安全システムと同様に、情報提供により認識部11が存在認識度の値を変更し、また車両制御を行ってもよい。   Also in a safety system using a camera, the recognition unit 11 may change the value of the presence recognition level by providing information and perform vehicle control, as in the safety system using wireless communication.

赤外光などで夜間の視野を補助するシステムでは、視野係数が上がるとしてもよい。 In a system that assists night vision with infrared light or the like, the visual field coefficient may be increased.

(レーダーシステム)
レーダーシステムは、方位に対する対象物までの距離を求めることができる。
(Radar system)
The radar system can determine the distance to the object with respect to the bearing.

図17は、レーダーシステムによって算出された対象物までの距離及び方位の関係を示す図である。具体的には、空間配置部50が、自車位置における方位とその方向の対象物までの距離を演算することによって求める。レーダーシステムでは、方位と距離の関係をレーダーからの出力として処理することで、レーダーシステムを評価することができる。   FIG. 17 is a diagram illustrating the relationship between the distance to the target and the direction calculated by the radar system. Specifically, the space placement unit 50 calculates the azimuth at the vehicle position and the distance to the object in that direction. In the radar system, the radar system can be evaluated by processing the relationship between the azimuth and the distance as an output from the radar.

そして、交通シミュレーション装置は、安全システムを搭載していない移動体の動きをシミュレーションすると共に、上述のような安全システムを搭載した移動体の挙動量を演算し、その挙動量に基づいて各々の移動体の動きをシミュレーションする。これにより、上記交通シミュレーション装置は、安全システムを搭載した車両と搭載していない車両の事故発生件数を比較することによって、安全システムを評価することができる。   The traffic simulation apparatus simulates the movement of a moving body not equipped with a safety system, calculates the behavior amount of the moving body equipped with the safety system as described above, and moves each movement based on the behavior amount. Simulate body movements. Thereby, the said traffic simulation apparatus can evaluate a safety system by comparing the accident occurrence number of the vehicle carrying the safety system with the vehicle which is not carried.

なお、本発明は、上述した実施の形態に限定されるものではなく、特許請求の範囲に記載された範囲内で設計上の変更をされたものにも適用可能であるのは勿論である。   It should be noted that the present invention is not limited to the above-described embodiment, and it is needless to say that the present invention can also be applied to a design modified within the scope described in the claims.

例えば、本実施形態で使用したデータは、予めデータベースに記憶されたものでもよいし、ネットワークを介して伝送されたものでもよい。また、図10乃至図13に示したものは一例に過ぎず、本発明を限定するものではない。   For example, the data used in this embodiment may be stored in advance in a database or may be transmitted via a network. Moreover, what was shown in FIG. 10 thru | or FIG. 13 is only an example, and does not limit this invention.

本発明の実施形態に係る交通シミュレーション装置の構成を示すブロック図である。It is a block diagram which shows the structure of the traffic simulation apparatus which concerns on embodiment of this invention. 時刻Tにおいて自車Cが交差点で右折する状況を示す図である。It is a figure which shows the condition where the own vehicle C makes a right turn at the intersection at time T. 自車Cの右折処理ルーチンを示すフローチャートである。It is a flowchart which shows the right turn process routine of the own vehicle C. 時刻Tにおける視野画像の一例を示す図である。It is a figure which shows an example of the visual field image in the time T. FIG. 時刻(T+t)における視野画像の一例を示す図である。It is a figure which shows an example of the visual field image in time (T + t). 図4の視野画像に対して輪郭抽出処理を行った結果を示す図である。It is a figure which shows the result of having performed the outline extraction process with respect to the visual field image of FIG. 図5の視野画像に対して輪郭抽出処理を行った結果を示す図である。It is a figure which shows the result of having performed the outline extraction process with respect to the visual field image of FIG. 認識対象の面積である視野内面積を示す図である。It is a figure which shows the area in a visual field which is an area of recognition object. 視野係数の一例を示す図である。It is a figure which shows an example of a visual field coefficient. ドライバの覚醒度の頻度分布の例を示す。An example of the frequency distribution of the driver's arousal level is shown. ドライバの特性を示す図である。It is a figure which shows the characteristic of a driver. 評価値毎の慎重度係数、熟練度係数、身体能力度係数を示す図である。It is a figure which shows the cautiousness coefficient for every evaluation value, a skill level coefficient, and a physical ability level coefficient. 評価値に対応する存在認識度閾値、到達時間閾値、対向車がくる可能性を示す図である。It is a figure which shows the possibility that the presence recognition threshold value corresponding to an evaluation value, an arrival time threshold value, and an oncoming vehicle will come. 電波の回折と反射を示す図である。It is a figure which shows the diffraction and reflection of an electromagnetic wave. 夜間の視野画像の一例を示す図である。It is a figure which shows an example of the night vision image. 赤外光を投影することによってカメラで撮影された視野画像の一例を示す図である。It is a figure which shows an example of the visual field image image | photographed with the camera by projecting infrared light. レーダーシステムによって算出された対象物までの距離及び方位の関係を示す図である。It is a figure which shows the distance to the target object and the relationship of an azimuth | direction calculated by the radar system.

符号の説明Explanation of symbols

10、10A、10B、10C 移動体モデル部
11 認識部
12 判断部
13 操作部
14 挙動演算部
20A、20B 車載装置部
21 センシング部
22 通信部
23 処理部
24 情報提供部
25 移動体制御部
DESCRIPTION OF SYMBOLS 10, 10A, 10B, 10C Mobile body model part 11 Recognition part 12 Judgment part 13 Operation part 14 Behavior calculation part 20A, 20B Car-mounted apparatus part 21 Sensing part 22 Communication part 23 Processing part 24 Information provision part 25 Mobile body control part

Claims (10)

移動体の挙動量に基づいて道路上の移動体の動きをシミュレーションする交通シミュレーション装置であって、
視野画像を記憶した記憶手段と、
前記記憶手段に記憶された視野画像に基づいて、前記移動体の位置情報に対応するドライバの視野画像を生成する生成手段と
前記生成手段により生成されたドライバの視野画像に基づいて、認識対象物の存在認識度、認識速度、及び認識距離の少なくとも1つを算出する認識手段と、
前記認識手段により算出された前記少なくとも1つの認識対象物の存在認識度、認識速度、及び認識距離に基づいて、ドライバの次の行動を判断する判断手段と、
前記判断手段により判断されたドライバの次の行動に基づいて、前記移動体を操作する操作手段と、
前記操作手段の操作に応じて移動体の挙動量を演算する車両挙動量演算手段と、
を備えた交通シミュレーション装置。
A traffic simulation device that simulates the movement of a moving object on a road based on the behavior amount of the moving object,
Storage means for storing a field-of-view image;
Generating means for generating a driver's visual field image corresponding to the positional information of the moving body based on the visual field image stored in the storage means ;
A recognition unit that calculates at least one of the presence recognition level, the recognition speed, and the recognition distance of the recognition target object based on the visual field image of the driver generated by the generation unit ;
A determination unit that determines a driver's next action based on a presence recognition degree, a recognition speed, and a recognition distance of the at least one recognition object calculated by the recognition unit ;
Based on the driver's next action determined by the determining means, an operating means for operating the moving body;
Vehicle behavior amount calculating means for calculating the behavior amount of the moving body according to the operation of the operating means;
Traffic simulation device with
前記認識手段は、認識対象物の存在認識度を算出し、
前記判断手段は、前記認識手段により算出された存在認識度がドライバの特性に応じて設定された閾値を超えたか否かに基づいて、前記移動体の周辺に前記認識対象物が存在するか否かを判断する
請求項1に記載の交通シミュレーション装置。
The recognition means calculates the presence recognition degree of the recognition object,
The determination means determines whether or not the recognition object exists in the vicinity of the moving body based on whether or not the presence recognition degree calculated by the recognition means exceeds a threshold set according to the characteristics of the driver. The traffic simulation apparatus according to claim 1.
前記認識手段は、認識対象物の認識速度及び認識距離を算出し、
前記判断手段は、前記移動体の速度と、前記認識手段により算出された認識速度及び認識距離と、に基づいて到達時間を算出し、当該到達時間がドライバの特性に応じて設定された閾値を超えたか否かに基づいて、前記認識対象物と衝突するか否かを判断する
請求項1または請求項2に記載の交通シミュレーション装置。
The recognition means calculates a recognition speed and a recognition distance of the recognition object;
The determination means calculates an arrival time based on the speed of the moving body, the recognition speed and the recognition distance calculated by the recognition means, and sets a threshold set according to the characteristics of the driver. The traffic simulation device according to claim 1, wherein it is determined whether or not the object to be recognized collides, based on whether or not the number is exceeded.
前記認識手段は、認識対象物の認識速度及び認識距離を算出し、
前記判断手段は、前記認識手段により算出された認識速度及び認識距離と、認識対象物の移動方向とに基づいて、前記認識対象物の進路を予想し、前記移動体の進路が前記認識対象物の進路に交差するか否かを判断する
請求項1から請求項3のいずれか1項に記載の交通シミュレーション装置。
The recognition means calculates a recognition speed and a recognition distance of the recognition object;
The determination means predicts a course of the recognition object based on a recognition speed and a recognition distance calculated by the recognition means and a movement direction of the recognition object, and the course of the moving object is the recognition object. The traffic simulation device according to any one of claims 1 to 3, wherein it is determined whether or not the vehicle crosses the path.
前記認識手段は、少なくとも前記視野画像の面積及び前記視野画像内の認識対象物の面積に基づいて、前記認識対象物の存在認識度を算出する
請求項1から請求項4のいずれか1項に記載の交通シミュレーション装置。
The said recognition means calculates the presence recognition degree of the said recognition target object based on the area of the said visual field image, and the area of the recognition target object in the said visual field image at least. The traffic simulation device described.
前記認識手段は、前記視野画像内の位置に応じた認識程度を示す視野係数、ドライバの覚醒の程度を示す覚醒度の少なくとも1つを更に用いて、前記前記認識対象物の存在認識度を算出する
請求項5に記載の交通シミュレーション装置。
The recognition means further calculates the presence recognition degree of the recognition object using at least one of a visual field coefficient indicating a recognition degree according to a position in the visual field image and a wakefulness degree indicating a driver's wakefulness degree. The traffic simulation device according to claim 5.
前記移動体の周辺情報をドライバに提供する情報提供手段を更に備え、
前記認識手段は、前記情報提供手段により提供された周辺情報を用いて、認識対象物の存在認識度、認識速度、認識距離の少なくとも1つの値を変更する
請求項1から請求項6のいずれか1項に記載の交通シミュレーション装置。
It further comprises information providing means for providing the driver with peripheral information of the mobile object,
The said recognition means changes at least one value of presence recognition degree, recognition speed, and recognition distance of a recognition target object using the surrounding information provided by the said information provision means. The traffic simulation apparatus according to item 1.
前記移動体の周辺情報をドライバに提供する情報提供手段を更に備え、
前記認識手段は、前記情報提供手段により提供された周辺情報を用いて、視野係数、覚醒度の少なくとも1つの値を変更する
請求項6に記載の交通シミュレーション装置。
It further comprises information providing means for providing the driver with peripheral information of the mobile object,
The traffic simulation apparatus according to claim 6, wherein the recognizing unit changes at least one value of a visual field coefficient and an arousal level using the peripheral information provided by the information providing unit.
移動体の挙動量に基づいて道路上の移動体の動きをシミュレーションする交通シミュレーション方法であって、
視野画像を記憶した記憶手段に記憶された視野画像に基づいて、前記移動体の位置情報に対応するドライバの視野画像を生成し、
前記生成されたドライバの視野画像に基づいて、認識対象物の存在認識度、認識速度、及び認識距離の少なくとも1つを算出し
前記算出された前記少なくとも1つの認識対象物の存在認識度、認識速度、及び認識距離に基づいて、ドライバの次の行動を判断し、
前記判断されたドライバの次の行動に基づいて、前記移動体を操作し、
前記操作に応じて移動体の挙動量を演算する
交通シミュレーション方法。
A traffic simulation method for simulating the movement of a moving object on a road based on the amount of behavior of the moving object,
Based on the visual field image stored in the storage means storing the visual field image, generate a visual field image of the driver corresponding to the position information of the moving body,
Based on the generated visual field image of the driver , calculate at least one of the presence recognition degree, the recognition speed, and the recognition distance of the recognition target object ,
Based on the calculated presence recognition level, recognition speed, and recognition distance of the at least one recognition object , a next action of the driver is determined,
Based on the determined next action of the driver, the mobile body is operated,
A traffic simulation method for calculating a behavior amount of a moving object according to the operation.
コンピュータに移動体の挙動量に基づいて道路上の移動体の動きをシミュレーションさせる交通シミュレーションプログラムであって、
前記コンピュータに、
視野画像を記憶した記憶手段に記憶された視野画像に基づいて、前記移動体の位置情報に対応するドライバの視野画像を生成させ、
前記生成されたドライバの視野画像に基づいて、認識対象物の存在認識度、認識速度、及び認識距離の少なくとも1つを算出させ
前記算出された前記少なくとも1つの認識対象物の存在認識度、認識速度、及び認識距離に基づいて、ドライバの次の行動を判断させ、
前記判断されたドライバの次の行動に基づいて、前記移動体を操作させ、
前記操作に応じて移動体の挙動量を演算させる
交通シミュレーションプログラム。
A traffic simulation program for causing a computer to simulate the movement of a moving object on a road based on the amount of movement of the moving object,
In the computer,
Based on the visual field image stored in the storage means storing the visual field image, the driver generates a visual field image of the driver corresponding to the position information of the moving body,
Based on the generated visual field image of the driver , at least one of the presence recognition degree, the recognition speed, and the recognition distance of the recognition object is calculated ,
Based on the calculated presence recognition degree, recognition speed, and recognition distance of the at least one recognition object , the driver's next action is determined,
Based on the next action of the determined driver, the mobile body is operated,
A traffic simulation program for calculating the amount of behavior of a moving object according to the operation.
JP2005259769A 2005-09-07 2005-09-07 Traffic simulation apparatus, method and program Expired - Fee Related JP4412261B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005259769A JP4412261B2 (en) 2005-09-07 2005-09-07 Traffic simulation apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005259769A JP4412261B2 (en) 2005-09-07 2005-09-07 Traffic simulation apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2007072809A JP2007072809A (en) 2007-03-22
JP4412261B2 true JP4412261B2 (en) 2010-02-10

Family

ID=37934191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005259769A Expired - Fee Related JP4412261B2 (en) 2005-09-07 2005-09-07 Traffic simulation apparatus, method and program

Country Status (1)

Country Link
JP (1) JP4412261B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4231527B2 (en) * 2007-01-15 2009-03-04 株式会社豊田中央研究所 Traffic simulation device
JP5021506B2 (en) * 2008-01-21 2012-09-12 株式会社豊田中央研究所 Traffic flow simulation system and method
US8604918B2 (en) * 2010-11-10 2013-12-10 Hyundai Motor Company System and method for detecting a vehicle in the vicinity by using wireless communication
JP4900628B1 (en) * 2011-04-13 2012-03-21 独立行政法人交通安全環境研究所 Headlamp system effect evaluation simulator
JP7374814B2 (en) * 2020-02-28 2023-11-07 株式会社東芝 Road traffic condition evaluation system, road traffic condition evaluation method, and road traffic condition evaluation program
CN113569378B (en) * 2021-06-16 2024-01-05 阿波罗智联(北京)科技有限公司 Simulation scene generation method and device, electronic equipment and storage medium
KR102630046B1 (en) * 2021-10-05 2024-01-25 정선희 System for alarming traffic situation using bollards in three-way intersection
KR102617647B1 (en) * 2021-10-05 2023-12-22 정선희 Apparatus for alarming traffic situation in three-way intersection

Also Published As

Publication number Publication date
JP2007072809A (en) 2007-03-22

Similar Documents

Publication Publication Date Title
KR102479471B1 (en) Systems and methods for navigating a vehicle
KR102469732B1 (en) Navigational system with imposed liability constraints
KR102535540B1 (en) Navigation based on vehicle activity
KR102094270B1 (en) Method for assessing the risk of collision at an intersection
JP2021536599A (en) Systems and methods for navigating at a safe distance
JP4412261B2 (en) Traffic simulation apparatus, method and program
JP2019069774A (en) Automatic driving control device
CN111565990A (en) Software validation for autonomous vehicles
EP2671768A1 (en) Vehicle control apparatus
WO2021054051A1 (en) Electronic control device
CN113442917B (en) Warning system for a host motor vehicle
KR20240006532A (en) Detection of driving behavior of vehicles
CN115761686A (en) Method and apparatus for detecting an unexpected control condition in an autonomous driving system
JP2009181187A (en) Behavioral model creation device and program
CN113548043B (en) Collision warning system and method for a safety operator of an autonomous vehicle
US20220343757A1 (en) Information processing apparatus, information processing system, and information processing method
CN107599965B (en) Electronic control device and method for vehicle
CN111098864B (en) Prompt method, device, automatic driving vehicle and storage medium
JP4838153B2 (en) Traffic simulation device
US11926259B1 (en) Alert modality selection for alerting a driver
KR102608705B1 (en) Method and apparatus for generating safety control signal notifying risk of accident on road
WO2022202001A1 (en) Processing method, processing system, and processing program
WO2022168671A1 (en) Processing device, processing method, processing program, and processing system
WO2022158272A1 (en) Processing method, processing system, processing program, and processing device
Medina-Carrión et al. Simulation of a driving assistant by means of a Multisensory Alert System (MAS)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090721

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091027

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091109

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131127

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees