JP2007047972A - Traffic flow simulation device - Google Patents

Traffic flow simulation device Download PDF

Info

Publication number
JP2007047972A
JP2007047972A JP2005230664A JP2005230664A JP2007047972A JP 2007047972 A JP2007047972 A JP 2007047972A JP 2005230664 A JP2005230664 A JP 2005230664A JP 2005230664 A JP2005230664 A JP 2005230664A JP 2007047972 A JP2007047972 A JP 2007047972A
Authority
JP
Japan
Prior art keywords
vehicle
traffic flow
simulation
flow simulation
traffic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005230664A
Other languages
Japanese (ja)
Inventor
Naohiro Yuzuhara
直弘 柚原
Atsushi Tajima
淳 田島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AST J KK
Original Assignee
AST J KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AST J KK filed Critical AST J KK
Priority to JP2005230664A priority Critical patent/JP2007047972A/en
Publication of JP2007047972A publication Critical patent/JP2007047972A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a simulation device for reducing the increase of a load to hardware even if the number of vehicles to be calculated is increased even in a traffic flow simulation device where any traffic accident occurs due to a perceptual mistake, a recognition mistake and a decision mistake of a virtual driver. <P>SOLUTION: An object put in a positional relationship at a dead angle when it is viewed from a traveling object as a target is removed based on at least location information relating to the location of the traveling object. Then, the traveling object is moved with an object left without being removed is moved, and whether or not any traffic accident occurs is simulated. Overlooking processing to remove an object left without being removed may be performed. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は交通網を移動する移動体の動きを模擬する交通流シミュレーション装置に関し、特に、車両や二輪車、船舶、歩行者等の移動体の操作者の知覚特性を考慮した交通流シミュレーション装置に関する。   The present invention relates to a traffic flow simulation apparatus that simulates the movement of a moving body that moves in a traffic network, and more particularly, to a traffic flow simulation apparatus that takes into account the perceptual characteristics of operators of moving bodies such as vehicles, two-wheeled vehicles, ships, and pedestrians.

都市計画等で新たに道路を設計する場合や、交通量の増加に伴って既存の道路の改善、拡張等を行なう場合には、シミュレーションを行って交通量や渋滞の発生等を予測し、車線や交差点の配置、幅員等の設計が行われる。そのための交通流シミュレーションシステムとして、交通状況に影響を与える変動要因である、曜日,時刻,天候,イベントの有無,長期休暇中であるか、という変量を考慮してより個々のケースに対応した交通量を予測するシミュレーション技術が知られている(特許文献1)。   When designing a new road in city planning, etc., or when improving or expanding an existing road as the traffic volume increases, a simulation is performed to predict the occurrence of traffic volume or traffic jams. And layout of intersections, width, etc. are performed. As a traffic flow simulation system for that purpose, traffic corresponding to individual cases is considered by taking into account variables such as day of the week, time of day, weather, presence / absence of events, and long-term holidays, which are factors that affect traffic conditions. A simulation technique for predicting the amount is known (Patent Document 1).

一方、交通事故の低減を目的として既存の道路の改善等の施策を立案する場合には、交通安全施策の事故削減に対する効果を交通流シミュレーションによって事前に予測することはこれまでほとんど行われていない。交通安全施策の事故削減に対する効果を直接的に評価するものではないが、既存若しくは設計段階の交差点や道路において、自動車モデル定義情報と状況情報に基づき自動車モデル群を古典力学に従って運動させ、ドライバモデル定義情報とシミュレーション実施条件情報とシミュレーション過程の状況情報に基づきドライバモデル群に運転行動をさせ、交差点や道路の幾何学的、物理的特徴に基づいてドライバモデル群から危険度情報を取得する特許文献2の危険度評価装置が知られている程度である。   On the other hand, when planning measures such as improving existing roads for the purpose of reducing traffic accidents, the effects of traffic safety measures on accident reduction have not been predicted in advance by traffic flow simulation. . Although it does not directly evaluate the effects of traffic safety measures on accident reduction, at the intersections or roads in the existing or design stage, the vehicle model group is moved according to classical mechanics based on the vehicle model definition information and situation information, and the driver model Patent literature that allows driver models to drive based on definition information, simulation execution condition information, and simulation process status information, and obtains risk information from driver models based on intersections and road geometric and physical characteristics No. 2 risk evaluation device is known.

特開平05−250594号公報Japanese Patent Laid-Open No. 05-250594 特開2002−140786号公報JP 2002-140786 A

交通安全施策の事故削減に対する効果を、交通流シミュレーション装置によって事前に評価するためには、実交通での複雑な相互作用によって作り出される事故発生プロセスを忠実に模擬することによって交通事故が発生するような交通流シミュレーション装置が必要となる。すなわち、実交通における交通事故の主要因は、ドライバの知覚、認識、判断ミスにあると言われており、理想的な交通流シミュレーションは、仮想ドライバの「知覚」、「認識」、「判断」、「操作」という一連の認知的行為によって交通流シミュレーション内の仮想車両一台一台が移動することで複雑な交通流を出現させるインタラクティブな仕組みを具えたものであり、さらには「知覚」、「認識」、「判断」におけるドライバのミスを模擬し、それによって交通事故が発生するようにプログラムされていなければならない。   In order to evaluate the effect of traffic safety measures on accident reduction in advance using a traffic flow simulation device, traffic accidents may occur by faithfully simulating the accident generation process created by complex interactions in actual traffic. A traffic flow simulation device is required. In other words, it is said that the main cause of traffic accidents in actual traffic is the driver's perception, recognition and judgment mistakes, and the ideal traffic flow simulation is the “perception”, “recognition” and “determination” of virtual drivers. , With a series of cognitive actions called “operation”, each of the virtual vehicles in the traffic flow simulation is moved to provide an interactive mechanism that makes a complicated traffic flow appear. It must be programmed to simulate a driver's mistake in "recognition" and "judgment" and thereby cause a traffic accident.

ここで、交通流シミュレーションプログラムにおいて仮想ドライバが「知覚」するとは、交通流シミュレーション装置内の領域(交差点や単路等からなる道路)に広範囲にわたって存在している複数の仮想車両の中から、当該仮想ドライバが搭乗している仮想車両の近くに位置する仮想車両であって、遮蔽物によって遮蔽されていない可視な仮想車両を検索することを意味する。また、仮想ドライバが「認識」するとは、仮想ドライバの知覚によって検索された仮想車両が先行車であるのか、対向車であるのかといったラベル付けを行なうことを意味する。そして、仮想ドライバが「判断」するとは、認識された自車両の周りの仮想車両の配置状況から、当該仮想ドライバに与えられた運転目的地へ到達するために必要な運転行動を決定することを意味する。さらに「操作」するとは、仮想車両を意図したように移動させるための仮想車両への入力を決定することを表す。   Here, the virtual driver “perceives” in the traffic flow simulation program means that the virtual driver from a plurality of virtual vehicles existing over a wide area in a region (a road composed of an intersection or a single road) in the traffic flow simulation device. This means searching for a virtual vehicle that is located near the virtual vehicle on which the virtual driver is boarded and that is not shielded by the shielding object. Further, “recognition” of the virtual driver means labeling whether the virtual vehicle searched by the perception of the virtual driver is a preceding vehicle or an oncoming vehicle. When the virtual driver “determines”, it means that the driving behavior necessary to reach the driving destination given to the virtual driver is determined from the arrangement status of the virtual vehicles around the recognized own vehicle. means. Further, “operating” represents determining an input to the virtual vehicle for moving the virtual vehicle as intended.

このような仮想ドライバの「知覚」、「認識」、「判断」、「操作」という模擬を行ない、仮想ドライバ自らが判断して実際のドライバと同じように行動するシミュレーション装置は、従来は存在しなかった。   Conventionally, there is a simulation device that simulates such “perception”, “recognition”, “determination”, and “operation” of a virtual driver, and the virtual driver judges and acts in the same way as an actual driver. There wasn't.

本願発明は、上記の課題に鑑み発明されたものであって、仮想ドライバの知覚ミス、認識ミス、判断ミスによって交通事故が発生するような交通流シミュレーション装置であって、演算すべき車両台数が増加しても、ハードウエアに対する負荷の増加が少ないシミュレーション装置を提供することを課題とする。   The present invention has been invented in view of the above problems, and is a traffic flow simulation apparatus in which a traffic accident occurs due to a virtual driver's perception error, recognition error, or determination error. It is an object of the present invention to provide a simulation apparatus that increases the load on hardware even when the number of hardware increases.

上述した本発明の目的を達成するために、本発明による交通流シミュレーション装置は、移動体の少なくとも位置に関する位置情報を記憶する移動体情報記憶手段と、位置情報を基にターゲットとなる移動体から見て死角となる位置関係にある物体を除去する、移動体上のエージェントの知覚を模擬する知覚模擬手段と、知覚模擬手段による情報に基づきターゲットとなる移動体を操作する移動体運動模擬手段とを具備するものである。   In order to achieve the above-described object of the present invention, a traffic flow simulation apparatus according to the present invention includes a mobile body information storage unit that stores position information related to at least a position of a mobile body, and a mobile body that is a target based on the position information. Perceptual simulation means for simulating the perception of an agent on a moving body, which removes an object in a positional relationship that becomes a blind spot when viewed, and moving body motion simulation means for operating a target moving body based on information by the perceptual simulation means It comprises.

さらに、知覚模擬手段により除去されず残った物体に対して、所定の確率で物体をさらに除去する見落とし処理手段を具備しても良い。   Furthermore, an oversight processing means for further removing an object with a predetermined probability with respect to an object remaining without being removed by the perceptual simulation means may be provided.

さらに、移動体上のエージェントの少なくとも視野に関する視野情報を記憶するエージェント情報記憶手段を具備し、知覚模擬手段は、位置情報と視野情報を用いて視野内に存在する物体を特定し、特定された各物体に対してターゲットとなる移動体から見て死角となる位置関係にある物体を除去するようにしても良い。   Furthermore, agent information storage means for storing visual field information related to at least the visual field of the agent on the moving body is provided, and the perceptual simulation means identifies and identifies an object existing in the visual field using the position information and the visual field information. You may make it remove the object in the positional relationship which becomes a blind spot seeing from the mobile body used as a target with respect to each object.

また、このような交通流シミュレーション装置をコンピュータで実現するための本発明の交通流シミュレーションプログラムは、コンピュータを上記各手段として機能させるためのプログラムである。   Moreover, the traffic flow simulation program of the present invention for realizing such a traffic flow simulation apparatus with a computer is a program for causing the computer to function as each of the above means.

本発明の交通流シミュレーション装置には、仮想ドライバが実際のドライバの知覚を模擬しているため、より現実に近い交通流のシミュレーションが可能であるという利点がある。また、仮想ドライバの視野を考慮することで、不要な演算処理を排除することができるので、処理速度の向上及び、単位時間あたりの処理数の向上、システムに対する負荷を低減させる等の効果も有する。   The traffic flow simulation apparatus of the present invention has an advantage that a traffic flow simulation closer to reality is possible because the virtual driver simulates the perception of an actual driver. In addition, by considering the field of view of the virtual driver, unnecessary arithmetic processing can be eliminated, so that there are effects such as improvement in processing speed, improvement in the number of processes per unit time, and reduction in load on the system. .

以下、本発明を実施するための最良の形態を図示例と共に説明する。なお、以下、本明細書中では、移動体として自動車等の車両を対象に説明するが、本発明はこれに限定されず、船舶や歩行者等、ドライバや人自身が自らの判断で移動するものであればすべて適用可能なものである。また、本発明による仮想ドライバや仮想歩行者を、エージェントと呼ぶこととする。   The best mode for carrying out the present invention will be described below with reference to the drawings. Hereinafter, in the present specification, a vehicle such as an automobile will be described as a moving body. However, the present invention is not limited to this, and a driver or a person such as a ship or a pedestrian moves by his / her own judgment. Anything is applicable. The virtual driver and the virtual pedestrian according to the present invention are referred to as an agent.

図1は、本発明の交通流シミュレーション装置の概略模式図である。交通流シミュレーション装置1は、パーソナルコンピュータ等の電子計算機であり、CPU等の演算手段2、当該演算手段2によって処理されるデータ若しくは処理後のデータを記憶するハードディスク、RAM、ROM等の記憶手段3、入出力手段4等を備える。   FIG. 1 is a schematic diagram of a traffic flow simulation apparatus according to the present invention. The traffic flow simulation apparatus 1 is an electronic computer such as a personal computer, and includes a computing means 2 such as a CPU, a storage means 3 such as a hard disk, RAM, and ROM that stores data processed by the computing means 2 or data after processing. The input / output means 4 is provided.

記憶手段3には、本願発明におけるエージェントに関する情報やそれに応じて動作をシミュレーションするプログラム等が記憶されている。また、記憶手段3には、交通網の情報、具体的には道路に関するデータが記憶されており、さらに、この道路上で移動する移動体に関する情報、例えば車両の位置の情報やその大きさ、移動方向、移動速度等のデータも記憶されている。   The storage means 3 stores information related to the agent in the present invention, a program for simulating the operation according to the information, and the like. The storage means 3 stores information on the traffic network, specifically data on the road, and further information on a moving body moving on the road, such as information on the position of the vehicle and its size, Data such as moving direction and moving speed are also stored.

なお、交通流シミュレーション装置1は、勿論1台でも構わないが、複数のコンピュータにより分散処理することも可能である。この場合、後述の車両存在情報マトリクスを用いることで、コンピュータ間の通信すべき必要最小限の情報を特定することが可能となり、コンピュータ間のトラフィックを軽減し処理速度を向上することが可能となる。   Of course, one traffic flow simulation apparatus 1 may be used, but it is also possible to perform distributed processing by a plurality of computers. In this case, by using a vehicle presence information matrix, which will be described later, it is possible to specify the minimum necessary information to be communicated between computers, and it is possible to reduce traffic between computers and improve processing speed. .

以下、エージェントについて説明する。図2は、本発明におけるエージェントを説明するためのブロック図である。図示の通り、エージェント20は、知覚部201と認識部202と判断部203と操作部204とから主になるものである。このエージェント20により移動体が操作される。シミュレーションを行なうときに、移動させる操作の対象であるターゲットとなる移動体を中心に説明すると、知覚部201は、記憶手段3に記憶された移動体に関する情報のうち、ターゲットとなる移動体の位置に関する情報を基に、ターゲットとなる移動体から見て死角となる位置関係にある物体を、演算手段2により演算して検知し、知覚対象から死角となる物体を除去する。なお、死角となる位置関係にある物体には、他の移動体は勿論のこと、信号機や街路樹、歩行者等、種々のオブジェクトが含まれる。死角は、他の移動体の影の位置や曲がった道路の先等、様々な要因で生ずる。このようにして知覚部201でエージェントの知覚模擬を行なう。   The agent will be described below. FIG. 2 is a block diagram for explaining an agent in the present invention. As illustrated, the agent 20 mainly includes a perception unit 201, a recognition unit 202, a determination unit 203, and an operation unit 204. The agent 20 operates the moving body. When the simulation is performed, the description will be made centering on the target mobile object that is the target of the operation to be moved. The perception unit 201 is the position of the target mobile object among the information on the mobile object stored in the storage unit 3 On the basis of the information on the object, an object having a positional relationship that becomes a blind spot as seen from the target moving body is calculated and detected by the calculation means 2, and the object that becomes the blind spot is removed from the perceptual target. It should be noted that the objects in a positional relationship that becomes a blind spot include various objects such as traffic lights, street trees, and pedestrians as well as other moving objects. The blind spot is caused by various factors such as the position of the shadow of another moving body and the tip of a curved road. In this way, the perception unit 201 performs an agent perception simulation.

そして、この知覚部201の知覚結果に基づき、知覚された他の移動体の存在や位置、移動方向等を認識部202で識別し、それらと衝突をさけるために、このまま進むべきか止まるべきか、曲がるべきか等の判断を判断部203で行なった上で、ターゲットとなる移動体を操作部204により操作する。これにより、実際のドライバが死角にいた歩行者を轢いてしまう等のシミュレーションを、実際に近い形で行なうことが可能となる。   Then, based on the perception result of the perception unit 201, the recognition unit 202 identifies the presence, position, movement direction, and the like of other perceived moving objects, and whether to proceed or stop in order to avoid collision with them. The determination unit 203 determines whether to bend or not, and the operation unit 204 operates the target moving body. As a result, it is possible to perform a simulation such as an actual driver scolding a pedestrian who was in the blind spot in a form close to actual.

また、より現実に近いシミュレーションが可能となるように、知覚部201により除去されずに残った物体に対して、所定の確率で物体をさらに除去する見落とし処理を行なうようにしても良い。これは、死角にならずに本来は見えているにも関わらず、脇見運転を行なった場合のように見落とすことを模擬するために行なう。これにより、さらに実際に近い形でシミュレーションを行なうことが可能となる。なお、他のパラメータ、例えばドライバの年齢や運転嗜好、運転経験、生理的・精神的状態、安全態度等の個性を考慮したパラメータを追加しても良い。   In addition, an oversight process for further removing an object with a predetermined probability may be performed on an object remaining without being removed by the perception unit 201 so that a simulation closer to reality is possible. This is done in order to simulate an oversight as if a side-viewing operation was performed even though it was originally visible without becoming a blind spot. This makes it possible to perform a simulation in a form that is closer to the actual situation. Other parameters, for example, parameters that take into account individuality such as the driver's age, driving preference, driving experience, physiological / mental state, and safety attitude may be added.

なお、交通流シミュレーションを行なうすべての移動体に対して死角になっているか否かを判断するのは処理時間の観点から無駄が多いため、エージェントの視野に関する情報も記憶手段3に記憶しておき、知覚部201では、これを用いて視野内に存在する物体を特定し、特定された各物体に対してターゲットとなる移動体から見て死角となる位置関係にある物体を除去するようにすることが好ましい。   Since it is wasteful from the viewpoint of processing time to determine whether or not it is a blind spot for all the moving bodies for which traffic flow simulation is performed, information regarding the visual field of the agent is also stored in the storage means 3. The perception unit 201 uses this to identify an object that exists in the field of view, and removes an object that is in a positional relationship that becomes a blind spot when viewed from the target moving object with respect to each identified object. It is preferable.

交通流シミュレーション装置の実現、すなわちエージェントの認知的行為のプログラム化にあたって、演算処理量の最も多くなるのは「知覚」のための近接可視な仮想車両の検索処理である。最もシンプルなプログラム化の方法は、総当りによって仮想車両間の距離と可視性を調べることである。しかし、この方法によって多数存在している各車両それぞれについて位置関係等を演算により取得するには、領域内に存在する車両台数をNとすると、1台の車両につき、N−1回の演算が必要であるから、N(N−1)回の演算が必要になり、Nが大きくなると計算量が膨大となってしまう。また、各車両は交通流として、次々と領域上を刻々と遷移していくものであり、時間の経過に合わせて、前述した車両間の相対的位置関係に基づいた検索処理を繰り返す必要がある。このように、総当りによる検索方法では演算処理量の増加に伴って使用するハードウエアに対する負担が多くなり、シミュレーション結果を算出する時間が長くなってしまう。交通事故は滅多に発生しない稀なイベントであり、交通安全施策の事故削減に対する効果を評価するためにはシミュレーション内の時間で少なくとも2〜3ヶ月分は計算を行なう必要があり、シミュレーションの実行速度が遅いと実用に供しない。したがって、本発明の交通流シミュレーションにおいては、以下に説明するような種々の手法で計算量を減らしてシミュレーションの高速化を図っている。   In the realization of the traffic flow simulation device, that is, in the programming of the cognitive behavior of the agent, the largest amount of calculation processing is the search processing of the near-visible virtual vehicle for “perception”. The simplest programming method is to examine the distance and visibility between virtual vehicles by brute force. However, in order to obtain the positional relationship and the like for each vehicle existing in large numbers by this method, if N is the number of vehicles existing in the area, N-1 calculations are performed for each vehicle. Since it is necessary, N (N-1) operations are required. When N increases, the amount of calculation becomes enormous. Further, each vehicle is transiting on the region one after another as a traffic flow, and it is necessary to repeat the above-described search process based on the relative positional relationship between the vehicles as time passes. . Thus, in the brute force search method, the load on the hardware to be used increases as the amount of calculation processing increases, and the time for calculating the simulation result increases. Traffic accidents are a rare event that rarely occur, and in order to evaluate the effects of traffic safety measures on accident reduction, it is necessary to perform calculations for at least two to three months within the simulation, and the speed of simulation execution If it is slow, it will not be practically used. Therefore, in the traffic flow simulation of the present invention, the calculation amount is reduced by various methods as described below to speed up the simulation.

以下、上述の交通流シミュレーション装置を実現するための、より具体的な例を説明する。図1の記憶手段3には、シミュレーション設定データとして道路に関するデータが記憶されており、本実施例においては、一例として東京都中央区の「三原橋交差点」を中心とした領域についての道路に関するデータが記憶されている。当該道路に関するデータとしては、道路セクション座標データ、車両存在情報マトリクスデータ、及び遷移可能セクションマトリクスデータがある。   Hereinafter, a more specific example for realizing the above traffic flow simulation apparatus will be described. The storage means 3 in FIG. 1 stores road-related data as simulation setting data. In this embodiment, as an example, data related to roads in an area centered on the “Miharabashi intersection” in Chuo-ku, Tokyo. Is remembered. The data relating to the road includes road section coordinate data, vehicle presence information matrix data, and transitionable section matrix data.

まず、道路セクション座標データについて説明する。図3(a)は、「三原橋交差点」を中心とした半径約100mmの地域を表した地図である。同地図に記載した2点鎖線による複数の円は、交差点の中央を中心として半径約20m毎に描いた線である。本実施例では、当該「三原橋交差点」付近の地図(主として車道)を演算処理可能なデータとするために、車道を連続する矩形状の領域に区切った座標データを作成する。なお、当該座標データは、北緯・東経によって表される絶対座標の他、代替的にX−Y座標(道路座標と呼ぶ)を用いてモデル化した座標データであっても良い。本実施例においては、後者のX−Y座標を用いてモデル化した座標データを作成し、以後の演算に使用する。図3(b)は、図3(a)に記載した地図の中心部を交差する2本の幹線道路をモデル化するために、交差点の中央から約20m単位で車線を区切り、当該区切られた領域を1つのセクションとしてそれぞれ符号(S1〜S28)を付したものである。なお、図3(b)では、交差点の中央からの等間隔にセクションを定義しているが、必ずしも等間隔にセクションを作成しなければいけないというわけではない。セクションの大きさは、当該道路の交通量に応じて、例えば交通量が多い箇所は密に、交通量が少ない箇所は大きく、というように、任意に設定が可能である。   First, road section coordinate data will be described. FIG. 3A is a map showing an area having a radius of about 100 mm centered on the “Miharabashi intersection”. A plurality of circles by two-dot chain lines described in the map are lines drawn at a radius of about 20 m with the center of the intersection as the center. In this embodiment, in order to make the map (mainly the roadway) near the “Miharabashi intersection” data that can be processed, coordinate data is created by dividing the roadway into continuous rectangular areas. The coordinate data may be coordinate data modeled using XY coordinates (referred to as road coordinates) instead of absolute coordinates represented by north latitude and east longitude. In this embodiment, coordinate data modeled using the latter XY coordinates is created and used for subsequent calculations. In FIG. 3B, in order to model two main roads that intersect the center of the map shown in FIG. 3A, the lane is divided by about 20 m from the center of the intersection, and the divided roads are separated. Each region is assigned with a symbol (S1 to S28) as one section. In FIG. 3B, sections are defined at equal intervals from the center of the intersection, but it is not always necessary to create sections at equal intervals. The size of the section can be arbitrarily set according to the traffic volume of the road, for example, a location where the traffic volume is high is dense and a location where the traffic volume is low is large.

図4は、図3(b)に示した各セクションS1〜S28で示した領域を、交差点の中央の座標を(X,Y)=(0,0)としたX−Y座標によってモデル化したものである。本実施例においては同図に表したように道路セクション座標(道路座標)によって各セクションを定義する。例えば、図3(b)に示した交差点内を4分割した各セクションS1、S2、S3、S4で示された領域は、モデル化した図4記載の道路座標では次の(X,Y)座標で表される。すなわち、セクションS1とは(X0,Y0)と(X1,Y1)で定義される領域、セクションS2とは(X−1,Y0)と(X0,Y1)で定義される領域、セクションS3とは(X−1,Y−1)と(X0,Y0)で定義される領域、セクションS4とは(X0,Y−1)と(X1,Y0)で定義される領域として代替的に表される。なお、図4では説明の便宜上、座標値を0、1、2のような整数値としたが、実際の道路座標系の座標値としては、実際の寸法値に近似した実数値が入力されるようになっていても良い。   FIG. 4 is a model of the region shown in each of the sections S1 to S28 shown in FIG. 3B by XY coordinates where the center coordinates of the intersection are (X, Y) = (0, 0). Is. In this embodiment, each section is defined by road section coordinates (road coordinates) as shown in FIG. For example, the areas indicated by the sections S1, S2, S3, and S4 obtained by dividing the inside of the intersection shown in FIG. 3B into four are the following (X, Y) coordinates in the modeled road coordinates shown in FIG. It is represented by That is, the section S1 is an area defined by (X0, Y0) and (X1, Y1), the section S2 is an area defined by (X-1, Y0) and (X0, Y1), and the section S3 is An area defined by (X-1, Y-1) and (X0, Y0), and section S4 is alternatively represented as an area defined by (X0, Y-1) and (X1, Y0). . In FIG. 4, for convenience of explanation, the coordinate values are integer values such as 0, 1, and 2, but as actual coordinate values of the road coordinate system, real values approximate to actual dimension values are input. It may be like this.

以上説明したように、道路セクション座標データとは、道路を複数のブロックに区切ってモデル化した際のセクションの位置を定義するための座標系を表す道路データである。   As described above, the road section coordinate data is road data representing a coordinate system for defining the position of the section when the road is divided into a plurality of blocks and modeled.

次に、車両存在情報マトリクスデータについて説明する。図5は、車両存在情報を示す表である。同表は、道路上のセクションに存在する車両のID番号を、逐次時間の経過とともに表すための表である。当該表として表されるデータは、セクション番号を指定すれば、そこに存在する車両の台数及びID番号を取り出すことができるデータ群である。   Next, vehicle presence information matrix data will be described. FIG. 5 is a table showing vehicle presence information. The table is a table for representing the ID numbers of the vehicles existing in the section on the road as time passes. The data represented as the table is a data group in which the number of vehicles and the ID number existing therein can be extracted if a section number is designated.

また、遷移可能セクションマトリクスデータを、図6を用いて説明する。図6は、遷移マトリクスを示す表である。遷移マトリクスとは、道路座標上の任意のセクションが他のどのセクションと道路として連続しているのかを配列した隣接領域データである。なお、後ほど説明するように、車両(車両モデル)は2次元平面上を運動学に従って連続的に移動するものであり、あるセクションから別のセクションへと離散化された空間を瞬間的に移動するわけではない。あくまで当該遷移マトリクスとは、セクション内に存在する車両の直近の移動可能範囲を表したものである。   The transitionable section matrix data will be described with reference to FIG. FIG. 6 is a table showing a transition matrix. The transition matrix is adjacent area data in which an arbitrary section on road coordinates is arranged as a road with other sections. As will be described later, a vehicle (vehicle model) moves continuously on a two-dimensional plane according to kinematics, and instantaneously moves in a discretized space from one section to another. Do not mean. The transition matrix only represents the latest movable range of the vehicle existing in the section.

さらに、記憶手段3には、シミュレーション設定データとして、車両やエージェントに関する車両データが記憶されている。また、その他のオブジェクトとして、例えば信号機に関するオブジェクトと歩行者に関するオブジェクトも記憶されている。   Further, the storage means 3 stores vehicle data related to the vehicle and the agent as simulation setting data. As other objects, for example, an object related to a traffic light and an object related to a pedestrian are also stored.

車両データとは、道路上を移動する車両をモデル化した車両データであり、自車の位置情報を保持し、運動学に従って位置、姿勢角が変更されるものである。各車両は、車両毎に異なるID番号(本実施例においては、自然数)が付されており、例えば前記道路座標(X−Y座標)上の位置(X、Y)で表される浮動小数点型の変数による位置情報と、当該X−Y座標上における角度Фで表される姿勢角の情報を有している。 The vehicle data is vehicle data that models a vehicle moving on a road, holds the position information of the own vehicle, and changes its position and posture angle according to kinematics. Each vehicle has a different ID number (a natural number in the present embodiment) for each vehicle, and is represented by a position (X v , Y v ) on the road coordinates (XY coordinates), for example. has a position information according to point type variables, the information of the attitude angle represented by the angle .PHI v on the X-Y coordinates.

また、エージェントに関するデータとは、知覚された他のオブジェクトのデータ格納用変数、車両操縦コマンド、ドライバの視野方向と視野角(θ,α)等の視野情報等、各種情報を有するデータである。 The data related to the agent is data having various kinds of information such as perceived data storage variables of other objects, vehicle operation commands, visual field information such as driver visual field direction and visual field angle (θ v , α v ). is there.

さて、これらの各データを用いた交通流のシミュレーションの処理工程を、図7を用いて説明する。図7は、本発明の交通流シミュレーション装置の処理工程を説明するためのフローチャートである。シミュレーションが開始されると、記憶手段3に記憶された道路座標(図4参照)、車両存在情報マトリクス(図5参照)、遷移可能セクションマトリクス(図6参照)、車両データ、エージェントデータ、信号機オブジェクト、歩行者オブジェクト等の各種データが読み込まれると共に、各データが保有する変数等の初期化が行われる(ステップS1)。   Now, the traffic flow simulation process using these data will be described with reference to FIG. FIG. 7 is a flowchart for explaining the processing steps of the traffic flow simulation apparatus of the present invention. When the simulation is started, road coordinates (see FIG. 4), vehicle presence information matrix (see FIG. 5), transitionable section matrix (see FIG. 6), vehicle data, agent data, traffic light object stored in the storage means 3 are stored. Various data such as a pedestrian object are read, and variables and the like possessed by each data are initialized (step S1).

次いで、交通流シミュレーションが作り出す仮想世界の中における時間であって、その時間で何時間分(あるいは何日分、何ヶ月分)のシミュレーションを行なうのかという実行時間と、交通流シミュレーションが作り出す仮想世界の中における時間を何秒単位で進めるのかというシミュレーション時間間隔(あるいはサンプリング時間と呼ぶ)等を入出力手段4等を用いて設定する(ステップS2)。本実施例における交通流シミュレーションでは、仮想世界の中における時間で1時間分のシミュレーションを行なうとすると、実際に計算に掛かる実時間は数分であっても、交通流シミュレーションの中の時間では1時間経過したことになる。また、サンプリング時間は、交通流シミュレーションが作り出す仮想世界の中における時間を進める単位であり、例えば、0.1秒ごとに仮想世界の中における時間を進める。したがって、0.1秒単位で実行時間1時間分の計算を行なうとすると、60分×60秒×10回=36000回の繰り返し計算が行われることになる。   Next, the time in the virtual world created by the traffic flow simulation, the execution time of how many hours (or days, months) the simulation is performed in that time, and the virtual world created by the traffic flow simulation A simulation time interval (or a sampling time) indicating how many seconds the time in the unit is advanced is set using the input / output means 4 or the like (step S2). In the traffic flow simulation in this embodiment, if a simulation for one hour is performed in the virtual world, even if the actual time required for the calculation is only a few minutes, the time in the traffic flow simulation is 1 Time has passed. The sampling time is a unit for advancing the time in the virtual world created by the traffic flow simulation. For example, the sampling time is advanced every 0.1 seconds. Therefore, if the calculation for the execution time of 1 hour is performed in units of 0.1 seconds, 60 minutes × 60 seconds × 10 times = 36000 times of repetitive calculations are performed.

続くステップを説明すると、道路座標上に存在する車両オブジェクト(エージェント)すべてについて、車両オブジェクト毎に、知覚の模擬シミュレーション(ステップS3〜S7)を行なった後、当該知覚の模擬に基づいて車両を判断・操作(ステップS8)する。すなわち、当該知覚の模擬に基づいて必要な運転操作を判断し、操作を実行する。そして、この判断・操作に基づいて、実際に各車両オブジェクトを移動させる模擬(ステップS10)を行ない、各車両オブジェクトの移動に伴うセクション間の遷移があった場合の処理(ステップS11〜S13)を行ない、一回のサンプリング時間分時間を進める(ステップS14)というものである。以降、指定された実行時間に至るまで、上記の処理がサンプリング時間毎に繰り返される。以下、これらのステップをより詳細に説明する。   The following steps will be described. For every vehicle object (agent) present on the road coordinates, a simulation of perception (steps S3 to S7) is performed for each vehicle object, and then the vehicle is determined based on the perception simulation. -Operate (step S8). That is, a necessary driving operation is determined based on the perception simulation, and the operation is executed. Based on this determination / operation, simulation (step S10) of actually moving each vehicle object is performed, and processing (steps S11 to S13) when there is a transition between sections accompanying the movement of each vehicle object is performed. And the time is advanced by one sampling time (step S14). Thereafter, the above processing is repeated every sampling time until the designated execution time is reached. Hereinafter, these steps will be described in more detail.

エージェントの知覚の模擬に関するシミュレーションでは、まず視野内のセクションの特定が行われる(ステップS4)。この処理は、一の車両(以下「ターゲットとなる車両」等という)が存在するセクションを基準として、エージェントの視野情報を用いて視野に含まれるセクションを特定するものである。なお、計算効率等を考慮しなければ、ターゲットとなる車両以外のすべての車両に対して知覚の模擬を行なっても良いが、計算時間を減らすためには、視野内のセクションを特定してそのセクションに対して知覚の模擬を行なえば良い。また、現実の交通流でも、ドライバの視野以外の車両に関しては考慮する必要がないため現実に即しているといえる。   In the simulation relating to the simulation of the agent's perception, first, the section in the field of view is specified (step S4). This process specifies a section included in the field of view using the field of view information of the agent with reference to a section where one vehicle (hereinafter referred to as “target vehicle” or the like) exists. If you do not consider calculation efficiency etc., you may simulate perception for all vehicles other than the target vehicle, but in order to reduce the calculation time, specify a section in the field of view and Just simulate the perception of the section. Moreover, even in an actual traffic flow, there is no need to consider vehicles other than the driver's field of view, so it can be said that it is realistic.

次に、死角となる位置関係にある物体を除去するために、視野外オブジェクトの除去が行われる(ステップS5)。この処理は、ステップS4で特定された視野内のセクションに存在するオブジェクトの中から、ターゲットとなる車両から見た視野角の中に含まれる他の車両等を得るために、視野外のオブジェクト(車両、歩行者、二輪車、信号機等)を除去する処理である。具体的には、車両を操作するエージェントの視野に関する視野情報を用いる。視野情報には、視野角が含まれるが、視野角とは、視線・目線の方向である視野方向を中心とした、視覚で認識として可能な角度であって、本実施例においては例えば一般的に言われている±60度ほどの範囲に設定される。視野外とは当該視野角の範囲外をいうものである。人間は、自分の周囲360度すべての方向を同時に見る事はできず、ある一瞬に良く見る事の出来る範囲(視野)は、顔が前を向いている方向(正確には視線・目線の方向)を中心として、±60度ほどの範囲であると言われている。したがって、例えば、前を向いて車を運転しているとき、自分の後ろにいる車は(ルームミラーなしでは)見る事ができないので、知覚対象とはならないオブジェクトを除去する処理を行なう。また、自分が後ろを向いていれば、後ろの車は知覚対象となり、反対に自車の前方にいる車が視野外のオブジェクトとして除去されることになる。   Next, in order to remove an object in a positional relationship that becomes a blind spot, an out-of-view object is removed (step S5). In order to obtain other vehicles included in the viewing angle viewed from the target vehicle from among the objects existing in the section within the field of view identified in step S4, this processing is performed. Vehicle, pedestrian, motorcycle, traffic light, etc.). Specifically, visual field information relating to the visual field of the agent who operates the vehicle is used. The visual field information includes the visual field angle. The visual field angle is an angle that can be visually recognized centered on the visual field direction that is the direction of the line of sight and the eye line. Is set to a range of about ± 60 degrees. Out-of-view means outside the range of the viewing angle. Humans cannot see all 360 degrees around them at the same time, and the range (field of view) that can be seen well in a moment is the direction in which the face is facing forward (to be precise, the direction of the line of sight and eyes) ) And the range of about ± 60 degrees. Therefore, for example, when driving a car facing forward, a car behind him cannot be seen (without a room mirror), and therefore, a process of removing an object that is not a perceptible object is performed. If the vehicle is facing backward, the vehicle behind is subject to perception, and the vehicle in front of the vehicle is removed as an object outside the field of view.

図8は、自車(ターゲットとなる車両)と他の車両等のオブジェクトとの位置関係をX−Y座標を用いて表した図である。まず、自車の位置を(X、Y)とし、他の車両等の位置を(X、Y)とする。また、車両の姿勢角をФ、エージェントの視野方向と視野角を(θ,α)とする。 FIG. 8 is a diagram showing the positional relationship between the own vehicle (target vehicle) and an object such as another vehicle using XY coordinates. First, it is assumed that the position of the own vehicle is (X V , Y V ), and the position of other vehicles is (X p , Y p ). Further, it is assumed that the attitude angle of the vehicle is Ф V , and the viewing direction and viewing angle of the agent are (θ V , α V ).

以下に、自車に搭乗しているエージェントから視認可能な前方角度(視野角)の範囲内に他のオブジェクトが存在しているか否かを判定するための演算内容を説明する。車両位置(X、Y)に対する他のオブジェクトの相対位置r(rrelX,rrelY)は、次式で表せる。
また、左右の視野の限界を与えるベクトルs、sは、それぞれ数2、数3で表せる。
上記数2、数3を用いてrを表すと、次式になる。
線形代数学によれば、a>0かつb>0であれば、rはsとsに挟まれる領域に存在することになるから、a,bを求めれば、他のオブジェクトがエージェントの視野内にいるか視野外にいるかを判別することができる。
Hereinafter, calculation contents for determining whether or not another object exists within the range of the forward angle (viewing angle) that can be visually recognized by the agent boarding the host vehicle will be described. The relative position r (r relX , r relY ) of another object with respect to the vehicle position (X V , Y V ) can be expressed by the following equation.
Further, vectors s 1 and s 2 that give the limits of the left and right visual fields can be expressed by equations 2 and 3, respectively.
When r is expressed using the above formulas 2 and 3, the following formula is obtained.
According to the linear algebra, if a> 0 and b> 0, r exists in the region between s 1 and s 2 . Whether it is in the field of view or outside the field of view can be determined.

ここで、a,bは次式で表せる。
ここで、sinα>0であることから、a,bはそれぞれ数6、数7で求められる。
この演算の結果、a,bが共に0よりも大きい場合(a>0,b>0)には他のオブジェクトの相対位置rは視野内であり、a又はbの何れかが0以下であるならばオブジェクトの相対位置rは視野外であると判定する。
Here, a and b can be expressed by the following equations.
Here, since sin α> 0, a and b are obtained by Equation 6 and Equation 7, respectively.
As a result of this calculation, when both a and b are larger than 0 (a> 0, b> 0), the relative position r of another object is within the field of view, and either a or b is 0 or less. Then, it is determined that the relative position r of the object is out of the field of view.

なお、以上の数1から数7の処理は、視野内のセクションに存在している他のオブジェクトすべてについて行なうものであり、視野内にある車両の車両IDを保存するとともに、車両の総数をカウントする。   Note that the processing of Equations (1) to (7) above is performed for all other objects existing in the section in the field of view, and the vehicle ID of the vehicle in the field of view is stored and the total number of vehicles is counted. To do.

このようにして視野外のオブジェクトを除去した後、隠れオブジェクトの除外処理を行なう(ステップS6)。この処理は、ステップS5にて除去されて残った視野内に存在するオブジェクトに対して、ターゲットとなる車両から見て死角となる位置関係にある物体、すなわち、他のオブジェクトによって遮蔽されたために知覚することが出来ない隠れオブジェクトを除外する処理である。   After removing objects outside the field of view in this way, hidden object exclusion processing is performed (step S6). In this process, the object existing in the field of view that has been removed in step S5 is perceived because it is shielded by an object that has a blind spot as viewed from the target vehicle, that is, by another object. This process excludes hidden objects that cannot be performed.

実際のドライバは、死角になって隠れて見えないものを見ることができないので、本発明の交通流シミュレーションでも同様の模擬を行なう。実際に事故が起きる原因として、何かの陰に隠れていて見えなかったものが急に出てきて衝突したというようなことがあるので、そのような状況を模擬するために、隠れて見えないものの情報をエージェントに伝えないために当該処理をするものである。本実施例における交通流シミュレーション装置では、このような知覚・認識・判断のミスによって事故の発生をシミュレーションするものであり、いつ事故が発生するかは、実際の交通流における事故の発生と同様に、まったく確率的になっている。   Since an actual driver cannot see what is hidden and cannot be seen, the same simulation is performed in the traffic flow simulation of the present invention. The actual cause of the accident is that something that was hidden behind something and could not be seen suddenly came out and collided, so in order to simulate such a situation, it can not be seen hidden This processing is performed in order not to convey the information of the thing to the agent. In the traffic flow simulation apparatus in this embodiment, the occurrence of an accident is simulated by such a perception / recognition / judgment mistake. When an accident occurs, it is the same as the occurrence of an accident in an actual traffic flow. , It is totally stochastic.

このような死角となる物体の除去処理は、図9に示すように、視野内のオブジェクトの位置と姿勢角(X,Y,Z,Φ)、オブジェクトの長さ、幅、高さ(l,w,h)、エージェントの視野方向と視点の座標(θ,X,Y,Z)、ターゲットとなる車両の位置と姿勢角(X,Y,Ф)に基づいて行われるものである。当該処理は、視野外オブジェクトの除去によって得られた複数の視野内のオブジェクト(入力されたオブジェクト)について、ドライバ前方の仮想スクリーンへの透視変換を施し、自車からの距離を算出する処理を行ない(Step1)、視野外オブジェクトの除去によって得られた複数の視野内のオブジェクトを、自車からの距離によってソートする処理を行ない(Step2)、奥から手前に向かって可視判定を行ない、可視オブジェクトを決定する処理を行なうことで(Step3)、視野内の可視オブジェクトの総数とID番号を得るものである。なお、ソート処理にはクイックソートのアルゴリズムを用いるのが好ましい。また、仮想スクリーンとは、処理の便宜上導入したものである。例えば、同じ大きさの物体でも、それが自分から遠くに置かれていれば小さく見え、近くなら大きく見える。このように、物体がどのように見えるかは、物体の大きさそのもののほかに、どの位置にあるかが重要となる。物体の大きさと置かれている距離を同時に考慮して、どのように見えるかを知るには、透視変換(遠近法)と呼ばれる方法で、3次元空間を2次元平面へ移せば良く、その2次元平面のことをここでは仮想スクリーンと呼んでいる。なお、「仮想」とあるのは、実際のドライバはこのようなことをしておらず、便宜上導入しただけなので仮想としている。 As shown in FIG. 9, the removal process of the object that becomes such a blind spot includes the position and posture angle (X O , Y O , Z O , Φ O ) of the object in the field of view, the length, width, and height of the object. (L, w, h), agent visual field direction and viewpoint coordinates (θ V , X E , Y E , Z E ), target vehicle position and posture angle (X V , Y V , V V ) Based on the above. In this process, the objects in the plurality of fields of view (input objects) obtained by removing the object outside the field of view are subjected to perspective transformation to the virtual screen in front of the driver, and the distance from the own vehicle is calculated. (Step 1), objects within a plurality of fields of view obtained by removing out-of-field objects are sorted according to the distance from the vehicle (Step 2), visibility determination is performed from the back toward the front, By performing the determining process (Step 3), the total number of visible objects in the field of view and the ID number are obtained. It is preferable to use a quick sort algorithm for the sorting process. The virtual screen is introduced for convenience of processing. For example, an object of the same size will appear small if it is placed far away from you, and it will appear large if it is close. As described above, the position of the object is important in addition to the size of the object itself. In order to know how it looks in consideration of the size of the object and the distance at which it is placed, you can move the 3D space to the 2D plane by a method called perspective transformation (perspective method). The dimension plane is called a virtual screen here. Note that “virtual” is assumed to be virtual because the actual driver does not do this, but has been introduced for convenience.

図10は、前記Step1の具体的な処理の内容を説明するための説明図である。車両に搭乗するエージェントの視点の道路座標系における座標(X,Y,Z)は、次式で表される。
FIG. 10 is an explanatory diagram for explaining the details of the specific processing of Step 1. The coordinates (X e , Y e , Z e ) in the road coordinate system of the viewpoint of the agent boarding the vehicle are expressed by the following equations.

また、他の車両を略長方形状の物体と仮定すると、道路座標系における当該他の車両の四隅の座標(X,Y,±Z)、(X,Y,±Z)、(X,Y,±Z)、(X,Y,±Z)は、それぞれ数9、数10、数11、数12で表される。
Assuming that the other vehicle is a substantially rectangular object, the coordinates (X 1 , Y 1 , ± Z 1 ), (X 2 , Y 2 , ± Z 2 ) of the other vehicle in the road coordinate system are assumed. , (X 3 , Y 3 , ± Z 3 ) and (X 4 , Y 4 , ± Z 4 ) are represented by Equation 9, Equation 10, Equation 11, and Equation 12, respectively.

これらオブジェクトを仮想スクリーン上に投影するための前処理として、これらオブジェクトの4隅の(X,Y)座標系での値を、エージェントの視線の方向をx軸、仮想スクリーンの横方向をy軸とする(x,y)座標系での値に座標変換して表すと、次式のように表すことができる。
As pre-processing for projecting these objects onto the virtual screen, the values in the (X, Y) coordinate system at the four corners of these objects are set, the direction of the agent's line of sight is the x axis, and the horizontal direction of the virtual screen is the y axis If the coordinate is converted into a value in the (x, y) coordinate system, it can be expressed as the following equation.

なお、図10中、dは、ドライバから仮想スクリーンまでの距離を表している。この距離によって、投影された図の縮尺が変わる。ただし、オブジェクト同士の大小関係が変わるわけではないので、隠れオブジェクトを除去するというためには、この値をいくつに設定するかということはあまり重要ではない。本実施例では、dをエージェントからフロントガラスまでの距離程度として、1.0mと設定している。   In FIG. 10, d represents the distance from the driver to the virtual screen. This scale changes the scale of the projected figure. However, since the magnitude relationship between objects does not change, it is not very important to set this value to remove hidden objects. In this embodiment, d is set to 1.0 m as the distance from the agent to the windshield.

上記のようにして得たオブジェクトの4隅の座標を透視変換すると、仮想スクリーン上における他オブジェクトの座標は次式で表せる。
そして、仮想スクリーン上に透視されたオブジェクトの輪郭を与える座標は次式のように決定される。
When the coordinates of the four corners of the object obtained as described above are perspective-transformed, the coordinates of other objects on the virtual screen can be expressed by the following equations.
The coordinates that give the outline of the object seen through on the virtual screen are determined as follows.

また、自車からの距離は次式によって算出することができる(Step2)。
これによって、スクリーン上での大きさと、自車からの距離が分かるので、Zソート法を用いて可視判定を行なうことができる状態となる。なお、Zソート法は、視点から遠いものから順番に描画することで、後ろのものを手前の物体で上書きしていく手法である。
Moreover, the distance from the own vehicle can be calculated by the following equation (Step 2).
As a result, the size on the screen and the distance from the own vehicle can be known, so that visibility can be determined using the Z sort method. Note that the Z sort method is a method in which the object behind is overwritten by drawing in order from the object far from the viewpoint.

次に可視判定(Step3)について説明する。可視判定は、上記数16によって算出された自車と他の車両及び他オブジェクトとの距離の遠近によって、近い(最前面)側から遠い(最奥面)側に向かってオブジェクトを並び変えた後に、これらのオブジェクトが可視可能であるか否かを判定する処理である。図11は、可視判定ベクトルを表している。可視判定ベクトルは、最前面側に位置するオブジェクトから最奥面に位置するオブジェクトのそれぞれについて、自車から見えるか否かを「1」「0」で表したものである。可視判定の具体的な手順を以下に説明するが、ベクトルの要素とは、例えば、a=[1 2]というベクトルがあったときに、1や2等、ベクトルを構成する数値のことを「要素」といい、可視判定ベクトルの最後の要素というと、可視判定ベクトルを構成する数値の並びの中で、一番最後の数値のことを意味する。本実施例の場合、可視判定ベクトルを構成する数値とエージェントが知覚可能なオブジェクトとは一対一に対応しているので、要素=オブジェクトと考えることができる。したがって、可視判定ベクトルの最後の要素を1にするということは、一番遠くにあるオブジェクトは可視であるとすることを意味する。可視判定は、具体的には以下の手順で行なわれる。
(1)可視判定ベクトルの最後の要素の値を1にする
(2)I=1〜N−1について、以下の(3)、(4)を繰り返す
(3)可視判定ベクトルのN−I番目の要素の値を1にする
(4)N−I番目のオブジェクトと、可視判定ベクトルの要素の値が1であるN−I番目以降のオブジェクトとの遮蔽判定を行なう。可視の場合は、可視判定ベクトルの値はそのまま、また必要があれば可視領域の修正を行ない、不可視の場合は、可視判定ベクトルの値を0に変更する
Next, the visibility determination (Step 3) will be described. Visibility determination is performed after objects are rearranged from the near (frontmost) side to the farthest (backmost) side according to the distance between the own vehicle calculated by the above equation 16 and other vehicles and other objects. This is a process for determining whether or not these objects are visible. FIG. 11 shows the visibility determination vector. The visibility determination vector is expressed by “1” or “0” as to whether or not each of the objects located on the foreground side to the object located on the farthest side is visible from the own vehicle. A specific procedure of the visibility determination will be described below. The vector element is a numerical value constituting a vector such as 1 or 2 when there is a vector a = [1 2]. The term “element” refers to the last element of the visibility determination vector, which means the last numerical value in the sequence of values constituting the visibility determination vector. In the case of the present embodiment, since the numerical value constituting the visibility determination vector and the object that can be perceived by the agent have a one-to-one correspondence, it can be considered that element = object. Therefore, setting the last element of the visibility determination vector to 1 means that the farthest object is visible. Specifically, the visibility determination is performed according to the following procedure.
(1) The value of the last element of the visibility determination vector is set to 1. (2) The following (3) and (4) are repeated for I = 1 to N−1. (4) The occlusion determination is performed between the NI-th object and the NI-th and subsequent objects whose element value of the visibility determination vector is 1. If it is visible, the value of the visibility determination vector remains as it is, and if necessary, the visible region is corrected. If it is not visible, the value of the visibility determination vector is changed to 0.

ここで、上記の遮蔽判定について具体的に説明する。図12は、遮蔽判定を説明するための図であり、I=2番目のオブジェクトがI=1番目のオブジェクトによって遮蔽されているのか否かを判定する場合を表したものである。仮想スクリーン上におけるI=1番目のオブジェクト(オブジェクト1)の外形の座標は、(ymax1,zmax1),(ymin1,zmin1)によって表される。また、仮想スクリーン上におけるI=2番目のオブジェクト(オブジェクト2)の外形の座標は、(ymax2,zmax2),(ymin2,zmin2)によって表される。そして、オブジェクト2がオブジェクト1によって遮蔽されているか否かは、以下のように判定する。
max1>ymax2、ymin1<ymin2、zmax1>zmax2、zmin1<zmin2
この条件をすべて満たす場合には、オブジェクト2はオブジェクト1に完全に遮蔽されているので不可視と判断する。
max1>ymax2、ymin1>ymin2、ymax2>ymin1
この条件をすべて満たす場合には、オブジェクト2はオブジェクト1に部分的に遮蔽されているので可視と判断すると共に、ymax2=ymin1に変更する。
max1<ymax2、ymin1<ymin2、ymax1>ymin2
この条件をすべて満たす場合には、オブジェクト2はオブジェクト1に部分的に遮蔽されているので可視と判断すると共に、ymin2=ymax1に変更する。
min1>ymax2、ymin2>ymax1、zmin1>zmax2、zmin2>zmax1
この条件の何れかを満たす場合には、オブジェクト2はオブジェクト1を遮蔽していないので可視と判断する。
Here, the above-described shielding determination will be specifically described. FIG. 12 is a diagram for explaining the occlusion determination, and represents a case where it is determined whether or not the I = 2nd object is occluded by the I = 1st object. The coordinates of the outer shape of the I = 1st object (object 1) on the virtual screen are represented by (y max1 , z max1 ), (y min1 , z min1 ). Further, the coordinates of the outer shape of the I = 2nd object (object 2) on the virtual screen are represented by (y max2 , z max2 ), (y min2 , z min2 ). Then, whether or not the object 2 is shielded by the object 1 is determined as follows.
y max1 > y max2 , y min1 <y min2 , z max1 > z max2 , z min1 <z min2
If all of these conditions are satisfied, the object 2 is completely hidden by the object 1 and is thus determined to be invisible.
y max1 > y max2 , y min1 > y min2 , y max2 > y min1
If all of these conditions are satisfied, the object 2 is partially occluded by the object 1, so that it is determined to be visible, and y max2 = y min1 is changed.
y max1 <y max2 , y min1 <y min2 , y max1 > y min2
When all of these conditions are satisfied, the object 2 is partially covered by the object 1 and thus determined to be visible, and is changed to y min2 = y max1 .
y min1 > y max2 , y min2 > y max1 , z min1 > z max2 , z min2 > z max1
If any one of these conditions is satisfied, it is determined that the object 2 is visible because it does not cover the object 1.

図13は、隠れオブジェクトの除去についての具体例を表したものであり、図13(a)は一例としての自車と他のオブジェクトの上から見た配置を表しており、図13(b)は、自車から見た仮想スクリーン上に表される他の各オブジェクトの輪郭を表したものである。図13(a)の場合、自車から見て一番手前側から「大型車」(I=1)、「乗用車」(I=2)、「乗用車」(I=3)、「信号機」(I=4)の順で各オブジェクトが並んでいる。当該各オブジェクトの並びは、数16に示した式に基づいて決定される。図13(a)に示した各オブジェクトの配置を、自車から見た仮想スクリーン上に表すと図13(b)のようになる。すなわち、一番手前側に「大型車」(I=1)が見え、当該「大型車」によって「乗用車」(I=3)及び「信号機」(I=4)が隠され、「乗用車」(I=2)の一部が「大型車」によって隠された状態になっている。この場合の、「乗用車」(I=3)及び「信号機」(I=4)が「隠れオブジェクト」となる。   FIG. 13 shows a specific example of hidden object removal, and FIG. 13A shows an arrangement of the vehicle and other objects as an example, as shown in FIG. 13B. Represents the outline of each other object represented on the virtual screen as seen from the vehicle. In the case of FIG. 13 (a), the “large vehicle” (I = 1), “passenger car” (I = 2), “passenger car” (I = 3), “traffic light” (I = 4) Each object is arranged in the order. The arrangement of the objects is determined based on the formula shown in Equation 16. FIG. 13B shows the arrangement of the objects shown in FIG. 13A on a virtual screen viewed from the host vehicle. That is, the “large vehicle” (I = 1) is seen on the foremost side, the “passenger vehicle” (I = 3) and the “traffic light” (I = 4) are hidden by the “large vehicle”, and the “passenger vehicle” (I = 2) A part of it is hidden by a “large car”. In this case, “passenger car” (I = 3) and “traffic light” (I = 4) are “hidden objects”.

各オブジェクトが「隠れオブジェクト」であるか否かの判定は、図11、図12を用いて説明した可視判定ベクトルによって行われる。具体的には、図14に示すように、はじめに一番遠い「信号機」(I=4)の可視判定ベクトルのI=4の要素の値を「1」とする。次に、「信号機」(I=4)が「乗用車」(I=3)によって遮蔽されているか否かを判断する。この例では遮蔽されていないので、可視判定ベクトルのI=4の要素の値には「1」を記録し、「乗用車」(I=3)の要素の値にも「1」を記録する。次いで、「乗用車」(I=3)が「乗用車」(I=2)によって遮蔽されているか否か、及び「信号機」(I=4)が「乗用車」(I=2)によって遮蔽されているか否かを判断する。この例では、「信号機」(I=4)及び「乗用車」(I=3)は「乗用車」(I=2)によって遮蔽されていないので、可視判定ベクトルのI=2、I=3、I=4の要素の値にはそれぞれ「1」が記録される。なお、「乗用車」(I=3)は、「乗用車」(I=2)と一部重なる部分があるので、「乗用車」(I=3)の可視領域を修正する。次いで、「乗用車」(I=2)が「大型車」(I=1)によって遮蔽されているか否か、「乗用車」(I=3)が「大型車」(I=1)によって遮蔽されているか否か、及び「信号機」(I=4)が「大型車」(I=1)によって遮蔽されているか否かを判断する。図示した例では、「乗用車」(I=2)は「大型車」(I=1)に遮蔽されておらず、前記可視領域が修正された「乗用車」(I=3)及び「信号機」(I=4)が「大型車」(I=1)に遮蔽されていると判断されるので、可視判定ベクトルのI=1、I=2の要素の値には「1」が記録さ、I=3、I=4の要素の値には「0」が記録される。   Whether each object is a “hidden object” is determined based on the visibility determination vector described with reference to FIGS. Specifically, as shown in FIG. 14, first, the value of the element of I = 4 of the visibility determination vector of the farthest “traffic light” (I = 4) is set to “1”. Next, it is determined whether or not the “traffic light” (I = 4) is blocked by the “passenger car” (I = 3). In this example, since it is not shielded, “1” is recorded as the value of the element of I = 4 in the visibility determination vector, and “1” is also recorded as the value of the element of “passenger car” (I = 3). Next, whether the "passenger car" (I = 3) is shielded by the "passenger car" (I = 2) and whether the "traffic light" (I = 4) is shielded by the "passenger car" (I = 2) Judge whether or not. In this example, the “traffic light” (I = 4) and the “passenger car” (I = 3) are not shielded by the “passenger car” (I = 2), so that the visibility determination vectors I = 2, I = 3, I “1” is recorded as the value of each element of = 4. The “passenger car” (I = 3) has a portion that partially overlaps with the “passenger car” (I = 2), so the visible region of the “passenger car” (I = 3) is corrected. Next, whether the “passenger car” (I = 2) is shielded by the “large car” (I = 1), or the “passenger car” (I = 3) is shielded by the “large car” (I = 1). And whether or not the “traffic light” (I = 4) is blocked by the “large vehicle” (I = 1). In the illustrated example, the “passenger car” (I = 2) is not shielded by the “large car” (I = 1), and the “passenger car” (I = 3) and “traffic light” (I Since it is determined that I = 4) is shielded by the “large vehicle” (I = 1), “1” is recorded in the values of the elements of the visibility determination vector I = 1 and I = 2. “0” is recorded as the value of the element of = 3 and I = 4.

以上の処理により、可視判定ベクトルが「0」である「乗用車」(I=3)及び「信号機」(I=4)は、視覚となる位置関係にあるということで除去される。   With the above processing, the “passenger car” (I = 3) and “traffic light” (I = 4) whose visibility determination vector is “0” are removed because they are in a visual positional relationship.

そして、この死角となる位置関係にある物体の除去後、視野内の可視オブジェクトを見落とすというヒューマン・エラーを模擬する処理を行なう(図7のステップS7)。この処理は、図15に示すように、その前までの処理によって除去されず残った視野内の可視オブジェクトの総数とID番号及び見落としが発生する確率に基づき行われるものである。図15に示すように、まず一様分布に従う0から1までの間の実数値をランダムに発生させる。次に、当該ランダムに発生させた数値が、上記「見落としが発生する確率」よりも小さい(yes)か否(no)かを判定する。上記ランダムに発生させた数値が「見落としが発生する確率」よりも小さい(yes)場合には、見落としによって知覚されないオブジェクトとして除外する処理を行なう。また、ランダムに発生させた数値が「見落としが発生する確率」よりも大きい(no)場合には、知覚されたオブジェクトとして、総数とID番号を記憶用変数に記憶する処理を行なう。   Then, after removing the object in the positional relationship that becomes the blind spot, a process for simulating a human error of overlooking a visible object in the field of view is performed (step S7 in FIG. 7). As shown in FIG. 15, this processing is performed based on the total number of visible objects in the field of view that remain without being removed by the previous processing, the ID number, and the probability that an oversight will occur. As shown in FIG. 15, first, a real value between 0 and 1 according to a uniform distribution is randomly generated. Next, it is determined whether the randomly generated numerical value is smaller (yes) or not (no) than the “probability of occurrence of oversight”. When the randomly generated numerical value is smaller than the “probability of occurrence of oversight” (yes), a process of excluding it as an object that is not perceived by oversight is performed. If the randomly generated numerical value is larger than the “probability of occurrence of oversight” (no), a process of storing the total number and the ID number in the storage variables as perceived objects is performed.

以上のように、図7に示した知覚の模擬(ステップS4〜ステップS7)を行なった後に、知覚の模擬による情報に基づいて、エージェントに対して判断及び車両の操作を行なわせる(ステップS8)。次いで、シミュレーション領域内に存在するすべての車両について、同様に知覚の模擬及び当該知覚の模擬による情報に基づくエージェントの判断及び車両の操作を行なわせる処理を行なわせる。   As described above, after the simulation of perception (steps S4 to S7) shown in FIG. 7 is performed, the agent is caused to make a judgment and operate the vehicle based on the information based on the simulation of the perception (step S8). . Next, for all the vehicles existing in the simulation area, a process for causing the simulation of the perception and the determination of the agent based on the information by the simulation of the perception and the operation of the vehicle is performed.

これらの処理の後、ターゲットとなる自車について車両の運動模擬、移動を行なわせる処理を行ない(ステップS10)、自車の移動に基づいて次に説明するセクション間遷移の検出(ステップS11)、セクション間の遷移の判定(ステップS12)、車両存在情報マトリクスの更新(ステップS13)等の処理を行なう。   After these processes, a process for simulating and moving the vehicle of the target host vehicle is performed (step S10), and a transition between sections described below is detected based on the movement of the host vehicle (step S11). Processing such as determination of transition between sections (step S12), update of the vehicle presence information matrix (step S13), and the like are performed.

ステップS10に示す車両の運動模擬及び移動処理を行なった後、車両が別のセクションへと移動した場合には、車両存在情報マトリクスの内容を書き換える必要があるので、以下に示す処理内容によって車両存在情報マトリクスの更新を行なう。   After the vehicle motion simulation and movement process shown in step S10, when the vehicle moves to another section, it is necessary to rewrite the contents of the vehicle presence information matrix. Update the information matrix.

以下、図16等を用いて、ステップS11のセクション間遷移の検出からステップS13の車両存在情報マトリクスの更新までの処理について説明する。車両の位置、これまでにいたセクション番号、各セクションの2隅の座標が、それぞれ(X,Y)、S、(XSmax,YSmax)(XSmin,YSmin)で与えられる。また、前述した図6に示す遷移可能セクションマトリクスに示した情報が与えられる。各セクションの2隅の座標及び遷移可能セクションについては、シミュレーション実行前に予め設定されている。これらの情報に基づき、各車両についてセクション間の遷移(移動)を検出し(ステップS11)、遷移があった場合(ステップS12)に、車両存在情報マトリクスの更新(ステップS13)が行われる。 Hereinafter, the processing from the detection of the transition between sections in step S11 to the update of the vehicle presence information matrix in step S13 will be described with reference to FIG. The position of the vehicle, the section number so far, and the coordinates of the two corners of each section are given by (X V , Y V ), S i , (X Smax , Y Smax ) (X Smin , Y Smin ), respectively. Further, the information shown in the transitionable section matrix shown in FIG. 6 is given. The coordinates of the two corners of each section and the transitionable section are set in advance before executing the simulation. Based on these pieces of information, transition (movement) between sections is detected for each vehicle (step S11), and when there is a transition (step S12), the vehicle presence information matrix is updated (step S13).

図17は、セクション間の遷移検出についての説明図である。まず、(X,Y)、S、(XSmax,YSmax)(XSmin,YSmin)を基に、これまでのセクションに存在しているか否かの確認(存在確認)を行なう。存在確認は、図18を用いて以下に説明する方法で行われる。同図において、車両の位置は(XV1,YV1)、(XV2,YV2)で表される。このとき、セクションの左下、右上の頂点から車両までの位置ベクトルは、次式で与えられる。
これらの位置ベクトルの要素を用いて、次式に示すPXPXとPYを算出する。
このPXとPYを用いて、PX≦0及びPY≦0の場合には車両はセクション内に存在すると判断され、PX>0又はPY>0の場合には車両はセクション内に存在しないと判断される。
FIG. 17 is an explanatory diagram of transition detection between sections. First, based on (X V , Y V ), S i , (X Smax , Y Smax ) (X Smin , Y Smin ), it is confirmed whether or not it exists in the previous section (existence confirmation). . Existence confirmation is performed by the method described below with reference to FIG. In the figure, the position of the vehicle is represented by (X V1 , Y V1 ), (X V2 , Y V2 ). At this time, the position vector from the vertex at the lower left and upper right of the section to the vehicle is given by the following equation.
Using these position vector elements, PXPX and PY shown in the following equations are calculated.
Using PX and PY, if PX ≦ 0 and PY ≦ 0, it is determined that the vehicle exists in the section, and if PX> 0 or PY> 0, it is determined that the vehicle does not exist in the section. The

このような判断によって、これまでのセクション内にまだ存在していると判断された場合には、決定されたセクション番号Sを入力されたセクション番号Sとする。一方、これまでのセクション内に存在していないと判断された場合には、図6に示す遷移可能セクションで指定されるセクションについて存在確認を行ない、車両が存在しているセクションを探し出し、その番号を決定されたセクション番号Sとする。 If it is determined that such a section still exists in the previous section, the determined section number S j is set as the input section number S i . On the other hand, if it is determined that it does not exist in the previous section, the presence check is performed for the section specified in the transitionable section shown in FIG. Is the determined section number S j .

セクション間の遷移の判定(ステップS12)では、決定されたセクション番号Sと入力されたセクション番号Sとを比較し、それらが異なる場合には、セクション間の遷移が起ったか否かを示す変数Flag_Transを1とし、同じ場合には0とする。以上の処理により、車両が存在しているセクションと変数Flag_Transの値(0又は1)が得られる。 In the determination of the transition between sections (step S12), the determined section number S j is compared with the input section number S i, and if they are different, it is determined whether or not a transition between sections has occurred. The variable Flag_Trans shown is set to 1 and is set to 0 in the same case. Through the above processing, the section where the vehicle exists and the value (0 or 1) of the variable Flag_Trans are obtained.

次に、図19、図20を用いて車両存在情報マトリクスの更新について具体的に説明する。図19(a)は、修正前の車両存在情報マトリクスを表しており、セクションS内に存在する車両台数は4台であり、セクション内に存在する車両のID番号は、「7」「W」「9」「10」でありそれぞれ当該順序で並んでいる状態を表している。また、当該セクションSに隣接するセクションS内に存在する車両台数は3台であり、セクション内に存在する車両のID番号は、「2」「4」「13」であり、それぞれ当該順序で並んでいる状態を表している。 Next, the update of the vehicle presence information matrix will be specifically described with reference to FIGS. 19 and 20. FIG. 19A shows a vehicle presence information matrix before correction, the number of vehicles existing in the section S i is four, and the ID numbers of the vehicles existing in the section are “7” “W "9" and "10", respectively, representing a state of being arranged in the order. Further, the number of vehicles present within the section S j adjacent to the section S i is three, the ID number of the vehicles existing in the section, "2", "4", "13", respectively the order It represents the state of being lined up.

図19(a)に示した状態から、車両「W」がセクションSからセクションSに遷移した場合の車両存在情報マトリクスの修正について説明する。車両存在情報マトリクスの修正を行なう場合には、「遷移前のセクション番号」、「遷移後のセクション番号」、「車両のID番号」に基づいて次の処理が行われる(図18参照)。車両存在情報マトリクスのi行目(セクションS)から、値がWの列を探す。そして、Wがあった部位に0を代入するとともに、0を代入した部位の右側列に他の車両(他のID)がある場合には左に詰め、車両総数を1減らす処理を行なう。当該処理によって、図19(a)に示した車両存在情報マトリクスが、図19(b)のセクションSの行に示すように修正される。 The correction of the vehicle presence information matrix when the vehicle “W” transitions from section S i to section S j from the state shown in FIG. When the vehicle presence information matrix is corrected, the following processing is performed based on “section number before transition”, “section number after transition”, and “vehicle ID number” (see FIG. 18). A column having a value of W is searched from the i- th row (section S i ) of the vehicle presence information matrix. Then, 0 is assigned to the part where W is present, and if there is another vehicle (other ID) in the right column of the part where 0 is assigned, a process of reducing the total number of vehicles by 1 is performed. By the process, the vehicle presence information matrix shown in FIG. 19 (a) is modified as shown in the line section S i in FIG. 19 (b).

次に、車両存在情報マトリクスのj行目から、値が0になる初めの列の要素にWを代入し、車両総数に1を足す。以上の処理により、車両(一例としてID=Wの車両)がセクション間を遷移した場合の車両存在情報マトリクスの更新が行われる。   Next, from the j-th row of the vehicle presence information matrix, W is substituted for the element of the first column where the value becomes 0, and 1 is added to the total number of vehicles. With the above processing, the vehicle presence information matrix is updated when a vehicle (a vehicle with ID = W as an example) transitions between sections.

上述のように、セクション間の遷移を検出し遷移があった場合には車両存在情報マトリクスの更新処理をシミュレーション領域内に存在するすべての車両に対して行なった後、シミュレーション内の時間をサンプリング時間分だけ進める処理を行ない(ステップS14)、一つの処理サイクルを終了し、以降最初に設定された実行時間まで同様の処理を繰り返するようになっている。   As described above, when a transition between sections is detected and there is a transition, the vehicle presence information matrix is updated for all the vehicles existing in the simulation area, and the time in the simulation is set as the sampling time. The process is advanced by the amount of time (step S14), one process cycle is terminated, and thereafter the same process is repeated until the first set execution time.

上記に述べたような本発明の交通流シミュレーションにより、エージェントの知覚・認識・判断・操作という一連の認知的行為によって仮想車両一台一台が移動し、さらにはエージェントが知覚ミス・認識ミス・判断ミスによって交通事故が発生するような交通流シミュレーションを、高速に実行することができるようになる。このような交通流シミュレーションでは、例えば、車線変更をしようとしたときに、ちょうど自車から死角になっている領域に車両が隠れてしまっていたため、その存在に気付かずに車線変更を実行して衝突してしまう状況や、脇見をしていたために先行車が減速したことに気付かず、気付いてブレーキをかけたときにはもう間に合わずに追突してしまう状況等、現実に起る多くの事故を模擬できることになる。   By the traffic flow simulation of the present invention as described above, each virtual vehicle moves by a series of cognitive actions of agent perception, recognition, judgment and operation, and further, the agent detects perception errors, recognition errors, A traffic flow simulation in which a traffic accident occurs due to a judgment error can be executed at high speed. In such a traffic flow simulation, for example, when trying to change the lane, the vehicle was hidden in the area that was just a blind spot from the own vehicle, so the lane change was executed without noticing its existence. Simulates many accidents that occur in reality, such as situations where a car collides with you, or you do not realize that the preceding vehicle has slowed down because you were looking aside, and when you apply the brakes, It will be possible.

さらに、交通安全施策の導入前と導入後について、当該交通流シミュレーションをそれぞれ実施し、その結果得られる事故率などを比較すれば、事故削減に対する効果を直接的に評価することが可能となる。既に述べたように、交通事故は極めて稀なイベントであり、交通流シミュレーションにおいても、シミュレーション内の時間で最低でも2〜3か月分の計算を行なう必要があるので、本願発明による高速化の価値はきわめて高い。   Furthermore, if the traffic flow simulation is carried out before and after the introduction of the traffic safety measure and the accident rates obtained as a result are compared, the effect on the reduction of the accident can be directly evaluated. As already mentioned, traffic accidents are extremely rare events, and even in traffic flow simulations, it is necessary to perform calculations for at least two to three months within the simulation time. The value is extremely high.

なお、事故発生の判定は、一つの処理サイクルの終了後、次の処理サイクルが始まる前に行なう。事故発生の判定は、最も接近している車両を探索し、その距離が車両の大きさより小さくなったか否かで行なえば良い。これをシミュレーション領域中に存在しているすべての車両について行なう。事故発生の判定を行なうにあたっても、総当たりによる演算を行なうとすると、総数N台の車両が存在するとすれば、合計でN(N−1)/2回の衝突判定のための演算が必要となる。明らかに、車両同士の距離が離れすぎていて接触を起こす可能性の全くない組み合わせについても事故判定をする総当たり的な演算は無駄であり、シミュレーション時間の遅延、ハードウエアに対する負荷の増大といった問題を招く。しかしながら、本願発明に係るシミュレーション装置は、道路に関する情報として道路領域を細分化した車両存在情報マトリクスを設けることにより細分化した各領域に存在している車両の情報を持たせている。さらに、前記細分化した領域が隣接しているか否かを判別できる遷移可能セクションマトリクスを有しており、車両存在情報マトリクスと遷移可能セクションマトリクスとを組み合わせることによって、演算が必要な車両の組み合わせを特定することができ、ドライバの知覚の模擬のための近接車両の探索のためだけではなく、事故発生の判定を行なうにあたっても全く事故の発生する可能性の無い車両の組み合わせを排除し、計算量の低減を図ることができるという特徴を有しているものである。   The determination of the occurrence of an accident is made after the end of one processing cycle and before the start of the next processing cycle. The determination of the occurrence of an accident may be made by searching for the closest vehicle and determining whether the distance has become smaller than the size of the vehicle. This is performed for all vehicles existing in the simulation area. Even when determining the occurrence of an accident, if calculation is performed by brute force, if there are a total of N vehicles, a total of N (N-1) / 2 calculations for collision determination are required. Become. Obviously, the brute force calculation to judge accidents is also useless even for combinations where there is no possibility of contact due to the distance between vehicles being too far apart, and problems such as delay in simulation time and increased load on hardware Invite. However, the simulation apparatus according to the present invention provides information on vehicles existing in each subdivided area by providing a vehicle presence information matrix obtained by subdividing the road area as information relating to the road. Furthermore, it has a transitionable section matrix that can determine whether or not the subdivided areas are adjacent to each other. By combining the vehicle presence information matrix and the transitionable section matrix, a combination of vehicles that require computation can be obtained. In addition to searching for nearby vehicles to simulate the driver's perception, it is possible to eliminate the combination of vehicles that have no possibility of an accident when determining the occurrence of an accident, and the amount of calculation It has the feature that reduction of can be aimed at.

また、複数台のコンピュータを並列的に動作させて交通流シミュレーションを行なう場合、グリッドコンピューティングのように分散処理を行なうのではなく、分割されたセクションをグループ分けして、各グループ内のシミュレーションをそれぞれのコンピュータが行なうようにすることが好ましい。本発明の交通流シミュレーション装置においては、車両存在情報マトリクスを利用してセクション内にいる車両のID番号を管理している。したがって、隣接するセクションを担当するコンピュータにそのセクション内の車両の位置情報の提供を要求すると、要求を受信したコンピュータでは、そのコンピュータが管理している車両すべての位置情報を送信する必要はなく、要求に応じたセクション内の車両の位置情報のみを送信するだけで済むので、送信データ量の低減、シミュレーションの実行速度の高速化が図れるという特徴も有する。   Also, when traffic flow simulation is performed by operating multiple computers in parallel, distributed processing is not performed like grid computing, but the divided sections are grouped and simulations within each group are performed. It is preferable that each computer perform. In the traffic flow simulation apparatus of the present invention, the ID number of the vehicle in the section is managed using the vehicle presence information matrix. Therefore, if you request a computer in charge of an adjacent section to provide location information for vehicles in that section, the computer that received the request does not need to send location information for all vehicles managed by that computer, Since only the vehicle position information in the section according to the request needs to be transmitted, the transmission data amount can be reduced and the simulation execution speed can be increased.

なお、本発明の交通流シミュレーション装置は、上述の図示例にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。   The traffic flow simulation apparatus according to the present invention is not limited to the illustrated examples described above, and it is needless to say that various changes can be made without departing from the gist of the present invention.

図1は、本発明のシミュレーション装置のブロック図である。FIG. 1 is a block diagram of a simulation apparatus according to the present invention. 図2は、本発明におけるエージェントを説明するためのブロック図である。FIG. 2 is a block diagram for explaining an agent in the present invention. 図3は、シミュレーション領域の一例を示す地図および分割した小領域の図である。FIG. 3 is a diagram showing an example of a simulation area and a diagram of divided small areas. 図4は、シミュレーション領域である道路をモデル化した図である。FIG. 4 is a diagram modeling a road that is a simulation region. 図5は、車両存在情報マトリクスの一例を表す表である。FIG. 5 is a table showing an example of the vehicle presence information matrix. 図6は、遷移可能セクションマトリクスの一例を表す表である。FIG. 6 is a table showing an example of a transitionable section matrix. 図7は、本発明のシミュレーション処理のフローチャートである。FIG. 7 is a flowchart of the simulation process of the present invention. 図8は、一の車両に対して視野外となるオブジェクトを除外する算出処理を説明するために用いる図である。FIG. 8 is a diagram used for explaining calculation processing for excluding objects that are out of the field of view for one vehicle. 図9は、一の車両から見て死角となる位置に存在するオブジェクトを除外する算出処理を説明するためのフローチャートである。FIG. 9 is a flowchart for explaining a calculation process for excluding an object existing at a position that becomes a blind spot when viewed from one vehicle. 図10は、図9のフローチャートで行われる演算処理を説明するために用いる図である。FIG. 10 is a diagram used for explaining the arithmetic processing performed in the flowchart of FIG. 図11は、図9のフローチャートで行われる可視判定を説明するために用いる図である。FIG. 11 is a diagram used for explaining the visibility determination performed in the flowchart of FIG. 9. 図12は、図11の可視判定で行われる遮蔽判定を説明するために用いる図である。FIG. 12 is a diagram used for explaining the shielding determination performed in the visibility determination of FIG. 11. 図13は、隠れオブジェクトの除去の具体例を説明するための図である。FIG. 13 is a diagram for explaining a specific example of hidden object removal. 図14は、図13の隠れオブジェクトの除去において行われる可視判定を説明するために用いる図である。FIG. 14 is a diagram used for explaining the visibility determination performed in the removal of the hidden object in FIG. 13. 図15は、見落としの処理を説明するためのフローチャートである。FIG. 15 is a flowchart for explaining the oversight process. 図16は、車両の移動から車両存在情報マトリクスの更新までの処理内容を説明するためのフローチャートである。FIG. 16 is a flowchart for explaining the processing contents from the movement of the vehicle to the update of the vehicle presence information matrix. 図17は、図16に示した処理中の、車両のセクション間の遷移の有無を検出する処理を説明するための図である。FIG. 17 is a diagram for describing processing for detecting whether or not there is a transition between sections of the vehicle during the processing shown in FIG. 16. 図18は、図17に示した処理における演算処理を説明するために用いる図である。FIG. 18 is a diagram used for explaining the arithmetic processing in the processing shown in FIG. 図19は、図16に示した処理中の、車両存在情報マトリクスの更新処理の内容を説明するための図である。FIG. 19 is a diagram for explaining the contents of the vehicle presence information matrix update process during the process shown in FIG. 16. 図20は、図19に示した処理を説明するためのフローチャートである。FIG. 20 is a flowchart for explaining the processing shown in FIG.

符号の説明Explanation of symbols

1 交通シミュレーション装置
2 演算手段
3 記憶手段
4 入出力手段
20 エージェント
201 知覚部
202 認識部
203 判断部
204 操作部
DESCRIPTION OF SYMBOLS 1 Traffic simulation apparatus 2 Calculation means 3 Storage means 4 Input / output means 20 Agent 201 Perception part 202 Recognition part 203 Judgment part 204 Operation part

Claims (4)

交通網を移動する移動体の動きを模擬する交通流シミュレーション装置であって、該装置は、
移動体の少なくとも位置に関する位置情報を記憶する移動体情報記憶手段と、
前記位置情報を基にターゲットとなる移動体から見て死角となる位置関係にある物体を除去する、移動体上のエージェントの知覚を模擬する知覚模擬手段と、
前記知覚模擬手段による情報に基づきターゲットとなる移動体を操作する移動体運動模擬手段と、
を具備することを特徴とする交通流シミュレーション装置。
A traffic flow simulation device for simulating the movement of a moving body moving in a traffic network, the device comprising:
Mobile body information storage means for storing position information relating to at least the position of the mobile body;
A perceptual simulation means for simulating the perception of an agent on the moving body, which removes an object in a positional relationship that becomes a blind spot as seen from the target moving body based on the position information;
Mobile body motion simulation means for operating a target mobile body based on information by the perceptual simulation means;
A traffic flow simulation apparatus comprising:
請求項1に記載の交通流シミュレーション装置であって、さらに、前記知覚模擬手段により除去されず残った物体に対して、所定の確率で物体をさらに除去する見落とし処理手段を具備することを特徴とする交通流シミュレーション装置。   2. The traffic flow simulation apparatus according to claim 1, further comprising an oversight processing means for further removing an object with a predetermined probability with respect to an object remaining without being removed by the perceptual simulation means. Traffic flow simulation device. 請求項1又は請求項2に記載の交通流シミュレーション装置であって、さらに、
移動体上のエージェントの少なくとも視野に関する視野情報を記憶するエージェント情報記憶手段を具備し、
前記知覚模擬手段は、前記位置情報と視野情報を用いて視野内に存在する物体を特定し、特定された各物体に対してターゲットとなる移動体から見て死角となる位置関係にある物体を除去することを特徴とする交通流シミュレーション装置。
The traffic flow simulation device according to claim 1 or 2, further comprising:
Comprising agent information storage means for storing visual field information relating to at least the visual field of the agent on the moving object;
The perceptual simulation means identifies an object existing in the field of view using the position information and field of view information, and identifies an object in a positional relationship that is a blind spot when viewed from the target moving body with respect to each identified object. A traffic flow simulation device characterized by removing.
請求項1乃至請求項3の何れかに記載の交通流シミュレーション装置をコンピュータで実現するための交通流シミュレーションプログラムであって、コンピュータを上記各手段として機能させるための交通流シミュレーションプログラム。
A traffic flow simulation program for realizing the traffic flow simulation apparatus according to any one of claims 1 to 3 with a computer, wherein the traffic flow simulation program causes the computer to function as each of the above means.
JP2005230664A 2005-08-09 2005-08-09 Traffic flow simulation device Pending JP2007047972A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005230664A JP2007047972A (en) 2005-08-09 2005-08-09 Traffic flow simulation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005230664A JP2007047972A (en) 2005-08-09 2005-08-09 Traffic flow simulation device

Publications (1)

Publication Number Publication Date
JP2007047972A true JP2007047972A (en) 2007-02-22

Family

ID=37850756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005230664A Pending JP2007047972A (en) 2005-08-09 2005-08-09 Traffic flow simulation device

Country Status (1)

Country Link
JP (1) JP2007047972A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008171357A (en) * 2007-01-15 2008-07-24 Toyota Central R&D Labs Inc Traffic simulation device
JP2008217113A (en) * 2007-02-28 2008-09-18 Toyota Central R&D Labs Inc Accident occurrence prediction simulation device, method and program, and security system evaluation device and accident alarm device
WO2011018854A1 (en) 2009-08-13 2011-02-17 富士通株式会社 Simulator
DE102010032300A1 (en) 2009-08-28 2011-06-22 Fujitsu Ltd., Kanagawa Simulator of distributed processing type
WO2011158482A1 (en) * 2010-06-16 2011-12-22 パナソニック株式会社 Accident reduction measure simulation device and accident reduction measure simulation method
JP2012118603A (en) * 2010-11-29 2012-06-21 Fujitsu Ltd Simulation device and simulation program
US11595481B2 (en) 2021-06-08 2023-02-28 Toyota Jidosha Kabushiki Kaisha Multi-agent simulation system
WO2023141483A1 (en) * 2022-01-21 2023-07-27 Argo AI, LLC Determining perceptual spatial relevancy of objects and road actors for automated driving

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05250594A (en) * 1992-03-04 1993-09-28 Hitachi Ltd Road traffic simulation system
JPH0969169A (en) * 1995-08-31 1997-03-11 Sega Enterp Ltd Picture processing method, pictore processor and virtual reality device
JPH09251596A (en) * 1996-03-15 1997-09-22 Hitachi Ltd Method and device for supporting safety at intersection
JP2000126462A (en) * 1999-11-17 2000-05-09 Namco Ltd Virtual reality experiencing game device
JP2000132783A (en) * 1998-10-26 2000-05-12 Semba Corp Traffic flow simulator, environment analysis system, traffic flow simulating method and storage medium
JP2000259603A (en) * 1999-03-12 2000-09-22 Makoto Morishita Medium effect check simulator, method for simulating effect of medium and storage medium
JP2002163748A (en) * 2000-11-27 2002-06-07 Natl Inst For Land & Infrastructure Management Mlit Traffic flow prediction and control system by traffic flow simulating device
JP2004199287A (en) * 2002-12-17 2004-07-15 Honda Motor Co Ltd Road traffic simulation system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05250594A (en) * 1992-03-04 1993-09-28 Hitachi Ltd Road traffic simulation system
JPH0969169A (en) * 1995-08-31 1997-03-11 Sega Enterp Ltd Picture processing method, pictore processor and virtual reality device
JPH09251596A (en) * 1996-03-15 1997-09-22 Hitachi Ltd Method and device for supporting safety at intersection
JP2000132783A (en) * 1998-10-26 2000-05-12 Semba Corp Traffic flow simulator, environment analysis system, traffic flow simulating method and storage medium
JP2000259603A (en) * 1999-03-12 2000-09-22 Makoto Morishita Medium effect check simulator, method for simulating effect of medium and storage medium
JP2000126462A (en) * 1999-11-17 2000-05-09 Namco Ltd Virtual reality experiencing game device
JP2002163748A (en) * 2000-11-27 2002-06-07 Natl Inst For Land & Infrastructure Management Mlit Traffic flow prediction and control system by traffic flow simulating device
JP2004199287A (en) * 2002-12-17 2004-07-15 Honda Motor Co Ltd Road traffic simulation system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008171357A (en) * 2007-01-15 2008-07-24 Toyota Central R&D Labs Inc Traffic simulation device
JP2008217113A (en) * 2007-02-28 2008-09-18 Toyota Central R&D Labs Inc Accident occurrence prediction simulation device, method and program, and security system evaluation device and accident alarm device
WO2011018854A1 (en) 2009-08-13 2011-02-17 富士通株式会社 Simulator
JP5310859B2 (en) * 2009-08-13 2013-10-09 富士通株式会社 Simulator
US8849625B2 (en) 2009-08-13 2014-09-30 Fujitsu Limited Distributed process simulator
DE102010032300A1 (en) 2009-08-28 2011-06-22 Fujitsu Ltd., Kanagawa Simulator of distributed processing type
US8280706B2 (en) 2009-08-28 2012-10-02 Fujitsu Limited Distributed processing-type simulator
WO2011158482A1 (en) * 2010-06-16 2011-12-22 パナソニック株式会社 Accident reduction measure simulation device and accident reduction measure simulation method
JP2012118603A (en) * 2010-11-29 2012-06-21 Fujitsu Ltd Simulation device and simulation program
US11595481B2 (en) 2021-06-08 2023-02-28 Toyota Jidosha Kabushiki Kaisha Multi-agent simulation system
WO2023141483A1 (en) * 2022-01-21 2023-07-27 Argo AI, LLC Determining perceptual spatial relevancy of objects and road actors for automated driving

Similar Documents

Publication Publication Date Title
US11513523B1 (en) Automated vehicle artificial intelligence training based on simulations
CN106980813B (en) Gaze generation for machine learning
JP2007047972A (en) Traffic flow simulation device
US11465650B2 (en) Model-free reinforcement learning
US11892847B2 (en) Onboard use of scenario description language
CN109101690A (en) Method and apparatus for rendering the scene in Vehicular automatic driving simulator
US11645518B2 (en) Multi-agent simulations
JP4841903B2 (en) Driving simulator
JP2008203913A (en) Traffic flow simulation apparatus
CN106529392A (en) Sensor-data generation in virtual driving environment
Niranjan et al. Deep learning based object detection model for autonomous driving research using carla simulator
KR102565573B1 (en) Metric back-propagation for subsystem performance evaluation
CN107589418A (en) Virtual sensor data generation for the detection of guard post receiver
US11604908B2 (en) Hardware in loop testing and generation of latency profiles for use in simulation
Charissis et al. Evolution of a full-windshield HUD designed for current VANET communication standards
CN113022581A (en) Method and apparatus for determining a configuration for an autonomous vehicle
JP4412261B2 (en) Traffic simulation apparatus, method and program
CN115916615A (en) Behavior prediction for ambient factors
JP2009181187A (en) Behavioral model creation device and program
Candela et al. Fast collision prediction for autonomous vehicles using a stochastic dynamics model
CN114677662A (en) Method, device, equipment and storage medium for predicting vehicle front obstacle state
US11928399B1 (en) Simulating object occlusions
Chakra Exiting the simulation: The road to robust and resilient autonomous vehicles at scale
JP6481596B2 (en) Evaluation support device for vehicle head-up display
US20230082365A1 (en) Generating simulated agent trajectories using parallel beam search

Legal Events

Date Code Title Description
A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20061205

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20061222