JP4159049B2 - Human support system, human support method, and human support program - Google Patents

Human support system, human support method, and human support program Download PDF

Info

Publication number
JP4159049B2
JP4159049B2 JP2004026951A JP2004026951A JP4159049B2 JP 4159049 B2 JP4159049 B2 JP 4159049B2 JP 2004026951 A JP2004026951 A JP 2004026951A JP 2004026951 A JP2004026951 A JP 2004026951A JP 4159049 B2 JP4159049 B2 JP 4159049B2
Authority
JP
Japan
Prior art keywords
vehicle
information
position information
pedestrian
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004026951A
Other languages
Japanese (ja)
Other versions
JP2005222153A (en
Inventor
亨 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency, National Institute of Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2004026951A priority Critical patent/JP4159049B2/en
Publication of JP2005222153A publication Critical patent/JP2005222153A/en
Application granted granted Critical
Publication of JP4159049B2 publication Critical patent/JP4159049B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

本発明は、情報インフラストラクチャの整備された都市空間に生活する情報技術から疎外され、その恩恵を十分に得られていないお年寄りや身体障害者等を支援する人間支援システム、人間支援方法及び人間支援プログラムに関する。   The present invention relates to a human support system, a human support method, and a human being, which are alienated from information technology living in an urban space where an information infrastructure is established, and support the elderly and disabled persons who have not sufficiently obtained the benefits. Regarding support programs.

近年、情報通信技術の急速な進展に伴い、情報インフラストラクチャ整備が進められている。しかしながら、膨大な情報量に対応する強力で拡張性の高い情報インフラ整備が進み、日々の生活でその恩恵を得る人が増える一方で、病院や家庭内の高齢者や機能障害者に代表される、情報技術から疎外され、その恩恵を十分得られていない情報弱者と呼ばれる人々との格差が相対的に進んでいるのも現状である。   In recent years, with the rapid development of information communication technology, information infrastructure has been developed. However, while the development of a powerful and highly scalable information infrastructure that can handle enormous amounts of information has progressed and the number of people who benefit from it increases in daily life, it is represented by elderly people and people with functional disabilities in hospitals and homes. However, the current situation is that the disparity with people called information weak who have been marginalized from information technology and have not been able to fully benefit from it has been relatively advanced.

また、まだ記憶に新しい米国同時多発テロ時の救出時、携帯電話の保持により早期救出された人の例より、災害時に携帯情報端末保持が有効に機能することが保証されているが、またその一方で、携帯電話等の通信局が壊滅してしまうと全く機能しなくなるという弱点があることを、1995年の阪神淡路大震災で露呈している。そして、また、前述した機能操作の煩雑さから弱者の携帯情報端末保有率の低さという情報弱者の問題提起がなされる。少子高齢化社会への深刻な進展の中、こうした情報弱者は益々増加するという警鐘が鳴り響く。こうした社会的背景の中、情報バリアフリーのナチュラルインタフェースを備え人間を空間的にサポートする人間中心型の都市空間の構築は急務である。   In addition, it is guaranteed that the retention of portable information terminals will function effectively in the event of a disaster than the example of people who were rescued early by the retention of mobile phones at the time of the new terrorist attacks in the United States. On the other hand, the 1995 Hanshin-Awaji Earthquake reveals that there is a weak point that if a communication station such as a mobile phone is destroyed, it will not function at all. In addition, due to the complexity of the above-described functional operations, a problem for information weak persons, such as low personal information terminal holding ratios, is raised. In the midst of serious progress toward an aging society with a declining birthrate, a warning will sound that such vulnerable people will increase more and more. In such a social background, it is urgent to build a human-centered urban space that has a natural interface that is free of information barriers and that supports people spatially.

一方、運輸省の先端安全自動車推進検討会により、エレクトロニクス技術等の新技術により自動車を高知能化して安全性を格段に高めるための予防安全技術が提案されている(非特許文献1)。この予防安全技術は、通常走行時における運転者の危険状態、走行環境の危険状況等を各種センサにより検知し運転者に警報すること、運転者の負担を軽減すること等により自己の未然防止を図るために考案されている。しかしながら、危険状況の直前に危険を報知することはできても、危険状況に陥るより前の状況は知らせることができない。また、危険状況の直前に危険を突然表示すると、その直前の表示が視界に入ることにより、周辺の視野が極端に見えにくくなるという特性が顕著に見られることが知られている。   On the other hand, the advanced safety car promotion study group of the Ministry of Transport has proposed a preventive safety technique for enhancing the safety of a car by using new technologies such as electronics technology (Non-Patent Document 1). This preventive safety technology detects the driver's dangerous condition during normal driving, the dangerous situation of the driving environment, etc. with various sensors and alerts the driver, reducing the driver's burden, etc. It is designed for illustration purposes. However, even if the danger can be notified immediately before the dangerous situation, the situation before the dangerous situation cannot be notified. Further, it is known that when a danger is suddenly displayed immediately before a dangerous situation, the display immediately before that enters the field of view, so that the peripheral visual field becomes extremely difficult to see.

このように、例えば都市空間において歩行者、車両の存在を検出し、存在を提示することはできたが、情報過多になってしまい、かえって運転者に対し混乱を招き支障となってしまう。
先端安全自動車推進検討会事務局 運輸省自動車交通局技術安全部“先端安全自動車”平成9年10月発行
In this manner, for example, the presence of pedestrians and vehicles can be detected and presented in an urban space, but the information becomes excessive, which causes confusion and hinders the driver.
Secretariat for the Promotion of Advanced Safety Vehicles Promotion Ministry of Transportation

情報バリアフリーのナチュラルインタフェースを備え人間を空間的にサポートする人間中心型の都市空間の構築は急務であり、その一方で、自動車の運転に際し、自動車を高知能化して安全性を格段に高めるための予防安全技術が提案されている。しかしながら、危険状況の直前に危険を報知することはできても、危険状況に陥るより前の状況は知らせることができないため、逆に運転者を危険状況に陥らせる危険があった。   It is urgent to build a human-centered urban space with an information barrier-free natural interface that supports people spatially. On the other hand, when driving a car, to make the car highly intelligent and greatly improve safety. Preventive safety technology has been proposed. However, even though the danger can be notified immediately before the dangerous situation, the situation before the dangerous situation cannot be notified, so there is a danger that the driver may fall into the dangerous situation.

このように、例えば都市空間において歩行者、車両の存在を検出し、存在を提示することはできたが、情報過多になってしまい、かえって運転者に対し混乱を招き支障となってしまう。   In this manner, for example, the presence of pedestrians and vehicles can be detected and presented in an urban space, but the information becomes excessive, which causes confusion and hinders the driver.

本発明は上記課題を解決するためになされたもので、その目的とするところは、歩行者の歩行者や運転者の運転を支援する人間支援システム、人間支援方法及び人間支援プログラムを提供することにある。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a human support system, a human support method, and a human support program that support driving of pedestrians and drivers. It is in.

本発明のある観点によれば、車両の進路に設置されたカメラと、前記カメラで撮像された進路画像情報を画像処理し車両の位置情報を算出する車両位置情報算出部と、前記カメラで撮像された進路画像情報を画像処理し歩行者の位置情報を算出する歩行者位置情報算出部と、前記車両位置情報と、前記歩行者位置情報とに基づき、歩行者に車両の存在を知らせるための歩行支援情報を生成し、又は前記車両に歩行者の存在を知らせるための運転支援情報を生成する人間支援管理部と、前記歩行支援情報又は前記運転支援情報を送信する通信制御手段とを具備してなることを特徴とする人間支援システムが提供される。   According to an aspect of the present invention, a camera installed in the course of a vehicle, a vehicle position information calculation unit that calculates the position information of the vehicle by performing image processing on the route image information captured by the camera, and imaged by the camera In order to inform the pedestrian of the presence of the vehicle based on the pedestrian position information calculation unit that calculates the pedestrian position information by performing image processing on the obtained route image information, the vehicle position information, and the pedestrian position information. A human support management unit that generates walking support information or generates driving support information for notifying the vehicle of the presence of a pedestrian, and communication control means that transmits the walking support information or the driving support information. A human support system characterized by the above is provided.

また、本発明の別の観点によれば、車両の進路に設置されたカメラで撮像された進路画像情報を画像処理し車両の位置情報を算出し、前記カメラで撮像された進路画像情報を画像処理し歩行者の位置情報を算出し、前記車両位置情報と、前記歩行者位置情報とに基づき、歩行者に車両の存在を知らせるための歩行支援情報を生成し、又は前記車両に歩行者の存在を知らせるための運転支援情報を生成し、前記歩行支援情報又は前記運転支援情報を送信することを特徴とする人間支援方法が提供される。   According to another aspect of the present invention, the course image information captured by a camera installed in the course of the vehicle is subjected to image processing to calculate the position information of the vehicle, and the course image information captured by the camera is imaged. Processing and calculating position information of the pedestrian, and generating walking support information for notifying the pedestrian of the presence of the vehicle based on the vehicle position information and the pedestrian position information; There is provided a human support method characterized by generating driving support information for notifying existence and transmitting the walking support information or the driving support information.

また、本発明のさらに別の観点によれば、コンピュータを、車両の進路に設置されたカメラで撮像された進路画像情報を画像処理し車両の位置情報を算出する車両位置情報算出部と、前記カメラで撮像された進路画像情報を画像処理し歩行者の位置情報を算出する歩行者位置情報算出部と、前記車両位置情報と、前記歩行者位置情報とに基づき、歩行者に車両の存在を知らせるための歩行支援情報を生成し、又は前記車両に歩行者の存在を知らせるための運転支援情報を生成する人間支援管理部と、前記歩行支援情報又は前記運転支援情報を送信する通信制御手段として機能させることを特徴とする人間支援プログラムが提供される。   According to still another aspect of the present invention, a computer uses a vehicle position information calculation unit that calculates the position information of the vehicle by performing image processing on the route image information captured by a camera installed in the route of the vehicle, Based on the pedestrian position information calculation unit that calculates the pedestrian position information by image processing the route image information captured by the camera, the vehicle position information, and the pedestrian position information, the presence of the vehicle to the pedestrian As a communication control means for generating walking support information for notifying, or generating driving support information for notifying the vehicle of the presence of a pedestrian, and transmitting the walking support information or the driving support information A human support program characterized by functioning is provided.

本発明によれば、歩行者の歩行者や運転者の運転を適切に支援することができる。   According to the present invention, it is possible to appropriately support driving of a pedestrian or a pedestrian.

以下、図面を参照しながら本発明の実施形態を説明する。
図1は本発明の一実施形態に係る人間支援システムが適用されるネットワークシステムの一例を示す図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing an example of a network system to which a human support system according to an embodiment of the present invention is applied.

図1に示すように、歩行者1と車両2がそれぞれ道路41及び42を矢印に示す方向に進行しており、交差点43に差しかかる状態を示している。交差点43には2台の交差点設置カメラ31及び32が設置されており、取得画像は無線通信によりサーバ3に送信される。車両2には、表示部22と、制御部23と、車両搭載カメラ24が搭載されている。また、車両2の運転者の頭部には視野画像撮像カメラ21が固定されており、運転者の視野画像を取得する。この視野画像と、車両搭載カメラ24で撮像された車内カメラ画像はサーバ3に送信される。また、制御部23は、車両2のモータやハンドルなどから車両速度情報Vを算出し、サーバ3に送信する。もちろん、車両2自体が車両速度を算出している場合、この車両速度情報Vを単にサーバ3に送信してもよい。サーバ3は、カメラ31,32及び車両2から受信した各種データに基づき歩行者の存在や車両の存在を報知するための運転支援情報を生成して車両2に送信し、表示部22に表示させる。また、車両2の存在を示す歩行支援情報は歩行者1が携帯する携帯情報端末11に送信され、その携帯情報端末11の表示部12に表示される。 As shown in FIG. 1, a pedestrian 1 and a vehicle 2 are traveling on roads 41 and 42 in directions indicated by arrows, respectively, and show a state of approaching an intersection 43. Two intersection installation cameras 31 and 32 are installed at the intersection 43, and the acquired image is transmitted to the server 3 by wireless communication. A display unit 22, a control unit 23, and a vehicle-mounted camera 24 are mounted on the vehicle 2. Moreover, the visual field imaging camera 21 is being fixed to the driver | operator's head of the vehicle 2, and a driver | operator's visual field image is acquired. The field-of-view image and the in-vehicle camera image captured by the vehicle-mounted camera 24 are transmitted to the server 3. In addition, the control unit 23 calculates vehicle speed information V v from the motor, the handle, or the like of the vehicle 2 and transmits it to the server 3. Of course, when the vehicle 2 itself is calculated vehicle speed, the vehicle speed information V v may simply be transmitted to the server 3. The server 3 generates driving support information for notifying the presence of a pedestrian and the presence of a vehicle based on various data received from the cameras 31 and 32 and the vehicle 2, transmits the driving support information to the vehicle 2, and causes the display unit 22 to display the driving support information. . The walking support information indicating the presence of the vehicle 2 is transmitted to the portable information terminal 11 carried by the pedestrian 1 and displayed on the display unit 12 of the portable information terminal 11.

図2は上記人間支援システムを構成する車両2、サーバ3及び交差点設置カメラ31、32の詳細な構成の一例を示す図である。   FIG. 2 is a diagram showing an example of a detailed configuration of the vehicle 2, the server 3, and the intersection installation cameras 31 and 32 constituting the human support system.

図2に示すように、交差点設置カメラ31はA点に設置されており、2つのカメラ31a及び31bを備える。カメラ31aはA点から道路42側を撮像するカメラであり、カメラ31bはA点から道路41側を撮像するカメラである。   As shown in FIG. 2, the intersection installation camera 31 is installed at point A, and includes two cameras 31a and 31b. The camera 31a is a camera that images the road 42 side from the point A, and the camera 31b is a camera that images the road 41 side from the point A.

交差点設置カメラ32はB点に設置されており、2つのカメラ32a及び32bを備える。カメラ32aはB点から道路42側を撮像するカメラであり、カメラ32bはB点から道路41側を撮像するカメラである。   The intersection installation camera 32 is installed at a point B, and includes two cameras 32a and 32b. The camera 32a is a camera that images the road 42 side from the point B, and the camera 32b is a camera that images the road 41 side from the point B.

サーバ3は、CPUと、このCPUによりアクセス可能な記憶装置39と、通信制御手段38とを備える。CPUが記憶装置39から読み出したプログラムを実行することにより、CPUが車両位置情報算出部33と、歩行者位置情報算出部34と、顔方向情報算出部35と、意図認識部36と、人間支援管理部37として機能する。また、CPUでの演算結果などは、通信制御手段38を介して外部端末等に送信され、また外部端末等からのデータは通信制御手段38で受信される。   The server 3 includes a CPU, a storage device 39 accessible by the CPU, and communication control means 38. When the CPU executes a program read from the storage device 39, the CPU executes a vehicle position information calculation unit 33, a pedestrian position information calculation unit 34, a face direction information calculation unit 35, an intention recognition unit 36, and a human support. It functions as the management unit 37. Further, the calculation result in the CPU is transmitted to the external terminal or the like via the communication control means 38, and the data from the external terminal or the like is received by the communication control means 38.

なお、図2では記載を省略しているが、携帯情報端末11及び車両2のいずれも通信制御手段を備え、これによりサーバ3と無線通信によりデータを送受することができる。   Although not shown in FIG. 2, both the portable information terminal 11 and the vehicle 2 are provided with a communication control unit, and can transmit and receive data to and from the server 3 by wireless communication.

カメラ31a、31b、32a及び32bで撮像された各画像データは無線通信によりサーバ3に送信される。サーバ3の通信制御手段38は、カメラ31a、31b、32a及び32bからの画像データを受信して車両位置情報算出部33又は歩行者位置情報算出部34に出力する。   Each image data captured by the cameras 31a, 31b, 32a, and 32b is transmitted to the server 3 by wireless communication. The communication control means 38 of the server 3 receives the image data from the cameras 31a, 31b, 32a and 32b and outputs it to the vehicle position information calculation unit 33 or the pedestrian position information calculation unit 34.

車両位置情報算出部33は、カメラ31aから得られたA点自動車画像データと、カメラ31cから得られたB点自動車画像データとに基づき車両位置情報Vを算出し、意図認識部36及び人間支援管理部37に出力する。 Vehicle position information calculation unit 33, a point A motor vehicle image data obtained from the camera 31a, calculates the vehicle position information V L on the basis of the point B car image data obtained from the camera 31c, intended recognition unit 36 and human The data is output to the support management unit 37.

歩行者位置情報算出部34は、カメラ31bから得られたA点歩行者画像データと、カメラ31dから得られたB点歩行者画像データとに基づき歩行者位置情報Pを算出し、人間支援管理部37に出力する。 Pedestrian position information calculator 34 calculates a point A pedestrian image data obtained from the camera 31b, the pedestrian position information P L based on the point B pedestrian image data obtained from camera 31d, Human Support The data is output to the management unit 37.

車両2に設けられた車両搭載カメラ24で得られた車内カメラ画像データと、運転者の頭部に固定された視野画像撮像カメラ21で得られた視野画像データは無線通信によりサーバ3に送信される。サーバ3の通信制御手段38は、カメラ21,24からの画像データを受信して顔方向情報算出部35に出力する。顔方向情報算出部35は、車内カメラ画像データ(運転者撮像画像データ)と視野画像データとに基づき運転者の顔の方向を示す顔方向情報θを算出して意図認識部36に出力する。なお、顔方向情報算出部35は、運転者撮像画像データのみに基づき画像処理により顔方向情報θを算出してもよいし、視野画像データのみに基づき顔方向情報θを算出してもよい。 In-vehicle camera image data obtained by the vehicle-mounted camera 24 provided in the vehicle 2 and visual field image data obtained by the visual field imaging camera 21 fixed to the driver's head are transmitted to the server 3 by wireless communication. The The communication control unit 38 of the server 3 receives the image data from the cameras 21 and 24 and outputs it to the face direction information calculation unit 35. Face direction information calculator 35 outputs the intended recognition unit 36 vehicle camera image data (driver captured image data) and calculates the face direction information theta D indicating the direction of the face of the driver based on the field image data . Incidentally, the face direction information calculator 35 may calculate the face direction information theta D by image processing based solely on the driver captured image data, and calculate the face direction information theta D based only on the field image data Good.

一方、制御部23からは車両2の速度情報Vが無線通信によりサーバ3に送信される。サーバ3の通信制御手段38は、制御部23からの速度情報Vを意図認識部36に出力する。 On the other hand, the speed information V v of the vehicle 2 from the control unit 23 is transmitted to the server 3 by wireless communication. Communication control means of the server 3 38 outputs the speed information V v from the control unit 23 to the intention recognizing section 36.

意図認識部36は、制御部23から得られた速度情報Vと、顔方向情報算出部35から得られた顔方向情報θと、車両位置情報算出部33から得られた車両位置情報Vとに基づき運転者の意図認識結果を算出して人間支援管理部37に出力する。 Intention recognizing section 36, the speed information V v obtained from the control unit 23, the face direction information theta D obtained from the face direction information calculator 35, the vehicle position information V obtained from the vehicle position information calculator 33 Based on L , the driver's intention recognition result is calculated and output to the human support manager 37.

人間支援管理部37は、車両位置情報算出部33からの車両位置情報Vと、歩行者位置情報算出部34からの歩行者位置情報Pと、意図認識部36からの意図認識結果とに基づき、歩行者の歩行を支援するための歩行支援情報を生成するとともに、車両の運転を支援するための運転支援情報を生成する。 Human Support management unit 37, a vehicle position information V L from the vehicle position information calculator 33, and the pedestrian position information P L from the pedestrian position information calculator 34, to the intended recognition result from the intention recognizing section 36 Based on this, the walking support information for supporting the walking of the pedestrian is generated, and the driving support information for supporting the driving of the vehicle is generated.

歩行支援情報は、通信制御手段38を介して歩行者1の携帯する携帯情報端末11に送信され、該携帯情報端末11の表示部12に表示される。また、運転支援情報は、通信制御手段38を介して車両2の表示部22に送信され、表示される。なお、これら歩行支援情報及び運転支援情報は、図2では通信制御手段38を介さずに送信される例として示してあるが、実際には通信制御手段38を介して送信される。   The walking support information is transmitted to the portable information terminal 11 carried by the pedestrian 1 via the communication control means 38 and displayed on the display unit 12 of the portable information terminal 11. Further, the driving support information is transmitted to the display unit 22 of the vehicle 2 via the communication control means 38 and displayed. Note that these walking support information and driving support information are shown as an example in which the walking support information and the driving support information are transmitted without going through the communication control means 38 in FIG. 2, but actually, they are sent through the communication control means 38.

また、サーバ3は、記憶装置39を備える。この記憶装置39には、上述したような各種データ処理に必要なデータや、演算結果として、例えばメンバーシップ関数や連想マトリクスなどを格納する。   The server 3 includes a storage device 39. The storage device 39 stores data necessary for various data processing as described above, and calculation results such as membership functions and association matrices.

次に、図3を用いて歩行者位置情報算出部34における歩行者位置情報算出処理について説明する。   Next, the pedestrian position information calculation process in the pedestrian position information calculation unit 34 will be described with reference to FIG.

図3に示すように、まずA,B2地点からの歩行者画像データを取得したオブジェクト位置抽出手段341は、歩行者画像データ中で注目すべきオブジェクトの位置を抽出する。注目すべきオブジェクトは、例えば歩行者の肌色の部分のように、歩行者以外のオブジェクトとは異なる色の部分に設定しておく。画像データで特定されるすべての位置I〜Iのうち、抽出されたオブジェクトとしての歩行者の肌色の部分の位置をP〜P(m≦n)とする。 As shown in FIG. 3, first, the object position extracting means 341 that has acquired the pedestrian image data from the points A and B2 extracts the position of the object to be noted in the pedestrian image data. The object to be noted is set in a color portion different from the objects other than the pedestrian, such as a skin color portion of the pedestrian. Of all the positions I 1 ~I n specified by the image data, the position of the pedestrian skin color portion of the extracted object and P 1 ~P m (m ≦ n ).

重心位置算出手段342は、オブジェクト位置抽出手段341で得られたオブジェクト位置P〜Pに基づき重心位置P(重心位置情報)を算出する。これにより、ある時刻tにおける歩行者の位置が一意に特定される。 The center-of-gravity position calculation unit 342 calculates the center-of-gravity position P c (center-of-gravity position information) based on the object positions P 1 to P m obtained by the object position extraction unit 341. Thereby, the position of the pedestrian at a certain time t is uniquely specified.

特徴点抽出手段343は、重心位置算出手段342で得られた重心位置Pに基づき特徴点Cを算出する。特徴点とは、一定時間毎、すなわち一定時間についての代表的な歩行者の重心位置を示すものである。重心位置算出手段342で得られた時間tの重心位置をPCtとすると、重心位置PCtは時間の経過とともに変動する時系列データである。図4は、この時系列データとしての重心位置PCtを示す図である。図4(a)はx方向の重心位置PCxt、図4(b)はy方向の重心位置PCytである。これら重心位置PCxt及びPCytはともに200×1/60sの間に極大値や極小値をとる時系列データであるが、例えばサンプリング時間をこの200×1/60sに設定し、その極値のうちの例えば極大値を特徴点Pとする。もちろん、極値のうちの極小値や他の値を特徴点Pとしてもよい。図4の例の場合、特徴点Pのx方向の位置PLxは500(×0.6×10−3m)、y方向の位置PLyは700(×0.6×10−3m)程度となる。もちろん、この特徴点Pの算出は、この極値の抽出手法に限定されない。得られた特徴点Pが歩行者位置情報Pとして出力される。この特徴点Pはサンプリング時間経過毎に算出されるものであるため、このサンプリング時間経過毎に人間支援管理部37に出力される。 Feature point extraction unit 343 calculates a feature point C on the basis of the gravity center position P C obtained in the center of gravity position calculating means 342. The feature point indicates the position of the center of gravity of a typical pedestrian for every fixed time, that is, for a fixed time. When the center of gravity of the obtained time t at the center of gravity position calculating means 342 and P Ct, center-of-gravity position P Ct is the time series data that varies over time. FIG. 4 is a diagram showing the barycentric position PCt as the time series data. FIG. 4A shows the centroid position P Cxt in the x direction, and FIG. 4B shows the centroid position P Cyt in the y direction. These barycentric positions P Cxt and P Cyt are both time series data that takes a maximum value or a minimum value during 200 × 1/60 s . For example, the sampling time is set to 200 × 1/60 s, and out, for example, a maximum value and wherein point P L. Of course, the minimum value and other values may be characteristic point P L a of the extremes. In the case of the example of FIG. 4, the position P Lx in the x direction of the feature point P L is 500 (× 0.6 × 10 −3 m), and the position P Ly in the y direction is 700 (× 0.6 × 10 −3 m). ) Of course, the calculation of the feature point P L is not limited to the extraction technique of this extreme value. The obtained feature point P L is output as pedestrian position information P L. The feature point P L is because it is intended to be calculated for each elapsed sampling time, is outputted to the human support management section 37 every sampling time.

なお、特徴点Pの算出を行わずに時系列データである重心位置Pctを歩行者位置情報Pとして出力してもよい。 It is also possible to output the center-of-gravity position P ct is time-series data as a pedestrian position information P L without calculating the feature point P L.

以上の歩行者位置情報算出部34の歩行者位置情報算出と同様に、車両位置情報算出部33は、オブジェクト位置V〜V(k≦n)の抽出、重心位置Vctの算出、特徴点Cの算出を行い、得られた特徴点Vを車両位置情報Vとして車両意図認識部36及び人間支援管理部37に出力する。オブジェクト位置V〜Vの抽出は、上記オブジェクト位置抽出手段341によるオブジェクト位置P〜Pの抽出と同様の手法による。また、重心位置Vctの算出は、上記重心位置算出手段342における重心位置Pctの算出と同様の手法による。また、特徴点Vの算出は、上記特徴点抽出手段343における特徴点Pの算出と同様の手法による。 Similar to the pedestrian position information calculation of the pedestrian position information calculation unit 34 described above, the vehicle position information calculation unit 33 extracts the object positions V 1 to V k (k ≦ n), calculates the gravity center position V ct , and features. It performs calculation of the point C, and outputs a vehicle intended recognition unit 36 and human support management section 37 the resulting feature point V L as the vehicle position information V L. The object positions V 1 to V k are extracted by the same method as the object positions P 1 to P k extracted by the object position extracting unit 341. Further, calculation of the position of the center of gravity V ct is by the same method as calculating the center of gravity P ct in the center-of-gravity position calculating means 342. The calculation of the feature point V L is performed by the same method as the calculation of the feature point P L in the feature point extraction unit 343.

次に、意図認識部36における意図認識処理について説明する。なお、以下における意図認識部36における処理は、予め格納したデータを読み出し入力された車両位置情報V、速度情報V、顔方向情報θに基づき意図認識処理を実行し意図認識結果を生成する。 Next, the intention recognition process in the intention recognition unit 36 will be described. Note that the processing in the intention recognizing unit 36 described below executes intention recognition processing based on vehicle position information V L , speed information V v , and face direction information θ D inputted by reading out prestored data, and generates an intention recognition result. To do.

ある運転行動を起こそうとするとき、一般に運転者はある程度決まった順序で動作を行うことが確認されている。この運転動作時の顔の動作を検出し、その顔方向情報θと、車両速度情報V及び車両位置情報Vから運転意図を認識する。運転意図は、例えば右折、左折、直進などに分類される。 When attempting to take a certain driving action, it is generally confirmed that the driver operates in a certain order. Detecting the operation of the face of the driving operation, it recognizes its face direction information theta D, the driver's intention from the vehicle speed information V v and the vehicle position information V L. Driving intention is classified into, for example, right turn, left turn, and straight ahead.

本実施形態では、あいまいな概念である人間の意図に関する知識構築の手法として概念ファジイ集合(Conceptual Fuzzy Sets:以下ではCFSと称する)の知識表現を利用する。CFSは次の2つの性質を備える。
a)現実世界の数値データと人間が思考する記号を融合処理できる。
b)物理量から高次概念へのボトムアップ処理と、高次概念から物理量へのトップダウン処理を融合できる。
In the present embodiment, a knowledge representation of a concept fuzzy set (Conceptual Fuzzy Sets: hereinafter referred to as CFS) is used as a technique for constructing knowledge about a human intention that is an ambiguous concept. CFS has the following two properties.
a) The real-world numerical data and human-thinking symbols can be fused.
b) It is possible to fuse bottom-up processing from a physical quantity to a higher-order concept and top-down processing from a higher-order concept to a physical quantity.

以下に、顔方向情報θ、車両速度情報V及び車両位置情報Vから、運転意図の直進、右折、左折の3つの基本運転行動意図の認識を行う意図認識モデルについて説明する。 Hereinafter, an intention recognition model for recognizing three basic driving action intentions of straight driving, right turn, and left turn of driving intention from face direction information θ D , vehicle speed information V v, and vehicle position information V L will be described.

図5は意図認識モデルの概念図である。意図認識モデルは、その一例として、メンバーシップ関数51及びファジイラベル52で示される下位層と、中位層53と、上位層54とにより表現される。下位層のファジイラベル52(ファジイ集合)は、角度ラベル521、位置ラベル522及び速度ラベル523からなる。角度ラベル521はネガティブ521a“N”、ゼロ521b“Z”、ポジティブ521c“P”の3種類のラベルからなる。位置ラベル522はネガティブ522a“N”、ゼロ522b“Z”、ポジティブ522c“P”の3種類のラベルからなる。速度ラベル523はネガティブ523a“N”、ゼロ523b“Z”、ポジティブ523c“P”の3種類のラベルからなる。   FIG. 5 is a conceptual diagram of the intention recognition model. For example, the intention recognition model is represented by a lower layer, a middle layer 53, and an upper layer 54 indicated by a membership function 51 and a fuzzy label 52. The lower layer fuzzy label 52 (fuzzy set) includes an angle label 521, a position label 522, and a velocity label 523. The angle label 521 includes three types of labels: negative 521a “N”, zero 521b “Z”, and positive 521c “P”. The position label 522 is composed of three types of labels: negative 522a “N”, zero 522b “Z”, and positive 522c “P”. The speed label 523 includes three types of labels: negative 523a “N”, zero 523b “Z”, and positive 523c “P”.

これら9種類のファジイラベルは、それぞれメンバーシップ関数51で表現される。511a〜511cはそれぞれ角度ラベル521のネガティブ521a“N”、ゼロ521b“Z”、ポジティブ521c“P”の3種類のラベルに対応する関数を示している。512a〜512cはそれぞれ位置ラベル522のネガティブ522a“N”、ゼロ522b“Z”、ポジティブ522c“P”の3種類のラベルに対応する関数を示している。513a〜513cはそれぞれ速度ラベル523のネガティブ523a“N”、ゼロ523b“Z”、ポジティブ523c“P”の3種類のラベルに対応する関数を示している。   These nine types of fuzzy labels are represented by membership functions 51, respectively. Reference numerals 511a to 511c denote functions corresponding to three types of labels of the negative label 521a “N”, zero 521b “Z”, and positive 521c “P” of the angle label 521, respectively. Reference numerals 512a to 512c respectively denote functions corresponding to three types of labels of the position label 522: negative 522a “N”, zero 522b “Z”, and positive 522c “P”. Reference numerals 513a to 513c denote functions corresponding to three types of labels of negative 523a “N”, zero 523b “Z”, and positive 523c “P” of the speed label 523, respectively.

中位層53は、学習過程で使用する事例である事例ノードを表している。例えばN個の事例に対し、3基本運転行動を学習するので、合計3Nパターン学習する。N個の事例は、一人の運転者についての事例のみではなく、例えば別個のN人の運転者の事例が採用されるのが望ましい。これにより、例えばN人分の運転の癖、すなわち個性を反映したデータとして登録することができる。この事例ノードは、このように、個性を反映したデータであるので、個性データともいうべきものである。運転行動は、人によってその癖が異なる。したがって、運転支援の際にこの個性を反映した事例ノードを用い、最も癖が似通った事例ノードのデータを参照することで、その人の癖を適格に見極めた運転支援が可能となる。さらには、ある一人の運転行動を複数の場合に分けて登録しておくのが望ましい。同一人の運転行動であっても、例えばいらいらしている時や、のんびりしている時など、その人の気分によって異なる。したがって、同一人の運転行動をその運転している際の運転者の状態に応じて複数登録しておく。これにより、その人の気分までを含めさらにきめの細かい運転支援が可能となる。   The middle layer 53 represents a case node which is a case used in the learning process. For example, since three basic driving behaviors are learned for N cases, a total of 3N patterns are learned. It is desirable that the N cases are not limited to the case of one driver, but, for example, the case of separate N drivers is adopted. Thereby, for example, it can be registered as data reflecting the habit of driving for N people, that is, individuality. Since this case node is data reflecting individuality in this way, it should also be referred to as individuality data. Driving habits vary from person to person. Therefore, by using a case node reflecting this individuality in driving support and referring to the data of the case node with the most similar wrinkles, it is possible to provide driving support that properly identifies the person's wrinkles. Furthermore, it is desirable to register a single driver's behavior separately for a plurality of cases. Even the driving behavior of the same person varies depending on the person's mood, for example, when he / she is irritated or relaxed. Therefore, a plurality of driving actions of the same person are registered according to the state of the driver when driving. This makes it possible to provide more detailed driving assistance including the person's mood.

このように、事例を平均化し、その平均値との間で比較するのではなく、各個性を反映した個性データをそのまま残しておき、各個性データと運転行動を比較することで、精度の高い運転支援が可能となる。   In this way, instead of averaging the cases and comparing them with the average value, the individuality data reflecting each individuality is left as it is, and the individuality data and the driving behavior are compared, thereby achieving high accuracy. Driving assistance is possible.

事例ノードは、角度については左折、直進、右折の各基本運転行動に対して531〜533の3種類与えられ、これら各々の事例ノード531〜533はラベル521a〜521cに対応付けられたノードA,B,Cと、これらノードA,B,Cと上位層54のノード541,542及び543との結合関係で表現される。   As for the case nodes, three types of 531 to 533 are given to the basic driving behaviors of left turn, straight ahead, and right turn, and each of these case nodes 531 to 533 is assigned to the nodes A, 521a to 521c associated with the labels 521a to 521c. B, C, and the nodes A, B, C and the nodes 541, 542, and 543 of the upper layer 54 are represented by a coupling relationship.

位置については左折、直進、右折の各基本運転行動に対して534〜536の3種類与えられ、これら各々の事例ノード534〜536はラベル522a〜522cに対応付けられたノードA,B,Cと、これらノードA,B,Cと上位層54のノード541,542及び543との結合関係で表現される。   As for the position, three types of 534 to 536 are given to the basic driving behaviors of left turn, straight ahead, and right turn, and each of these case nodes 534 to 536 are nodes A, B, and C associated with labels 522a to 522c. These nodes A, B, and C are expressed by a connection relationship between the nodes 541, 542, and 543 of the upper layer 54.

速度については左折、直進、右折の各基本運転行動に対して537〜539の3種類与えられ、これら各々の事例ノード537〜539はラベル523a〜523cに対応付けられたノードA,B,Cと、これらノードA,B,Cと上位層54のノード541,542及び543との結合関係で表現される。   As for speed, three types of 537 to 539 are given to the basic driving behaviors of left turn, straight ahead, and right turn. Each of these case nodes 537 to 539 is associated with nodes A, B, and C associated with labels 523a to 523c. These nodes A, B, and C are expressed by a connection relationship between the nodes 541, 542, and 543 of the upper layer 54.

中位層53の事例ノードを531〜533、534〜536、537〜539のように角度、位置、速度に分けて配置する理由は、運転行動の意図が一定パターンとして表現されるのではなく、角度、位置、速度の多様なパターンの組合せから構成されるからである。   The reason why the case nodes of the middle layer 53 are arranged by dividing into angles, positions, and speeds like 531 to 533, 534 to 536, and 537 to 539 is that the intention of driving behavior is not expressed as a fixed pattern, This is because it is composed of a combination of various patterns of angle, position and speed.

上位層54は、運転意図を示す層であり、左折541、直進542、右折543の3種類のノードからなる。   The upper layer 54 is a layer indicating driving intention, and is composed of three types of nodes: a left turn 541, a straight advance 542, and a right turn 543.

角度、位置、速度の特徴値が入力されると、中位層53では最も近い特徴を持つノードが最も強く活性化される。この活性化の度合いを活性値分布として得た場合、各パターン毎にどの事例が近いか分かる。   When angle, position, and velocity feature values are input, the node having the closest feature in the middle layer 53 is most strongly activated. When the degree of activation is obtained as an activity value distribution, it can be seen which case is close for each pattern.

しかしながら、中位層53に現れる活性値分布のみでは運転行動を特定することはできない。この問題は、コンテクストの導入により解決される。上位層54は、運転行動を表す層であり、中位層53のすべての事例ノード531〜539と結合している。   However, the driving behavior cannot be specified only by the activity value distribution appearing in the middle layer 53. This problem is solved by introducing a context. The upper layer 54 is a layer representing driving behavior, and is coupled to all the case nodes 531 to 539 of the middle layer 53.

学習データをファジイラベル52とメンバーシップ関数51で示される下位層に与え、その結果中位層53にはこの特徴値と事例ノード531〜539との活性値分布が得られる。さらに、この中位層53の活性値分布に基づき、上位層54には教師として運転意図“右折”、“直進”、“左折”の別が与えられる。これらに基づきヘブ学習により上記中位層53と上位層54との結合関係が得られる。この意図認識モデルでは、事例から運転行動をファジイ集合として記憶した後、入力を与えると、下位層と中位層53との間、中位層53と上位層54との間で反響動作を繰り返し、活性値分布がコンテクストに矛盾しない状態に収束することで認識結果を得る。ここで、コンテクストとは、各運転行動の事例から得られた標準パターンであり、パターンに似た角度、位置、速度の特徴値の組合せは促進されるのに対し、パターンに合わない特徴値の組合せは抑制される。   The learning data is given to the lower layer indicated by the fuzzy label 52 and the membership function 51. As a result, the middle layer 53 obtains the active value distribution of the feature values and the case nodes 531 to 539. Further, on the basis of the activity value distribution of the middle layer 53, the upper layer 54 is given a driving intention of “right turn”, “straight forward”, and “left turn” as a teacher. Based on these, a connection relationship between the middle layer 53 and the upper layer 54 is obtained by Heb learning. In this intention recognition model, driving behavior is stored as a fuzzy set from an example, and when an input is given, echo action is repeated between the lower layer and the middle layer 53, and between the middle layer 53 and the upper layer 54. The recognition result is obtained by the convergence of the activity value distribution to a state consistent with the context. Here, the context is a standard pattern obtained from each driving action example, and a combination of feature values of angles, positions, and speeds similar to the pattern is promoted, while feature values that do not match the pattern are The combination is suppressed.

次に、CFS(概念ファジイ集合)の概念を図6を用いて説明する。
概念ファジイ61は、連想メモリ上にファジイ知識が分散的に表現されているだけでなく、連想メモリの想起過程を用いてファジイ知識処理も行う機構も持ち合わせている。また、概念ファジイ61は連想メモリで実現されていることから、状況依存性の扱いや多層結合による複雑な処理などのメリットが得られる。
Next, the concept of CFS (concept fuzzy set) will be described with reference to FIG.
The concept fuzzy 61 not only has fuzzy knowledge expressed in a distributed manner on an associative memory, but also has a mechanism for performing fuzzy knowledge processing using an associative memory recall process. Further, since the concept fuzzy 61 is realized by an associative memory, it is possible to obtain merits such as handling of situation dependency and complicated processing by multi-layer coupling.

ファジイ集合のファジイラベル62や63は概念の名前を、ファジイ集合の形は概念の意味を表現している。意味使用説にしたがえば、言葉の意味は他の言葉によって表現されるが、その意味は使用時によって変化する。したがって、使用時の注意範囲を言葉に付随する活性値で表現すれば、あいまいな言葉の意味を他の言葉によって形つくられるファジイ集合によって表現することができる。この分散的知識表現が概念ファジイ61と呼ばれる。   The fuzzy labels 62 and 63 of the fuzzy set express the name of the concept, and the form of the fuzzy set expresses the meaning of the concept. According to the meaning usage theory, the meaning of a word is expressed by other words, but its meaning changes depending on the time of use. Therefore, if the attention range at the time of use is expressed by an active value associated with a word, the meaning of an ambiguous word can be expressed by a fuzzy set formed by another word. This distributed knowledge representation is called a concept fuzzy 61.

この活性値の分布は、様々な状況に依存して変化するため、状況による意味の変化を表現することができる。また、概念ファジイ61は論理表現に限らずに知識表現が可能である。したがって、論理的には明示的知識表現が不可能なものも明示的に表現することができる。   Since the distribution of the activity values changes depending on various situations, it is possible to express a change in meaning depending on the situation. The concept fuzzy 61 is not limited to a logical expression, and can represent a knowledge. Therefore, what is logically impossible to express explicitly can be expressed explicitly.

概念ファジイ61の活性値、すなわちメンバーシップ値は、連想メモリによって制御される。そこでノードは概念を表し、リンクは概念間の関係の強さに対応する。図6では、ノードは各ファジイラベル62や63で表され、リンクは各矢印で表される。意味表現されるべき概念のノードとして、例えば図6でファジイラベル62を活性化すると、予め構築されたネットワークを経由して、活性値が伝搬し反響動作が起こる。この反響動作はシステムエネルギが最小になったところで停止し、その結果として意味を表現する側の概念ノードが、あるグレードで活性化される形で想起される。ここに現れる活性値の分布がファジイ集合である。   The activation value of the concept fuzzy 61, that is, the membership value is controlled by the associative memory. Nodes represent concepts, and links correspond to the strength of relationships between concepts. In FIG. 6, nodes are represented by fuzzy labels 62 and 63, and links are represented by arrows. For example, when the fuzzy label 62 in FIG. 6 is activated as a concept node to be expressed semantically, an activation value is propagated through a network constructed in advance and an echo operation occurs. This reverberation stops when the system energy is at a minimum, and as a result, the conceptual node on the side that expresses the meaning is recalled in a form that is activated with a certain grade. The distribution of activity values appearing here is a fuzzy set.

概念ファジイ61は、ニューラルネットワークの学習則を用いて機能的に構築される。すなわち、概念表現の事例に従い、以下の式(1)のHebb学習則を用いてノード間のリンクが修正される。

Figure 0004159049
The concept fuzzy 61 is functionally constructed using a neural network learning rule. That is, according to the concept expression example, the link between nodes is corrected using the Hebb learning rule of the following formula (1).
Figure 0004159049

ここで、mijは後述するi列およびj行の連想マトリクスMの行列要素を示し、aはレイヤLの各ノードを、bはレイヤLの各ノードに対応している。 Here, m ij denotes the matrix element of the associative matrix M of i rows and j row below, a i is the respective nodes of the layer L A, b j corresponds to each node of layer L B.

概念ファジイ集合において、概念の説明に不要な他の概念は活性化されない。したがって、冗長な説明要素からでも、ノードの選択を含めた構造的学習を行っていることになる。また、概念ファジイ集合では、通常人間が概念を形成していくときのように、別々に形成された個々の概念を逐次的に組合せながら全体的概念を形成してゆく。すなわち、複数の概念ファジイ集合を以下の式(2)に従い合成することができる。   In the concept fuzzy set, other concepts that are not necessary to explain the concept are not activated. Therefore, structural learning including node selection is performed even from redundant explanation elements. Moreover, in the concept fuzzy set, the general concept is formed by sequentially combining the individual concepts formed separately, as in the case where a person usually forms a concept. That is, a plurality of conceptual fuzzy sets can be synthesized according to the following equation (2).

M=Norm(M+M+…+M) …(2)
〜Mは個別の概念ファジイを、Mは合成された概念ファジイ集合を示す。Normは規格化を示している。一般のニューラルネットワークでは、学習結果には明示的な知識表現が行われていないが、本実施形態の方法では明示的な表現が得られる。
M = Norm (M 1 + M 2 +... + M n ) (2)
M 1 to M n denote individual concept fuzzy, and M denotes a synthesized concept fuzzy set. Norm indicates normalization. In a general neural network, an explicit knowledge expression is not performed on the learning result, but an explicit expression is obtained by the method of the present embodiment.

次に、意図認識部36で用いられるファジイ連想記憶システムの基礎となるファジイ連想推論について説明する。   Next, fuzzy associative reasoning that is the basis of the fuzzy associative memory system used in the intention recognition unit 36 will be described.

ファジイ連想推論は、連想記憶ニューラルネットワークの一種である双方向連想記憶(BAM:Bi-directional Associative Memory)を複数個用いたネットワークを構成し、活性値の伝搬を繰り返す反響動作によって推論を行うものである。ここでは、まず連想推論の基本となる双方向連想記憶を説明して、続いてこれをシステム化したファジイ連想記憶システムについて説明する。   Fuzzy associative reasoning is a network that uses multiple bi-directional associative memories (BAMs), which is a type of associative memory neural network, and infers by echoing that repeats the propagation of active values. is there. Here, the bidirectional associative memory, which is the basis of associative reasoning, will be described first, and then the fuzzy associative memory system in which this is systemized will be described.

図7は双方向連想記憶(BAM)の概念を説明するための図である。図7に示すように、レイヤLとレイヤLが構成されるネットワークがあり、レイヤLには複数のノードa,a,…,aが存在し、レイヤLには複数のノードb,b,…,bが存在する。ノード間の結合の重みは、連想マトリクスM∈Rn×pによって表現される。この連想マトリクスMがレイヤLとレイヤLに対してパターンA∈R、B∈Rのペアを銘記しているとすると、レイヤLにノイズを含んだA’∈Rを与えたとしても、レイヤLとレイヤLとの間で反響動作をさせることにより、パターンBが想起される。逆に、レイヤLにノイズを含んだパターンB’∈Rを与えてもパターンAが想起される。この双方向連想記憶における連想は、以下の式(3.1)、式(3.2)によって行われる。

Figure 0004159049
FIG. 7 is a diagram for explaining the concept of bidirectional associative memory (BAM). As shown in FIG. 7, the layer L A and layer L B is has a network of the layer L plurality of nodes to A a 1, a 2, ... , there is a n, a plurality in layers L B Nodes b 1 , b 2 ,..., B p exist. The connection weight between nodes is expressed by an association matrix MεR n × p . Pattern A∈R n for this association matrix M Layer L A and layer L B, when to be noted the pair B∈R p, given A'∈R n containing noise to the layer L A as also, by the echo operation between layers L a and layer L B, the pattern B is recalled. Conversely, the pattern A will occur can give a pattern B'∈R p containing noise to the layer L B. Association in this bidirectional associative memory is performed by the following equations (3.1) and (3.2).
Figure 0004159049

ここで、a(t)、b(t)は、ステップtにおける各ノードの活性値ベクトルであり、区分[0,1]に属する値をとる。{0,1}の値としてもよい。φは各ノードA(t)=(a(t),a(t),…,a(t))、B(t)=(b(t),b(t),…,b(t))が持つ関数であり、例えばシグモイド関数が用いられる。また、連想マトリクスMは、銘記したいパターンペアが(A,B),…,(A,B)とすると、以下の式(4.1)、式(4.2)で求められる。

Figure 0004159049
Here, a i (t) and b j (t) are active value vectors of the respective nodes in step t and take values belonging to the section [0, 1]. It may be a value of {0, 1}. φ represents each node A (t) = (a 1 (t), a 2 (t),..., a n (t)), B (t) = (b 1 (t), b 2 (t),. , B p (t)), for example, a sigmoid function is used. The association matrix M is obtained by the following equations (4.1) and (4.2) when the pattern pairs to be recorded are (A 1 , B 1 ),..., (A m , B m ). .
Figure 0004159049

ここで、βは連想係数である。Koskoの手法では、連想マトリクスMを求めるとき、{0,1}のパターンペアをバイポーラ変換したパターンペアを用いている。しかしながら、このKoskoの手法で求められた連想マトリクスMを用いると、ネットワークが飽和状態を引き起こす可能性があるので調整が必要となる。この問題を解決するために、連想マトリクスMの正規化の手法が提案されている。そこで、本実施形態で用いるファジイ連想記憶システムでは、この正規化手法により求めた正規化連想マトリクスを用いる。 Here, β i is an associative coefficient. In the Kosko method, when an associative matrix M is obtained, a pattern pair obtained by bipolar conversion of a pattern pair of {0, 1} is used. However, if the association matrix M obtained by this Kosko technique is used, the network may cause a saturation state, and adjustment is necessary. In order to solve this problem, a method for normalizing the associative matrix M has been proposed. Therefore, in the fuzzy associative memory system used in this embodiment, a normalized associative matrix obtained by this normalization method is used.

なお、双方向連想記憶(BAM)が銘記できるパターンペアには制約がある。1つは、パターンペア間の直交性が強く、かつ各レイヤ内でパターンとパターンのコンプリメントのハミング距離が十分離れている必要があるということである。もう1つは、連続性仮定が成立する必要があるということである。連続性仮定は、以下の式(5)で表される。

Figure 0004159049
There are restrictions on the pattern pairs that can be memorized by bidirectional associative memory (BAM). One is that the orthogonality between pattern pairs is strong and the Hamming distance between patterns and pattern complements must be sufficiently separated within each layer. Another is that the continuity assumption needs to hold. The continuity assumption is expressed by the following equation (5).
Figure 0004159049

ここで、Hはハミング距離である。すなわち、各レイヤで銘記したいパターンがハミング距離と同じくらい離れていないと銘記することが難しいといえる。   Here, H is a Hamming distance. That is, it can be said that it is difficult to record unless the pattern to be recorded in each layer is as far as the Hamming distance.

次に、ファジイ連想記憶システムの構築手法について説明する。   Next, a method for constructing a fuzzy associative memory system will be described.

図8はファジイルールを連想記憶ネットワークを用いて表現した模式図である。レイヤの設定は、ファジイルールの前件部を代表するレイヤをIf(X)レイヤ、後件部を代表するレイヤをThen(Y)レイヤとする。If(X)レイヤ内のノードは前件部のファジイ集合(メンバーシップ関数)を、Then(Y)レイヤ内のノードは後件部のファジイ集合(メンバーシップ関数)、あるいは入出力関数を代表する。また、前件部と後件部の相関はBAMの記憶できる制約を越えているので、1つのノードが1つのルールを代表するRule(R)レイヤを設定する。したがって、ファジイルールはIf(X)レイヤとRule(R)レイヤ間(連想マトリクスMxr)にBAMを構成することで表現できる。さらに、Rule(R)レイヤには、あいまいさの爆発を防ぐために、他のノードの活性化を抑制する働きをもつコーディネータ結合(Mrr)を設定する。コーディネータ結合とは、同一レイヤ内の任意のノードにおいて、自分に対しては正の重みで結合し、他のノードに対しては負の重みで結合することである。 FIG. 8 is a schematic diagram expressing fuzzy rules using an associative memory network. In setting the layers, the layer representing the antecedent part of the fuzzy rule is the If (X) layer, and the layer representing the consequent part is the Then (Y) layer. A node in the If (X) layer represents a fuzzy set (membership function) of the antecedent part, and a node in the Then (Y) layer represents a fuzzy set (membership function) of the consequent part or an input / output function. . Further, since the correlation between the antecedent part and the consequent part exceeds the limit that BAM can store, one node sets a Rule (R) layer representing one rule. Therefore, the fuzzy rule can be expressed by configuring a BAM between the If (X) layer and the Rule (R) layer (associative matrix M xr ). Furthermore, in the Rule (R) layer, in order to prevent the explosion of ambiguity, a coordinator combination (M rr ) having a function of suppressing activation of other nodes is set. Coordinator coupling means coupling to a node with a positive weight at an arbitrary node in the same layer and coupling to another node with a negative weight.

次に、図8のネットワーク構成を例にメモリ上への構築の概念を説明する。図9は連想記憶をネットワークを構築する際に必要な知識である。まず、各々のレイヤ間の連想マトリクスを求めるため、ファジイルールの相関を区間[0,1]に属する値に置き換える。場合により、{0,1}で示される0または1の2値に置き換えてもよい。その結果は以下の式(6)のようになる。

Figure 0004159049
Next, the concept of construction on the memory will be described by taking the network configuration of FIG. 8 as an example. FIG. 9 shows knowledge necessary for constructing an associative memory network. First, in order to obtain an association matrix between each layer, the correlation of fuzzy rules is replaced with a value belonging to the interval [0, 1]. In some cases, a binary value of 0 or 1 indicated by {0, 1} may be substituted. The result is as shown in the following formula (6).
Figure 0004159049

この式(6)では、一例として相関を{0,1}で示される0と1の2値で示しているが、これに限定されるものではないことはもちろんである。   In this equation (6), as an example, the correlation is represented by binary values of 0 and 1 represented by {0, 1}, but it is needless to say that the present invention is not limited to this.

この算出結果を銘記すべきパターンペアとして、式(4)−1、式(4)−2により、各々のレイヤ間の連想マトリクスを求める。ただし、バイポーラ変換したパターンペアを用いて求めるKoskoの手法はとらない。   Using this calculation result as a pattern pair to be recorded, an associative matrix between each layer is obtained by Expression (4) -1 and Expression (4) -2. However, the Kosko method obtained using a pattern pair obtained by bipolar conversion is not used.

前述のとおり、本実施形態にて使用するファジイ連想記憶システムは、正規化連想マトリクスを推論時に用いる。よって、ここで求められた連想マトリクスは保存し、以下の式(7)により正規化連想マトリクスMを求める。 As described above, the fuzzy associative memory system used in the present embodiment uses the normalized associative matrix at the time of inference. Thus, where an associative matrix obtained saves obtains the normalized associative matrix M e by the following equation (7).

=a(M+B) …式(7)
ここで、各パラメータは以下の通りである。

Figure 0004159049
M e = a (M + B) (7)
Here, each parameter is as follows.
Figure 0004159049

ただし、M,M,B∈Rm×n、mijはMの(i,j)要素とする。 Here, M, M e , BεR m × n , and m ij are M (i, j) elements.

ここで、複数のルールセットが定義されている場合、以上の処理をルールセットの数だけ繰り返し複数のネットワークを提案する。そして、ルールセット間の結合に関する情報をテキストファイルから読み込み、それぞれのネットワークを結合する。また、推論時は、定義したルールセット間の結合の重み(連想マトリクス)も正規化して用いる。ここから、ファジイルールRにより構築されたネットワークをネットワークRと表記する。   Here, when a plurality of rule sets are defined, the above processing is repeated by the number of rule sets to propose a plurality of networks. Then, information relating to the connection between the rule sets is read from the text file, and the respective networks are connected. At the time of inference, the weight (association matrix) of the connection between defined rule sets is also normalized. From here, the network constructed by the fuzzy rule R is referred to as a network R.

次に、ファジイ連想記憶システムの動作過程を説明する。
推論は、ネットワーク全体で同期をとりながら活性値の伝搬を繰り返すことによって行う。まず、入力をメンバーシップ関数で評価した値をIf(X)レイヤに入力する。そして、連想マトリクスMxr,Mrr,Mryを式(3.1),式(3.2)に適用することによって、設定した連想ステップ数だけ活性値の伝播を繰り返す。たとえば、複数のINrレイヤに連想マトリクスMでつながるOUTレイヤの各ノードの出力outは式(11)で求められる。

Figure 0004159049
Next, the operation process of the fuzzy associative memory system will be described.
Inference is performed by repeating the propagation of active values while maintaining synchronization throughout the network. First, a value obtained by evaluating the input with the membership function is input to the If (X) layer. The association matrix M xr, M rr, the M ry formula (3.1), by applying the formula (3.2), is repeated as many active value propagation speed associative steps set. For example, the output out j of each node OUT layers connected by associative matrix M r multiple INr layers is calculated by equation (11).
Figure 0004159049

提案された当初の連想推論は、推論結果の統合を行わないため、過度のあいまいさを引き起こす可能性がある。これを解決するために、式(12.1)〜(12.3)を用いてThen(Y)レイヤの活性値を正規化する。

Figure 0004159049
The proposed initial associative reasoning does not integrate reasoning results and can cause excessive ambiguity. In order to solve this, the active values of the Then (Y) layer are normalized using equations (12.1) to (12.3).
Figure 0004159049

ここでnはThen(Y)レイヤ内のノード数、γfはノードiの持つ活性値、γは寄与度である。 Here, n is the number of nodes in the Then (Y) layer, γf i is the activation value of node i, and γ i is the contribution.

これにより、寄与度γを得る。この寄与度で後件部のメンバーシップ関数、あるいは入出力関数の出力値を内挿し、得られた関数(値)をMAX結合(和)したものを推論結果とする。 Thereby, the contribution degree γ i is obtained. An inference result is obtained by interpolating the output value of the membership function of the consequent part or the input / output function with this contribution, and MAX functioning (summing) the obtained function (value).

次に、実際に構築されたファジイ連想記憶システムに基づいた意図認識部36による意図認識決定処理について図12及び図13のデータフロー図を用いて説明する。   Next, intention recognition determination processing by the intention recognition unit 36 based on the actually constructed fuzzy associative memory system will be described with reference to the data flow diagrams of FIGS. 12 and 13.

まず、意図認識決定処理を実行する前に、意図認識決定処理に用いられるメンバーシップ関数や、N個の個性データを予め記憶装置39に登録しておく。   First, before executing the intention recognition determination process, a membership function used for the intention recognition determination process and N individuality data are registered in the storage device 39 in advance.

より具体的には、速度メンバーシップ関数μvS,μvB、顔方向メンバーシップ関数μθS,μθB、位置メンバーシップ関数μLS,μLBを入力メンバーシップ関数として記憶装置39に格納する。また、N個の個性データとして、連想マトリクスMxr1, xr1〜MxrN, xrN、正規化マトリクスMrr、連想マトリクスMry1, ry1〜MryN, ryNを個性データとして記憶装置39に格納する。さらに、運転意図メンバーシップ関数μLS,μLB,μSS,μSB,μRS,μRB〜μLS,μLB,μSS,μSB,μRS,μRBを出力メンバーシップ関数として記憶装置39に格納する。 More specifically, the speed membership function mu vS, mu vB, face direction membership functions mu .theta.S, mu .theta.B, stored in the storage device 39 located membership function mu LS, a mu LB as input membership functions. Also, as the N personality data, associative matrix M xr1, M T xr1 ~M xrN , M T xrN, normalized matrix M rr, associative matrix M ry1, M T ry1 ~M ryN , the M T RYn as personality data It is stored in the storage device 39. Further, the driving intention membership functions μ LS , μ LB , μ SS , μ SB , μ RS , μ RB to μ LS , μ LB , μ SS , μ SB , μ RS , μ RB are stored as output membership functions. 39.

N個の個性データは、例えば以下の処理により登録可能である。   N individuality data can be registered, for example, by the following processing.

N人分の運転行動について、車両速度情報V、顔方向情報θ及び車両位置情報Vを算出し、その算出された値を入力ノードに設定する。そして、その運転行動の結果である左折、直進及び右折の別を、出力ノードに設定する。また、これら入力ノードと出力ノードのバッファとして、中間ノードを設定する。そして、入力ノードと中間ノードに対して式(3.1)、式(3.2)及び式(4.1)、式(4.2)を適用することにより、連想マトリクスMxr1, xr1〜MxrN, xrNを算出する。一方、中間ノードと出力ノードに対しても同様に式(3.1)、式(3.2)及び式(4.1)、式(4.2)を適用することにより連想マトリクスMry1, ry1〜MryN, ryNを算出する。
以上により、N個の個性データが連想マトリクスとして求められる。
For driving behavior for N persons, vehicle speed information V v , face direction information θ D and vehicle position information V L are calculated, and the calculated values are set as input nodes. Then, the left turn, straight ahead, and right turn, which are the results of the driving action, are set as output nodes. An intermediate node is set as a buffer for these input nodes and output nodes. Then, by applying Expression (3.1), Expression (3.2), Expression (4.1), and Expression (4.2) to the input node and the intermediate node, the associative matrix M xr1, M T xr1 ~M xrN, to calculate the M T xrN. On the other hand, by applying the expressions (3.1), (3.2), (4.1), and (4.2) to the intermediate node and the output node, the associative matrix M ry1, M T ry1 ~M ryN, to calculate the M T ryN.
As described above, N individuality data are obtained as an association matrix.

次に、以上のようにして得られた登録データを用いて以下のように意図認識決定処理を行う。
まず、意図認識部36は、入力された車両の速度V、顔方向θ、位置Vに基づき、それぞれ速度メンバーシップ関数μvs、μvB、顔方向メンバーシップ関数μθs、μθB、位置メンバーシップ関数μLS、μLBにより関数値(速度グレードμvs(V)、μvB(V)、顔方向グレードμθs(θ)、μθB(θ)、位置グレードμLS(V)、μLB(V))を算出する。
Next, intention recognition determination processing is performed as follows using the registration data obtained as described above.
First, the intention recognition unit 36, based on the input vehicle velocity V v , face direction θ p , and position V L , respectively, velocity membership functions μ vs , μ vB , face direction membership functions μ θs , μ θB , The function values (velocity grade μ vs (V v ), μ vB (V v ), face direction grade μ θsp ), μ θBp ), position grade μ LS are obtained from the position membership functions μ LS and μ LB. (V L ), μ LB (V L )) are calculated.

次に、連想メモリを用いた正方向の行列計算を行う。
具体的には、まず、μvs(V)、μvB(V)、顔方向グレードμθs(θ)、μθB(θ)、位置グレードμLS(V)、μLB(V)を連想メモリ入力INvs、INvB、INps、INpB、INLs、INLBとする。そして、これら連想メモリ入力に対して、N個の個性データに対応したマトリクスMxr1〜MxrNを用いてN個の行列計算を行い、それぞれ連想メモリ中間出力R〜Rを得る。この連想メモリ中間出力R〜Rは算出されるたびに、マトリクスMrrで正規化される。また、得られた連想メモリ中間出力R〜RはさらにそれぞれマトリクスMry1〜MryNを用いてN個の行列計算を行い、左折、直進、右折で表される連想メモリ出力OUTL1、OUTS1、OUTR1〜OUTLN、OUTSN、OUTRNを得る。連想メモリ出力OUTL1〜OUTLNは、運転意図“左折”に対応する出力値、連想メモリ出力OUTs1〜OUTsNは、運転意図“直進”に対応する出力値、連想メモリ出力OUTR1〜OUTRNは、運転意図“右折”に対応する出力値である。
Next, matrix calculation in the positive direction using associative memory is performed.
Specifically, first, μ vs (V v ), μ vB (V v ), face direction grades μ θsp ), μ θBp ), position grades μ LS (V L ), μ LB ( V L) an associative memory input IN vs, IN vB, IN ps , IN pB, IN Ls, and IN LB. Then, to these associative memory input, performs N number of matrix calculation using the matrix M xr1 ~M XRN corresponding to the N personality data, respectively obtained an associative memory intermediate output R 1 to R N. The associative memory intermediate outputs R 1 to R N are normalized by the matrix M rr every time they are calculated. Further, the obtained associative memory intermediate outputs R 1 to R N are further subjected to N matrix calculations using the matrices M ry1 to M ryN , respectively, and associative memory outputs OUT L1 , OUT L expressed as left turn, straight advance , and right turn S1 , OUT R1 to OUT LN , OUT SN , and OUT RN are obtained. The associative memory outputs OUT L1 to OUT LN are output values corresponding to the driving intention “left turn”, the associative memory outputs OUT s1 to OUT sN are output values corresponding to the driving intention “straight ahead”, and the associative memory outputs OUT R1 to OUT RN. Is an output value corresponding to the driving intention “right turn”.

次に、連想メモリを用いた逆方向の行列計算を行う。
得られた連想メモリ出力OUTL1、OUTS1、OUTR1〜OUTLN、OUTSN、OUTRNに基づき連想マトリクスM ry1〜M ryNを用いてN個の行列計算を行い、連想メモリ中間出力R〜Rを得る。この連想メモリ中間出力R〜Rの各々は、複数のノードについて得られる。そして、得られた連想メモリ中間出力R〜Rに対し、マトリクスM xr1〜M xrNを用いてN個の行列計算を行い、連想メモリ入力INvs、INvB、INps、INpB、INLs、INLBを得る。
Next, reverse matrix calculation using an associative memory is performed.
The resulting associative memory output OUT L1, OUT S1, OUT R1 ~OUT LN, OUT SN, performs N number of matrix calculation using an associative matrix M T ry1 ~M T ryN based on OUT RN, associative intermediate output R obtain 1 to R N. Each of the associative memory intermediate outputs R 1 to R N is obtained for a plurality of nodes. Then, N matrix calculations are performed on the obtained associative memory intermediate outputs R 1 to R N using the matrices M T xr1 to M T xrN , and associative memory inputs IN vs , IN vB , IN ps , IN pB , IN Ls , IN LB are obtained.

これら連想メモリを用いた正方向、逆方向の計算を予め定められた回数だけ繰り返し行う反響動作を実行し、その状態推移により連想メモリ出力OUTL1、OUTS1、OUTR1〜OUTLN、OUTSN、OUTRNを収束させる。そして、その収束した連想メモリ出力OUTL1、OUTS1、OUTR1〜OUTLN、OUTSN、OUTRNを正規化して正規化連想メモリ出力OUT L1、OUT S1、OUT R1〜OUT LN、OUT SN、OUT RNを得る。得られた正規化連想メモリ出力について運転意図メンバーシップ関数μLS,μLB,μSS,μSB,μRS,μRBを用いて運転意図グレードμLS1(OUT L1),μLB1(OUT L1),μSS1(OUT S1),μSB1(OUT S1),μRS1(OUT R1),μRB1(OUT R1)〜μLSN(OUT LN),μLBN(OUT LN),μSSN(OUT SN),μSBN(OUT SN),μRSN(OUT RN),μRBN(OUT RN)を得る。 A reverberation operation is performed in which forward and backward calculations using these associative memories are repeated a predetermined number of times, and associative memory outputs OUT L1 , OUT S1 , OUT R1 to OUT LN , OUT SN , Let OUT RN converge. Then, the converged associative memory outputs OUT L1 , OUT S1 , OUT R1 to OUT LN , OUT SN , OUT RN are normalized to normalize associative memory outputs OUT * L 1 , OUT * S 1 , OUT * R 1 to OUT * LN , OUT * SN and OUT * RN are obtained. Driving intention grades μ LS1 (OUT * L1 ), μ LB1 (OUT * ) using the driving intention membership functions μ LS , μ LB , μ SS , μ SB , μ RS , μ RB for the obtained normalized associative memory output L1), μ SS1 (OUT * S1), μ SB1 (OUT * S1), μ RS1 (OUT * R1), μ RB1 (OUT * R1) ~μ LSN (OUT * LN), μ LBN (OUT * LN) , ΜSSN (OUT * SN ), μSBN (OUT * SN ), μRSN (OUT * RN ), and μRBN (OUT * RN ) are obtained.

得られたN個の個性データについての運転意図グレードに基づき、判定手段36aが運転意図の判定を行い、意図認識結果(左折、直進、右折の別)を得る。判定手段36aの判定は、N個の運転意図グレードのうち、予め定められた判定条件(例えば最も運転意図グレードの値が大きいもの、すなわち最も強く想起されたものを選択する)に基づき、その選択された運転意図グレードに予め対応付けておいた意図(例えば右折)を意図認識結果として出力する。   Based on the driving intention grade for the obtained N individuality data, the determination means 36a determines the driving intention and obtains the intention recognition result (left turn, straight advance, right turn). The determination of the determination means 36a is based on a predetermined determination condition (for example, the one having the largest value of the driving intention grade, that is, the one recalled most strongly) is selected from the N driving intention grades. An intention (for example, a right turn) that is previously associated with the determined driving intention grade is output as an intention recognition result.

判定手段36aの判定条件は、上述したものに限定されない。例えば、最も運転意図グレードの大きいものと次に大きい運転意図グレードとの差が小さい場合などには、最も運転意図グレードの大きいものと、次に大きい運転意図グレードに対応する運転意図とを平均化してもよい。   The determination conditions of the determination unit 36a are not limited to those described above. For example, when the difference between the largest driving intention grade and the next largest driving intention grade is small, the driving intention grade with the largest driving intention grade and the driving intention corresponding to the next largest driving intention grade are averaged. May be.

次に、上記運転意図認識決定処理で得られた運転意図に基づく人間支援管理部37による歩行支援情報及び運転支援情報の生成処理を説明する。   Next, a process of generating walking support information and driving support information by the human support management unit 37 based on the driving intention obtained in the driving intention recognition determination process will be described.

上記例では、意図認識結果は、右折、直進及び左折の別により示される。図14に示すように、人間支援管理部37は、この意図認識結果と、車両位置情報Vとに基づき進行予測領域を算出する。この進行予測領域は、例えば位置の集合として得られる。そして、この進行予測領域と歩行者位置情報Pとに基づき、その意図認識結果から進行すると予測される進行予測領域に歩行者が位置しているか否かを判定する。これは、例えば位置の集合である進行予測領域に歩行者位置情報Pが含まれているか否か等で容易に判定可能である。進行予測領域に歩行者が位置している場合、人間支援管理部37は、車両が進行してくる危険があることを報知するための危険情報を含む歩行支援情報を生成する。進行予測領域に歩行者が位置していない場合、人間支援管理部37は、危険情報を含まない歩行支援情報を生成する。生成された歩行支援情報は、通信制御手段38を介して携帯情報端末11に送信され表示部12に表示される。 In the above example, the intention recognition result is indicated by the right turn, straight ahead, and left turn. As shown in FIG. 14, the human support manager 37 calculates a progress prediction region based on the intention recognition result and the vehicle position information V L. This progress prediction region is obtained as a set of positions, for example. Then, it is determined whether based on this advanced prediction region and the pedestrian position information P L, pedestrian progression prediction area expected to proceed from its intended recognition result is located. This is readily determinable by like whether contains pedestrian position information P L in the traveling prediction region is a set of example location. When a pedestrian is located in the progress prediction area, the human support manager 37 generates walking support information including danger information for notifying that there is a danger that the vehicle will travel. When the pedestrian is not located in the progress prediction area, the human support management unit 37 generates walking support information that does not include danger information. The generated walking support information is transmitted to the portable information terminal 11 via the communication control means 38 and displayed on the display unit 12.

また、人間支援管理部37は、進行予測領域に歩行者が位置している場合、歩行者が進行領域に侵入してくる危険があることを報知するための危険情報を含む運転支援情報を生成する。進行予測領域に歩行者が位置していない場合、人間支援管理部37は、危険情報を含まない運転支援情報を生成する。生成された運転支援情報は、通信制御手段38を介して車両2に送信され、表示部22に表示される。   In addition, when the pedestrian is located in the progress prediction area, the human support management unit 37 generates driving support information including danger information for notifying that there is a risk that the pedestrian enters the progress area. To do. When a pedestrian is not located in the progress prediction area, the human assistance manager 37 generates driving assistance information that does not include danger information. The generated driving support information is transmitted to the vehicle 2 via the communication control means 38 and displayed on the display unit 22.

なお、上記歩行支援情報及び運転支援情報は、進行予測領域と歩行者位置情報Pに応じて段階的に危険情報を生成するのが望ましい。この段階的な危険情報の生成のために、具体的には、例えば車両位置情報Vにより把握される車両位置から何秒後に歩行者位置情報Pで示される歩行者位置に到達するかを車両の速度Vを用いて算出すればよい。そして、到達までの時間を予め定められた到達時間閾値T(w=1,2,3…)と比較し、その到達時間閾値T以下であり、到達時間閾値Tw−1以上である場合に、危険度Dと判定する。すなわち、Tw−1≦|V−P|/V≦Tが成立するか否かにより危険度を判定する。成立する場合には対応する危険度あり、成立しない場合には対応する危険度なしと判定する。 Incidentally, the walking assistance information and driving support information, it is desirable to produce a stepwise danger information in accordance with the pedestrian position information P L progression prediction region. For the production of this stepwise risk information, whether specifically reaches the pedestrian position indicated by the pedestrian position information P L For example many seconds after the vehicle position is grasped by the vehicle position information V L velocity V v of the vehicle may be calculated using the. Then, the time until arrival is compared with a predetermined arrival time threshold value T w (w = 1, 2, 3...), And the arrival time threshold value T w or less is equal to or more than the arrival time threshold value T w−1. in the case, it is determined that the risk D w. That is, the degree of risk is determined based on whether or not T w−1 ≦ | V L −P L | / V v ≦ T w is satisfied. If it is established, it is determined that there is a corresponding risk, and if it is not established, it is determined that there is no corresponding risk.

この危険情報生成の具体例を以下説明する。   A specific example of this danger information generation will be described below.

例えば到達時間閾値T=2,T=4,T=6の場合、|V−P|/V≦2の場合は危険度D、2≦|V−P|/V≦4の場合は危険度D、4≦|V−P|/V≦6の場合は危険度Dと判定する。なお、歩行者の速度Pを得られる場合、上記判定式をTw−1≦|V−P|/|V−P|≦Tとすればよい。例えば人間支援管理部37が、危険度に応じて視覚的に区別可能な表示データを生成することにより危険情報を生成してもよい。例えば、危険度Dの場合には危険が差し迫ってないために青色の表示データ、危険度Dの場合には危険が少し差し迫ってくるために黄色の表示データ、危険度Dの場合には危険が差し迫っているために赤色の表示データを生成するというようにしてもよい。また、視覚的に区別可能な表示データのみならず、聴覚を刺激する音声データを組み合わせてもよいし、音声データのみでもよい。この場合、危険度D〜Dは表示データと音声データを組合せてフォアグラウンド的に警告し、更に危険度の低い危険度D、D、…などの場合は、バックグラウンド的に音声データのみで知らせる、というようにしてもよい。 For example, when the arrival time thresholds T 1 = 2, T 2 = 4, and T 3 = 6, when | V L −P L | / V v ≦ 2, the risk level D 1 , 2 ≦ | V L −P L | When / V v ≦ 4, the risk level D 2 is determined , and when 4 ≦ | V L −P L | / V v ≦ 6, the risk level D 3 is determined. Incidentally, if the resulting velocity P v of the pedestrian, the determination formula T w-1 ≦ | V L -P L | / | V v -P v | may be the ≦ T w. For example, the human support manager 37 may generate the danger information by generating display data that can be visually distinguished according to the degree of danger. For example, risk D 3 display blue to has not imminent danger when data, the yellow display data to come slightly imminent danger in the case of risk D 2, in the case of risk D 1 May generate red display data because the danger is imminent. Further, not only visually distinguishable display data but also audio data that stimulates hearing may be combined, or only audio data may be used. In this case, the risk levels D 1 to D 3 are warnings in the foreground by combining the display data and the voice data, and in the case of the risk levels D 4 , D 5 ,. You may make it tell only by.

このように、ファジイ連想推論を用いて得られた運転意図に基づき運転支援情報と歩行支援情報を生成する。したがって、例えば非特許文献1で示されるような、運転行動の結果としての車両位置、歩行者位置などの直前情報のみに基づき危険表示する場合よりも事前に危険を察知した危険表示が可能となる。すなわち、非特許文献1の例の場合、支援情報が情報過多とならないようにするため危険が差し迫った場合のみに警告するか、あるいは情報過多になることを覚悟した上で様々な危険を警告するしかなかった。この場合、運転意図からは全く的はずれな警告もする必要があった。これに対して本実施形態の場合、警告されるのは、運転意図から予測される範囲に絞られるため、情報過多になることなく、しかも危険を直前ではなく事前に警告することができる。   As described above, the driving support information and the walking support information are generated based on the driving intention obtained by using the fuzzy associative reasoning. Therefore, for example, as shown in Non-Patent Document 1, it is possible to perform danger display in which danger is detected in advance, compared to the case where danger is displayed based only on the immediately preceding information such as the vehicle position and pedestrian position as a result of driving behavior. . That is, in the case of the non-patent document 1, the warning information is warned only when the danger is imminent in order to prevent the support information from being excessive, or various dangers are warned after being prepared to be excessive. There was only. In this case, it is also necessary to give a warning that is completely out of the driving intention. On the other hand, in the case of the present embodiment, the warning is limited to the range predicted from the driving intention, so that there is no excess of information, and the danger can be warned in advance rather than immediately before.

以下、本実施形態の人間支援システムによる作用効果や適用例を詳細に説明する。   Hereinafter, operational effects and application examples of the human support system of the present embodiment will be described in detail.

危険表示機構の認知科学的な見解
従来のハード的なシステムとして、物体検出などでセンサ・カメラなどハードウェア素材の精度の向上を目的としたシステムがある。このようなシステムでは、正確に最も危険な事象を表示することはできるが、ある認知科学実験においては、特にお年寄りにおいて、ハード的な突然の表示が視界に入ることにより、周辺の視野が極端に見えにくくなるという特性が顕著にみられた。よって、危険を前もってやさしく運転者に知らせておくことで、周辺の視野が狭まることのないようにすることが必要となる。
A cognitive scientific view of the danger labeling mechanism.
As a conventional hardware system, there is a system for the purpose of improving accuracy of hardware materials such as a sensor / camera for object detection. Such a system can accurately display the most dangerous events, but in some cognitive science experiments, particularly in the elderly, sudden visual hard movements can enter the field of view, resulting in extreme peripheral vision. The characteristic of becoming difficult to see was noticeable. Therefore, it is necessary to prevent the surrounding visual field from being narrowed by informing the driver of the danger in advance.

ソフト指向的運転支援システム
前述のような問題点を解決するために、本実施形態では、以下に示すソフト指向的な運転支援を行う。ソフト指向的な運転支援とは、認知科学的な人間の弱点などを考慮した柔軟性を備えたシステムである。危険の直前に運転者に対して危険警告を行っても、運転者の視野はその表示にくぎ付けになり、周辺が見えにくくなる。提案する表示の一例は、前述の通り、画像を危険の度合いから青、黄、赤と色が変化し、その都度音声提示も行い運転者に対して危険警告を行う機構が生成される。青の画像では、運転者に対してバックグラウンド的に頭に残るぐらいの視覚的効果を与える。そして、黄、赤と変化していくたびに、フォアグラウンド的に運転者に対して視覚的効果を与える。危険を前もってやさしく運転者に知らせておくことで、周辺の視野が狭まることのないようにすることができる。
Soft-oriented driving support system
In order to solve the problems as described above, in the present embodiment, the following soft-oriented driving support is performed. Soft-oriented driving assistance is a system that is flexible in consideration of human weaknesses in cognitive science. Even if a warning is given to the driver immediately before the danger, the driver's field of view is stuck to the display, and the surroundings are difficult to see. As an example of the proposed display, as described above, the color of the image changes from blue, yellow, and red according to the degree of danger, and a mechanism for generating a voice warning is also generated each time a voice is presented. The blue image gives the driver a visual effect that remains in the background. Each time the color changes from yellow to red, a visual effect is given to the driver in the foreground. By informing the driver of the danger in advance, it is possible to prevent the surrounding field of view from being narrowed.

意図を用いた人間支援運転機構
歩行者及び車両検出機構によって、歩行者及び運転者の顔の方向情報を得ることができる。運転者の顔の方向情報から運転者が注目していない位置に歩行者が存在する場合、歩行者情報を運転者に対して提示する。運転者の意図を推論することで情報過多にならないため、運転者の混乱を招くことはない。また、歩行者情報はHTML形式で表示する。歩行者の速度により情報が急激に変化するとかえって運転者に対して混乱を招く。サーバから得た情報をユーザの設定により、ブラウザの更新を行うことができる。また、歩行者に対しても、携帯情報端末により車両の存在を提示することができる。
Human-assisted driving mechanism using intention
By the pedestrian and vehicle detection mechanism, it is possible to obtain direction information of the faces of the pedestrian and the driver. When a pedestrian is present at a position where the driver is not paying attention from the direction information of the driver's face, the pedestrian information is presented to the driver. Inferring the driver's intention does not result in excessive information, so it does not cause confusion for the driver. The pedestrian information is displayed in the HTML format. If the information changes suddenly depending on the speed of the pedestrian, the driver is confused. Information obtained from the server can be updated by a user setting. In addition, the presence of a vehicle can be presented to a pedestrian using a portable information terminal.

一例として、見通しの悪いL字路において、歩行者と車両が交差点に向かう際に運転者に対して、交差点に侵入する2,4,6秒前に提示した場合を図10に示す。図10(a)は2秒前、(b)は4秒前、(c)は6秒前の状態を示す。例えば図10(a)の例では、運転者には、危険度Dの危険情報を含む運転支援情報が赤色で表示され、歩行者には、危険度Dの危険情報を含む歩行支援情報が赤色で表示される。図10(b)の例では、運転者、歩行者にそれぞれ危険度Dの危険情報を含む運転及び歩行支援情報が黄色で表示される。図10(c)の例では、運転者、歩行者にそれぞれ危険度Dの危険情報を含む運転及び歩行支援情報が青色で表示される。 As an example, FIG. 10 shows a case where a pedestrian and a vehicle are presented 2, 4, 6 seconds before entering the intersection when the pedestrian and the vehicle head for the intersection on an L-shaped road with poor visibility. FIG. 10A shows a state 2 seconds ago, FIG. 10B shows a state 4 seconds ago, and FIG. 10C shows a state 6 seconds ago. In the example, for example FIG. 10 (a), the driver, the driving support information including the risk information risk D 1 is displayed in red, the walking assistance information to pedestrians, including risk information risk D 1 Is displayed in red. In the example of FIG. 10 (b), the driver, driving and walking assistance information respectively pedestrian including risk information risk D 2 is displayed in yellow. In the example of FIG. 10 (c), the driver, driving and walking assistance information respectively pedestrian including risk information risk D 3 is displayed in blue.

福祉・防災サイバー都市
人間を取り巻く空間において、人間をサポートする知的エージェントが各種センサや知能を分散的に持ち(分散感覚知能)、それぞれの知的エージェントが自律的に協調し合うことにより、人間に対して適切なサポート及び、ガイドを提示する必要がある。このような空間を分散感覚知能空間と呼ぶ。分散感覚知能はカメラとCPUで構成されている。本実施形態では、分散感覚知能空間を、人間の生活する都市空間へと広げ、日常生活から災害時の緊急支援までを視野に入れた、災害に強く、真の安心感を得る福祉・防災サイバー都市構築の実現が可能となる。
Welfare and disaster prevention cyber city
In the space surrounding humans, intelligent agents that support humans have various sensors and intelligence in a distributed manner (distributed sensory intelligence), and each intelligent agent cooperates autonomously, so that it is appropriate for humans. Need to show support and guide. Such a space is called a distributed sensory intelligence space. Distributed sensory intelligence consists of a camera and a CPU. In this embodiment, the distributed sensory intelligence space is expanded to the urban space where people live, and it is a disaster-resistant, welfare / disaster prevention cyber cyber with a focus on everything from daily life to emergency support in the event of a disaster. Realization of urban construction is possible.

前述のように、情報インフラストラクチャの整備が進む一方、社会的な情勢として少子高齢化が進み、それに伴い情報弱者とのIT格差が進んでいるのが現状である。情報弱者のインフラ利用の妨げになっているのは、情報機器の操作が困難であることが大きな要因となっている。株式会社SONYのアイボ(登録商標)が人間の動作により様々な表現を見せるように、情報弱者が扱う携帯情報端末(PDA)やヒューマンビークル等が人間の動作から感情・意図を認識し人間支援を行うことができ、さらにこれらが災害時・緊急時の際、防災安全機能へと切り替わり人間の安全を守るものであれば、利用者にとって、日常生活の中でこれらの危機を使用することは、本当の安心を得られるものとなる。図11は福祉防災サイバー都市の概略図である。図11に示すように、駅の周辺の環境に、カメラ31,32が交差点や道路付近に複数配置されている。複数の車両2が駐車し、また交差点に向かって車両2が進入したり、駅周辺から歩行者1が出てくる場合に、これらカメラ31,32で撮像された画像に基づき計算された歩行支援情報や運転支援情報が歩行者1や車両2に伝えられる。   As described above, while the development of the information infrastructure is progressing, the social situation is declining birthrate and aging, and the IT disparity with the information weak is progressing accordingly. A major factor that hinders the use of infrastructure by vulnerable information is the difficulty in operating information equipment. Personal information terminals (PDA) and human vehicles, etc., which are handled by vulnerable individuals, recognize human emotions and intentions from human movements and provide human support so that Sony's AIBO (registered trademark) can show various expressions through human movements. If these can be done, and in the event of a disaster / emergency, they switch to disaster prevention safety functions and protect human safety, users will be able to use these crises in their daily lives. Real peace of mind. FIG. 11 is a schematic diagram of a welfare disaster prevention cyber city. As shown in FIG. 11, a plurality of cameras 31 and 32 are arranged near an intersection or road in the environment around the station. Walking support calculated based on images captured by these cameras 31 and 32 when a plurality of vehicles 2 are parked and the vehicle 2 enters the intersection or a pedestrian 1 comes out from the vicinity of the station. Information and driving support information are transmitted to the pedestrian 1 and the vehicle 2.

このように本実施形態では、情報インフラの整備された都市空間に生活する弱者を支援する知的インタフェースを想定する。PDAなどの携帯情報端末が、弱者やその支援者への日常時の福祉情報、災害時の緊急情報の相互伝達を可能とするように、PDA利用による自然な対話機構により、都市に広がる福祉防災PDAに基づく防災サイバー都市の構築、さらに、福祉防災PDAを利用したサイバー都市との連携による安全なヒューマン連携型モビリティシステムの構築を図ることができる。   As described above, in this embodiment, an intelligent interface that supports a weak person living in an urban space with an information infrastructure is assumed. Welfare disaster prevention that spreads throughout the city by a natural dialogue mechanism using PDA so that personal information terminals such as PDAs can communicate daily welfare information to vulnerable people and their supporters, and emergency information in the event of a disaster It is possible to construct a disaster prevention cyber city based on PDA, and a safe human-linked mobility system through cooperation with cyber city using welfare disaster prevention PDA.

すなわち、交差点、車両に設置された分散感覚知能は、無線LANでソケット通信を行うことによりデータの送受信を行う。交差点に設置された分散感覚知能により歩行者及び車両の検出を行う。運転者に対しては歩行者の存在を提示し、歩行者に対しては、車両の存在を提示することで、人間に対してサポート及びガイドを行うことができる。   In other words, the distributed sensory intelligence installed at intersections and vehicles transmits and receives data by performing socket communication with a wireless LAN. Pedestrians and vehicles are detected by distributed sensory intelligence installed at intersections. By presenting the presence of a pedestrian to the driver and presenting the presence of a vehicle to the pedestrian, it is possible to provide support and guidance to a human.

このように本実施形態によれば、運転者の顔の方向情報から、運転者が注視していない方向に対して危険警告を行うことができ、情報過多にならずに必要な情報のみを提示することができる。   As described above, according to the present embodiment, it is possible to issue a danger warning in the direction in which the driver is not gazing from the direction information of the driver's face, and present only necessary information without being excessive in information. can do.

本発明は上記実施形態に限定されない。   The present invention is not limited to the above embodiment.

上記実施形態では意図認識部36で得られた意図認識結果に基づき人間支援情報を生成する例を示したが、これに限定されない。車両位置情報及び歩行者位置情報のみに基づき人間支援情報を生成してもよい。   In the above-described embodiment, the example in which the human support information is generated based on the intention recognition result obtained by the intention recognition unit 36 is shown, but the present invention is not limited to this. Human support information may be generated based only on vehicle position information and pedestrian position information.

また、人間支援管理部37は、意図認識結果を単純化し、左折、直進及び右折の別に基づき歩行支援情報や運転支援情報を生成する場合を示したが、これに限定されない。例えば、人間支援管理部37は、意図認識部36と同様に、ファジイ連想推論を用いて危険情報を生成してもよい。この場合、例えば入力ノードを運転意図グレードとし、出力ノードを危険度に対応付ける。そして、意図認識部36における車両位置V、車両速度V及び顔方向θと、運転意図と同様に、予め運転意図と危険度とを関連づけた連想メモリを生成しておく。そして、運転意図グレードが得られるたびに、危険度を人間支援管理部37が生成する。これにより、意図認識結果が左折、直進及び右折などの登録結果にはっきり収束しないあいまいな場合にも、適切な危険度を得ることができる。 Moreover, although the human assistance management part 37 simplified the intention recognition result and showed the case where walking assistance information and driving assistance information were produced | generated based on the left turn, straight advance, and right turn, it is not limited to this. For example, the human support management unit 37 may generate danger information using fuzzy associative reasoning, similar to the intention recognition unit 36. In this case, for example, the input node is set to the driving intention grade, and the output node is associated with the risk level. Then, an associative memory in which the driving intention and the degree of risk are associated in advance is generated in the same manner as the driving intention and the vehicle position V L , the vehicle speed V v and the face direction θ D in the intention recognition unit 36. And whenever a driving intention grade is obtained, the human assistance management part 37 produces | generates a danger level. Thereby, even when the intention recognition result is ambiguous that does not clearly converge to the registration result such as left turn, straight advance, and right turn, an appropriate degree of risk can be obtained.

また、人間支援管理部37における危険度の判定は、上記したものはほんの一例にすぎない。歩行者の歩行意図や、歩行者の数、道路情報などの他の環境情報が得られる場合、それらの環境情報も含めて判定することにより、支援精度が向上する。人間支援管理部378にもファジイ連想推論を適用する場合、これら各環境情報を予め入力ノードとして定めておくことで、支援精度を簡単に向上させることができる。このように処理する場合、例えば道路情報が得られない場合や歩行者の歩行意図など、各環境情報がすべて得られなかったとしても、得られる情報のみから危険度の判定を行うことができる利点を有する。また、より多くの環境情報が得られる場合にも、新たな環境情報を入力ノードに新たに設定して連想マトリクスを得るのみで、簡単に運転及び歩行支援の精度を向上させることができる。このように、環境情報が入れば入るほど支援精度を向上させることができる。   Further, the determination of the risk level in the human support manager 37 is only an example. When other environmental information such as the pedestrian's intention to walk, the number of pedestrians, and road information can be obtained, the support accuracy is improved by making a determination including the environmental information. When fuzzy associative reasoning is applied to the human support management unit 378, it is possible to easily improve support accuracy by setting each piece of environment information as an input node in advance. When processing in this way, for example, when road information cannot be obtained or the pedestrian's intention to walk, even if all the environmental information is not obtained, the advantage that the degree of risk can be determined only from the obtained information Have Also, when more environmental information can be obtained, the accuracy of driving and walking support can be easily improved by simply setting new environmental information in the input node and obtaining an association matrix. Thus, the more accurate the environmental information is entered, the better the support accuracy can be.

また、意図認識結果は、左折、直進及び右折の別のみ示したが、これに限定されない。例えば、停止、斜線変更、駐車など、代表的な運転行動をさらに多く登録してもよい。このように、さらに多くの運転行動を登録しておくことで、きめの細かい運転支援が可能となる。   Moreover, although the intention recognition result showed only the left turn, the straight ahead, and the right turn, it is not limited to this. For example, more representative driving behaviors such as stopping, changing oblique lines, and parking may be registered. In this way, by registering more driving actions, fine driving support can be achieved.

さらに、上記実施形態では、車両と歩行者の例で説明したが、歩行者を車両に置換することにより、車両同士の運転支援に適用することもできるし、車両を歩行者に置換することにより、歩行者同士の歩行支援に適用することもできる。すなわち、あらゆる移動体の移動支援に適用することができることはいうまでもない。さらに、車両の種別は上記具体例で示した自動車に限定されない。自転車や二輪車なども車両に含まれる。   Furthermore, in the said embodiment, although demonstrated with the example of a vehicle and a pedestrian, it can apply to the driving assistance of vehicles by substituting a pedestrian for a vehicle, By substituting a vehicle for a pedestrian, It can also be applied to walking support between pedestrians. That is, it goes without saying that the present invention can be applied to movement support for all moving objects. Furthermore, the type of vehicle is not limited to the automobile shown in the specific example. Bicycles and motorcycles are also included in the vehicle.

また、A点及びB点に設置された2個ずつのカメラを用いてそれぞれ車両位置を歩行者位置を算出したが、車両や歩行者等の移動体が撮像領域に複数存在する場合には、複数の移動体のうちのいずれかについての位置を選択して算出すればよい。   Also, the pedestrian position is calculated for each vehicle position using two cameras installed at point A and point B, but when there are multiple moving objects such as vehicles and pedestrians in the imaging region, What is necessary is just to select and calculate the position about either of a some mobile body.

以上説明したようにこの発明は、情報インフラの整備された都市空間に生活する情報技術から疎外され、その恩恵を十分に得られていないお年寄りや身体障害者等を支援する人間支援システムの技術分野に有効である。   As described above, the present invention is a technology of a human support system that supports elderly people, disabled persons, etc. who have been marginalized from information technology living in an urban space with an information infrastructure and who have not fully obtained the benefits. Effective in the field.

本発明の一実施形態に係る人間支援システムが適用されるネットワークシステムの一例を示す図。The figure which shows an example of the network system with which the human assistance system which concerns on one Embodiment of this invention is applied. 同実施形態に係る人間支援システムを構成する車両、サーバ及び交差点設置カメラの詳細な構成の一例を示す図。The figure which shows an example of the detailed structure of the vehicle which comprises the human assistance system which concerns on the embodiment, a server, and an intersection installation camera. 同実施形態に係る歩行者位置情報算出部における歩行者位置情報算出処理を説明するための図。The figure for demonstrating the pedestrian location information calculation process in the pedestrian location information calculation part which concerns on the same embodiment. 同実施形態に係る時系列データとしての重心位置PCtを示す図。It shows the center-of-gravity position P Ct as time series data according to the same embodiment. 同実施形態に係る意図認識モデルの概念図。The conceptual diagram of the intention recognition model which concerns on the same embodiment. 同実施形態に係るCFS(概念ファジイ集合)の概念を説明するための図。The figure for demonstrating the concept of CFS (concept fuzzy set) which concerns on the same embodiment. 同実施形態に係る双方向連想記憶(BAM)の概念を説明するための図。The figure for demonstrating the concept of the bidirectional associative memory (BAM) which concerns on the same embodiment. 同実施形態に係るファジイルールを連想記憶ネットワークを用いて表現した模式図。The schematic diagram which expressed the fuzzy rule which concerns on the embodiment using the associative memory network. 同実施形態に係る連想記憶をネットワークを構築する際に必要な知識を示す図。The figure which shows the knowledge required when constructing | assembling the network of the associative memory which concerns on the embodiment. 同実施形態に係る歩行者と車両が交差点に向かう際に運転者に対して、交差点に侵入する2,4,6秒前に提示した場合を模式的に示す図。The figure which shows typically the case where the pedestrian and vehicle which concern on the embodiment show to the driver 2, 4, and 6 seconds before entering the intersection when heading for the intersection. 同実施形態に係る福祉防災サイバー都市の概略図。Schematic of the welfare disaster prevention cyber city according to the embodiment. 同実施形態に係る意図認識部における意図認識決定処理のデータフローを示す図。The figure which shows the data flow of the intention recognition determination process in the intention recognition part which concerns on the same embodiment. 同実施形態に係る意図認識部における意図認識決定処理のデータフローを示す図。The figure which shows the data flow of the intention recognition determination process in the intention recognition part which concerns on the same embodiment. 同実施形態に係る人間支援管理部における運転支援情報及び歩行支援情報生成のデータフローを示す図。The figure which shows the data flow of the driving assistance information in the human assistance management part which concerns on the embodiment, and walking assistance information generation.

符号の説明Explanation of symbols

1…歩行者、2…車両、3…サーバ、21…視野画像撮像カメラ、22…表示部、23…制御部、24…車両搭載カメラ、31,32…交差点設置カメラ、33…車両位置情報算出部、34…歩行者位置情報算出部、35…顔方向情報算出部、36…意図認識部、37…人間支援管理部、38…通信制御手段、41,42…道路、43…交差点、 DESCRIPTION OF SYMBOLS 1 ... Pedestrian, 2 ... Vehicle, 3 ... Server, 21 ... Visual field imaging camera, 22 ... Display part, 23 ... Control part, 24 ... Vehicle mounted camera, 31, 32 ... Intersection installation camera, 33 ... Vehicle position information calculation 34: Pedestrian position information calculation unit, 35 ... Face direction information calculation unit, 36 ... Intention recognition unit, 37 ... Human support management unit, 38 ... Communication control means, 41, 42 ... Road, 43 ... Intersection,

Claims (15)

車両の進路に設置されたカメラと、
前記カメラで撮像された進路画像情報を画像処理し車両の位置情報を算出する車両位置情報算出部と、
前記カメラで撮像された進路画像情報を画像処理し歩行者の位置情報を算出する歩行者位置情報算出部と、
前記車両位置情報と前記歩行者位置情報とに基づき、歩行者に車両の存在を知らせるための歩行支援情報を生成し、又は前記車両に歩行者の存在を知らせるための運転支援情報を生成する人間支援管理部と、
前記歩行支援情報又は前記運転支援情報を送信する通信制御手段と、
前記車両に搭載され、車両の運転者を撮像する車両搭載カメラと、
前記車両の運転者に固定され、運転者の視野の画像を撮像する視野画像撮像カメラと、
前記車両搭載カメラで得られた運転者撮像画像と前記視野画像撮像カメラで得られた視野画像とに基づき運転者の顔の方向を算出する顔方向情報算出部と、
を具備してなることを特徴とする人間支援システム。
A camera installed in the course of the vehicle,
A vehicle position information calculation unit that calculates the position information of the vehicle by performing image processing on the route image information captured by the camera;
A pedestrian position information calculation unit that performs image processing on the route image information captured by the camera and calculates position information of the pedestrian;
A person who generates walking support information for informing the pedestrian of the presence of the vehicle based on the vehicle position information and the pedestrian position information, or generates driving support information for informing the vehicle of the presence of the pedestrian. Support management department,
Communication control means for transmitting the walking support information or the driving support information;
A vehicle-mounted camera that is mounted on the vehicle and images a driver of the vehicle;
A field-of-view imaging camera fixed to the driver of the vehicle and capturing an image of the field of view of the driver;
A face direction information calculation unit that calculates the direction of the driver's face based on the driver captured image obtained by the vehicle-mounted camera and the field of view image obtained by the field of view image capturing camera;
The human support system characterized by comprising.
さらに、車両の運転者の意図を認識して意図認識結果を出力する意図認識部を備え、
前記人間支援管理部は、前記意図認識部で得られた意図認識結果に基づき前記歩行支援情報又は運転支援情報を生成することを特徴とする請求項1に記載の人間支援システム。
Furthermore, an intention recognition unit that recognizes the intention of the driver of the vehicle and outputs an intention recognition result is provided.
The human support management unit, the human support system according to claim 1, characterized in that to generate the walking assistance information or driving support information based on the intention recognizing section intended recognition result obtained in.
歩行者により携帯され、前記歩行支援情報を受信して表示する表示装置をさらに備えることを特徴とする請求項1に記載の人間支援システム。   The human support system according to claim 1, further comprising a display device that is carried by a pedestrian and receives and displays the walking support information. 車両に搭載され、前記運転支援情報を受信して表示する表示装置をさらに備えることを特徴とする請求項1に記載の人間支援システム。   The human support system according to claim 1, further comprising a display device mounted on a vehicle for receiving and displaying the driving support information. 前記通信制御手段は、前記車両の速度と前記車両の運転者の顔の方向とを受信し、
前記意図認識部は、前記通信制御手段で受信された前記車両の速度と、前記顔の方向と、前記車両位置情報算出部で算出された前記車両の位置情報とに基づき運転者の意図を認識することを特徴とする請求項1に記載の人間支援システム。
The communication control means receives the speed of the vehicle and the direction of the face of the driver of the vehicle,
The intention recognition unit recognizes a driver's intention based on the vehicle speed received by the communication control unit, the face direction, and the vehicle position information calculated by the vehicle position information calculation unit. The human support system according to claim 1, wherein:
車両の進路に設置されたカメラと、
前記カメラで撮像された進路画像情報を画像処理し車両の位置情報を算出する車両位置情報算出部と、
前記カメラで撮像された進路画像情報を画像処理し歩行者の位置情報を算出する歩行者位置情報算出部と、
前記車両位置情報と前記歩行者位置情報とに基づき、歩行者に車両の存在を知らせるための歩行支援情報を生成し、又は前記車両に歩行者の存在を知らせるための運転支援情報を生成する人間支援管理部と、
前記歩行支援情報又は前記運転支援情報を送信し、前記車両の速度と前記車両の運転者の顔の方向とを受信する通信制御手段と、
前記車両の速度と前記顔の方向と前記車両の位置情報とからなる入力パラメータと、運転者の運転意図を示す出力パラメータとの関係を関連づけた連想マトリクスを運転者ごとに複数記憶する記憶装置と、
前記通信制御手段で受信された前記車両の速度と前記顔の方向及び前記車両位置情報算出部で算出された前記車両の位置情報に対して、前記記憶装置から読み出された連想マトリクスに基づき反響動作に伴う状態推移により運転者の運転意図を認識する意図認識部と、
を具備してなることを特徴とする人間支援システム。
A camera installed in the course of the vehicle,
A vehicle position information calculation unit that calculates the position information of the vehicle by performing image processing on the route image information captured by the camera;
A pedestrian position information calculation unit that performs image processing on the route image information captured by the camera and calculates position information of the pedestrian;
A person who generates walking support information for informing the pedestrian of the presence of the vehicle based on the vehicle position information and the pedestrian position information, or generates driving support information for informing the vehicle of the presence of the pedestrian. Support management department,
Communication control means for transmitting the walking support information or the driving support information and receiving the speed of the vehicle and the direction of the face of the driver of the vehicle ;
A storage device that stores a plurality of associative matrices for each driver, each of which associates an input parameter including the speed of the vehicle, the direction of the face, and the position information of the vehicle, and an output parameter indicating the driving intention of the driver; ,
The vehicle speed information received by the communication control means, the face direction, and the vehicle position information calculated by the vehicle position information calculation unit are echoed based on an association matrix read from the storage device. An intention recognition unit for recognizing the driver's driving intention based on the state transition accompanying the movement;
The human support system characterized by comprising.
記人間支援管理部は、意図認識部で得られた意図認識結果に基づき前記歩行支援情報又は運転支援情報を生成することを特徴とする請求項に記載の人間支援システム。 Before Symbol Human Support management unit, the human support system according to claim 6, characterized in that to generate the walking assistance information or driving support information based on the intent recognition result obtained by the intention recognizing section. 歩行者により携帯され、前記歩行支援情報を受信して表示する表示装置をさらに備えることを特徴とする請求項に記載の人間支援システム。 The human support system according to claim 6 , further comprising a display device that is carried by a pedestrian and receives and displays the walking support information. 車両に搭載され、前記運転支援情報を受信して表示する表示装置をさらに備えることを特徴とする請求項に記載の人間支援システム。 The human support system according to claim 6 , further comprising a display device mounted on a vehicle for receiving and displaying the driving support information. 前記連想マトリクスは、一運転者の複数の異なる状態について記憶されることを特徴とする請求項に記載の人間支援システム。 The human association system according to claim 6 , wherein the association matrix is stored for a plurality of different states of one driver. 前記意図認識部は、前記複数の運転者ごとの連想マトリクスに対して算出された運転意図のうち、最も強く想起された運転意図を運転者の運転意図に決定する判定手段を備えることを特徴とする請求項に記載の人間支援システム。 The intention recognition unit includes a determination unit that determines the driving intention most strongly recalled among the driving intentions calculated for the association matrix for each of the plurality of drivers as the driving intention of the driver. The human support system according to claim 6 . 車両の進路に設置されたカメラで撮像された進路画像情報を画像処理し車両の位置情報を算出するステップと
前記カメラで撮像された進路画像情報を画像処理し歩行者の位置情報を算出するステップと
前記車両位置情報と前記歩行者位置情報とに基づき、歩行者に車両の存在を知らせるための歩行支援情報を生成し、又は前記車両に歩行者の存在を知らせるための運転支援情報を生成するステップと
前記歩行支援情報又は前記運転支援情報を送信するステップと
前記車両に搭載された車両搭載カメラにより車両の運転者を撮像するステップと、
前記車両の運転者に固定された視野画像撮像カメラにより運転者の視野の画像を撮像するステップと、
前記車両搭載カメラで得られた運転者撮像画像と前記視野画像撮像カメラで得られた視野画像とに基づき運転者の顔の方向を算出するステップと、
を具備することを特徴とする人間支援方法。
A step of image processing the path image information captured by a camera mounted in the path of the vehicle calculates the position information of the vehicle,
Calculating a position information of the pedestrian image processing route image information captured by the camera,
Step based on said vehicle position information and the pedestrian position information, generates the walking assistance information for notifying existence of the vehicle pedestrian, or generates the driving support information for notifying the presence of the pedestrian on the vehicle And
Transmitting the walking support information or the driving support information;
Imaging a vehicle driver with a vehicle-mounted camera mounted on the vehicle;
Capturing an image of the driver's field of view with a field of view imaging camera fixed to the driver of the vehicle;
Calculating a driver's face direction based on a driver captured image obtained by the vehicle-mounted camera and a visual field image obtained by the visual field image capturing camera;
A human support method comprising the steps of :
コンピュータを、
車両の進路に設置されたカメラで撮像された進路画像情報を画像処理し車両の位置情報を算出する車両位置情報算出部と、
前記カメラで撮像された進路画像情報を画像処理し歩行者の位置情報を算出する歩行者位置情報算出部と、
前記車両位置情報と前記歩行者位置情報とに基づき、歩行者に車両の存在を知らせるための歩行支援情報を生成し、又は前記車両に歩行者の存在を知らせるための運転支援情報を生成する人間支援管理部と、
前記歩行支援情報又は前記運転支援情報を送信する通信制御手段と、
前記車両に搭載された車両搭載カメラで運転者を撮像して得られた運転者撮像画像と前記車両の運転者に固定された視野画像撮像カメラで運転者の視野の画像を撮像して得られた視野画像とに基づき運転者の顔の方向を算出する顔方向情報算出部
として機能させることを特徴とする人間支援プログラム。
Computer
A vehicle position information calculation unit that calculates the position information of the vehicle by performing image processing on the route image information captured by a camera installed in the route of the vehicle;
A pedestrian position information calculation unit that performs image processing on the route image information captured by the camera and calculates position information of the pedestrian;
A person who generates walking support information for informing the pedestrian of the presence of the vehicle based on the vehicle position information and the pedestrian position information, or generates driving support information for informing the vehicle of the presence of the pedestrian. A support management department;
Communication control means for transmitting the walking support information or the driving support information;
Obtained by capturing an image of a driver captured by a vehicle-mounted camera mounted on the vehicle and an image of the driver's field of view with a field-of-view image capturing camera fixed to the driver of the vehicle. A human support program that functions as a face direction information calculation unit that calculates a driver's face direction based on the field of view image .
車両の進路に設置されたカメラで撮像された進路画像情報を画像処理し車両の位置情報を算出するステップと
前記カメラで撮像された進路画像情報を画像処理し歩行者の位置情報を算出するステップと
前記車両位置情報と前記歩行者位置情報とに基づき、歩行者に車両の存在を知らせるための歩行支援情報を生成し、又は前記車両に歩行者の存在を知らせるための運転支援情報を生成するステップと
前記歩行支援情報又は前記運転支援情報を送信するステップと
前記車両の速度と前記車両の運転者の顔の方向とを受信するステップと、
受信された前記車両の速度と前記顔の方向及び前記算出された前記車両の位置情報に対して、前記車両の速度と前記顔の方向と前記車両の位置情報とからなる入力パラメータと、運転者の運転意図を示す出力パラメータとの関係を関連づけた連想マトリクスを運転者ごとに複数記憶する記憶装置から読み出された連想マトリクスに基づき反響動作に伴う状態推移により運転者の運転意図を認識するステップと、
を具備することを特徴とする人間支援方法。
A step of image processing the path image information captured by a camera mounted in the path of the vehicle calculates the position information of the vehicle,
Calculating the pedestrian's position information by image-processing the course image information captured by the camera;
Step based on said vehicle position information and the pedestrian position information, generates the walking assistance information for notifying existence of the vehicle pedestrian, or generates the driving support information for notifying the presence of the pedestrian on the vehicle And
Transmitting the walking support information or the driving support information;
Receiving the speed of the vehicle and the direction of the face of the driver of the vehicle;
For the received vehicle speed, the face direction, and the calculated vehicle position information, an input parameter including the vehicle speed, the face direction, and the vehicle position information, and a driver The step of recognizing the driver's driving intention by the state transition associated with the reverberating action based on the association matrix read out from the storage device that stores a plurality of associative matrices for each driver in association with the output parameter indicating the driving intention of the driver When,
A human support method comprising the steps of:
コンピュータを、
車両の進路に設置されたカメラで撮像された進路画像情報を画像処理し車両の位置情報を算出する車両位置情報算出部と、
前記カメラで撮像された進路画像情報を画像処理し歩行者の位置情報を算出する歩行者位置情報算出部と、
前記車両位置情報と前記歩行者位置情報とに基づき、歩行者に車両の存在を知らせるための歩行支援情報を生成し、又は前記車両に歩行者の存在を知らせるための運転支援情報を生成する人間支援管理部と、
前記歩行支援情報又は前記運転支援情報を送信し、前記車両の速度と前記車両の運転者の顔の方向とを受信する通信制御手段と、
前記車両の速度と前記顔の方向と前記車両の位置情報とからなる入力パラメータと、運転者の運転意図を示す出力パラメータとの関係を関連づけた連想マトリクスを運転者ごとに複数記憶する記憶装置と、
前記通信制御手段で受信された前記車両の速度と前記顔の方向及び前記車両位置情報算出部で算出された前記車両の位置情報に対して、前記記憶装置から読み出された連想マトリクスに基づき反響動作に伴う状態推移により運転者の意図を認識する意図認識部
として機能させることを特徴とする人間支援プログラム。
Computer
A vehicle position information calculation unit that calculates the position information of the vehicle by performing image processing on the route image information captured by a camera installed in the route of the vehicle;
A pedestrian position information calculation unit that performs image processing on the route image information captured by the camera and calculates position information of the pedestrian;
A person who generates walking support information for informing the pedestrian of the presence of the vehicle based on the vehicle position information and the pedestrian position information, or generates driving support information for informing the vehicle of the presence of the pedestrian. Support management department,
Communication control means for transmitting the walking support information or the driving support information and receiving the speed of the vehicle and the direction of the face of the driver of the vehicle ;
A storage device that stores a plurality of associative matrices for each driver, each of which associates an input parameter including the speed of the vehicle, the direction of the face, and the position information of the vehicle, and an output parameter indicating the driving intention of the driver; ,
The vehicle speed information received by the communication control means, the face direction, and the vehicle position information calculated by the vehicle position information calculation unit are echoed based on an association matrix read from the storage device. A human support program that functions as an intention recognizing unit that recognizes a driver's intention based on a state transition associated with movement .
JP2004026951A 2004-02-03 2004-02-03 Human support system, human support method, and human support program Expired - Lifetime JP4159049B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004026951A JP4159049B2 (en) 2004-02-03 2004-02-03 Human support system, human support method, and human support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004026951A JP4159049B2 (en) 2004-02-03 2004-02-03 Human support system, human support method, and human support program

Publications (2)

Publication Number Publication Date
JP2005222153A JP2005222153A (en) 2005-08-18
JP4159049B2 true JP4159049B2 (en) 2008-10-01

Family

ID=34997747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004026951A Expired - Lifetime JP4159049B2 (en) 2004-02-03 2004-02-03 Human support system, human support method, and human support program

Country Status (1)

Country Link
JP (1) JP4159049B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007087337A (en) * 2005-09-26 2007-04-05 Toyota Motor Corp Vehicle peripheral information display device
JP5008118B2 (en) * 2006-08-28 2012-08-22 公立大学法人首都大学東京 Suspicious person discrimination system and profile distribution system
JP4848244B2 (en) * 2006-10-19 2011-12-28 富士電機株式会社 Information guidance system and information guidance program
US10225525B2 (en) 2014-07-09 2019-03-05 Sony Corporation Information processing device, storage medium, and control method
CN104217615B (en) * 2014-09-16 2016-08-24 武汉理工大学 A kind of pedestrian anti-collision system and method collaborative based on bus or train route

Also Published As

Publication number Publication date
JP2005222153A (en) 2005-08-18

Similar Documents

Publication Publication Date Title
Alkinani et al. Detecting human driver inattentive and aggressive driving behavior using deep learning: Recent advances, requirements and open challenges
US20220126878A1 (en) Autonomous vehicle system
Gupta et al. Deep learning for object detection and scene perception in self-driving cars: Survey, challenges, and open issues
Eraqi et al. Driver distraction identification with an ensemble of convolutional neural networks
Koesdwiady et al. Recent trends in driver safety monitoring systems: State of the art and challenges
US9786192B2 (en) Assessing driver readiness for transition between operational modes of an autonomous vehicle
EP3675121B1 (en) Computer-implemented interaction with a user
Tran et al. A human-vehicle collaborative driving framework for driver assistance
EP3837137A2 (en) Contextual driver monitoring system
US11587329B2 (en) Method and apparatus for predicting intent of vulnerable road users
JP2021535476A (en) Systems and methods for detecting and recording anomalous vehicle events
JP5278419B2 (en) Driving scene transition prediction device and vehicle recommended driving operation presentation device
Alluhaibi et al. Driver behavior detection techniques: A survey
Lee et al. Continuous car driving intent detection using structural pattern recognition
JP2020119120A (en) Guide system, guide method, and program
JP4159049B2 (en) Human support system, human support method, and human support program
Zhang et al. Recognition method of abnormal driving behavior using the bidirectional gated recurrent unit and convolutional neural network
Michalke et al. The narrow road assistant-next generation advanced driver assistance in inner-city
Rendon-Velez et al. Progress with situation assessment and risk prediction in advanced driver assistance systems: A survey
Soultana et al. Context-awareness in the smart car: study and analysis
JP4264944B2 (en) Human state estimation system, human state estimation method, and human state estimation program
Rasouli The Role of Context in Understanding and Predicting Pedestrian Behavior in Urban Traffic Scenes
US20230304800A1 (en) Method of augmenting human perception of the surroundings
Fasanmade A Context Aware Classification System for Monitoring Drivers' Distraction Levels
US20240112570A1 (en) Moving body prediction device, learning method, traffic safety support system, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080708

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080711

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110725

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120725

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130725

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130725

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130725

Year of fee payment: 5

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250