JP6651062B2 - 車外コミュニケーション装置、車外コミュニケーション方法、情報処理装置、及び車外コミュニケーションプログラム - Google Patents

車外コミュニケーション装置、車外コミュニケーション方法、情報処理装置、及び車外コミュニケーションプログラム Download PDF

Info

Publication number
JP6651062B2
JP6651062B2 JP2019554086A JP2019554086A JP6651062B2 JP 6651062 B2 JP6651062 B2 JP 6651062B2 JP 2019554086 A JP2019554086 A JP 2019554086A JP 2019554086 A JP2019554086 A JP 2019554086A JP 6651062 B2 JP6651062 B2 JP 6651062B2
Authority
JP
Japan
Prior art keywords
pedestrian
display
intention
display content
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019554086A
Other languages
English (en)
Other versions
JPWO2019097595A1 (ja
Inventor
義広 都丸
義広 都丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6651062B2 publication Critical patent/JP6651062B2/ja
Publication of JPWO2019097595A1 publication Critical patent/JPWO2019097595A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/547Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking for issuing requests to other traffic participants; for confirming to other traffic participants they can proceed, e.g. they can overtake
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/549Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking for expressing greetings, gratitude or emotions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/45Special conditions, e.g. pedestrians, road signs or potential dangers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/50Projected symbol or information, e.g. onto the road or car body
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、歩行者に対して表示コンテンツを表示する車外コミュニケーション装置及び車外コミュニケーション方法、車外コミュニケーション装置の一部を構成する情報処理装置、並びにコンピュータに車外コミュニケーション方法を実行させる車外コミュニケーションプログラムに関する。
認識装置により認識された歩行者に対して、認識したことをマーキング光の照射により報知する車両用の報知装置が提案されている(例えば、特許文献1参照)。この装置は、カメラの検出結果に基づいて歩行者が道路を横断する意思(すなわち、横断意思)を持つか否かを判断する。具体的には、この装置は、歩行者が予め決められた行動(例えば、挙手、顔の向き)をとった場合に、歩行者が横断意思を持っていると判断する。
特開2014−46838号公報(要約、段落0026、0068、0085、図16)
しかしながら、上記装置は、予め決められた行動のみを基準として歩行者の横断意思を判断しているので、歩行者の横断意思を正確に判断することはできない。したがって、歩行者が車両に道を譲ろうとする意思(すなわち、譲り意思)を持っているのか否かを正確に判断することができず、歩行者に対する適切な情報の提供ができない。
本発明は、上記課題を解決するためになされたものであり、その目的は、歩行者の譲り意思の状態を正確に判断し、歩行者に対して適切な表示コンテンツを表示することができる車外コミュニケーション装置及び車外コミュニケーション方法、車外コミュニケーション装置の一部を構成する情報処理装置、並びにコンピュータに車外コミュニケーション方法を実行させる車外コミュニケーションプログラムを提供することである。
本発明の一態様に係る車外コミュニケーション装置は、予め交通シーンから作成された学習用データベースに基づいて歩行者が車両に道を譲ろうとする意思である譲り意思の状態と前記歩行者の頭部の挙動と前記歩行者の位置との関係を予め学習し、前記譲り意思の状態に前記挙動及び前記位置を紐付けした学習データである譲り意思判断パラメタを生成する譲り意思判断パラメタ学習部と、前記譲り意思判断パラメタを記憶する記憶部と、第1の歩行者の頭部画像及び位置を取得する周辺状況取得部と、取得された前記第1の歩行者の頭部画像及び位置と前記記憶部に記憶されている前記譲り意思判断パラメタとに基づいて前記第1の歩行者の譲り意思の状態を判断する譲り意思判断部と、道路上に表示コンテンツを表示する表示機と、前記第1の歩行者の譲り意思の状態の判断の結果に基づいて、前記第1の歩行者に対して前記表示コンテンツを表示するか否か、前記表示コンテンツの内容、及び前記表示コンテンツの道路上における表示位置を決定し、前記決定に基づいて前記表示機を制御する表示制御部とを備えたことを特徴とする。
本発明の他の態様に係る車外コミュニケーション方法は、予め交通シーンから作成された学習用データベースに基づいて歩行者が車両に道を譲ろうとする意思である譲り意思の状態と前記歩行者の頭部の挙動と前記歩行者の位置との関係を予め学習し、前記譲り意思の状態に前記挙動及び前記位置を紐付けした学習データである譲り意思判断パラメタを生成し、前記譲り意思判断パラメタを記憶部に記憶させるステップと、周辺状況取得部から第1の歩行者の頭部画像及び位置を取得するステップと、取得された前記第1の歩行者の頭部画像及び位置と前記記憶部に記憶されている前記譲り意思判断パラメタとに基づいて前記第1の歩行者の譲り意思の状態を判断するステップと、前記第1の歩行者の譲り意思の状態の判断の結果に基づいて、前記第1の歩行者に対して表示コンテンツを表示するか否か、前記表示コンテンツの内容、及び前記表示コンテンツの道路上における表示位置を決定し、前記決定に基づいて道路上に表示コンテンツを表示する表示機を制御するステップとを有することを特徴とする。
本発明によれば、歩行者の譲り意思の状態を正確に判断することができ、歩行者に対して適切な表示コンテンツを表示することができる。
実施の形態1に係る車外コミュニケーション装置の構成を概略的に示す機能ブロック図である。 実施の形態1に係る車外コミュニケーション装置を備えた車両と歩行者との位置関係の例を示す図である。 車両に対する歩行者の位置と道路上に表示された表示コンテンツの例を示す図である。 実施の形態1に係る車外コミュニケーション装置の譲り意思判断パラメタ学習部による学習動作(オフライン処理により行われる)を示すフローチャートである。 記憶部に記憶される譲り意思判断パラメタの例を表形式で示す図である。 実施の形態1に係る車外コミュニケーション装置の実際の交通シーンにおける車外コミュニケーション動作(オンライン処理により行われる)を示すフローチャートである。 実施の形態1に係る車外コミュニケーション装置の表示要否決定部が使用する要否決定テーブルの例を表形式で示す図である。 実施の形態1に係る車外コミュニケーション装置の表示内容決定部が使用するコンテンツDBの例を表形式で示す図である。 実施の形態2に係る車外コミュニケーション装置の構成を概略的に示す機能ブロック図である。 実施の形態2に係る車外コミュニケーション装置の理解度判断パラメタ学習部による学習動作(オフライン処理により行われる)を示すフローチャートである。 記憶部に記憶される理解度判断パラメタの例を表形式で示す図である。 実施の形態2に係る車外コミュニケーション装置の実際の交通シーンにおける車外コミュニケーション動作(オンライン処理により行われる)を示すフローチャートである。 実施の形態2に係る車外コミュニケーション装置の表示内容変更部が使用するコンテンツDBの例を表形式で示す図である。 実施の形態1及び2の変形例に係る車外コミュニケーション装置のハードウェア構成を示す図である。
以下に、本発明の実施の形態に係る車外コミュニケーション装置、車外コミュニケーション方法、車外コミュニケーション装置の一部を構成する情報処理装置、並びにコンピュータに車外コミュニケーション方法を実行させる車外コミュニケーションプログラムを、添付図面を参照しながら説明する。車外コミュニケーション装置は、車両(例えば、自動車)に備えられ、車両の周辺の道路上の人(すなわち、歩行者)に対する表示コンテンツを表示することで、車両と歩行者との間のコミュニケーションを可能にするものである。以下の実施の形態は、例にすぎず、本発明の範囲内で種々の変更が可能である。
《1》実施の形態1.
《1−1》構成
<車外コミュニケーション装置>
図1は、実施の形態1に係る車外コミュニケーション装置の構成を概略的に示す機能ブロック図である。図1の車外コミュニケーション装置は、実施の形態1に係る車外コミュニケーション方法を実行することができる装置である。
図1に示されるように、実施の形態1に係る車外コミュニケーション装置は、車両の周辺の状況(例えば、周辺の対象物)を撮影又は検出する周辺状況取得部10と、予め交通シーンから作成された学習用データベース(学習用DB)に基づく学習(例えば、機械学習又は深層学習)により、予め譲り意思判断パラメタ31を生成する譲り意思判断パラメタ学習部20と、譲り意思判断パラメタ31などのデータが予め保存されている記憶装置である記憶部30とを備える。譲り意思判断パラメタ学習部20は、学習用DBの画像データ及びセンサデータを用いた学習により、譲り意思判断パラメタ31を生成するために備えられており、車外コミュニケーションを実施する際には使用されない。ここで、学習用DBの画像データとは、学習用DBを取得するためのカメラによって交通シーンを撮影した画像データである。学習用DBのセンサデータは、学習用DBを取得するためのミリ波センサ又はレーザセンサによって交通シーンで対象物を検出したことで得られたデータである。
また、実施の形態1に係る車外コミュニケーション装置は、実際の交通シーンにおける実際の歩行者(以下「第1の歩行者」ともいう)の譲り意思の状態(例えば、「譲り意思有り」、「譲り意思無し」、又は「譲り意思未決定」)を判断する譲り意思判断部40と、路面上に表示コンテンツを表示する表示機60と、表示機60を制御する表示制御部50とを備える。
「譲り意思有り」は、歩行者が、車両を先に通過させて自身は車両の通過の後に道路を横断しようとする意思を持っている状態、すなわち、車両に道を譲ろうとする意思を持っている状態である。
「譲り意思無し」は、歩行者が、車両の通過前に道路を横断しようとする意思を持っている状態、すなわち、車両に道を譲ろうとする意思を持っていない状態である。
「譲り意思未決定」は、歩行者が、車両の通過前に道路を横断するか又は車両を先に通過させて自身は車両の通過の後に道路を横断するか迷っている状態、すなわち、迷い状態である。
頭部抽出部14、歩行者検出部15、譲り意思判断パラメタ学習部20、譲り意思判断部40、及び表示制御部50は、実施の形態1に係る情報処理装置を構成する。この情報処理装置のハードウェア構成の例は、後述の図14に示される。
<周辺状況取得部10>
図2は、実施の形態1に係る車外コミュニケーション装置を備えた車両91と道路93を横断しようとする実際の歩行者(以下「第1の歩行者」ともいう)92との位置関係の例を示す図である。図3は、車両91に対する第1の歩行者92の位置と道路93上に表示された表示コンテンツ61の例を示す図である。図2及び図3において、車両91は、V−V直交座標系における原点(0,0)にあり、矢印94方向すなわち+V軸方向に先端を向けている。第1の歩行者92は座標(Vx_h,Vy_h)にあり、矢印95方向すなわち−V軸方向に顔を向けており、−V軸方向に歩行して道路93を横断している又は横断したいと思って立ち止まっている。
周辺状況取得部10は、車両91の周辺の第1の歩行者92の頭部画像及び第1の歩行者92の位置を取得する手段である。実施の形態1において、車両91の周辺は、車両91の前方すなわち矢印94方向の予め決められた角度範囲内の領域である。
図1の例では、周辺状況取得部10は、画像を撮影するカメラ11と、対象物としての第1の歩行者92の位置を検出するミリ波センサ12及びレーザセンサ13と、カメラ11によって撮影された画像から第1の歩行者92の頭部画像を抽出する頭部抽出部14と、ミリ波センサ12及びレーザセンサ13から提供されるセンサデータから第1の歩行者92の位置を検出する歩行者検出部15とを有する。第1の歩行者92の頭部は、第1の歩行者92の顔を含む。カメラ11が距離計測機能を持つ場合には、第1の歩行者92の位置は、カメラ11によって撮影された第1の歩行者92の画像(例えば、頭部画像)に基づいて計測されてもよい。第1の歩行者92の位置は、車両91から第1の歩行者92までの距離Lと車両91から見た第1の歩行者92の方向(矢印96)とによって特定できる。ミリ波センサ12は、ミリ波を用いて対象物の位置を検出する。ミリ波センサ12は、ミリ波レーダーとも呼ばれる。レーザセンサ13は、レーザビームを用いて対象物の位置を検出する。周辺状況取得部10は、第1の歩行者92の頭部画像及び第1の歩行者92の位置を取得できる手段であれば、図1に示される構成のものに限定されない。
<譲り意思判断パラメタ学習部20>
譲り意思判断パラメタ学習部20は、実施の形態1に係る車外コミュニケーション装置を実際の交通シーンにおいて使用する前に、譲り意思判断パラメタ31を生成し、記憶部30に保存するために使用される。譲り意思判断パラメタ学習部20は、図1におけるカメラ11を頭部抽出部14から切り離し、ミリ波センサ12及びレーザセンサ13を歩行者検出部15から切り離した状態で使用される。この状態における処理を、オフライン処理と言う。譲り意思判断パラメタ学習部20は、予め交通シーンから作成された学習用DBに基づいて歩行者が車両に道を譲ろうとする意思である譲り意思の状態と前記歩行者の頭部の挙動と前記歩行者の位置との関係を予め学習し、「譲り意思の状態」に「歩行者の頭部の挙動」及び「歩行者の位置」を紐付けした学習データである譲り意思判断パラメタ31を生成し、譲り意思判断パラメタ31を記憶部30に記憶させる。
歩行者の頭部の挙動は、時系列の画像データから、歩行者の顔の向き、顔の向きの変化、顔の向きが一定方向に維持された時間、歩行者の視線、歩行者の顔の表情、又はこれらの組み合わせなどを抽出して、判断可能である。顔の向きの変化は、歩行者が車両の通行を確認するための頭部の移動、歩行者が会釈する際の頭部の移動などを含むことができる。
譲り意思の状態は、例えば、歩行者が譲り意思を持っているときに現われる「譲り意思有り」、歩行者が譲り意思を持っていないときに現われる「譲り意思無し」、及び歩行者が車両に道を譲ろうか又は先に道路を横断しようか迷っているときに現われる「譲り意思未決定」すなわち「迷っている状態」の内の1つ以上を含む。
<記憶部30>
譲り意思判断パラメタ31を記憶する記憶部30は、半導体メモリ又はハードディスク装置などで構成できる。記憶部30は、譲り意思判断パラメタ31に加えて、「譲り意思の状態」に表示コンテンツの表示が必要であるか否かを示す要否情報を紐付けした要否決定テーブル32及び譲り意思の状態に表示コンテンツを紐付けしたコンテンツデータベース(コンテンツDB)33を予め記憶している。譲り意思判断パラメタ31、要否決定テーブル32、及びコンテンツDB33は、互いに異なる複数の記憶部にそれぞれ記憶されてもよい。
<譲り意思判断部40>
譲り意思判断部40は、第1の歩行者92の頭部画像及び第1の歩行者92の位置と記憶部30に記憶されている譲り意思判断パラメタ31とに基づいて、第1の歩行者92の譲り意思を判断する。第1の歩行者92の譲り意思は、第1の歩行者92が譲り意思を持っているときに現われる「譲り意思有り」、第1の歩行者92が譲り意思を持っていないときに現われる「譲り意思無し」、及び第1の歩行者92が車両に道を譲ろうか又は先に道路を渡ろうか迷っているときに現われる「譲り意思未決定」すなわち「迷っている状態」の内の1つ以上を含む。
<表示機60>
表示機60は、道路93の路面上に表示コンテンツ97を表示する装置である。表示機60は、例えば、画像を投射するプロジェクタである。
<表示制御部50>
表示制御部50は、第1の歩行者92の譲り意思の状態の判断の結果に基づいて、第1の歩行者92に対する表示コンテンツを表示するか否か、表示コンテンツの内容、及び表示コンテンツの道路93上における表示位置を決定し、前記決定に基づいて表示機60を制御する。
表示制御部50は、記憶部30に記憶されている要否決定テーブル32に基づいて、表示コンテンツを表示するか否かを決定する表示要否決定部51を有する。また、表示制御部50は、記憶部30に記憶されているコンテンツDB33に基づいて、表示コンテンツを決定する表示内容決定部52を有する。さらに、表示制御部50は、車両91と第1の歩行者92とを結ぶ線分98上の位置に表示コンテンツ97が表示されるように表示機60を制御する表示位置決定部53を有する。表示位置決定部53は、表示コンテンツに含まれる文字が、文字の下部が第1の歩行者92の近くに位置し、文字の上部が第1の歩行者92から遠くに位置するように、表示機60を制御する。
《1−2》動作
車外コミュニケーション装置の動作は、譲り意思判断パラメタ31を作成するために学習用DBを用いて学習を行うオフライン処理(後述の図4)と、実際の交通シーンにおける第1の歩行者92の譲り意思の状態の判断を行い、表示コンテンツを表示するオンライン処理(後述の図6)とを含む。学習用DBは、学習用DB取得用の車両に学習用DB取得用のカメラ、ミリ波センサ、及びレーザセンサを搭載し、実際の交通シーンを想定した実験環境下で歩行者を数秒から数十秒の時間、撮影及び検知して得られた時系列の画像データ及び時系列のセンサデータの集合である。譲り意思判断パラメタ31は、車外コミュニケーション装置を実際の交通シーンで使用するよりも前に生成され、記憶部30に記憶される。
また、学習用DBの時系列の画像データ及び時系列のセンサデータは、歩行者の譲り意思の状態である「譲り意思有り」、「譲り意思無し」、「譲り意思未決定」、及び「歩行者は道路上の交通と無関係」等の歩行者の挙動に紐付けられている。なお、学習用DBの時系列の画像データ及び時系列のセンサデータの取得方法は、自由に選択でき、実際の交通シーンに従ったものであれば、データ量及び取得方法に制限はない。また、車両91に取り付けられたミリ波センサ12、レーザセンサ13、及びカメラ11は、予めキャリブレーション済みである。したがって、車外コミュニケーション装置は、ミリ波センサ12、レーザセンサ13、及びカメラ11の車両91に対する取付け位置及び取付け方向を示す情報を、取得済みである。
<オフライン処理>
図4は、実施の形態1に係る車外コミュニケーション装置の譲り意思判断パラメタ学習部20による学習動作を示すフローチャートである。学習動作においては、歩行者検出部15に予め用意された学習用DBの時系列のセンサデータが入力され、頭部抽出部14に予め用意された学習用DBの時系列の画像データが入力される。
学習動作においては、頭部抽出部14にて学習用DBに基づく画像から歩行者の頭部をトリミングして抽出する(ステップS101)。頭部の抽出は、Histograms of Oriented Gradients(HOG)を用いた手法又はSingle Shot MultiBox Detector(SSD)等の学習済みニューラルネットワークを用いた手法などで行うことができる。
次に、歩行者検出部15にて学習用DBのセンサデータから、車両を基準にして歩行者の道路上における位置を検出する(ステップS102)。
次に、頭部抽出部14で取得する歩行者の頭部の画像内における位置と、歩行者の頭部をミリ波センサ12又はレーザセンサ13で検出したことで得られる位置との対応関係を算出する。ミリ波センサ12、レーザセンサ13、及びカメラ11はキャリブレーション済みであるため、カメラ11の撮影で得られた画像における画像座標系とミリ波センサ12及びレーザセンサ13で得られたセンサ座標系との間で座標変換できる。ミリ波センサ12の検出信号から求められた歩行者の道路上における位置とレーザセンサ13の検出信号から求められた歩行者の道路上における位置との平均をとることで、精度の高い位置情報を得ることができる。これにより、学習用DBから、時系列の頭部画像と時系列の道路上における位置の集合であるデータ群を取得できる。
次に、譲り意思判断パラメタ学習部20にて、取得したデータ群を元に学習する。この学習で使用されるモデルは、LSTM(Long Short−Term Memory)を利用するニューラルネットワーク、隠れマルコフモデル(HMM)等、時系列データを元に分類問題を解くことが可能なモデルであればどのようなものでも構わない。どのようなモデルを用いたとしても、時系列の頭部画像と道路上における歩行者の時系列の位置とを入力とし、出力の教師データとして歩行者の挙動であるタグを与えて学習すればよい。この学習によって得られたモデル向けのパラメタは、譲り意思判断パラメタ31として記憶部30に保存される(ステップS103)。
図5は、記憶部30に記憶される譲り意思判断パラメタ31の例を表形式で示す図である。譲り意思判断パラメタ31では、歩行者の挙動に基づくタグ付けがなされている。図5では、歩行者の譲り意思を示すデータタグとして、「譲り意思有り」、「譲り意思無し」、「譲り意思未決定」が用意されており、データタグの各々に、シーン#N(Nは1以上の整数)のデータ群が紐付けされている。図5では、1つのシーンのデータ群は、時系列の頭部画像データからなる頭部画像データ群と、道路上の時系列の位置データからなる道路上位置データ群とを有する。
<オンライン処理>
図6は、実施の形態1に係る車外コミュニケーション装置の実際の交通シーンにおける車外コミュニケーション動作(オンライン処理により行われる)を示すフローチャートである。車外コミュニケーション動作においては、歩行者検出部15にはミリ波センサ12及びレーザセンサ13の時系列のセンサデータが入力され、頭部抽出部14にはカメラ11で撮影された時系列の画像データが入力される。
まず、頭部抽出部14にて車両91に備えられたカメラ11の撮影画像から第1の歩行者92の頭部を抽出する(ステップS111)。そして、歩行者検出部15にて、センシングしているミリ波センサ12及びレーザセンサ13のセンサデータの値と第1の歩行者92の頭部の画像内位置から道路上における第1の歩行者92の位置を算出する(ステップS112)。この処理は、オフライン処理時のものと同様である。
次に、譲り意思判断部40は、第1の歩行者92の頭部画像及び道路上における第1の歩行者92の位置を用いて、第1の歩行者92の譲り意思の状態を判断する(ステップS113)。これは、学習した譲り意思判断パラメタ31を適用したモデルに対し、歩行者の頭部画像及び道路上における第1の歩行者92の位置を入力することで算出できる。なお、ここで得られる第1の歩行者92の挙動は、学習用DBに登録済みのタグのいずれかとなる。
次に、表示要否決定部51は、第1の歩行者92の挙動を元に第1の歩行者92に対する表示コンテンツの表示の要否を決定する(ステップS114,S115)。第1の歩行者92に対する表示コンテンツの表示の要否は、予め作成した要否決定テーブル32に基づいて決定される。例えば、第1の歩行者92の挙動が「譲り意思有り」の挙動であれば、第1の歩行者92に対し感謝の意を示すために表示が必要、すなわち、表示は“要”となる。第1の歩行者92の挙動が「歩行者は交通に無関係」つまり横断の意思なく交差点の付近に立っているだけの人に対して表示は不要、すなわち、表示は“不要”となるように要否決定テーブル32を作成する。
図7は、実施の形態1に係る車外コミュニケーション装置の表示要否決定部51が使用する要否決定テーブル32の例を表形式で示す図である。図7に示されるように、ステップS115において表示が“不要”と判断した場合は、処理を終了する。表示が“要”と判断した場合は、表示内容決定部52で、コンテンツDB33から第1の歩行者92に対する表示コンテンツを決定する(ステップS116)。表示コンテンツの決定に際して、予め作成された歩行者の挙動ごとに紐付けられたコンテンツ群であるコンテンツDB33から、譲り意思判断部40で判断した第1の歩行者92の挙動に対応する表示コンテンツが選択される。
図8は、実施の形態1に係る車外コミュニケーション装置の表示内容決定部52が使用するコンテンツDB33の例を表形式で示す図である。図8に示されるように、コンテンツDB33内に第1の歩行者92の挙動に対応する表示コンテンツを複数用意することも可能であり、その場合は、第1の歩行者92の年齢、人種、性別等で選択できるようにすればよい。第1の歩行者92の年齢、人種、性別などを識別する方法として、公知の方法を採用することができる。
次に、表示位置決定部53で表示コンテンツの表示位置及び角度を決定する(ステップS117)。ここで、車両91に外接する矩形の中心を原点とするV−V座標系の+V軸方向が進行方向の座標軸である。
図2に示されるように、表示コンテンツを第1の歩行者92と車両91との間に表示するために、以下の計算式で表示位置(Vx_d,Vy_d)と表示角θを決定することができる。
Figure 0006651062
ここで、Tは、第1の歩行者92から表示コンテンツ97までの距離であり、予め適当な距離(例えば、T=3メートル)に決められている。
図3に、車両91に対する第1の歩行者92の位置と道路93上に表示された表示コンテンツ97の例を示す。表示制御部50は、表示位置と表示角に従って道路93の路面上に表示コンテンツを表示すれば処理は終了となる(ステップS118)。図3の状況で車両91が先に通行する場合には、表示コンテンツ97として、図8中の「ありがとう」に対応するコンテンツを適用することができる。また、図3の状況で車両91が第1の歩行者92の横断の後で通行する場合には、表示コンテンツ97として、図8中の「先にどうぞ」に対応するコンテンツを適用することができる。また、図3の状況で車両91が第1の歩行者92の横断の意思が分からない場合には、表示コンテンツ97として、図8中の「お渡りになりますか」に対応するコンテンツを適用することができる。
《1−3》効果
以上に説明したように、実施の形態1に係る車外コミュニケーション装置は、歩行者の挙動を示す時系列のデータとそれに紐付けられたタグとから自動的にルールを学習し、学習データとして譲り意思判断パラメタ31を生成する。実際の交通シーンで車外コミュニケーション装置を使用する場合には、譲り意思判断パラメタ31に応じて第1の歩行者92の譲り意思の状態を判断するので、予め人が決めたルールのみを用いた場合に比べ、譲り意思の状態を正確に判断することができる。そのため、第1の歩行者92に、適切な内容の表示コンテンツを適切な表示位置に表示できる。
また、第1の歩行者92の譲り意思の状態を正確に判断することができるので、第1の歩行者92の譲り意思に従い、表示コンテンツの表示が不要であれば表示コンテンツを表示しないようにすることができる。このため、不要な表示コンテンツの表示により、第1の歩行者92に対して感情利得を下げる表示を抑制できる。
《2》実施の形態2.
《2−1》構成
上記実施の形態1に係る車外コミュニケーション装置は、第1の歩行者92の譲り意思の状態の判断(図6のステップS111〜S113)の結果に基づいて、第1の歩行者92に対して表示コンテンツを表示するか否かを決定し(図6のステップS114、S115)、表示コンテンツの内容を決定し(図6のステップS116)、表示コンテンツの道路93上における表示位置を決定し(図6のステップS117)、これらの決定に基づいて表示機60を制御する(図6のステップS118)。
しかし、第1の歩行者92が表示機60によって道路93上に表示された表示コンテンツを理解することができない又は道路93上に表示された表示コンテンツを視認することができない場合がある。
そこで、実施の形態2に係る車外コミュニケーション装置は、歩行者による表示コンテンツの理解度を判断し、表示コンテンツが理解できない場合には、表示コンテンツを新たなものに変更して第1の歩行者92が表示コンテンツを理解できるようにする。
図9は、実施の形態2に係る車外コミュニケーション装置の構成を概略的に示す機能ブロック図である。図9において、図1に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。図9の車外コミュニケーション装置は、実施の形態2に係る車外コミュニケーション方法を実行することができる装置である。実施の形態2の説明に際しては、図2及び図3をも参照する。
実施の形態2に係る車外コミュニケーション装置は、理解度判断パラメタ34を生成する理解度判断パラメタ学習部70と、理解度判断パラメタ34を用いて第1の歩行者92による表示コンテンツの理解度を判断する理解度判断部80と、表示内容変更部54とを有する点において、実施の形態1に係る車外コミュニケーション装置と相違する。
理解度判断パラメタ学習部70は、道路93上に表示された表示コンテンツに対する歩行者の理解度、歩行者の頭部の挙動、及び歩行者の位置との関係を予め学習し、理解度に歩行者の頭部の挙動及び歩行者の位置を紐付けした学習データである理解度判断パラメタ34を生成し、これを記憶部30aに記憶させる。
理解度判断パラメタ34において理解度に紐付けされた歩行者の頭部の挙動は、歩行者が表示コンテンツを理解した場合に現われる挙動、歩行者が表示コンテンツを理解できない場合に現われる挙動、及び歩行者が表示コンテンツを視認できない場合に現われる挙動の内の1つ以上を含む。歩行者が表示コンテンツを理解した場合に現われる挙動としては、例えば、歩行者が頭を動かしてうなずく挙動がある。歩行者が表示コンテンツを理解できない場合に現われる挙動としては、例えば、歩行者が頭を傾ける挙動、歩行者の顔に表われる疑問の表情などがある。歩行者が表示コンテンツを視認できない場合に現われる挙動としては、例えば、歩行者が頭を上下左右に動かして障害物の影に隠れている表示コンテンツの部分を見ようとする挙動がある。
理解度判断部80は、周辺状況取得部10によって取得された第1の歩行者92の頭部画像及び第1の歩行者92の位置と記憶部30aに記憶されている理解度判断パラメタ34とに基づいて第1の歩行者92の表示コンテンツに対する理解度を判断する。表示制御部50は、第1の歩行者92による表示コンテンツの理解度の判断の結果に基づいて、表示されている表示コンテンツの変更の要否を決定し、前記変更の要否の決定に基づいて表示機60を制御する。上記以外の点では、実施の形態2の車外コミュニケーション装置の構成は、実施の形態1のものと同じである。
《2−2》動作
実施の形態2に係る車外コミュニケーション装置は、譲り意思判断パラメタ31の作成及び理解度判断パラメタ34の作成のためのオフライン処理と、実際の交通シーンにおける譲り意思の判断及び理解度の判断に基づいて第1の歩行者92に対して表示コンテンツを提供するオンライン処理とを行う。実施の形態2では、オフライン処理において実施の形態1と同様の学習用DBを用いる。また、ミリ波センサ、レーザセンサ、及びカメラはキャリブレーション済みであるものとする。また、車両にカメラ、ミリ波センサ、及びレーザセンサを車載した状態で、実際の交通シーンを想定した実験環境下で歩行者を数秒から数十秒の期間、検知して得られた時系列のセンサデータ及び時系列の画像データの集合である理解度を学習するための学習用DBが予め用意されているものとする。また、各データは、表示コンテンツを「理解した」、表示コンテンツの「内容が理解できない」、「表示コンテンツが見えない」、表示コンテンツを「見ていない」等の歩行者の理解度に紐付けられているものとする。
<オフライン処理>
図10は、実施の形態2に係る車外コミュニケーション装置の理解度判断パラメタ学習部70による学習動作(オフライン処理により行われる)を示すフローチャートである。
譲り意思判断パラメタ31の学習(ステップS200)は、実施の形態1におけるオフライン処理と同様である。
次に、理解度判断パラメタ34を作成するための学習を実施する。まず、頭部抽出部14にて理解度学習用DBの全画像から歩行者の頭部をトリミングして抽出する(ステップS201)。歩行者の頭部の抽出は、譲り意思判断パラメタ31の学習時と同様の公知の手法で行うことができる。
次に、歩行者検出部15にて理解度学習用DBの全センサデータから、車両の位置を基準とした道路上における歩行者の位置を検出する(ステップS202)。この処理は、譲り意思判断パラメタ31の学習時と同様に公知の手法を用いることができる。これらの処理により、理解度学習用DBから、時系列の頭部画像データ及び時系列の道路上における位置データの集合が取得できる。
図11は、記憶部30aに記憶される理解度判断パラメタ34の例を表形式で示す図である。また、予め理解度学習用DBのデータには、歩行者の理解度によるタグ付けがなされているため、図11に示されるように整理可能なデータ群が生成される。
次に、理解度判断パラメタ学習部70にて、生成されたデータ群を元に学習する(ステップS203)。学習で使用するモデルは、LSTMを利用するニューラルネットワーク又は隠れマルコフモデルを利用するもの等、時系列データを元に分類問題を解くことが可能なモデルであればどのようなものでも構わない。どのようなモデルを用いたとしても、時系列の頭部画像データと道路上における歩行者の位置データを入力とし、出力の教師データとして理解度を示すタグを与え学習すればよい。学習によって取得されたモデル向けのパラメタは、理解度判断パラメタ34として記憶部30aに保存される(ステップS203)。
<オンライン処理>
図12は、実施の形態2に係る車外コミュニケーション装置の実際の交通シーンにおける車外コミュニケーション動作(オンライン処理により行われる)を示すフローチャートである。図12において、図6に示される処理ステップと同じ内容の処理ステップには、図6におけるステップ番号と同じステップ番号が付される。図12において、ステップS111〜S118の処理は、図6におけるものとおなじである。
次に、理解度判断部80は、頭部抽出部14から提供された第1の歩行者92の頭部画像データと歩行者検出部15から提供された道路上における第1の歩行者92の位置データとを用いて、第1の歩行者92のための表示コンテンツに対する第1の歩行者92による理解度を判断する(ステップS211)。この判断は、オフライン処理における学習で取得された理解度判断パラメタ34を適用したモデルに対し、第1の歩行者の頭部画像データと道路93上における第1の歩行者92の位置データを適用することで算出できる。この処理によって得られる理解度は、理解度学習用DBに登録済みのタグのいずれか、例えば、図11の左欄に示される「理解度を示すデータタグ」のいずれかとなる。
ステップS212において、判断結果が表示コンテンツを「理解した」であれば、表示内容を変更せず、処理を終了する(既に表示した表示コンテンツを変更しない)。
ステップS212において、判断結果が表示コンテンツを理解した以外であれば、表示内容変更部54にて表示コンテンツを変更する(ステップS213)。
表示内容変更部54は、譲り意思判断部40から提供された第1の歩行者92の挙動に対応するコンテンツDB33内の表示コンテンツから、以前に表示した表示コンテンツと異なるものを選べばよい。例えば、第1の歩行者92の挙動が「譲り意思有り」を示しており、表示コンテンツとして図8における「ありがとう」が選択され既に表示されていた場合には、未だ表示されていない表示コンテンツである「Thank you!!」に変更すればよい。このように、新しい表示コンテンツをランダムに選択することも可能であるが、予めコンテンツDB33内の各歩行者の挙動のコンテンツを理解度ごとに対応させておくことで、より適切な新たな表示コンテンツを第1の歩行者92に提供できる。
図13は、実施の形態2に係る車外コミュニケーション装置の表示内容変更部54が使用するコンテンツDB33の例を表形式で示す図である。例えば、コンテンツDB33を図13に示されるように理解度の種類に対応させて用意していれば、第1の歩行者92の挙動が「譲り意思有り」であり、基本の表示コンテンツ「ありがとう」を表示しているときに、理解度判断において理解度が「表示コンテンツが見えない」すなわち「視認できない」と判断された場合は、「譲り意思有り」の項目に属し且つ「コンテンツが見えない」に対応する明領域と暗領域とを逆転させた「ありがとう」の表示に変更できる。このように表示コンテンツを新たなものに変更することで、表示コンテンツが見えない状況を解消することができる。また、表示コンテンツの変更後における理解度判断において、再度、理解度が「表示コンテンツが見えない」である場合には、理解度が「理解した」になるまで同様の処理を繰り返してもよい。
《2−3》効果
以上に説明したように、実施の形態2に係る車外コミュニケーション装置は、歩行者の挙動を示す時系列のデータとそれに紐付けられたタグとから自動的にルールを学習し、学習データとして理解度判断パラメタ34を生成する。そして、理解度判断パラメタ34を用いて第1の歩行者92の理解度を判断し、表示コンテンツの理解度に応じて表示コンテンツを新たなものに変更する。このため、第1の歩行者92に正確に情報を提供することができる。
《3》変形例.
図14は、実施の形態1及び2に係る車外コミュニケーション装置のハードウェア構成を示す図である。図14に示されるように、この車外コミュニケーション装置は、プロセッサ101、記憶装置としての外部記憶媒体102、他の記憶装置としてのメモリ103、ネットワークインタフェース104、及び表示機インタフェース105を備える。これらの構成は、直接又はデータバス106を介して互いに接続される。カメラ11、ミリ波センサ12、及びレーザセンサ13は、ネットワークインタフェース104を介してデータバス106に接続される。表示機60は、及び表示機インタフェース105を介してデータバス106に接続される。
実施の形態1に係る車外コミュニケーション装置は、ソフトウェアとしての車外コミュニケーションプログラムを格納するメモリ103と、メモリ103に格納されたプログラムを実行するプロセッサ101とを用いた装置(例えば、コンピュータ)により実現することができる。車外コミュニケーションプログラムは、インターネットを介するダウンロードによって、又は、車外コミュニケーションプログラムを格納した記録媒体から取得することができる。この場合には、図1における記憶部30は、図14におけるメモリ103又は外部記憶媒体102に相当する。また、図1における頭部抽出部14、歩行者検出部15、譲り意思判断パラメタ学習部20、譲り意思判断部40、及び表示制御部50の全体又は一部は、図14に示されるメモリ103と、プログラムを実行するプロセッサ101とによって実現することができる。
実施の形態2に係る車外コミュニケーション装置は、車外コミュニケーションプログラムを格納するメモリ103と、メモリ103に格納されたプログラムを実行するプロセッサ101とを用いた装置(例えば、コンピュータ)により実現することができる。この場合には、図9における記憶部30aは、図14におけるメモリ103又は外部記憶媒体102に相当する。また、図9における頭部抽出部14、歩行者検出部15、譲り意思判断パラメタ学習部20、譲り意思判断部40、表示制御部50a、理解度判断パラメタ学習部70、及び理解度判断部80の全体又は一部は、図14に示されるメモリ103と、プログラムを実行するプロセッサ101とによって実現することができる。
また、上記車外コミュニケーション装置を搭載する車両は、歩行者が通行する道路を走行する各種の車両に搭載可能である。
また、表示コンテンツの表示位置は、車両91と第1の歩行者92とを線分98上に限らず、第1の歩行者92の視線方向を検出することで、この視線上の路面に表示してもよい。
10 周辺状況取得部、 11 カメラ、 12 ミリ波センサ、 13 レーザセンサ、 14 頭部抽出部、 15 歩行者検出部、 20 譲り意思判断パラメタ学習部、 30,30a 記憶部、 31 譲り意思判断パラメタ、 32 要否決定テーブル、 33 コンテンツDB、 34 理解度判断パラメタ、 40 譲り意思判断部、 50,50a 表示制御部、 60 表示機、 70 理解度判断パラメタ学習部、 80 理解度判断部。

Claims (14)

  1. 予め交通シーンから作成された学習用データベースに基づいて歩行者が車両に道を譲ろうとする意思である譲り意思の状態と前記歩行者の頭部の挙動と前記歩行者の位置との関係を予め学習し、前記譲り意思の状態に前記挙動及び前記位置を紐付けした学習データである譲り意思判断パラメタを生成する譲り意思判断パラメタ学習部と、
    前記譲り意思判断パラメタを記憶する記憶部と、
    第1の歩行者の頭部画像及び位置を取得する周辺状況取得部と、
    取得された前記第1の歩行者の頭部画像及び位置と前記記憶部に記憶されている前記譲り意思判断パラメタとに基づいて前記第1の歩行者の譲り意思の状態を判断する譲り意思判断部と、
    道路上に表示コンテンツを表示する表示機と、
    前記第1の歩行者の譲り意思の状態の判断の結果に基づいて、前記第1の歩行者に対して前記表示コンテンツを表示するか否か、前記表示コンテンツの内容、及び前記表示コンテンツの道路上における表示位置を決定し、前記決定に基づいて前記表示機を制御する表示制御部と
    を備えたことを特徴とする車外コミュニケーション装置。
  2. 前記譲り意思判断パラメタにおける前記譲り意思の状態に紐付けされた前記挙動は、
    前記歩行者が前記譲り意思を持っている場合に前記歩行者の頭部に現われる譲り意思有りの場合の挙動、
    前記歩行者が前記譲り意思を持っていない場合に前記歩行者の頭部に現われる譲り意思無しの場合の挙動、及び
    前記歩行者が車両に道を譲ろうか又は先に道路を渡ろうか迷っている場合に前記歩行者の頭部に現われる譲り意思未決定の場合の挙動
    の内の1つ以上を含むことを特徴とする請求項1に記載の車外コミュニケーション装置。
  3. 前記譲り意思判断パラメタは、前記歩行者の時系列の頭部画像からなる頭部画像データ群と前記時系列の頭部画像に対応する時系列の位置からなる位置データ群とを含むデータ集合を、前記譲り意思の状態に紐付けした前記学習データであることを特徴とする請求項1又は2に記載の車外コミュニケーション装置。
  4. 前記譲り意思判断部は、前記第1の歩行者の頭部画像及び位置と前記記憶部に記憶されている前記譲り意思判断パラメタとに基づいて前記第1の歩行者の譲り意思の状態を判断することを特徴とする請求項1から3のいずれか1項に記載の車外コミュニケーション装置。
  5. 前記記憶部は、前記譲り意思の状態に表示コンテンツの表示が必要であるか否かを示す要否情報を紐付けした要否決定テーブルを予め記憶し、
    前記表示制御部は、前記要否決定テーブルに基づいて、前記表示コンテンツを表示するか否かを決定する表示要否決定部を有する
    ことを特徴とする請求項1から4のいずれか1項に記載の車外コミュニケーション装置。
  6. 前記記憶部は、前記譲り意思の状態に表示コンテンツを紐付けしたコンテンツデータベースを予め記憶し、
    前記表示制御部は、前記コンテンツデータベースに基づいて、表示される前記表示コンテンツを決定する表示内容決定部を有する
    ことを特徴とする請求項1から5のいずれか1項に記載の車外コミュニケーション装置。
  7. 前記表示制御部は、前記車両と前記第1の歩行者とを結ぶ線分上に前記表示コンテンツが表示されるように前記表示機を制御する表示位置決定部を有することを特徴とする請求項1から6のいずれか1項に記載の車外コミュニケーション装置。
  8. 前記表示位置決定部は、前記表示コンテンツに含まれる文字が、前記文字の下部が前記第1の歩行者の近くに位置し、前記文字の上部が前記第1の歩行者から遠くに位置するように、前記表示機を制御することを特徴とする請求項7に記載の車外コミュニケーション装置。
  9. 予め作成された理解度学習用データベースに基づいて道路上に表示された前記表示コンテンツに対する前記歩行者の理解度と前記歩行者の頭部の挙動と前記歩行者の位置との関係を予め学習し、前記理解度に前記挙動及び前記位置を紐付けした学習データである理解度判断パラメタを生成し、前記記憶部に記憶させる理解度判断パラメタ学習部と、
    取得された前記第1の歩行者の頭部画像及び位置と前記記憶部に記憶されている前記理解度判断パラメタとに基づいて前記第1の歩行者の表示コンテンツに対する理解度を判断する理解度判断部と
    をさらに備え、
    前記表示制御部は、前記第1の歩行者の理解度の判断の結果に基づいて、表示されている前記表示コンテンツの変更の要否を決定する
    ことを特徴とする請求項1から8のいずれか1項に記載の車外コミュニケーション装置。
  10. 前記理解度判断パラメタにおいて前記理解度に紐付けされた前記挙動は、
    前記歩行者が前記表示コンテンツを理解した場合に前記歩行者の頭部に現われる挙動、
    前記歩行者が前記表示コンテンツを理解できない場合に前記歩行者の頭部に現われる挙動、及び
    前記歩行者が前記表示コンテンツを視認できない場合に前記歩行者の頭部に現われる挙動
    の内の1つ以上を含むことを特徴とする請求項9に記載の車外コミュニケーション装置。
  11. 前記理解度判断部が前記第1の歩行者が前記表示コンテンツを理解したと判断した場合に、前記表示制御部は、新たな表示コンテンツを決定し、前記新たな表示コンテンツに基づいて前記表示機を制御することを特徴とする請求項10に記載の車外コミュニケーション装置。
  12. 予め交通シーンから作成された学習用データベースに基づいて歩行者が車両に道を譲ろうとする意思である譲り意思の状態と前記歩行者の頭部の挙動と前記歩行者の位置との関係を予め学習し、前記譲り意思の状態に前記挙動及び前記位置を紐付けした学習データである譲り意思判断パラメタを生成し、前記譲り意思判断パラメタを記憶部に記憶させるステップと、
    周辺状況取得部から第1の歩行者の頭部画像及び位置を取得するステップと、
    取得された前記第1の歩行者の頭部画像及び位置と前記記憶部に記憶されている前記譲り意思判断パラメタとに基づいて前記第1の歩行者の譲り意思の状態を判断するステップと、
    前記第1の歩行者の譲り意思の状態の判断の結果に基づいて、前記第1の歩行者に対して表示コンテンツを表示するか否か、前記表示コンテンツの内容、及び前記表示コンテンツの道路上における表示位置を決定し、前記決定に基づいて道路上に表示コンテンツを表示する表示機を制御するステップと
    を有することを特徴とする車外コミュニケーション方法。
  13. 第1の歩行者の頭部画像及び位置を取得する周辺状況取得部と道路上に表示コンテンツを表示する表示機とを備えた車両で使用される情報処理装置であって、
    予め交通シーンから作成された学習用データベースに基づいて歩行者が車両に道を譲ろうとする意思である譲り意思の状態と前記歩行者の頭部の挙動と前記歩行者の位置との関係を予め学習し、前記譲り意思の状態に前記挙動及び前記位置を紐付けした学習データである譲り意思判断パラメタを生成し、前記譲り意思判断パラメタを記憶部に記憶させる譲り意思判断パラメタ学習部と、
    前記周辺状況取得部から取得した前記第1の歩行者の頭部画像及び位置と前記記憶部に記憶されている前記譲り意思判断パラメタとに基づいて前記第1の歩行者の譲り意思の状態を判断する譲り意思判断部と、
    前記第1の歩行者の譲り意思の状態の判断の結果に基づいて、前記第1の歩行者に対して前記表示コンテンツを表示するか否か、前記表示コンテンツの内容、及び前記表示コンテンツの道路上における表示位置を決定し、前記決定に基づいて前記表示機を制御する表示制御部と
    を備えたことを特徴とする情報処理装置。
  14. 予め交通シーンから作成された学習用データベースに基づいて歩行者が車両に道を譲ろうとする意思である譲り意思の状態と前記歩行者の頭部の挙動と前記歩行者の位置との関係を予め学習し、前記譲り意思の状態に前記挙動及び前記位置を紐付けした学習データである譲り意思判断パラメタを生成し、前記譲り意思判断パラメタを記憶部に記憶させる処理と、
    周辺状況取得部から第1の歩行者の頭部画像及び位置を取得する処理と、
    取得された前記第1の歩行者の頭部画像及び位置と前記記憶部に記憶されている前記譲り意思判断パラメタとに基づいて前記第1の歩行者の譲り意思の状態を判断する処理と、
    前記第1の歩行者の譲り意思の状態の判断の結果に基づいて、前記第1の歩行者に対して表示コンテンツを表示するか否か、前記表示コンテンツの内容、及び前記表示コンテンツの道路上における表示位置を決定し、前記決定に基づいて道路上に表示コンテンツを表示する表示機を制御する処理と
    をコンピュータに実行させることを特徴とする車外コミュニケーションプログラム。
JP2019554086A 2017-11-15 2017-11-15 車外コミュニケーション装置、車外コミュニケーション方法、情報処理装置、及び車外コミュニケーションプログラム Active JP6651062B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/041024 WO2019097595A1 (ja) 2017-11-15 2017-11-15 車外コミュニケーション装置、車外コミュニケーション方法、情報処理装置、及び車外コミュニケーションプログラム

Publications (2)

Publication Number Publication Date
JP6651062B2 true JP6651062B2 (ja) 2020-02-19
JPWO2019097595A1 JPWO2019097595A1 (ja) 2020-04-02

Family

ID=66538550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019554086A Active JP6651062B2 (ja) 2017-11-15 2017-11-15 車外コミュニケーション装置、車外コミュニケーション方法、情報処理装置、及び車外コミュニケーションプログラム

Country Status (5)

Country Link
US (1) US11087224B2 (ja)
JP (1) JP6651062B2 (ja)
CN (1) CN111344761A (ja)
DE (1) DE112017008149B4 (ja)
WO (1) WO2019097595A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3670228B1 (en) * 2018-12-17 2022-04-13 Audi Ag A display device and a vehicle comprising the display device
JP7079747B2 (ja) * 2019-03-08 2022-06-02 本田技研工業株式会社 表示装置、表示制御方法、およびプログラム
JP7345123B2 (ja) * 2019-08-26 2023-09-15 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、及び、コンピュータプログラム
CN112329684B (zh) * 2020-11-16 2024-04-30 常州大学 一种基于注视检测和交通场景识别的行人穿越马路意图识别方法
US11733369B2 (en) * 2021-02-11 2023-08-22 Waymo Llc Methods and systems for three dimensional object detection and localization
CN114529946A (zh) * 2022-02-23 2022-05-24 厦门市美亚柏科信息股份有限公司 基于自监督学习的行人重识别方法、装置、设备及存储介质

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3988545B2 (ja) * 2002-06-10 2007-10-10 日産自動車株式会社 サービス提供システム、サービス提供方法および運転状況判定装置
JP2005332297A (ja) 2004-05-21 2005-12-02 Fujitsu Ten Ltd 運転者意志通知装置
JP4862502B2 (ja) * 2006-06-08 2012-01-25 日産自動車株式会社 運転支援システムおよび運転支援方法
JP2008282097A (ja) * 2007-05-08 2008-11-20 Toyota Central R&D Labs Inc 衝突危険度推定装置及びドライバ支援装置
JP2013114536A (ja) 2011-11-30 2013-06-10 Seiko Epson Corp 安全支援装置、及び、安全支援方法
US9253753B2 (en) * 2012-04-24 2016-02-02 Zetta Research And Development Llc-Forc Series Vehicle-to-vehicle safety transceiver using time slots
DE102012009555A1 (de) 2012-05-12 2012-11-29 Daimler Ag Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs und Fahrerassistenzsystem
JP5696701B2 (ja) 2012-08-31 2015-04-08 株式会社デンソー 対歩行者報知装置
US9196164B1 (en) * 2012-09-27 2015-11-24 Google Inc. Pedestrian notifications
JP6156732B2 (ja) * 2013-05-15 2017-07-05 スズキ株式会社 歩車間通信システム
CN104175950A (zh) * 2013-05-23 2014-12-03 北京千橡网景科技发展有限公司 一种用于车内人员与外界沟通的方法及设备
US9128577B2 (en) 2013-12-10 2015-09-08 Atmel Corporation Hybrid capacitive touch system design and method
US9349293B2 (en) * 2014-02-07 2016-05-24 Here Global B.V Method and apparatus for providing vehicle synchronization to facilitate a crossing
DE102014215057A1 (de) 2014-07-31 2016-02-04 Bayerische Motoren Werke Aktiengesellschaft Bestimmung einer Kollisionswahrscheinlichkeit auf Basis einer Kopforientierung eines Fußgängers
DE102014226254A1 (de) 2014-12-17 2016-06-23 Robert Bosch Gmbh Verfahren zum Betreiben eines insbesondere autonom oder teilautonom fahrenden/fahrbaren Kraftfahrzeugs, Signalisierungsvorrichtung, Kraftfahrzeug
CN104537360B (zh) * 2015-01-15 2018-01-02 上海博康智能信息技术有限公司 车辆未让行违章检测方法及其检测系统
DE102015210781A1 (de) 2015-06-12 2016-12-15 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Steuereinheit zur Kommunikation zwischen einem autonomen Fahrzeug und einem Verkehrsteilnehmer
US9969326B2 (en) * 2016-02-22 2018-05-15 Uber Technologies, Inc. Intention signaling for an autonomous vehicle
CN106428000B (zh) * 2016-09-07 2018-12-21 清华大学 一种车辆速度控制装置和方法
US10427596B2 (en) * 2017-07-27 2019-10-01 Alexa Lea Haushalter Vehicle directional indicator for autonomous and non-autonomous vehicles

Also Published As

Publication number Publication date
JPWO2019097595A1 (ja) 2020-04-02
US11087224B2 (en) 2021-08-10
CN111344761A (zh) 2020-06-26
DE112017008149B4 (de) 2024-04-18
WO2019097595A1 (ja) 2019-05-23
US20200250553A1 (en) 2020-08-06
DE112017008149T5 (de) 2020-07-16

Similar Documents

Publication Publication Date Title
JP6651062B2 (ja) 車外コミュニケーション装置、車外コミュニケーション方法、情報処理装置、及び車外コミュニケーションプログラム
US20190259284A1 (en) Pedestrian detection for vehicle driving assistance
EP3349050A1 (en) Inspection devices and methods for detecting a firearm
US10572072B2 (en) Depth-based touch detection
CN111695402B (zh) 用于标注3d点云数据中人体姿态的工具和方法
JP2019527448A (ja) 車両の運転者の状態を監視するための方法及びシステム
JP4173902B2 (ja) 車両周辺監視装置
CN111797657A (zh) 车辆周边障碍检测方法、装置、存储介质及电子设备
US9990710B2 (en) Apparatus and method for supporting computer aided diagnosis
KR20170091677A (ko) 체온이 증가한 개체를 식별하기 위한 방법 및 시스템
CN111027481B (zh) 基于人体关键点检测的行为分析方法及装置
JP2005159392A (ja) 車両周辺監視装置および方法
Bertoni et al. Perceiving humans: from monocular 3d localization to social distancing
JP2011238227A (ja) 物体検知方法及び装置
US20220414997A1 (en) Methods and systems for providing a tutorial for graphic manipulation of objects including real-time scanning in an augmented reality
JP2007293627A (ja) 車両の周辺監視装置、車両、車両の周辺監視方法、および車両の周辺監視用プログラム
EP3349142A1 (en) Information processing device and method
CN111783640A (zh) 检测方法、装置、设备以及存储介质
JP2021033510A (ja) 運転支援装置
JP2002366958A (ja) 画像認識方法および画像認識装置
WO2020217812A1 (ja) 被写体の状態を認識する画像処理装置及びその方法
US20230091536A1 (en) Camera Placement Guidance
KR101575100B1 (ko) 사용자 그룹의 공간행동 센싱 및 의미분석 시스템
US11314968B2 (en) Information processing apparatus, control method, and program
JP2020009107A (ja) 避難誘導装置、避難誘導システム、および制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191118

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191118

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200121

R150 Certificate of patent or registration of utility model

Ref document number: 6651062

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250