JP7384014B2 - display system - Google Patents

display system Download PDF

Info

Publication number
JP7384014B2
JP7384014B2 JP2019221292A JP2019221292A JP7384014B2 JP 7384014 B2 JP7384014 B2 JP 7384014B2 JP 2019221292 A JP2019221292 A JP 2019221292A JP 2019221292 A JP2019221292 A JP 2019221292A JP 7384014 B2 JP7384014 B2 JP 7384014B2
Authority
JP
Japan
Prior art keywords
data
vehicle
event
display
past
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019221292A
Other languages
Japanese (ja)
Other versions
JP2021092839A (en
Inventor
賢治 佐藤
啓 山本
崇 西本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019221292A priority Critical patent/JP7384014B2/en
Priority to DE102020128224.9A priority patent/DE102020128224A1/en
Priority to US17/108,537 priority patent/US11590902B2/en
Priority to CN202011414206.0A priority patent/CN112927538A/en
Publication of JP2021092839A publication Critical patent/JP2021092839A/en
Application granted granted Critical
Publication of JP7384014B2 publication Critical patent/JP7384014B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0229Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/265Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network constructional aspects of navigation devices, e.g. housings, mountings, displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25841Management of client data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/814Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts comprising emergency warnings
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • B60R2300/308Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene by overlaying the real scene, e.g. through a head-up display on the windscreen
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/70Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8053Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for bad weather conditions or night vision
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Description

本発明は、車両の乗員が使用する表示システムに関する。 The present invention relates to display systems used by vehicle occupants.

車両の運転者等の視野に各種情報を表示する技術が知られている。 2. Description of the Related Art Techniques for displaying various types of information in the field of view of a vehicle driver or the like are known.

例えば、特許文献1には、車両運転者の頭部に装着されるヘッドマウントディスプレイ装置が有する透過型表示部に、目的地までのナビゲーション情報、施設案内情報などを、道路、建物などに対応づけて表示することが記載されている。また、車両前方の人、障害物などを検出した場合に、警告表示を行うことも記載されている。 For example, Patent Document 1 discloses that navigation information to destinations, facility guidance information, etc. are mapped to roads, buildings, etc. on a transparent display section of a head-mounted display device that is attached to the head of a vehicle driver. It is stated that the information should be displayed as follows. The document also states that a warning will be displayed if a person or obstacle is detected in front of the vehicle.

特開2004-219664号公報Japanese Patent Application Publication No. 2004-219664

特許文献1に記載された技術は、現実の風景に、現在の情報を対応付けて表示するものであり、運転者等は、現在の情報を得ることができるにすぎない。 The technology described in Patent Document 1 displays current information in association with real scenery, and the driver and the like can only obtain current information.

本発明の目的は、車両の乗員に、走行する車両の周囲の事象について、従来提供されなかった新たな情報を提供することにある。 An object of the present invention is to provide vehicle occupants with new information that has not been provided conventionally regarding events surrounding a traveling vehicle.

本発明にかかる表示システムは、車両の乗員の視野に含まれる過去または未来の事象についての事象情報を取得する情報取得装置と、前記事象情報に基づいて、前記乗員の視野内に前記事象を表示する表示装置と、前記表示装置に表示させる前記事象について設定を受け付ける表示情報設定部と、を備え、前記事象情報は、過去風景データと交通事故データを含み、前記過去風景データは、過去に走行した車両により撮影された車外の画像データを含み、前記交通事故データは、交通事故を起こした車両により撮影された画像データ、交通事故の周囲に存在する車両により撮影された画像データ、または、歩行者あるいは道路の固定監視カメラにより撮影された画像データを含み、前記表示装置は、前記乗員が乗る前記車両の走行位置に前記事象情報を適合させて、当該事象情報に基づく事象を表示し、前記乗員が前記表示情報設定部を操作することで、前記過去風景データの事象と前記交通事故データの事象が表示の対象として選択されている場合において、前記表示装置は、前記乗員が乗る前記車両の走行位置で前記交通事故データが存在する際には、前記過去風景データの事象よりも前記交通事故データの事象を優先的に表示する、ことを特徴とする。
本発明の表示システムにおいて、前記表示装置は、前記交通事故データの事象を表示する際には、交通事故の位置を明示する、としてもよい。
本発明の表示システムにおいて、前記事象情報は、過去に生じたと推定される事象について仮想的に作製した画像データを含む、としてもよい。
本発明の表示システムにおいて、前記事象情報は、未来に生じると推定される事象について仮想的に作製した画像データを含む、としてもよい。
本発明の表示システムにおいて、前記乗員は運転者であり、前記表示装置は、前記過去風景データの事象を表示する際には、現実の道路外の風景を置き換えて、前記過去風景データの対応する風景を表示する、としてもよい。
本発明の表示システムにおいて、前記乗員は運転者以外であり、前記表示装置は、前記過去風景データの事象を表示する際には、現実の道路を含む風景を置き換えて、前記過去風景データの対応する風景を表示することができる、としてもよい。
The display system according to the present invention includes: an information acquisition device that acquires event information regarding past or future events included in the visual field of a vehicle occupant; and a display information setting unit that receives settings for the event to be displayed on the display device , the event information includes past scenery data and traffic accident data, and the past scenery data includes , including image data of the exterior of the vehicle taken by vehicles that have traveled in the past, and the traffic accident data includes image data taken by the vehicle that caused the traffic accident, and image data taken by vehicles existing around the traffic accident. , or includes image data taken by a fixed surveillance camera of a pedestrian or a road, and the display device adapts the event information to the traveling position of the vehicle in which the occupant rides, and displays an event based on the event information. is displayed, and the event of the past scenery data and the event of the traffic accident data are selected as display targets by the passenger operating the display information setting section. When the traffic accident data exists at the traveling position of the vehicle in which the person is riding, the event of the traffic accident data is displayed preferentially over the event of the past scenery data.
In the display system of the present invention, the display device may clearly indicate the location of the traffic accident when displaying the event of the traffic accident data.
In the display system of the present invention, the event information may include image data that is virtually created regarding an event that is estimated to have occurred in the past.
In the display system of the present invention, the event information may include image data virtually created regarding an event estimated to occur in the future.
In the display system of the present invention, the occupant is a driver, and when displaying the event of the past scenery data, the display device replaces the actual scenery outside the road and displays the event corresponding to the past scenery data. It may also be used to display scenery.
In the display system of the present invention, the occupant is other than the driver, and when displaying the event of the past scenery data, the display device replaces the scenery including the actual road to correspond to the past scenery data. It may also be possible to display a landscape.

また、本発明にかかる表示システムは、車両の乗員の視野に含まれる過去または未来の事象についての事象情報を取得する情報取得装置と、前記事象情報に基づいて、前記乗員の視野内に前記事象を表示する表示装置と、を備える。
本発明の一態様においては、前記情報取得装置は、前記事象情報として、過去に走行した車両により撮影された車外の画像データを取得し、前記表示装置は、前記乗員が乗る前記車両の走行位置に前記画像データを適合させて、当該画像データに基づく事象を表示する。
Further, the display system according to the present invention includes an information acquisition device that acquires event information regarding past or future events included in the field of view of an occupant of a vehicle; A display device that displays an article image.
In one aspect of the present invention, the information acquisition device acquires, as the event information, image data of an exterior of the vehicle taken by a vehicle that has traveled in the past, and the display device is configured to acquire image data of an exterior of the vehicle taken by a vehicle that has traveled in the past, Adapting the image data to a position and displaying an event based on the image data.

本発明の一態様においては、前記情報取得装置は、前記事象情報として、過去の交通事故の情報を取得し、前記表示装置は、前記交通事故の位置を明示して、当該前記交通事故の事象を表示する。 In one aspect of the present invention, the information acquisition device acquires information on past traffic accidents as the event information, and the display device specifies the location of the traffic accident and displays the location of the traffic accident. Display the event.

本発明の一態様においては、前記情報取得装置は、前記事象情報として、過去に生じたと推定される事象について仮想的に作製した画像データを取得し、前記表示装置は、前記乗員が乗る前記車両の走行位置に前記画像データを対応づけて、当該画像データに基づく事象を表示する。 In one aspect of the present invention, the information acquisition device acquires, as the event information, virtually created image data regarding an event that is estimated to have occurred in the past, and the display device acquires, as the event information, image data that is virtually created regarding an event that is estimated to have occurred in the past; The image data is associated with the traveling position of the vehicle, and events based on the image data are displayed .

本発明の一態様においては、前記情報取得装置は、前記事象情報として、未来に生じると推定される事象について仮想的に作製した画像データを取得し、前記表示装置は、前記乗員が乗る前記車両の走行位置に前記画像データを対応づけて、当該画像データに基づく事象を表示する。 In one aspect of the present invention, the information acquisition device acquires, as the event information, image data that is virtually created regarding an event that is estimated to occur in the future, and the display device acquires, as the event information, image data that is virtually created regarding an event that is estimated to occur in the future; The image data is associated with the traveling position of the vehicle, and events based on the image data are displayed .

本発明の一態様においては、前記乗員は運転者であり、前記表示装置は、現実の道路外の風景に重ねて、または、現実の道路外の風景を置き換えて、対応する風景を表示する。 In one aspect of the present invention, the occupant is a driver, and the display device displays a corresponding scene superimposed on or in place of the actual scene outside the road.

本発明の一態様においては、前記乗員は運転者以外であり、前記表示装置は、現実の道路を含む風景に重ねて、または、現実の道路を含む風景を置き換えて、対応する風景を表示することができる。 In one aspect of the present invention, the occupant is a person other than the driver, and the display device displays a corresponding scenery overlaying or replacing the scenery including the actual road. be able to.

本発明の一態様においては、前記情報取得装置は、前記乗員が乗る前記車両の周囲の天気が雨または雪の場合に、過去の晴または曇のときに撮影された前記画像データを取得し、前記表示装置は、現実のセンターラインに重ねて、または、現実のセンターラインに置き換えて、前記画像データに基づくセンターラインを表示する。 In one aspect of the present invention, when the weather around the vehicle in which the occupant rides is rainy or snowy, the information acquisition device acquires the image data taken on a sunny or cloudy day in the past; The display device displays a centerline based on the image data, superimposed on the actual centerline or in place of the actual centerline.

本発明によれば、車両の乗員が、走行する車両の周囲における過去または未来の事象についての事象情報を把握することが可能となる。 According to the present invention, a vehicle occupant can grasp event information about past or future events around the traveling vehicle.

実施形態にかかる情報システムの概略的な構成図である。1 is a schematic configuration diagram of an information system according to an embodiment. 画像配信システムの概略的な構成図である。1 is a schematic configuration diagram of an image distribution system. 画像表示システムの概略的な構成図である。1 is a schematic configuration diagram of an image display system. 運転者たるユーザがウェアラブルデバイスを装着した図である。FIG. 2 is a diagram showing a user who is a driver wearing a wearable device. 画像が表示されていない視野を示す図である。FIG. 3 is a diagram showing a field of view in which no image is displayed. 交通事故の概略を伝えるアイコンが表示された視野を示す図である。FIG. 3 is a diagram showing a field of view in which an icon that conveys an outline of a traffic accident is displayed. アイコン操作により交通事故の詳細が表示された視野を示す図である。FIG. 3 is a diagram showing a field of view in which details of a traffic accident are displayed by operating an icon. 雨天時において画像が表示されていない視野を示す図である。FIG. 3 is a diagram showing a field of view in which no image is displayed during rainy weather. 雨天時に、晴天時の画像を表示した視野を示す図である。FIG. 4 is a diagram showing a field of view in which images in clear weather are displayed in rainy weather. 過去の風景が表示された視野を示す図である。FIG. 3 is a diagram showing a field of view in which past scenery is displayed. 未来の仮想的な風景が表示された視野を示す図である。FIG. 2 is a diagram showing a field of view in which a future virtual landscape is displayed. 過去の仮想的な風景が表示された視野を示す図である。FIG. 3 is a diagram showing a field of view in which past virtual scenery is displayed.

以下に、図面を参照しながら、実施形態について説明する。説明においては、理解を容易にするため、具体的な態様について示すが、これらは実施形態を例示するものであり、他にも様々な実施形態をとることが可能である。 Embodiments will be described below with reference to the drawings. In the description, in order to facilitate understanding, specific aspects will be shown, but these are merely illustrative embodiments, and various other embodiments can be adopted.

図1は、実施形態にかかる情報システム10の概略的な構成を示す図である。情報システム10は、画像データ等の事象情報を収集する車両20と、情報配信システム30、及び、事象情報に基づき事象を表示する処理が行われる車両100を含んでいる。ここでは、事象情報とは、事象についての表示可能なデータであり、文字コード(数字記号なども含む)によって表される文字データと、文字コードによっては表されない2次元または3次元的な画像データを含むものとする。文字コード及び画像データは、どちらも、表示装置に画像として事象を表示することができる。また、事象とは、人が観察できる形をとって現れる事物または出来事をいう。事象の例については後述する。なお、情報システム10では、文字データ及び画像データに関連した人の声、物音、音楽などの音声データを取り扱うことも可能である。音声データは、スピーカによって音声として出力される。 FIG. 1 is a diagram showing a schematic configuration of an information system 10 according to an embodiment. The information system 10 includes a vehicle 20 that collects event information such as image data, an information distribution system 30, and a vehicle 100 that performs processing to display events based on the event information. Here, event information is data that can be displayed about an event, including character data represented by character codes (including numerical symbols, etc.) and two-dimensional or three-dimensional image data that is not represented by character codes. shall be included. Both character codes and image data can display events as images on a display device. Furthermore, an event refers to a thing or event that appears in a form that can be observed by people. Examples of events will be described later. Note that the information system 10 can also handle audio data such as human voices, noises, music, etc. related to character data and image data. The audio data is output as audio by a speaker.

画像データ等の事象情報を収集する車両20は多数存在するが、図1では、代表して1台のみを示している。情報システム10では、予め車両20の所有者と契約等を結ぶことで、車両20で撮影された画像データを利用することが可能となっている。なお、画像データ等を収集する車両20は、画像表示が行われる車両100を兼ねるものであってもよい。 Although there are many vehicles 20 that collect event information such as image data, only one representative vehicle is shown in FIG. In the information system 10, it is possible to use image data taken by the vehicle 20 by entering into a contract or the like with the owner of the vehicle 20 in advance. Note that the vehicle 20 that collects image data and the like may also serve as the vehicle 100 that displays images.

車両20には、車載カメラ22、GNSS24、及び時計26が設けられている。車載カメラ22は、車両20に搭載されて車外あるいは車内の風景を撮影する装置である。車載カメラ22は、例えば、車室内のルーフ前端付近に設置され、フロントウインドシールドを通じて、車両前方側の車外を撮影することで、カメラ画像データ(以下では車載カメラ22で撮影された画像データであることを強調する場合にカメラ画像データと呼ぶことがある)を取得する。カメラ画像データは、2次元または3次元的な視覚情報を与えるデータである。カメラ画像データは、一般的には動画像データであるが、適当な時間間隔で撮影される静止画像データであってもよい。情報システム10においては、車載カメラ22のカメラ画像データは、情報配信システム30に送信され、将来的に画像の表示が行われる車両100に送信される。このため、車載カメラ22としては、車両100での表示に必要な解像度のカメラ画像データを得られるものが設置されている。解像度あるいは視界を確保するために、車載カメラ22は、複数台設けられてもよい。 The vehicle 20 is provided with an on-vehicle camera 22, a GNSS 24, and a clock 26. The vehicle-mounted camera 22 is a device that is mounted on the vehicle 20 and photographs the scenery outside or inside the vehicle. The in-vehicle camera 22 is installed, for example, near the front end of the roof inside the vehicle interior, and captures camera image data (hereinafter referred to as image data taken by the in-vehicle camera 22) by photographing the outside of the vehicle on the front side of the vehicle through the front windshield. (sometimes referred to as camera image data to emphasize this). Camera image data is data that provides two-dimensional or three-dimensional visual information. Camera image data is generally moving image data, but may also be still image data taken at appropriate time intervals. In the information system 10, camera image data from the vehicle-mounted camera 22 is transmitted to the information distribution system 30, and then transmitted to the vehicle 100 where the image will be displayed in the future. For this reason, the in-vehicle camera 22 that can obtain camera image data with the resolution necessary for display on the vehicle 100 is installed. In order to ensure resolution or visibility, a plurality of in-vehicle cameras 22 may be provided.

車載カメラ22は、例えば、車両20の走行状況を記録するドライブレコーダを兼ねるものであってもよい。また、例えば、車両20が自動運転モードを備える場合に、車載カメラ22は車両周囲の交通状況を把握するセンサを兼ねるものであってもよい。なお、車載カメラ22としては、通常は可視光を利用する可視光カメラが用いられるが、赤外線カメラ、紫外線カメラなどの様々な波長帯のカメラを採用することも可能である。また、車載カメラ22は、車両20の側方、後方など、前方以外を撮影するものであってもよい。 For example, the vehicle-mounted camera 22 may also serve as a drive recorder that records the driving situation of the vehicle 20. Further, for example, when the vehicle 20 has an automatic driving mode, the on-vehicle camera 22 may also serve as a sensor for grasping the traffic situation around the vehicle. Note that although a visible light camera that uses visible light is normally used as the vehicle-mounted camera 22, it is also possible to employ cameras that use various wavelength bands, such as an infrared camera or an ultraviolet camera. Furthermore, the vehicle-mounted camera 22 may be configured to take images of areas other than the front, such as the sides and rear of the vehicle 20.

GNSS24は、Global Navigation Satellite Systemの略称であり、人工衛星からの電波を利用して、走行する車両20の位置を検出するセンサである。GNSS24による位置検出結果は、カメラ画像データの撮影位置を特定する撮影位置データとして用いられる。撮影位置データを時系列で追った場合には、車両20の走行ルートがわかることにもなる。 GNSS 24 is an abbreviation for Global Navigation Satellite System, and is a sensor that detects the position of the traveling vehicle 20 using radio waves from an artificial satellite. The position detection result by the GNSS 24 is used as photographing position data for specifying the photographing position of camera image data. If the photographing position data is tracked in chronological order, the travel route of the vehicle 20 can also be determined.

時計26は、年月日時のタイミングを表示する装置である。時計26の出力は、カメラ画像データが撮影されたタイミングを特定する撮影時刻データとして利用される。 The clock 26 is a device that displays the timing of year, month, date and time. The output of the clock 26 is used as photographing time data for specifying the timing at which camera image data was photographed.

撮影位置データ及び撮影時刻データは、カメラ画像データと対応づけられて、情報配信システム30に送信される。送信は、例えば、Wi-Fi(登録商標)などの無線通信によって行われる。なお、車両20では、さらに、日射量センサ、レインセンサなど、天気関連のデータを取得するセンサを備える場合がある。これらのセンサの出力は、カメラ画像データが撮影された時点での天気を示す撮影天気データとして用いることができる。撮影天気データも、カメラ画像データと対応づけられて、情報配信システム30に送信されてもよい。 The photographing position data and the photographing time data are transmitted to the information distribution system 30 in association with camera image data. Transmission is performed, for example, by wireless communication such as Wi-Fi (registered trademark). Note that the vehicle 20 may further include a sensor that acquires weather-related data, such as a solar radiation sensor and a rain sensor. The outputs of these sensors can be used as photographed weather data indicating the weather at the time the camera image data was photographed. The shooting weather data may also be transmitted to the information distribution system 30 in association with the camera image data.

情報配信システム30は、車両20から送信される画像データ等を受信し、保存するとともに、車両100へ保存した画像データ等を配信するシステムである。情報配信システム30は、収集サーバ40、作製サーバ50、配信サーバ60及び保存サーバ80を備える。情報配信システム30については、図2を参照して詳しく説明する。 The information distribution system 30 is a system that receives and stores image data transmitted from the vehicle 20 and distributes the stored image data and the like to the vehicle 100. The information distribution system 30 includes a collection server 40, a production server 50, a distribution server 60, and a storage server 80. The information distribution system 30 will be described in detail with reference to FIG. 2.

図2は、情報配信システム30の概略的な構成を示すブロック図である。情報配信システム30は、1台または複数台のコンピュータハードウエアを用いて構成することができる。コンピュータハードウエアは、例えば、情報配信会社に集中的に設置されてもよいし、ネットワークに接続されて遠隔地に分散配置されてもよい。 FIG. 2 is a block diagram showing a schematic configuration of the information distribution system 30. Information distribution system 30 can be configured using one or more computer hardware. Computer hardware may be installed centrally at an information distribution company, for example, or may be connected to a network and distributed in remote locations.

コンピュータハードウエアは、メモリ、プロセッサなどを搭載した装置であり、インストールされたOS(オペレーティングシステム)、アプリケーションプログラムなどのソフトウエアによって制御されることで動作する。アプリケーションプログラムによって、情報配信システム30には、収集サーバ40、作製サーバ50、配信サーバ60及び保存サーバ80が構築されている。 Computer hardware is a device equipped with a memory, a processor, etc., and operates under the control of an installed OS (operating system), application programs, and other software. A collection server 40, a production server 50, a distribution server 60, and a storage server 80 are constructed in the information distribution system 30 by application programs.

収集サーバ40は、ネットワーク等を通じて、現に存在する画像データ等を収集する装置である。収集サーバ40は、車両20からは、カメラ画像データ及び対応する撮影位置データ、撮影時刻データ、撮影天気データなどを取得する。収集サーバ40は、取得したカメラ画像データ等を、車両20が撮影したルート、撮影年月日時、撮影天気などで分類した上で、保存サーバ80に保存する。 The collection server 40 is a device that collects existing image data and the like through a network or the like. The collection server 40 acquires camera image data, corresponding photographing position data, photographing time data, photographing weather data, etc. from the vehicle 20. The collection server 40 classifies the acquired camera image data and the like by the route taken by the vehicle 20, the date and time of the photograph, the weather of the photograph, etc., and then stores the data in the storage server 80.

車両20が撮影するカメラ画像データでは、例えば車両20のすぐ前に大型の車両が存在するような場合には、風景があまり撮影できない状況も生じる。そこで、収集サーバ40では、必要に応じて、交通量の少ない複数のカメラ画像データをつなぎ合わせるなどして形成することができる。また、収集サーバ40では、風景の中に人の顔、車両ナンバなどが明瞭に映っている場合には、これらを不明瞭にぼかす処理を行う。 With the camera image data taken by the vehicle 20, for example, if a large vehicle is present immediately in front of the vehicle 20, there may be a situation in which the scenery cannot be photographed very well. Therefore, the collection server 40 can create data by joining together a plurality of camera image data with low traffic volume, if necessary. Furthermore, in the case where a person's face, vehicle license plate number, etc. are clearly visible in the scenery, the collection server 40 performs a process of blurring them to make them unclear.

収集サーバ40では、カメラ画像データ等の収集を行うにあたり、収集対象について条件設定をすることができる。具体的には、走行車両が少ないエリアを走行する車両から収集する、特定のルートを走行する車両20から収集する、あるいは、エアバッグが作動するなど交通事故に関連していると考えられる車両20から収集するなどの例が挙げられる。 In the collection server 40, when collecting camera image data and the like, conditions can be set for the collection target. Specifically, it is collected from vehicles 20 traveling in an area with few vehicles, collected from vehicles 20 traveling on a specific route, or collected from vehicles 20 that are considered to be involved in a traffic accident, such as when an airbag is activated. Examples include collecting information from

収集サーバ40では、さらに、警察、保険会社などの外部機関と連携して、交通事故についての事象情報を収集する。交通事故の事象情報は、例えば、発生日時、位置、事故状況、被害状況などを記した文字データとして得られる。また、交通事故の事象情報は、外部機関から写真、動画などの画像データとして得られることもある。道路に監視カメラが設置している場合、あるいは、事故車両またはその周囲の車両に車載カメラが搭載されている場合、周囲の歩行者等がカメラ撮影をしている場合などに、外部機関は画像データを取得する可能性がある。さらに、収集サーバ40では、車両20のカメラ画像から、交通事故の事象情報を含む画像データを取得できる場合がある。 The collection server 40 further collects event information regarding traffic accidents in cooperation with external organizations such as the police and insurance companies. Traffic accident event information is obtained, for example, as character data that describes the date and time of occurrence, location, accident situation, damage situation, and the like. Furthermore, event information on traffic accidents may be obtained from external organizations as image data such as photographs and videos. If a surveillance camera is installed on the road, if an in-vehicle camera is installed on the accident vehicle or other vehicles around it, or if nearby pedestrians are taking pictures, an external agency may collect images. Data may be obtained. Furthermore, the collection server 40 may be able to acquire image data including traffic accident event information from the camera image of the vehicle 20.

作製サーバ50は、過去または未来の事象についての画像データを作製する装置である。作製サーバ50では、車両100が、過去または未来に走行したと仮定した場合に見ることができると推測される仮想的な画像データを作製する。画像の作製自体は、例えば、外部の企業に外注することが可能である。この場合、作製サーバ50では、納品された画像を取り込んで、保存サーバ80に保存する。また、画像データを説明する文字データなども作製され保存サーバ80に保存される。なお、作製サーバ50では、上述の交通事故についての文字データに基づいて、交通事故の模様をわかりやすく再現する仮想的な動画像データまたは静止画像データを作製することもできる。 The production server 50 is a device that produces image data regarding past or future events. The production server 50 produces virtual image data that is assumed to be visible when the vehicle 100 has traveled in the past or the future. The image production itself can be outsourced to an external company, for example. In this case, the production server 50 captures the delivered image and stores it in the storage server 80. Furthermore, character data explaining the image data is also created and stored in the storage server 80. Note that the production server 50 can also produce virtual moving image data or still image data that reproduces the appearance of a traffic accident in an easy-to-understand manner based on the text data about the traffic accident described above.

配信サーバ60は、画像データ等の事象情報を車両100に配信する装置である。配信サーバ60には、受信装置62、情報選択装置64及び送信装置74が含まれる。受信装置62は、車両100から、画像データ等の配信要求を受信する。受信装置62は、配信要求を受信する際には、配信する事象情報の種類、車両100の位置などの情報なども受信する。 Distribution server 60 is a device that distributes event information such as image data to vehicle 100. The distribution server 60 includes a receiving device 62, an information selection device 64, and a transmitting device 74. The receiving device 62 receives a request for distribution of image data, etc. from the vehicle 100. When receiving the distribution request, the receiving device 62 also receives information such as the type of event information to be distributed and the position of the vehicle 100.

情報選択装置64は、車両100に配信する事象情報の選択等を行う。情報選択装置64には、情報種類判定部66、走行位置判定部68、天気判定部70及び運転者判定部72が含まれている。 The information selection device 64 selects event information to be distributed to the vehicle 100. The information selection device 64 includes an information type determination section 66, a driving position determination section 68, a weather determination section 70, and a driver determination section 72.

情報種類判定部66は、受信装置62の受信内容に基づいて、配信を要求された事象情報の種類の選択を行う。選択対象となる事象情報の種類の例については、後述する。 The information type determination unit 66 selects the type of event information requested to be distributed based on the content received by the receiving device 62. Examples of types of event information to be selected will be described later.

走行位置判定部68は、車両100から取得する走行位置データをもとに、配信の対象となる事象情報の地理的な範囲を判定する。走行位置判定部68では、車両100の現在位置だけでなく、走行方向、走行速度などを考慮して、近未来(例えば数秒から数十秒後)に走行する位置を予測して、配信する事象情報の範囲を決める。 The traveling position determining unit 68 determines the geographical range of the event information to be distributed based on the traveling position data acquired from the vehicle 100. The traveling position determination unit 68 takes into account not only the current position of the vehicle 100 but also the traveling direction, traveling speed, etc., predicts the position where the vehicle 100 will travel in the near future (for example, several seconds to several tens of seconds later), and distributes the event. Determine the scope of information.

天気判定部70は、車両100から取得する走行位置データをもとに、車両付近の天気を判定する。判定にあたっては、例えば、気象当局などが提供する気象情報を活用することができる。また、天気判定部70では、車両100から取得する天気データに基づいて、車両100の天気を判定してもよい。 The weather determination unit 70 determines the weather near the vehicle based on travel position data acquired from the vehicle 100. In making the determination, for example, weather information provided by meteorological authorities etc. can be utilized. Furthermore, the weather determination unit 70 may determine the weather of the vehicle 100 based on weather data acquired from the vehicle 100.

運転者判定部72は、車両100における配信の要求者が運転者か否かを判定する。要求者が運転者のみである場合には、配信する画像データから、道路の風景(路面、走行車両、歩行者、信号機、標識など)を省略してよいとの判定を行う。これにより、配信する情報量を減らすことが可能となる。 Driver determination unit 72 determines whether the person requesting distribution in vehicle 100 is the driver. If the requester is only the driver, it is determined that the road scenery (road surface, moving vehicles, pedestrians, traffic lights, signs, etc.) may be omitted from the image data to be distributed. This makes it possible to reduce the amount of information to be distributed.

送信装置74は、配信対象となる事象情報を、保存サーバ80から取得し、車両100に送信する。 The transmitting device 74 acquires event information to be distributed from the storage server 80 and transmits it to the vehicle 100.

保存サーバ80は、配信対象となる過去または未来の事象についての事象情報を保存する装置である。保存サーバ80に保存されている事象情報には、交通事故データ82、過去風景データ84、過去仮想データ88、未来仮想データ90が含まれる。 The storage server 80 is a device that stores event information regarding past or future events to be distributed. The event information stored in the storage server 80 includes traffic accident data 82, past scenery data 84, past virtual data 88, and future virtual data 90.

交通事故データ82は、過去の事象についての事象情報の一例であり、収集サーバ40によって収集される交通事故の事象情報が含まれている。保存される交通事故データ82には、文字データである交通事故文字データと、画像データである交通事故画像データとが含まれる。交通事故文字データは、交通事故の発生日時、位置、事故状況及び被害状況などの情報が含まれる。また、交通事故画像データには、交通事故を起こした車両のカメラ画像データ、交通事故の周囲に存在する車両によるカメラ画像データ、または、歩行者あるいは道路の固定監視カメラ等により撮影された画像データなどが含まれる。交通事故データ82の画像データとしては、作製サーバ50で作製された動画像データまたは静止画像データを用いることもできる。 The traffic accident data 82 is an example of event information about past events, and includes event information about traffic accidents collected by the collection server 40. The traffic accident data 82 to be saved includes traffic accident character data which is character data, and traffic accident image data which is image data. The traffic accident character data includes information such as the date and time of the traffic accident, its location, accident situation, and damage situation. In addition, traffic accident image data includes camera image data of the vehicle that caused the traffic accident, camera image data of vehicles existing around the traffic accident, or image data taken by pedestrians or fixed road surveillance cameras. etc. are included. As the image data of the traffic accident data 82, moving image data or still image data produced by the production server 50 can also be used.

過去風景データ84は、過去の事象についての事象情報の一例であり、収集サーバ40によって収集される過去の実際の風景に関する事象情報が含まれている。具体的には、過去に車両20の車載カメラ22により撮影されたカメラ画像データが含まれる。また、過去風景データ84には、カメラ画像データの取得日時、撮影時の天気など、カメラ画像データを説明する文字データが含まれてもよい。 The past scenery data 84 is an example of event information about past events, and includes event information about past actual scenery collected by the collection server 40. Specifically, camera image data captured by the vehicle-mounted camera 22 of the vehicle 20 in the past is included. The past landscape data 84 may also include character data that describes the camera image data, such as the acquisition date and time of the camera image data and the weather at the time of photography.

過去風景データ84には、晴天時画像データ86が含まれる。これは、晴天時に撮影されたカメラ画像データである。後述するように、晴天時画像データ86は、雨、雪などにおける視界不良を補うために使われる。したがって、晴の他に曇などの雨雪ではない天気における画像データを使用することも可能であるが、実施形態では、画像の鮮明さを考えて晴天時画像データ86を使用している。 The past scenery data 84 includes clear weather image data 86. This is camera image data taken during clear weather. As will be described later, the clear weather image data 86 is used to compensate for poor visibility due to rain, snow, etc. Therefore, in addition to sunny weather, it is also possible to use image data in weather other than rain or snow, such as cloudy weather, but in the embodiment, clear weather image data 86 is used in consideration of the clarity of the image.

過去仮想データ88は、過去の事象についての事象情報の一例であり、作製サーバ50によって作製される過去の仮想的な事象情報が含まれている。過去仮想データ88には、画像データである過去仮想画像データと、その説明を記した過去仮想文字データが含まれる。過去仮想データ88は、仮に過去の適当なタイミングで、車両100が走行した場合に、車両の周囲に見える可能性がある風景を対象として作製された事象情報である。例えば、車両100が現在の道路に沿って走行した場合に見える遠方の景色(山岳、海岸、河川など)の中に、当時の森林等の自然物、城や家屋などの建築物、当時の装束を纏った人などを表示する画像データが作製される。あるいは、過去に歴史的な事象が発生しているエリアについては、車両100で走行しながらその事象を眺める画像データを作製する例も挙げられる。歴史的な事象としては、政治イベント、宗教イベント、文化イベント、祝祭典、戦争、著名人の往来、災害(火山噴火、地震、火災など)、天体現象(彗星の到来、白夜、月食など)などを例示することができる。また、氷河期などの過去の気候の再現、化石が発掘された動植物の再現などを行うものであってもよい。あるいは、その地域で知られている伝説、昔話などを再現するものであってもよい。 The past virtual data 88 is an example of event information about past events, and includes past virtual event information created by the creation server 50. The past virtual data 88 includes past virtual image data that is image data and past virtual character data that describes the explanation. The past virtual data 88 is event information created for scenery that may be seen around the vehicle if the vehicle 100 were to travel at an appropriate timing in the past. For example, in the distant scenery (mountains, coasts, rivers, etc.) seen when the vehicle 100 drives along the current road, natural objects such as forests, buildings such as castles and houses, and costumes of the time may be seen. Image data that displays the person wearing the garment is created. Alternatively, for an area where a historical event has occurred in the past, an example may be created in which image data is created to view the event while driving with the vehicle 100. Historical events include political events, religious events, cultural events, festivals, wars, visits of famous people, disasters (volcanic eruptions, earthquakes, fires, etc.), and celestial phenomena (arrival of comets, midnight sun, lunar eclipse, etc.) For example, Furthermore, it may be possible to reproduce past climates such as the Ice Age, or to reproduce animals and plants whose fossils have been excavated. Alternatively, it may be a reproduction of a legend or folktale known in the area.

未来仮想データ90は、未来の事象についての事象情報の一例であり、作製サーバ50によって作製される未来の仮想的な事象情報が含まれている。未来仮想データ90には、画像データである未来仮想画像データと、その説明を記した未来仮想文字データが含まれる。未来仮想データ90は、未来において、仮に車両100で走行した場合に見える可能性がある風景を対象として作製される。例えば、車両100が現在の道路を走行した場合に見える遠方の背景の中に、未来において推定される自然物、建築物、未来の装束を纏った人などが存在するような画像データを制作する態様を挙げることができる。また、未来において推定される事象を模した画像データを作製してもよい。未来において推定される建築物等の例としては、政府、自治体などによる都市計画に基づく建築物、道路、鉄道、空港などを挙げることができる。また、研究機関や企業が提案している乗り物、衣服なども、未来において実現することが推定される。さらには、自治体等が公表している災害時のハザードマップに基づく災害も、未来において発生が推定される事象と言える。 The future virtual data 90 is an example of event information about future events, and includes future virtual event information created by the creation server 50. The future virtual data 90 includes future virtual image data that is image data and future virtual character data that describes the data. The future virtual data 90 is created for scenery that may be seen if the vehicle 100 were to travel in the future. For example, a mode of creating image data in which natural objects, buildings, people wearing future costumes, etc. estimated to exist in the future are present in the distant background that is visible when the vehicle 100 drives on the current road. can be mentioned. Furthermore, image data simulating events estimated in the future may be created. Examples of buildings estimated to exist in the future include buildings based on city planning by the government, local governments, etc., roads, railways, airports, and the like. It is also estimated that vehicles, clothing, etc. proposed by research institutions and companies will become a reality in the future. Furthermore, disasters based on disaster hazard maps published by local governments can also be said to be events that are estimated to occur in the future.

続いて、図1の車両100について、図3を参照して説明する。車両100は、図3に示す画像表示システム110を搭載した車両である。図3に示すように、画像表示システム110は、車載システム120と、ウェアラブルデバイス150を含んでいる。 Next, the vehicle 100 in FIG. 1 will be described with reference to FIG. 3. Vehicle 100 is a vehicle equipped with image display system 110 shown in FIG. As shown in FIG. 3, the image display system 110 includes an in-vehicle system 120 and a wearable device 150.

車載システム120は、典型的には、車両100に固定的に設置される装置である。車載システム120には、操作入力部122、送信部128、画像処理装置130、GNSS140、速度計142、受信部144、及び一時記憶装置146が含まれている。 In-vehicle system 120 is typically a device that is fixedly installed in vehicle 100. The in-vehicle system 120 includes an operation input section 122, a transmission section 128, an image processing device 130, a GNSS 140, a speedometer 142, a reception section 144, and a temporary storage device 146.

操作入力部122は、車両100の運転者等であるユーザが、画像表示システム110の設定を行うためのユーザインタフェースである。操作入力部122は、例えば、車両100のインストルメントパネルに設けられたタッチパネルを利用して構築される。操作入力部122には、表示情報設定部124が設けられている。表示情報設定部124は、ウェアラブルデバイス150に表示させる事象情報について各種の設定を行うものである。 The operation input unit 122 is a user interface through which a user, such as a driver of the vehicle 100, makes settings for the image display system 110. The operation input unit 122 is constructed using, for example, a touch panel provided on the instrument panel of the vehicle 100. The operation input section 122 is provided with a display information setting section 124 . The display information setting unit 124 performs various settings regarding event information to be displayed on the wearable device 150.

ユーザは、表示情報設定部124を操作して、交通事故データ82、過去風景データ84、過去仮想データ88または未来仮想データ90を表示する設定を行うことができる。ユーザは、これらのデータから一つのみを表示の対象として選択してもよいし、複数を表示の対象として選択してもよい。複数を選択する場合においては、表示の優先順位をつけることも可能である。優先順位づけの例としては、交通事故データ82と過去風景データ84とを選択した場合に、通常は過去風景データ84を表示するが、交通事故データ82が存在する場所では交通事故データ82の優先表示または重複表示する設定が挙げられる。また、例えば、過去風景データ84を選択する場合において、複数の過去風景データがある場合に、撮影された年、季節などを設定することも可能である。あるいは、交通事故データ82、過去仮想データ88または未来仮想データ90について、まずは概要を示す文字データまたは記号などが記されたアイコンのみを表示し、ユーザがアイコンを操作して詳細表示を要求した後に画像データを表示する設定を行うことも可能である。 The user can operate the display information setting section 124 to make settings to display traffic accident data 82, past scenery data 84, past virtual data 88, or future virtual data 90. The user may select only one of these data to be displayed, or may select multiple pieces of data to be displayed. When selecting multiple items, it is also possible to prioritize the display. As an example of prioritization, when traffic accident data 82 and past scenery data 84 are selected, normally past scenery data 84 is displayed, but in a place where traffic accident data 82 exists, traffic accident data 82 is given priority. Examples of settings include display or duplicate display. Furthermore, for example, when selecting the past landscape data 84, if there is a plurality of past landscape data, it is also possible to set the year and season in which the image was taken. Alternatively, for the traffic accident data 82, past virtual data 88, or future virtual data 90, first, only icons with text data or symbols indicating an overview are displayed, and after the user operates the icon to request detailed display. It is also possible to make settings to display image data.

送信部128は、情報配信システム30に、事象情報の配信要求を送信する。配信要求にあたっては、表示情報設定部124による設定に従い、必要なデータの種類等も明示する。また、GNSS140が示す車両の走行位置データなども随時送信する。あるいは、車両100のナビゲーションシステムに設定された走行ルートを走行位置データとして一括して送信することも可能である。 The transmitter 128 transmits an event information distribution request to the information distribution system 30. When making a distribution request, the type of required data, etc. is also specified according to the settings made by the display information setting section 124. In addition, vehicle travel position data indicated by the GNSS 140 is also transmitted at any time. Alternatively, it is also possible to transmit the travel route set in the navigation system of the vehicle 100 all at once as travel position data.

画像処理装置130は、情報配信システム30から受信した事象情報を、ウェアラブルデバイス150に表示するための画像処理を行う装置である。画像処理装置130は、メモリ、プロセッサなどを備えたコンピュータハードウエアを、OS(オペレーティングシステム)、アプリケーションプログラムなどのソフトウエアによって制御することで構築することができる。画像処理装置44には、アプリケーションプログラムを利用して、デバイス・瞳孔位置演算部132、画像レイアウト演算部134、画像切替部136、画像合成部138が構築されている。 The image processing device 130 is a device that performs image processing for displaying event information received from the information distribution system 30 on the wearable device 150. The image processing device 130 can be constructed by controlling computer hardware including a memory, a processor, and the like using software such as an OS (operating system) and application programs. The image processing device 44 includes a device/pupil position calculation section 132, an image layout calculation section 134, an image switching section 136, and an image composition section 138 using application programs.

デバイス・瞳孔位置演算部132は、ウェアラブルデバイス150のデバイス位置センサ160と瞳孔位置センサ162からの入力に基づいて、車内におけるウェアラブルデバイス150の相対位置と、運転者180の瞳孔の相対位置とを演算する。 The device/pupil position calculation unit 132 calculates the relative position of the wearable device 150 in the vehicle and the relative position of the pupil of the driver 180 based on inputs from the device position sensor 160 and the pupil position sensor 162 of the wearable device 150. do.

画像レイアウト演算部134は、操作入力部122から指示される画像表示を行うために、どの画像をどの位置に配置するか、つまり合成する画像のレイアウトをどのようにするべきかを演算する。画像レイアウト演算部134では、レイアウトを決定するにあたって、予め記憶している車両の各部品の相対位置データを利用するとともに、デバイス・瞳孔位置演算部132が演算したウェアラブルデバイス150の相対位置データと、瞳孔の相対位置データを利用する。これにより、ウェアラブルデバイス150を装着したユーザの瞳孔と車両の特定の部品とを結ぶ直線が、有機ELディスプレイ166のどの位置に当たるかを演算することができる。そして、有機ELディスプレイ166のどの位置にどの画像を表示すればよいかを演算する。 The image layout calculation unit 134 calculates which images should be placed at which positions, that is, how the images to be combined should be laid out in order to display the images instructed by the operation input unit 122. In determining the layout, the image layout calculation unit 134 uses the relative position data of each part of the vehicle stored in advance, and also uses the relative position data of the wearable device 150 calculated by the device/pupil position calculation unit 132, Utilizes the relative position data of the pupils. Thereby, it is possible to calculate which position on the organic EL display 166 a straight line connecting the pupil of the user wearing the wearable device 150 and a specific part of the vehicle corresponds to. Then, it is calculated which image should be displayed at which position on the organic EL display 166.

画像切替部136は、表示情報設定部124において、複数の種類の画像データが表示対象として選択された場合に、優先順位等に従って、画像の切り替え処理を行う。また、表示対象を文字データから画像データへあるいは画像データから文字データへと切替える処理、あるいは、文字データと画像データの両方を表示させる処理なども行う。 The image switching unit 136 performs image switching processing according to priority order, etc. when a plurality of types of image data are selected as display targets in the display information setting unit 124. It also performs a process of switching the display target from character data to image data or from image data to character data, or a process of displaying both character data and image data.

画像合成部138は、情報取得装置の一例であり、画像切替部136が設定した画像データあるいは文字データを、一時記憶装置146から取得し、画像レイアウト演算部134が演算したレイアウトに合成する処理を行う。画像合成部138では、GNSS140から走行位置データを取得し、速度計142から走行速度データを取得することで、車両100の走行位置に対応した画像の合成を行う。合成された画像は、ウェアラブルデバイス150の画像制御部164に送信され、有機ELディスプレイ166に表示される。送信は、有線通信で行うことも可能であるし、無線通信で行うことも可能である。無線通信を採用する場合、例えばBluetooth(登録商標)、Wi-Fi(登録商標)、赤外線通信などの近距離無線通信を利用することも考えられる。 The image composition section 138 is an example of an information acquisition device, and performs processing to acquire the image data or character data set by the image switching section 136 from the temporary storage device 146 and compose it with the layout calculated by the image layout calculation section 134. conduct. The image synthesis unit 138 synthesizes images corresponding to the running position of the vehicle 100 by acquiring running position data from the GNSS 140 and running speed data from the speedometer 142. The combined image is transmitted to the image control unit 164 of the wearable device 150 and displayed on the organic EL display 166. Transmission can be performed by wired communication or by wireless communication. When employing wireless communication, it is also possible to use short-range wireless communication such as Bluetooth (registered trademark), Wi-Fi (registered trademark), and infrared communication.

GNSS140は、車両100の走行位置を検出し、走行位置データを出力する。走行位置データは、送信部128を通じて、情報配信システム30に送信される。 GNSS 140 detects the traveling position of vehicle 100 and outputs traveling position data. The traveling position data is transmitted to the information distribution system 30 through the transmitter 128.

速度計142は、車両100の走行速度を検出し、走行速度データを出力する。走行速度は、車両の走行位置の時間変化を示すデータであり、GNSS140が出力する走行位置データとともに、車両100の走行位置を特定するために使用することができる。そこで、上述の通り、走行位置データ及び走行速度データは、画像合成部138に送られる。 Speedometer 142 detects the traveling speed of vehicle 100 and outputs traveling speed data. The traveling speed is data indicating a change in the traveling position of the vehicle over time, and can be used to specify the traveling position of the vehicle 100 together with the traveling position data output by the GNSS 140. Therefore, as described above, the traveling position data and the traveling speed data are sent to the image composition section 138.

受信部144は、情報配信システム30から配信される画像データ及び文字データを受信する。受信したデータは、一時記憶装置146に蓄積される。 The receiving unit 144 receives image data and character data distributed from the information distribution system 30. The received data is stored in temporary storage device 146.

一時記憶装置146には、受信部144を通じて受信した画像データ及び文字データが保存される。車両100の走行方向には不確実性を伴うことから、車載システム120では、走行位置に応じて受信したデータを次々と表示するストリーミング方式を採用する。一時記憶装置146は、車両100の近未来の走行位置を走行位置判定部68が予測した結果に基づいて、予め画像データ及び文字データを一時的に保存することで、切れ目の無い画像表示を可能としている。ただし、例えば、車両100のナビゲーションシステムに走行ルートが設定されたような場合には、その走行ルートに沿って走行する可能性が高いと考えられる。そこで、予め走行ルートに沿った画像データ及び文字データをダウンロードする方式を採用することも可能である。また、車両が頻繁に走行するエリアについての画像データ及び文字データを全て一時記憶装置146にダウンロードしておくこともできる。 The image data and character data received through the receiving unit 144 are stored in the temporary storage device 146. Since there is uncertainty in the traveling direction of the vehicle 100, the in-vehicle system 120 employs a streaming method that displays received data one after another according to the traveling position. The temporary storage device 146 enables seamless image display by temporarily storing image data and character data in advance based on the results of the prediction of the near future driving position of the vehicle 100 by the driving position determination unit 68. It is said that However, for example, if a travel route is set in the navigation system of the vehicle 100, it is considered that there is a high possibility that the vehicle will travel along that travel route. Therefore, it is also possible to adopt a method of downloading image data and character data along the travel route in advance. Further, all image data and character data regarding areas where vehicles frequently travel can be downloaded to the temporary storage device 146.

ウェアラブルデバイス150は、車両に乗車した運転者を含む乗員が眼鏡あるいはゴーグルのように装着するデバイスである。ウェアラブルデバイス150には、デバイス位置センサ160、瞳孔位置センサ162、画像制御部164、有機ELディスプレイ166及び操作部168が含まれる。 The wearable device 150 is a device that is worn like glasses or goggles by a vehicle occupant, including a driver. Wearable device 150 includes a device position sensor 160, a pupil position sensor 162, an image control section 164, an organic EL display 166, and an operation section 168.

ここで、図4を参照して、ウェアラブルデバイス150について詳細に説明する。図4は、運転者180がウェアラブルデバイス150を装着した状態を示す図である。ウェアラブルデバイス150は、メガネの形状に形成されたデバイスであり、スマートグラスなどと呼ばれることもある。ウェアラブルデバイス150は、耳に掛けるための直線状のフレームであるテンプル152と、テンプル152に接続され、目の周囲を囲むとともに鼻に掛けられる形状に形成されたフレームであるリム154を備える。 Here, the wearable device 150 will be described in detail with reference to FIG. 4. FIG. 4 is a diagram showing a state in which the wearable device 150 is worn by the driver 180. Wearable device 150 is a device formed in the shape of glasses, and is sometimes called smart glasses. Wearable device 150 includes a temple 152, which is a linear frame to be hung on the ear, and a rim 154, which is a frame connected to temple 152, surrounding the eyes, and shaped to be hung on the nose.

リム154の内側には、表示装置の一例である有機EL(Electro Luminescence)ディスプレイ166が設けられている。有機ELディスプレイ166は、運転者180の目の前方を覆うように配置されるが、画像を形成しない場合には、高い透明性(高い光透過性)を示すため、運転者180が前方を目視することができる。有機ELディスプレイ166は、画像制御部164の制御に基づいて、一部または全部の領域に画像を形成することができる。 An organic EL (Electro Luminescence) display 166, which is an example of a display device, is provided inside the rim 154. The organic EL display 166 is arranged to cover the front of the driver's 180 eyes, but when not forming an image, it exhibits high transparency (high light transmittance), so the driver 180 cannot visually see the front. can do. The organic EL display 166 can form an image in part or all of the area under the control of the image control unit 164.

運転者180の左目側には、リム154とテンプル152の接続部付近に、デバイス位置センサ160が設けられている。デバイス位置センサ160は、ウェアラブルデバイス150の車両100内における位置を検出するセンサである。デバイス位置センサ160は、例えば、前方を撮影するカメラを利用して構築することができる。すなわち、カメラが撮影する画像を、車内のレイアウトのデータと比較することで、カメラの位置及び傾きがわかる。このため、カメラをリム154に対して固定して設置しておけば、ウェアラブルデバイス150の位置及び傾きを検出することが可能となる。 On the left eye side of the driver 180, a device position sensor 160 is provided near the connection between the rim 154 and the temple 152. Device position sensor 160 is a sensor that detects the position of wearable device 150 within vehicle 100. The device position sensor 160 can be constructed using, for example, a camera that photographs the front. That is, the position and tilt of the camera can be determined by comparing the image taken by the camera with the layout data inside the vehicle. Therefore, if the camera is fixedly installed on the rim 154, the position and tilt of the wearable device 150 can be detected.

リム154の上部の中央付近には、瞳孔位置センサ162が設けられている。瞳孔位置センサ162は、運転者180の右目と左目の瞳孔がリム154に対して相対的にどの位置にあるかを検出するセンサである。瞳孔位置センサ162も、デバイス位置センサ160と同様に、カメラ等を利用して形成することができる。 A pupil position sensor 162 is provided near the center of the upper part of the rim 154. The pupil position sensor 162 is a sensor that detects the positions of the pupils of the right and left eyes of the driver 180 relative to the rim 154. Similarly to the device position sensor 160, the pupil position sensor 162 can also be formed using a camera or the like.

テンプル152の内部には、画像制御部164が組み込まれている。画像制御部164は、車載システム120から受信したデータに基づいて、有機ELディスプレイ166に画像表示を行う制御装置である。ウェアラブルデバイス150では、画像制御部164を通じて有機ELディスプレイ166により事象の画像表示を行うことで、乗員に、通常とは異なる視覚的環境を提供することができる。 An image control section 164 is incorporated inside the temple 152. The image control unit 164 is a control device that displays an image on the organic EL display 166 based on data received from the in-vehicle system 120. In the wearable device 150, by displaying an image of the event on the organic EL display 166 through the image control unit 164, it is possible to provide the occupant with a different visual environment than usual.

操作部168は、有機ELディスプレイ166に表示された対象を操作するためのものである。有機ELディスプレイ166には、ボタンなどの操作対象画像を表示することができる。操作部168は、このボタンを操作するためのものである。例えば、操作部168は、ウェアラブルデバイス150を装着する運転者等の声により操作するものであってもよいし、操作者の視線により操作するものであってもよい。ウェアラブルデバイス150のテンプル152、リム154などに機械式ボタンを設けることで、操作部168を実現してもよい。操作部168を設けることで、有機ELディスプレイ166に、まず概要を示す文字データまたは記号などを表示し、操作後に画像データを表示するなど、表示の切り替えを行うことが可能となる。なお、操作部168をウェアラブルデバイス150に設けずに、例えば、車両100のインストルメントパネルに設けられたタッチパネルの操作入力部122で同様の操作を行うようにすることも可能である。 The operation unit 168 is for operating the object displayed on the organic EL display 166. The organic EL display 166 can display operation target images such as buttons. The operation unit 168 is for operating this button. For example, the operation unit 168 may be operated by the voice of a driver wearing the wearable device 150, or may be operated by the operator's line of sight. The operating section 168 may be realized by providing a mechanical button on the temple 152, rim 154, etc. of the wearable device 150. By providing the operation unit 168, it becomes possible to switch the display, such as first displaying character data or symbols indicating an overview on the organic EL display 166, and then displaying image data after the operation. Note that it is also possible to perform similar operations using the operation input section 122 of a touch panel provided on the instrument panel of the vehicle 100, for example, without providing the operation section 168 on the wearable device 150.

画像表示システム110では、短い時間間隔で、リアルタイム処理が行われる。すなわち、車載システム120は、ウェアラブルデバイス150のデバイス位置センサ160、瞳孔位置センサ162から短い時間間隔で検出データを取得する。デバイス・瞳孔位置演算部132は、取得した検出データから、ウェアラブルデバイス150の位置と、瞳孔の位置を速やかに演算する。これにより、車両100における運転者180の視野の範囲についてフロントウインドシールド206等との関係も取得することができる。なお、運転者180の視野の範囲は、人の標準的なデータに基づいて設定することができる。また、例えば、図4に示した例において、リム154に囲まれた有機ELディスプレイ166の範囲を視野の範囲と設定することも可能である。GNSS140が出力する走行位置データと合わせれば、運転者180の視野の範囲と事象の位置との関係を取得できたことになる。したがって、デバイス位置センサ160、瞳孔位置センサ162、及びGNSS140は、範囲取得手段の一例であると言える。続いて、画像レイアウト演算部134は、操作入力部122から操作された画像を表示するためのレイアウトを演算する。画像合成部138は、一時記憶装置146からの画像をレイアウトに従って合成し、ウェアラブルデバイス150に送信する。 In the image display system 110, real-time processing is performed at short time intervals. That is, the in-vehicle system 120 acquires detection data from the device position sensor 160 and the pupil position sensor 162 of the wearable device 150 at short time intervals. The device/pupil position calculating section 132 quickly calculates the position of the wearable device 150 and the position of the pupil from the acquired detection data. Thereby, it is also possible to obtain the relationship between the range of the driver's 180 field of view in the vehicle 100 and the front windshield 206 and the like. Note that the range of the driver's 180 visual field can be set based on standard human data. Furthermore, for example, in the example shown in FIG. 4, it is also possible to set the range of the organic EL display 166 surrounded by the rim 154 as the range of the visual field. When combined with the driving position data output by the GNSS 140, the relationship between the range of the driver's 180 visual field and the position of the event can be obtained. Therefore, it can be said that the device position sensor 160, the pupil position sensor 162, and the GNSS 140 are an example of range acquisition means. Subsequently, the image layout calculation unit 134 calculates a layout for displaying the image operated from the operation input unit 122. The image composition unit 138 composes the images from the temporary storage device 146 according to the layout and transmits the composite to the wearable device 150.

ウェアラブルデバイス150では、受信した合成画像データを画像制御部164において処理し、有機ELディスプレイ166に表示する。画像表示に至るまでの処理が高速で行われるため、運転者180が首を振ったような場合にも、高速で追従可能となる。このため、ウェアラブルデバイス150を装着した運転者180は、実際とは異なる表示がなされた車外を、あまり違和感をもつことなく、視認することが可能である。 In the wearable device 150, the received composite image data is processed by the image control unit 164 and displayed on the organic EL display 166. Since the processing up to the image display is performed at high speed, even if the driver 180 shakes his head, it can be followed at high speed. Therefore, the driver 180 wearing the wearable device 150 can visually recognize the outside of the vehicle, which is displayed differently from the actual one, without feeling too uncomfortable.

なお、以上の説明では、ウェアラブルデバイス150として、画像制御部164と有機ELディスプレイ166を利用した装置を例に挙げた。しかし、ウェアラブルデバイス150は、他の原理を用いるものであってもよい。一例としては、網膜に画像を照射するプロジェクタを利用する態様が挙げられる。また、ウェアラブルデバイス150では、外部からの可視光が透過せず、代わりに、カメラで撮影した画像を表示するタイプのものを用いることも可能である。 Note that in the above description, a device using the image control unit 164 and the organic EL display 166 has been exemplified as the wearable device 150. However, wearable device 150 may use other principles. One example is a mode in which a projector is used to project an image onto the retina. Furthermore, the wearable device 150 may be of a type that does not allow visible light from the outside to pass through, and instead displays an image taken with a camera.

続いて、図5~図12を参照して、ウェアラブルデバイス150による画像表示の例について説明する。図5~図11は、ウェアラブルデバイス150を装着した運転者180の視野を模式的に示した図である。また、図12は、ウェアラブルデバイス150を、運転者以外の乗員が装着した場合の視野を模式的に示した図である。図中の座標系におけるF軸は車両前方向、U軸は上方向、R軸は乗員の右手方向を示している。運転者180は、車両の左側に設けられた運転席に座っており、右側通行の道路を走行していることを想定している。 Next, examples of image display by the wearable device 150 will be described with reference to FIGS. 5 to 12. 5 to 11 are diagrams schematically showing the field of view of a driver 180 wearing the wearable device 150. Moreover, FIG. 12 is a diagram schematically showing the visual field when the wearable device 150 is worn by an occupant other than the driver. In the coordinate system shown in the figure, the F axis indicates the front direction of the vehicle, the U axis indicates the upward direction, and the R axis indicates the right direction of the occupant. It is assumed that the driver 180 is sitting in a driver's seat provided on the left side of the vehicle and is driving on a road with right-hand traffic.

図5は、ウェアラブルデバイス150が画像を表示していない状態を示す図である。この場合、運転者180の視野は、裸眼の場合と同じ状態となる。 FIG. 5 is a diagram showing a state in which the wearable device 150 is not displaying an image. In this case, the field of view of the driver 180 is the same as that of the naked eye.

視野の上部には、ルーフ200が見えている。ルーフ200の左右のサイドには、左Aピラー202(左フロントピラーと呼ばれることもある)と右Aピラー204が見える。ルーフ200、左Aピラー202及び右Aピラー204に囲まれた位置には、透明なフロントウインドシールド206(フロントガラスと呼ばれることもある)が設けられている。フロントウインドシールド206の上部付近には、ルーフ200に取り付けられたインナミラー208が見えており、後方を走行する車両が映っている。 The roof 200 is visible at the top of the field of view. A left A-pillar 202 (sometimes called a left front pillar) and a right A-pillar 204 are visible on the left and right sides of the roof 200. A transparent front windshield 206 (sometimes called a windshield) is provided at a position surrounded by the roof 200, left A-pillar 202, and right A-pillar 204. An interior mirror 208 attached to the roof 200 is visible near the top of the front windshield 206, and reflects the vehicle traveling behind.

運転者180の左側には、左前サイドウインドシールド210(左前サイドガラスと呼ばれることもある)と、その前方にある左三角窓212が見えている。左前サイドウインドシールド210の下方には、左前ドアの内側に設けられた左前ドアトリム214が見えている。また、左前サイドウインドシールド210には、左アウタミラー216が見えており、自車両の側面の一部と後方を走行する車両が映っている。 On the left side of the driver 180, a left front side windshield 210 (sometimes referred to as a left front side glass) and a left triangular window 212 in front of it are visible. A left front door trim 214 provided on the inside of the left front door is visible below the left front side windshield 210. Further, a left outer mirror 216 is visible on the left front side windshield 210, and a part of the side surface of the host vehicle and a vehicle traveling behind are reflected.

運転者180の右側には、右前サイドウインドシールド220と、その前方にある右三角窓222が見えている。右前サイドウインドシールド220の下方には、右前ドアの内側に設けられた右前ドアトリム224が見えている。また、右前サイドウインドシールド220には、右アウタミラー226が見えており、自車両の側面の一部と後方を走行する車両が映っている。 On the right side of the driver 180, a right front side windshield 220 and a right triangular window 222 in front of it are visible. A right front door trim 224 provided on the inside of the right front door is visible below the right front side windshield 220. Further, a right outer mirror 226 is visible on the right front side windshield 220, and a part of the side surface of the host vehicle and a vehicle traveling behind are reflected.

フロントウインドシールド206の下方には、インストルメントパネル230が設置されている。インストルメントパネル230の中央下部には、センタコンソール232が接続されている。インストルメントパネル230及びセンタコンソール232には、タッチパネル234と操作ボタン類236が配置されている。運転者180が装着するウェアラブルデバイス150の操作入力部122は、例えば、このタッチパネル234または操作ボタン類236に設けられる。 An instrument panel 230 is installed below the front windshield 206. A center console 232 is connected to the lower center of the instrument panel 230. A touch panel 234 and operation buttons 236 are arranged on the instrument panel 230 and the center console 232. The operation input unit 122 of the wearable device 150 worn by the driver 180 is provided on the touch panel 234 or the operation buttons 236, for example.

運転者180の前方には、インストルメントパネル230よりも手前に、ステアリング238が設けられている。ステアリング238には、運転者180の両手が添えられている。また、ステアリング238の内側には、インストルメントパネル230に配置されたスピードメータなどの計器類240が見えている。 In front of the driver 180, a steering wheel 238 is provided in front of the instrument panel 230. Both hands of the driver 180 are placed on the steering wheel 238. Also, inside the steering wheel 238, instruments 240 such as a speedometer arranged on the instrument panel 230 are visible.

フロントウインドシールド206からは、車外の風景が見えている。車両は前方に延びる車道300の右車線を走行している。車道300の中央には、センターライン302が引かれている。車道300の左側には左歩道304が設けられており、縁石306で車道300と仕切られている。車道300の右側には右歩道308が設けられており、縁石310で車道300と仕切られている。 The scenery outside the vehicle is visible from the front windshield 206. The vehicle is traveling in the right lane of a roadway 300 that extends ahead. A center line 302 is drawn in the center of the roadway 300. A left sidewalk 304 is provided on the left side of the roadway 300, and is separated from the roadway 300 by a curb 306. A right sidewalk 308 is provided on the right side of the roadway 300, and is separated from the roadway 300 by a curb 310.

車道300の左車線には、対向する車両320が走行している。右歩道308には、道路標識322が設けられている。さらに、右歩道308には、歩行者324が歩行している。 An oncoming vehicle 320 is traveling in the left lane of the roadway 300. A road sign 322 is provided on the right sidewalk 308. Furthermore, a pedestrian 324 is walking on the right sidewalk 308.

車道300の前方は、図示されない緩やかな下り坂となっている。このため、地面と空との間には、スカイライン330が形成されている。 The front of the roadway 300 is a gentle downhill slope (not shown). Therefore, a skyline 330 is formed between the ground and the sky.

図6及び図7は、ウェアラブルデバイス150に、交通事故データ82に基づいて表示を行った例を時系列で示した図である。 FIGS. 6 and 7 are diagrams chronologically showing examples of display on the wearable device 150 based on the traffic accident data 82.

図6は、図5の直後の状態を示す図であり、車道300の右車線の前方に、「!」記号を持つアイコン400が表示されている。このアイコン400は、以前に交通事故が発生した場所を示し、運転者180に注意を促すために表示されたものである。車両100の車載システム120における画像処理装置130の画像切替部136では、車載システム120におけるGNSS140の走行位置データ及び速度計142の走行速度データに基づいて走行位置を把握するとともに、一時記憶装置146に保存された交通事故データ82との比較を行っている。比較の結果、車両100が交通事故データ82が示す位置に近づいたことが検知され、アイコン400が表示されている。交通事故を把握する際には、発生位置を正しく特定することが重要となることから、アイコン400は、高い精度で事故の発生位置を示すように表示される。 FIG. 6 is a diagram showing a state immediately after FIG. 5, in which an icon 400 with a "!" symbol is displayed in front of the right lane of the roadway 300. This icon 400 is displayed to indicate a location where a traffic accident previously occurred and to alert the driver 180. The image switching unit 136 of the image processing device 130 in the in-vehicle system 120 of the vehicle 100 grasps the running position based on the running position data of the GNSS 140 and the running speed data of the speedometer 142 in the in-vehicle system 120, and also stores the data in the temporary storage device 146. A comparison is made with the saved traffic accident data 82. As a result of the comparison, it is detected that the vehicle 100 approaches the position indicated by the traffic accident data 82, and the icon 400 is displayed. When understanding a traffic accident, it is important to correctly identify the location where the accident occurred, so the icon 400 is displayed to indicate the location where the accident occurred with high accuracy.

アイコン400は、運転者180が運転に必要な視野を確保できるように、大部分がスカイライン330よりも上方に表示されている。ただし、アイコン400は、交通事故の発生位置を簡略的に伝えるだけで、その詳細を伝えるものではない。そこで、アイコン400は、操作可能なボタンとして表示されている。 Most of the icons 400 are displayed above the skyline 330 so that the driver 180 can secure the field of view necessary for driving. However, the icon 400 merely conveys the location where the traffic accident occurred, but does not convey its details. Therefore, the icon 400 is displayed as an operable button.

図7は、図6の状態において、運転者180が、ウェアラブルデバイス150の操作部168を通じて、アイコン400を操作した場合を示す図である。インストルメントパネル230の助手席寄りの位置に、文字データの表示ウインドウ402と、画像データの表示ウインドウ404が表示されている。この表示位置は、運転者180の車外への視野を妨げず、また、ステアリング238及び計器類240への視野も妨げない位置である。 FIG. 7 is a diagram showing a case where the driver 180 operates the icon 400 through the operation unit 168 of the wearable device 150 in the state of FIG. A character data display window 402 and an image data display window 404 are displayed on the instrument panel 230 near the passenger seat. This display position is a position that does not obstruct the driver's 180 view to the outside of the vehicle and does not obstruct the driver's 180 view to the steering wheel 238 and instruments 240.

文字データの表示ウインドウ402には、追越対向車との衝突事故が1か月前に発生した旨が簡潔に記載されている。また、画像データの表示ウインドウ404には、衝突直前の動画像データが表示されている。この動画像データは、衝突事故に遭遇した車両の車載カメラで撮影されたカメラ画像データである。カメラ画像データは、左側車線を走行する対向車の後方から、追い越しを行おうとする車両が、右車線にはみ出て走行している様子を明瞭に示している。 The text data display window 402 briefly states that a collision with an oncoming vehicle occurred one month ago. Further, in the image data display window 404, moving image data immediately before the collision is displayed. This moving image data is camera image data taken by an on-vehicle camera of a vehicle that has encountered a collision. The camera image data clearly shows that a vehicle attempting to overtake an oncoming vehicle traveling in the left lane is traveling into the right lane.

運転者180は、表示ウインドウ402、404を見ることで、瞬時に交通事故の概要を把握することができる。そして、アイコン400の位置では、スカイライン330の向こう側から、右車線を走行する対向車が走行してくる可能性があることを予見する。これにより、運転者180は前方を十分に注視して運転するため、同様の交通事故を防止することが可能となる。 By looking at the display windows 402 and 404, the driver 180 can instantly grasp the outline of the traffic accident. At the position of the icon 400, it is foreseen that an oncoming vehicle traveling in the right lane may come from the other side of the skyline 330. As a result, the driver 180 drives while keeping his eyes on the road ahead, making it possible to prevent similar traffic accidents.

なお、図6に示した例では、アイコン400として、枠と、その中に表示された「!」記号からなるものを用いた。しかし、「!」記号に代えて、「正面衝突」などの文字データ、あるいは正面衝突を意味する簡易な図形または記号を表示して、運転者180に若干詳しい事象情報を伝達するようにしてもよい。 In the example shown in FIG. 6, the icon 400 consists of a frame and a "!" symbol displayed within the frame. However, instead of the "!" symbol, character data such as "frontal collision" or a simple figure or symbol indicating a frontal collision may be displayed to convey slightly more detailed event information to the driver 180. good.

また、図7に示した例では、文字データの表示ウインドウ402と、画像データの表示ウインドウ404の両方を示した。しかし、表示ウインドウ402、404のいずれか一方のみを示すようにしてもよい。表示ウインドウ404には、動画像ではなく静止画像を表示することも可能である。さらに、表示ウインドウ404には、実際の交通事故の画像ではなく、模式的に作製した画像を表示することも可能である。 Further, in the example shown in FIG. 7, both a character data display window 402 and an image data display window 404 are shown. However, only one of the display windows 402 and 404 may be shown. The display window 404 can also display still images instead of moving images. Furthermore, it is also possible to display a schematically created image on the display window 404 instead of an image of an actual traffic accident.

別の形態としては、交通事故の発生位置に近づいた場合に、図6に示したアイコン400のみの表示状態を省略する態様が挙げられる。すなわち、ただちに図7に示した表示ウインドウ402、404を含む表示を行い、運転者に交通事故の詳細を伝達することが考えられる。 Another example is a mode in which the display state of only the icon 400 shown in FIG. 6 is omitted when the vehicle approaches the location where a traffic accident has occurred. That is, it is conceivable to immediately perform a display including the display windows 402 and 404 shown in FIG. 7 to convey the details of the traffic accident to the driver.

続いて、図8及び図9を参照して、雨天時の事象情報の活用について説明する。図8は、図5に対応する図であり、ウェアラブルデバイス150が画像を表示していない状態を示す図である。また、図9は、ウェアラブルデバイス150が画像を表示した状態を示す図である。 Next, the utilization of event information during rainy weather will be described with reference to FIGS. 8 and 9. FIG. 8 is a diagram corresponding to FIG. 5, and is a diagram showing a state in which the wearable device 150 is not displaying an image. Further, FIG. 9 is a diagram showing a state in which the wearable device 150 displays an image.

図8では、図5とは異なり、天気が雨であることを想定している。このため、フロントウインドシールド206などから見える車外の風景は、雨によってやや不鮮明なものとなっている。例えば、対向する車両320、道路標識322、歩行者324は、図5に比べて、視認が若干困難となっている。また、車道300のセンターライン302、縁石306、310なども不鮮明である。さらに、図8の例では、車道300の右車線に、障害物340が存在している。 In FIG. 8, unlike FIG. 5, it is assumed that the weather is rainy. Therefore, the scenery outside the vehicle that can be seen from the front windshield 206 and the like becomes somewhat unclear due to the rain. For example, the oncoming vehicle 320, road sign 322, and pedestrian 324 are slightly more difficult to visually recognize than in FIG. Furthermore, the center line 302, curbs 306, 310, etc. of the roadway 300 are also unclear. Furthermore, in the example of FIG. 8, an obstacle 340 exists in the right lane of the roadway 300.

図9は、図8に示した状況において、ウェアラブルデバイス150に、晴天時画像データ86による画像表示を行った状態を示している。晴天時の画像は、基本的に、道路外の風景の部位に表示される。このため、スカイライン330よりも上の空には、晴天時の明瞭な画像が表示されている。また、左歩道304よりも左側及び右歩道308よりも右側の地表でも、晴天時の画像が表示されている。表示された画像は、動画像であり、車両100の走行位置に応じて、動画像も切り替えられる。このため、運転者180は、現在、どのエリアを走行しているのかを明瞭に把握することができる。 FIG. 9 shows a state in which an image is displayed on the wearable device 150 based on the clear weather image data 86 in the situation shown in FIG. 8 . An image on a clear day is basically displayed in a part of the scenery outside the road. Therefore, a clear image in clear weather is displayed in the sky above the skyline 330. In addition, images in clear weather are also displayed on the ground to the left of the left sidewalk 304 and to the right of the right sidewalk 308. The displayed image is a moving image, and the moving image is also switched depending on the traveling position of vehicle 100. Therefore, the driver 180 can clearly understand in which area he/she is currently driving.

これに対し、道路の風景に対しては、基本的に、晴天時の画像は表示されていない。具体的には、車道300、左歩道304、右歩道308を含む道路と、車両320、道路標識322、歩行者324の部分については、画像が表示されておらず、実際の風景が、運転者180の目に映っている。このため、車道300にある障害物340も、運転者180は視認することができる。また、図示されていないが、例えば、道路に信号機が設けられている場合、右車線に他の車両が存在する場合、道路が分岐している(交差点が存在する)場合などにも、その部位に映像を表示しない。これは、運転の安全を確保する上で、現実の事象情報が必要となる部分については、画像を表示しないとの方針に基づいて画像表示を行っているためである。 On the other hand, for road scenes, images taken under clear weather are basically not displayed. Specifically, images are not displayed for the road including the roadway 300, left sidewalk 304, and right sidewalk 308, and for the vehicle 320, road sign 322, and pedestrian 324, and the actual scenery is not visible to the driver. It's reflected in 180 eyes. Therefore, the driver 180 can also visually recognize the obstacle 340 on the roadway 300. Although not shown, for example, if a road is equipped with a traffic light, if there is another vehicle in the right lane, or if the road branches (an intersection exists), etc. do not display images. This is because images are displayed based on the policy of not displaying images in areas where actual event information is necessary to ensure driving safety.

ただし、図9では、センターライン302及び縁石310については、晴天時の画像を表示している。これは、右車線において走行可能なレーンを明確化し、運転の安全性を向上させるためである。特に、図示した右車線は、対向車線である左車線とセンターライン302のみによって接しているため、センターライン302を明確化することは、対向車との衝突を防止する上で有用である。また、図示した右車線は、右歩道308と接しており、車道300と右歩道308との境界である縁石310を明瞭化することは、歩行者との接触を防止する上で有用である。 However, in FIG. 9, images of the center line 302 and the curb 310 are displayed under clear weather conditions. This is to clarify the lane in which the vehicle can travel in the right lane and improve driving safety. In particular, since the illustrated right lane is in contact with the left lane, which is an oncoming lane, only by the center line 302, clarifying the center line 302 is useful in preventing collisions with oncoming vehicles. Further, the illustrated right lane is in contact with the right sidewalk 308, and making the curb 310 that is the boundary between the roadway 300 and the right sidewalk 308 clear is useful in preventing contact with pedestrians.

縁石310に代えて、あるいは縁石310とともに、右歩道308と車道300との間に、白線などが引かれて走行レーンが限定されている場合には、縁石310に代えて、当該白線などを画像表示すればよい。また、例えば、車道300が片側2車線である場合には、第一に、現在走行しているレーンの境界を明確化し、次に、車線変更の可能性などを考えて、もう一方のレーンの境界を明確化することが考えられる。他方、車道300と左歩道304との間の縁石306は、走行には直接関係しないため、画像による明確化は行っていない。 If a white line or the like is drawn between the right sidewalk 308 and the roadway 300 to limit the driving lane instead of or in addition to the curb 310, the white line or the like is drawn as an image instead of the curb 310. Just display it. For example, if the roadway 300 has two lanes on each side, first, clarify the boundaries of the lane in which you are currently driving, and then consider the possibility of changing lanes and change the boundaries of the other lane. It is possible to clarify the boundaries. On the other hand, since the curb 306 between the roadway 300 and the left sidewalk 304 is not directly related to driving, it is not clarified using images.

図9に示した例では、センターライン302及び縁石310は、過去に撮影されたカメラ画像データの対応部位の画像、すなわち、カメラ画像データから切り出されたセンターライン302及び縁石310の画像を表示している。表示にあたっては、画像認識を行って、現在のセンターライン302と過去のセンターライン302とがほぼ一致すること、及び、現在の縁石310と過去の縁石310がほぼ一致することを確認して過去の画像を表示している。これにより、センターライン302が新たに引き直されて、過去の画像と異なった状態にある場合に、過去のセンターライン302を表示しないようにすることができる。あるいは、例えば、路面が雪に覆われてセンターライン302を視認できない場合には、現在のセンターライン302と過去のセンターライン302との一致を確認することなく、過去のセンターライン302を表示することも考えられる。 In the example shown in FIG. 9, the center line 302 and the curb 310 display images of corresponding parts of camera image data taken in the past, that is, images of the center line 302 and the curb 310 cut out from the camera image data. ing. When displaying, image recognition is performed to confirm that the current center line 302 and the past center line 302 almost match, and that the current curb 310 and the past curb 310 almost match. Displaying an image. This makes it possible to prevent the past centerline 302 from being displayed when the centerline 302 is newly redrawn and is in a different state from the past image. Alternatively, for example, if the road surface is covered with snow and the center line 302 cannot be visually recognized, the past center line 302 may be displayed without checking whether the current center line 302 and the past center line 302 match. can also be considered.

センターライン302の上に、障害物340があるような場合には、画像を完全に置き換えることで、障害物340を隠す状況も考えられる。そこで、晴天時の画像に基づいてセンターライン302を表示する際には、晴天時の画像を半透明にして、現在のセンターライン302に重畳表示するようにしてもよい。また、センターライン302及び縁石310は比較的単純な形状であるため、晴天時の画像に代えて、仮想的に作製した線を表示することも可能である。 If there is an obstacle 340 above the center line 302, a situation may be considered in which the obstacle 340 is hidden by completely replacing the image. Therefore, when displaying the center line 302 based on an image during clear weather, the image during clear weather may be made semi-transparent and displayed in a superimposed manner on the current center line 302. Moreover, since the center line 302 and the curbstone 310 have relatively simple shapes, it is also possible to display a virtually created line instead of an image under clear weather.

右歩道308あるいは左歩道304が狭いまたは存在しないような場所では、道路外に存在する建築物、公園、駐車場などから、突然、歩行者あるいは車両が車道300に飛び出してくる状況も考えられる。そこで、過去の画像を表示しない範囲を、道路よりも少し広げることが考えられる。すなわち、道路外ではあるが、道路に近接しており、交通安全に影響を与える可能性がある範囲(道路近傍の風景と呼ぶことにする)は、過去の画像を表示しない範囲とすることができる。例えば、道路の端から適当な設定範囲(例えば3m以内、5m以内、あるは10m以内)については、道路と同じく、過去の画像を表示しない態様が考えられる。また、この設定範囲内に家屋や店舗等の建築物、樹木などの物体が存在する場合には、当該物体の下部(例えば路面からの高さ2m以下、あるいは3m以下)については過去の画像を表示しない態様も考えられる。これにより、例えば、現に店舗に出入りする人を把握できる一方で、店舗の看板は晴天時の画像によって明瞭に認識することが可能となる。 In places where the right sidewalk 308 or the left sidewalk 304 is narrow or non-existent, it is possible that a pedestrian or vehicle suddenly jumps out onto the roadway 300 from a building, park, parking lot, etc. located off the road. Therefore, it may be possible to extend the area in which past images are not displayed a little wider than the road. In other words, past images may not be displayed in an area that is outside the road but is close to the road and may affect traffic safety (referred to as the scenery near the road). can. For example, for an appropriate setting range (for example, within 3 m, 5 m, or 10 m) from the edge of the road, it is conceivable that past images are not displayed, as with the road. In addition, if there are buildings such as houses or stores, or objects such as trees within this setting range, past images will be used for the lower part of the object (for example, height of 2 m or less or 3 m or less from the road surface). A mode in which it is not displayed is also conceivable. This makes it possible, for example, to know who is actually going in and out of the store, while also making it possible to clearly recognize the store signboard from an image taken on a clear day.

なお、図9に示した例では、道路標識322の部分については、画像を表示せず、実際の道路標識322が見えるようにした。しかし、センターライン302等と同様に、道路標識322が何を表すものかを画像認識により確認できる場合には、予め作製した道路標識322の画像を表示するようにしてもよい。これにより、運転者180は、明瞭な道路標識322を確認することが可能となる。 In the example shown in FIG. 9, no image is displayed for the road sign 322, so that the actual road sign 322 can be seen. However, similarly to the center line 302 and the like, if what the road sign 322 represents can be confirmed by image recognition, an image of the road sign 322 prepared in advance may be displayed. This allows the driver 180 to see the road sign 322 clearly.

続いて、図10を参照して、過去風景データ84を表示する例について説明する。図10は、図5に示した状態から切り替えて、このエリアで5年前に撮影されたカメラ画像データを表示した状態を示している。このエリアでは、5年前にも、車道300の周囲に建築物等は建てられていない。しかし、前方には、わずかに高い丘410が広がっており、樹木412も存在していた。図10では、道路外の風景が、この5年前のカメラ画像データに置き換えられるように表示されている。表示は、車両100の動きに追従した動画像により行われる。過去のカメラ画像データを表示する場合には、現在の位置とのずれが多い場合には、運転者180に違和感を与えることになる。そこで、比較的高い精度で現実の位置に適合させるように調整が行われる。 Next, an example of displaying past landscape data 84 will be described with reference to FIG. 10. FIG. 10 shows a state in which camera image data taken five years ago in this area is displayed, switching from the state shown in FIG. In this area, no buildings were built around road 300 even five years ago. However, a slightly higher hill 410 was spreading ahead, and trees 412 were also present. In FIG. 10, the scenery outside the road is displayed so as to be replaced with the camera image data from five years ago. The display is performed using a moving image that follows the movement of the vehicle 100. When displaying past camera image data, if there is a large deviation from the current position, the driver 180 will feel uncomfortable. Therefore, adjustments are made to match the actual position with relatively high accuracy.

図10において、車道300、左歩道304、右歩道308、車両320、道路標識322及び歩行者324の部分(すなわち道路の風景)には、過去の画像は表示されていない。これは、図9に述べた説明と同様に、交通安全性を考慮したためである。また、図10の場合においても、道路近傍の風景についても、過去の画像を表示しないようにしてもよい。 In FIG. 10, past images are not displayed in the roadway 300, left sidewalk 304, right sidewalk 308, vehicle 320, road sign 322, and pedestrian 324 (ie, road scenery). This is because, similar to the explanation given in FIG. 9, traffic safety was taken into account. Furthermore, in the case of FIG. 10 as well, past images may not be displayed for scenery near the road.

次に、図11を参照して、未来仮想データ90を表示する例について説明する。図11は、図5に示した状態から切り替えて、このエリアにおける5年後の予測風景を表示した状態を示す図である。このエリアでは、現在、空港の建設が進められている。そして、5年前に存在していた丘410を削って、敷地の整備を行っている。このため、3年後には、空港が開業する計画となっている。 Next, an example of displaying future virtual data 90 will be described with reference to FIG. 11. FIG. 11 is a diagram illustrating a state in which the predicted landscape for this area five years from now is displayed after switching from the state shown in FIG. 5. An airport is currently under construction in this area. The site is being maintained by removing Hill 410, which existed five years ago. For this reason, the plan is for the airport to open in three years.

図11では、空港開業後を予測して作製された動画像データに基づいて、道路外の風景が、仮想的な画像に置き換えられるように表示されている。具体的には、空港の管制塔420等の建物と、空港から離陸した航空機422が表示されている。これに対し、道路の風景、さらには、道路近傍の風景には、未来仮想データ90による画像は表示されておらず、交通安全性の確保が優先されている。未来仮想データ90は、運転者180が未来の風景を楽しむこと、また、未来の開発計画を把握することなどを可能にする。 In FIG. 11, the scenery outside the road is displayed as being replaced with a virtual image based on moving image data created in anticipation of what will happen after the airport opens. Specifically, buildings such as an airport control tower 420 and an aircraft 422 that took off from the airport are displayed. On the other hand, the image based on the future virtual data 90 is not displayed on the road scenery or even the scenery near the road, and priority is given to ensuring traffic safety. The future virtual data 90 allows the driver 180 to enjoy future scenery and grasp future development plans.

未来仮想データ90は、具体的な建築物のような場合には、実際に建築される位置に表示されることで、臨場感が高められる。しかし、建築物を含め、未来に想定される事物あるいは出来事は、通常はその存在位置が明確に定まらないため、必ずしも厳密な表示を行う必要はない。そこで、車両100が前進する場合、加速する場合、曲がる場合などに、厳密ではないが、その動作に対応して画像が変化するように表示すれば、運転者180に、十分な臨場感を与えられると考えられる。 In the case of a specific building, the future virtual data 90 is displayed at the location where it will actually be built, thereby increasing the sense of realism. However, since the location of things or events expected in the future, including buildings, is usually not clearly determined, it is not necessary to strictly display them. Therefore, when the vehicle 100 moves forward, accelerates, turns, etc., if the image is displayed in such a way that it changes in accordance with the movement, although this is not strictly necessary, it will give the driver 180 a sufficient sense of realism. It is thought that it will be possible.

以上の説明では、運転者180が装着するウェアラブルデバイス150に画像表示を行う態様を例に挙げた。同様にして、運転者180以外の乗員が装着するウェアラブルデバイス150にも、様々な表示を行うことが可能である。 In the above description, an example is given in which an image is displayed on the wearable device 150 worn by the driver 180. Similarly, various displays can be displayed on wearable devices 150 worn by passengers other than the driver 180.

図12は、車両100が、自動運転モードで運転を行う車両であり、運転席に座る乗員190は、実際には運転の責務を負っていない状態を示している。乗員190は、ステアリング238を操作していない。 FIG. 12 shows a state in which the vehicle 100 is a vehicle that operates in an automatic driving mode, and the passenger 190 sitting in the driver's seat is not actually responsible for driving. The occupant 190 is not operating the steering wheel 238.

図12では、乗員190が、ウェアラブルデバイス150の表示を切り替えて、図5に示した風景から、過去の仮想的な映像を表示させた状態を示している。実施形態では、このエリアが、400年以上前に、2人の著名な武将の率いる軍勢が衝突した古戦場として有名であることを想定している。そこで、過去仮想データ88として、合戦の模様を再現した動画像データが作製されている。 FIG. 12 shows a state in which the occupant 190 switches the display of the wearable device 150 to display a past virtual image from the scenery shown in FIG. 5. In the embodiment, it is assumed that this area is famous as an ancient battlefield where armies led by two famous warlords clashed over 400 years ago. Therefore, as past virtual data 88, moving image data that reproduces the battle scene is created.

図12では、フロントウインドシールド206、左前サイドウインドシールド210、左三角窓212、右前サイドウインドシールド220及び右三角窓222の全面に、この動画像が表示されている。具体的には、遠方には、5年前にも存在していた丘410や、多数の樹木430が表示されている。そして、右側には、一方の武将の軍に属す侍432達が、旗を背負い、火縄銃を持って構えている。侍432達の前には、騎馬の進行を食い止める柵434が設置されている。また、左側には、他方の武将の軍に属す侍が乗る馬436が、先陣を切って突撃を開始している。 In FIG. 12, this moving image is displayed on the entire surface of the front windshield 206, the left front side windshield 210, the left triangular window 212, the right front side windshield 220, and the right triangular window 222. Specifically, a hill 410 that existed five years ago and a large number of trees 430 are displayed in the distance. And on the right side, 432 samurai who belong to one military commander's army are holding flags on their backs and holding matchlock guns. In front of the samurai 432 and his friends, a fence 434 is installed to stop the cavalry from advancing. Also, on the left side, horse 436, ridden by a samurai belonging to the other military commander, takes the lead and begins a charge.

表示される画像は、単なるドラマではなく、車両100の移動に応じて視点が動くように設定されている。図12に示した例では、車両100の走行にともなって、次々と、前方に存在する武士が見えてくるようになる。ただし、実際の車両速度と、画像中の武士の移動速度は必ずしも完全に対応している必要はなく、車両100の動きと対応づけられていればよい。さらに車両100が走行するのに伴って、画像は、両軍が槍及び刀を使って戦う白兵戦に移行する。途中には、著名な甲冑を身に着けた武将の姿も見ることができるように画像データが作製されている。このようにして、ウェアラブルデバイス150を通じて、乗員190は、過去の出来事を映像として楽しむことができる。動画像に合わせた音声を出力して、臨場感を与えるようにしてもよい。 The displayed image is not just a drama, but is set so that the viewpoint moves according to the movement of the vehicle 100. In the example shown in FIG. 12, as the vehicle 100 travels, samurai warriors located ahead come into view one after another. However, the actual vehicle speed and the moving speed of the samurai in the image do not necessarily need to correspond perfectly, but only need to be correlated with the movement of the vehicle 100. As the vehicle 100 further travels, the image shifts to a hand-to-hand battle in which both sides fight using spears and swords. Along the way, image data has been created so that you can see military commanders wearing famous armor. In this way, the occupant 190 can enjoy past events as images through the wearable device 150. Sound may be output in accordance with the moving image to give a sense of realism.

図12に示した例では、画像はフロントウインドシールド206、左前サイドウインドシールド210、左三角窓212、右前サイドウインドシールド220及び右三角窓222の範囲にのみ表示されている。これは、乗員190に、車両100に乗っていることを感じながら画像を楽しませるためである。また、乗員190は画像が表示されないタッチパネル234、操作ボタン類236などを操作できる他、ステアリング238、計器類240の存在を確認して心理的安心感を得ることもできる。しかし、画像の表示を優先する観点からは、例えば、左Aピラー202、右Aピラー204などにも画像を表示してもよいし、さらに、ルーフ200、インストルメントパネル230などに画像を表示するようにしてもよい。 In the example shown in FIG. 12, the image is displayed only in the range of the front windshield 206, the left front side windshield 210, the left triangular window 212, the right front side windshield 220, and the right triangular window 222. This is to allow the occupant 190 to enjoy the image while feeling that he or she is riding in the vehicle 100. Further, the occupant 190 can not only operate the touch panel 234 and the operation buttons 236 on which no images are displayed, but can also confirm the presence of the steering wheel 238 and the instruments 240 to obtain a sense of psychological security. However, from the viewpoint of prioritizing image display, the image may be displayed on the left A-pillar 202, the right A-pillar 204, etc., and the image may also be displayed on the roof 200, the instrument panel 230, etc. You can do it like this.

また図12に示した例では、車道300を含む道路の風景は、全て過去仮想データ88による画像に置き換えられている。これは、自動運転モードにおいて、乗員190が運転を行う責務を有しておらず、車外に注意を向ける必要がないためである。このように、運転者180以外に対しては、道路の風景、あるいは、道路近傍の風景にも画像を重ねて表示することが可能である。図12に示した過去仮想データ88の表示に限らず、図5~図11に示した例についても、同様に、交通安全性を考慮することなく、画像を表示することが可能である。なお、後部座席に乗る乗員、あるいはバスの乗客などに対しては、前部座席に比べて車車外を見ることができる視野が狭いため、ウインドウシールド以外の部位に画像を重ねて表示するようにしてもよい。 Further, in the example shown in FIG. 12, the scenery of the road including the roadway 300 is entirely replaced with an image based on past virtual data 88. This is because in the automatic driving mode, the occupant 190 is not responsible for driving and does not need to pay attention to anything outside the vehicle. In this way, for people other than the driver 180, it is possible to display images superimposed on the scenery of the road or the scenery near the road. Images can be displayed not only in the past virtual data 88 shown in FIG. 12, but also in the examples shown in FIGS. 5 to 11, without considering traffic safety. Note that passengers in the rear seats or passengers on a bus have a narrower field of view than those in the front seats, so the image should be superimposed on areas other than the windshield. You can.

本実施形態は、他にも様々な態様を採用することが可能である。例えば、本実施形態にかかる表示システムは、車両の乗員の視野に含まれる過去または未来の事象についての事象情報を、前記事象の位置と対応付けて取得する情報取得装置と、前記車両の乗員における視野の範囲を取得する範囲取得手段と、前記視野の範囲に前記事象情報の位置が含まれる場合に、前記乗員の視野の範囲に前記事象を表示する表示装置と、を備えることができる。
<付記>
[1]
車両の乗員の視野に含まれる過去または未来の事象についての事象情報を取得する情報取得装置と、
前記事象情報に基づいて、前記乗員の視野内に前記事象を表示する表示装置と、
を備え、
前記情報取得装置は、前記事象情報として、過去に走行した車両により撮影された車外の画像データを取得し、
前記表示装置は、前記乗員が乗る前記車両の走行位置に前記画像データを適合させて、当該画像データに基づく事象を表示する、ことを特徴とする表示システム。
[2]
車両の乗員の視野に含まれる過去または未来の事象についての事象情報を取得する情報取得装置と、
前記事象情報に基づいて、前記乗員の視野内に前記事象を表示する表示装置と、
を備え、
前記情報取得装置は、前記事象情報として、過去の交通事故の情報を取得し、
前記表示装置は、前記交通事故の位置を明示して、当該前記交通事故の事象を表示する、ことを特徴とする表示システム。
[3]
車両の乗員の視野に含まれる過去または未来の事象についての事象情報を取得する情報取得装置と、
前記事象情報に基づいて、前記乗員の視野内に前記事象を表示する表示装置と、
を備え、
前記情報取得装置は、前記事象情報として、過去に生じたと推定される事象について仮想的に作製した画像データを取得し、
前記表示装置は、前記乗員が乗る前記車両の走行位置に前記画像データを対応づけて、当該画像データに基づく事象を表示する、ことを特徴とする表示システム。
[4]
車両の乗員の視野に含まれる過去または未来の事象についての事象情報を取得する情報取得装置と、
前記事象情報に基づいて、前記乗員の視野内に前記事象を表示する表示装置と、
を備え、
前記情報取得装置は、前記事象情報として、未来に生じると推定される事象について仮想的に作製した画像データを取得し、
前記表示装置は、前記乗員が乗る前記車両の走行位置に前記画像データを対応づけて、当該画像データに基づく事象を表示する、ことを特徴とする表示システム。
[5]
上記[1]、[3]、[4]のいずれか1つに記載の表示システムにおいて、
前記乗員は運転者であり、
前記表示装置は、現実の道路外の風景に重ねて、または、現実の道路外の風景を置き換えて、対応する風景を表示する、ことを特徴とする表示システム。
[6]
上記[1]、[3]、[4]のいずれか1つに記載の表示システムにおいて、
前記乗員は運転者以外であり、
前記表示装置は、現実の道路を含む風景に重ねて、または、現実の道路を含む風景を置き換えて、対応する風景を表示することができる、ことを特徴とする表示システム。
[7]
上記[1]に記載の表示システムにおいて、
前記情報取得装置は、前記乗員が乗る前記車両の周囲の天気が雨または雪の場合に、過去の晴または曇のときに撮影された前記画像データを取得し、
前記表示装置は、現実のセンターラインに重ねて、または、現実のセンターラインに置き換えて、前記画像データに基づくセンターラインを表示する、ことを特徴とする表示システム。
This embodiment can adopt various other aspects. For example, the display system according to the present embodiment includes an information acquisition device that acquires event information about a past or future event included in the visual field of a vehicle occupant in association with the position of the event; and a display device that displays the event within the visual field of the occupant when the position of the event information is included in the visual field. can.
<Additional notes>
[1]
an information acquisition device that acquires event information about past or future events included in the visual field of a vehicle occupant;
a display device that displays the event within the visual field of the occupant based on the event information;
Equipped with
The information acquisition device acquires, as the event information, image data outside the vehicle taken by a vehicle that has traveled in the past;
The display system is characterized in that the display device adapts the image data to a traveling position of the vehicle in which the occupant rides, and displays events based on the image data.
[2]
an information acquisition device that acquires event information about past or future events included in the visual field of a vehicle occupant;
a display device that displays the event within the visual field of the occupant based on the event information;
Equipped with
The information acquisition device acquires information on past traffic accidents as the event information,
The display system is characterized in that the display device clearly indicates the location of the traffic accident and displays the event of the traffic accident.
[3]
an information acquisition device that acquires event information about past or future events included in the visual field of a vehicle occupant;
a display device that displays the event within the visual field of the occupant based on the event information;
Equipped with
The information acquisition device acquires, as the event information, virtually created image data regarding an event that is estimated to have occurred in the past;
The display system is characterized in that the display device associates the image data with a traveling position of the vehicle in which the occupant rides, and displays events based on the image data.
[4]
an information acquisition device that acquires event information about past or future events included in the visual field of a vehicle occupant;
a display device that displays the event within the visual field of the occupant based on the event information;
Equipped with
The information acquisition device acquires, as the event information, virtually created image data regarding an event that is estimated to occur in the future;
The display system is characterized in that the display device associates the image data with a traveling position of the vehicle in which the occupant rides, and displays events based on the image data.
[5]
In the display system according to any one of [1], [3], and [4] above,
the passenger is a driver;
The display system is characterized in that the display device displays a corresponding scenery superimposed on the actual scenery outside the road or in place of the actual scenery outside the road.
[6]
In the display system according to any one of [1], [3], and [4] above,
The occupant is other than the driver,
The display system is characterized in that the display device is capable of displaying a corresponding scenery overlaying or replacing a scenery including an actual road.
[7]
In the display system described in [1] above,
The information acquisition device acquires the image data taken on a sunny or cloudy day in the past when the weather around the vehicle in which the occupant rides is rainy or snowy;
The display system is characterized in that the display device displays a centerline based on the image data, superimposed on the actual centerline or in place of the actual centerline.

10 情報システム、20 車両、22 車載カメラ、24 GNSS、26 時計、30 情報配信システム、40 収集サーバ、44 画像処理装置、50 作製サーバ、60 配信サーバ、62 受信装置、64 情報選択装置、66 情報種類判定部、68 走行位置判定部、70 天気判定部、72 運転者判定部、74 送信装置、80 保存サーバ、82 交通事故データ、84 過去風景データ、86 晴天時画像データ、88 過去仮想データ、90 未来仮想データ、100 車両、110 画像表示システム、120 車載システム、122 操作入力部、124 表示情報設定部、128 送信部、130 画像処理装置、132 デバイス・瞳孔位置演算部、134 画像レイアウト演算部、136 画像切替部、138 画像合成部、140 GNSS、142 速度計、144 受信部、146 一時記憶装置、150 ウェアラブルデバイス、152 テンプル、154 リム、160 デバイス位置センサ、162 瞳孔位置センサ、164 画像制御部、166 有機ELディスプレイ、168 操作部、180 運転者、190 乗員、200 ルーフ、202 左Aピラー、204 右Aピラー、206 フロントウインドシールド、208 インナミラー、210 左前サイドウインドシールド、212 左三角窓、214 左前ドアトリム、216 左アウタミラー、220 右前サイドウインドシールド、222 右三角窓、224 右前ドアトリム、226 右アウタミラー、230 インストルメントパネル、232 センタコンソール、234 タッチパネル、236 操作ボタン類、238 ステアリング、240 計器類、300 車道、302 センターライン、304 左歩道、306 縁石、308 右歩道、310 縁石、320 車両、322 道路標識、324 歩行者、330 スカイライン、340 障害物、400 アイコン、402 表示ウインドウ、404 表示ウインドウ、410 丘、412 樹木、420 管制塔、422 航空機、430 樹木、432 侍、434 柵、436 馬。 10 information system, 20 vehicle, 22 in-vehicle camera, 24 GNSS, 26 clock, 30 information distribution system, 40 collection server, 44 image processing device, 50 production server, 60 distribution server, 62 receiving device, 64 information selection device, 66 information Type determination unit, 68 Driving position determination unit, 70 Weather determination unit, 72 Driver determination unit, 74 Transmission device, 80 Storage server, 82 Traffic accident data, 84 Past scenery data, 86 Clear weather image data, 88 Past virtual data, 90 future virtual data, 100 vehicle, 110 image display system, 120 in-vehicle system, 122 operation input section, 124 display information setting section, 128 transmission section, 130 image processing device, 132 device/pupil position calculation section, 134 image layout calculation section , 136 image switching section, 138 image composition section, 140 GNSS, 142 speedometer, 144 receiving section, 146 temporary storage device, 150 wearable device, 152 temple, 154 rim, 160 device position sensor, 162 pupil position sensor, 164 image control part, 166 organic EL display, 168 operation part, 180 driver, 190 passenger, 200 roof, 202 left A pillar, 204 right A pillar, 206 front windshield, 208 interior mirror, 210 left front side windshield, 212 left triangular window , 214 Left front door trim, 216 Left outer mirror, 220 Right front side windshield, 222 Right triangular window, 224 Right front door trim, 226 Right outer mirror, 230 Instrument panel, 232 Center console, 234 Touch panel, 236 Operation buttons, 238 Steering, 240 Instruments type, 300 roadway, 302 center line, 304 left sidewalk, 306 curb, 308 right sidewalk, 310 curb, 320 vehicle, 322 road sign, 324 pedestrian, 330 skyline, 340 obstacle, 400 icon, 402 display window, 404 display Window, 410 hill, 412 tree, 420 control tower, 422 aircraft, 430 tree, 432 samurai, 434 fence, 436 horse.

Claims (6)

車両の乗員の視野に含まれる過去または未来の事象についての事象情報を取得する情報取得装置と、
前記事象情報に基づいて、前記乗員の視野内に前記事象を表示する表示装置と、
前記表示装置に表示させる前記事象について設定を受け付ける表示情報設定部と、
を備え、
前記事象情報は、過去風景データと交通事故データを含み、
前記過去風景データは、過去に走行した車両により撮影された車外の画像データを含み、
前記交通事故データは、交通事故を起こした車両により撮影された画像データ、交通事故の周囲に存在する車両により撮影された画像データ、または、歩行者あるいは道路の固定監視カメラにより撮影された画像データを含み、
前記表示装置は、前記乗員が乗る前記車両の走行位置に前記事象情報を適合させて、当該事象情報に基づく事象を表示し、
前記乗員が前記表示情報設定部を操作することで、前記過去風景データの事象と前記交通事故データの事象が表示の対象として選択されている場合において、前記表示装置は、前記乗員が乗る前記車両の走行位置で前記交通事故データが存在する際には、前記過去風景データの事象よりも前記交通事故データの事象を優先的に表示する、ことを特徴とする表示システム。
an information acquisition device that acquires event information about past or future events included in the visual field of a vehicle occupant;
a display device that displays the event within the visual field of the occupant based on the event information;
a display information setting unit that accepts settings regarding the event to be displayed on the display device;
Equipped with
The event information includes past scenery data and traffic accident data,
The past scenery data includes image data of the outside of the vehicle taken by a vehicle that traveled in the past,
The traffic accident data may be image data taken by a vehicle that caused a traffic accident, image data taken by vehicles existing around the traffic accident, or image data taken by a pedestrian or fixed road surveillance camera. including;
The display device adapts the event information to a traveling position of the vehicle in which the occupant rides, and displays an event based on the event information ,
In a case where the event of the past scenery data and the event of the traffic accident data are selected as display targets by the passenger operating the display information setting section, the display device displays the vehicle in which the passenger rides. A display system characterized in that when the traffic accident data exists at a driving position, the event of the traffic accident data is displayed preferentially over the event of the past scenery data.
請求項1に記載の表示システムにおいて、
前記表示装置は、前記交通事故データの事象を表示する際には、交通事故の位置を明示する、ことを特徴とする表示システム。
The display system according to claim 1,
The display system is characterized in that the display device clearly indicates the location of the traffic accident when displaying the event of the traffic accident data .
請求項1または2に記載の表示システムにおいて、
前記事象情報は、過去に生じたと推定される事象について仮想的に作製した画像データを含む、ことを特徴とする表示システム。
The display system according to claim 1 or 2,
A display system characterized in that the event information includes image data that is virtually created regarding an event that is estimated to have occurred in the past.
請求項1から3のいずれか1項に記載の表示システムにおいて、
前記事象情報は、未来に生じると推定される事象について仮想的に作製した画像データを含む、ことを特徴とする表示システム。
The display system according to any one of claims 1 to 3,
A display system characterized in that the event information includes image data that is virtually created regarding an event that is estimated to occur in the future.
請求項1から4のいずれか1項に記載の表示システムにおいて、
前記乗員は運転者であり、
前記表示装置は、前記過去風景データの事象を表示する際には、現実の道路外の風景を置き換えて、前記過去風景データの対応する風景を表示する、ことを特徴とする表示システム。
The display system according to any one of claims 1 to 4 ,
the passenger is a driver;
The display system is characterized in that, when displaying an event of the past scenery data, the display device replaces an actual scenery outside the road and displays a scenery corresponding to the past scenery data .
請求項1から4のいずれか1項に記載の表示システムにおいて、
前記乗員は運転者以外であり、
前記表示装置は、前記過去風景データの事象を表示する際には、現実の道路を含む風景を置き換えて、前記過去風景データの対応する風景を表示することができる、ことを特徴とする表示システム。
The display system according to any one of claims 1 to 4 ,
The occupant is other than the driver,
The display system is characterized in that, when displaying an event of the past scenery data, the display device can replace a scenery including an actual road and display a scenery corresponding to the past scenery data. .
JP2019221292A 2019-12-06 2019-12-06 display system Active JP7384014B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019221292A JP7384014B2 (en) 2019-12-06 2019-12-06 display system
DE102020128224.9A DE102020128224A1 (en) 2019-12-06 2020-10-27 Display system
US17/108,537 US11590902B2 (en) 2019-12-06 2020-12-01 Vehicle display system for displaying surrounding event information
CN202011414206.0A CN112927538A (en) 2019-12-06 2020-12-04 Display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019221292A JP7384014B2 (en) 2019-12-06 2019-12-06 display system

Publications (2)

Publication Number Publication Date
JP2021092839A JP2021092839A (en) 2021-06-17
JP7384014B2 true JP7384014B2 (en) 2023-11-21

Family

ID=75962705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019221292A Active JP7384014B2 (en) 2019-12-06 2019-12-06 display system

Country Status (4)

Country Link
US (1) US11590902B2 (en)
JP (1) JP7384014B2 (en)
CN (1) CN112927538A (en)
DE (1) DE102020128224A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7379462B2 (en) * 2019-03-15 2023-11-14 本田技研工業株式会社 Vehicle communication device and program
CN114931297B (en) * 2022-05-25 2023-12-29 广西添亿友科技有限公司 Bump constraint method and system for new energy caravan

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011152865A (en) 2010-01-27 2011-08-11 Kyocera Corp On-vehicle image pickup device
WO2012033095A1 (en) 2010-09-06 2012-03-15 国立大学法人東京大学 Vehicle system
JP2019139368A (en) 2018-02-07 2019-08-22 パイオニア株式会社 Information display control device, information display control method and information display control program

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0669574B2 (en) * 1987-09-05 1994-09-07 日新製鋼株式会社 Rolling method for stainless steel
US6266614B1 (en) * 1997-12-24 2001-07-24 Wendell Alumbaugh Travel guide
US20020019696A1 (en) * 2000-05-23 2002-02-14 Jonathan Kruse Vehicle commentary method and system
JP2004219664A (en) 2003-01-14 2004-08-05 Sumitomo Electric Ind Ltd Information display system and information display method
JP4246195B2 (en) * 2005-11-01 2009-04-02 パナソニック株式会社 Car navigation system
JP2008108246A (en) * 2006-10-23 2008-05-08 Internatl Business Mach Corp <Ibm> Method, system and computer program for generating virtual image according to position of browsing person
JP2008157880A (en) * 2006-12-26 2008-07-10 Victor Co Of Japan Ltd Driving support device using on-board camera device
US20100198506A1 (en) * 2009-02-03 2010-08-05 Robert Steven Neilhouse Street and landmark name(s) and/or turning indicators superimposed on user's field of vision with dynamic moving capabilities
JP2011128005A (en) * 2009-12-17 2011-06-30 Fujitsu Ten Ltd Navigation device, on-vehicle display system, and map display method
US9122707B2 (en) * 2010-05-28 2015-09-01 Nokia Technologies Oy Method and apparatus for providing a localized virtual reality environment
US20110301813A1 (en) * 2010-06-07 2011-12-08 Denso International America, Inc. Customizable virtual lane mark display
US9286711B2 (en) * 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Representing a location at a previous time period using an augmented reality display
EP2793193B1 (en) * 2011-12-15 2019-03-27 Pioneer Corporation Display device and display method
JP5955662B2 (en) * 2012-06-25 2016-07-20 アルパイン株式会社 Augmented reality system
US9124795B2 (en) * 2012-10-26 2015-09-01 Nokia Technologies Oy Method and apparatus for obtaining an image associated with a location of a mobile terminal
US9317173B2 (en) * 2012-11-02 2016-04-19 Sony Corporation Method and system for providing content based on location data
US9918199B2 (en) * 2013-03-01 2018-03-13 Harley E. ROUDA, JR. Subject matter based tour guide
US9715764B2 (en) * 2013-10-03 2017-07-25 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US9547173B2 (en) * 2013-10-03 2017-01-17 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US9536353B2 (en) * 2013-10-03 2017-01-03 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
KR102063895B1 (en) * 2015-04-20 2020-01-08 삼성전자주식회사 Master device, slave device and control method thereof
KR20170015112A (en) * 2015-07-30 2017-02-08 삼성전자주식회사 Autonomous Vehicle and Operation Method thereof
WO2017163517A1 (en) 2016-03-23 2017-09-28 日本電気株式会社 Spectacle-type wearable information terminal, and control method and control program for same
US20170287217A1 (en) * 2016-03-30 2017-10-05 Kahyun Kim Preceding traffic alert system and method
US10451435B2 (en) * 2016-06-03 2019-10-22 Panasonic Automotive Systems Company of America, Division of Panasonic of North American Method of using GPS map information to highlight road markings on a head up display that otherwise may be non-visible due to inclement weather
CN206532530U (en) * 2016-09-06 2017-09-29 邵亿昌 A kind of vehicle window virtual reality shows system
DE102017200733A1 (en) * 2017-01-18 2018-07-19 Audi Ag An entertainment system for a motor vehicle and method for operating an entertainment system
US10082869B2 (en) * 2017-02-03 2018-09-25 Qualcomm Incorporated Maintaining occupant awareness in vehicles
DE102017215163B4 (en) * 2017-08-30 2019-04-11 Volkswagen Aktiengesellschaft System of a motor vehicle and an augmented reality goggles and method for determining a pose of augmented reality goggles in the interior of a vehicle
DE102017218214A1 (en) * 2017-10-12 2019-04-18 Audi Ag Method and system for operating at least one virtual reality glasses in a motor vehicle
CN208537853U (en) * 2018-04-04 2019-02-22 深圳市欣雅艺珠宝首饰有限公司 A kind of automobile-used augmented reality glasses
US20190317328A1 (en) * 2018-04-17 2019-10-17 Faraday&Future Inc. System and method for providing augmented-reality assistance for vehicular navigation
JP6523522B2 (en) 2018-04-25 2019-06-05 京セラ株式会社 Electronic device, electronic device control method, and electronic device control program
DE102018211261A1 (en) * 2018-07-09 2020-01-09 Audi Ag Method for operating a display device and display system for a motor vehicle worn on the head by a vehicle occupant of a motor vehicle
JP7082538B2 (en) * 2018-07-10 2022-06-08 本田技研工業株式会社 Image processing equipment and programs
DE102018215265A1 (en) * 2018-09-07 2020-03-12 Audi Ag Method and control device for operating a display device that can be worn on the head in a motor vehicle
US10820141B2 (en) * 2018-11-16 2020-10-27 Here Global B.V. Method and apparatus for presenting privacy-respectful and personalized location-based comments based on passenger context and vehicle proximity to the location
KR20200063789A (en) * 2018-11-28 2020-06-05 재단법인 구미전자정보기술원 Ar glass and method of providing augmented reality service using the same
CN109658700A (en) * 2019-03-05 2019-04-19 上汽大众汽车有限公司 Intersection anti-collision prewarning apparatus and method for early warning
JP2021064906A (en) * 2019-10-16 2021-04-22 トヨタ自動車株式会社 Image display system
US11623653B2 (en) * 2020-01-23 2023-04-11 Toyota Motor Engineering & Manufacturing North America, Inc. Augmented reality assisted traffic infrastructure visualization
DE102020203428A1 (en) * 2020-03-17 2021-09-23 Volkswagen Aktiengesellschaft Display device and method for operating a display device
CN111831371A (en) * 2020-06-05 2020-10-27 北京百度网讯科技有限公司 Vehicle window and display control method and system thereof, server, equipment and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011152865A (en) 2010-01-27 2011-08-11 Kyocera Corp On-vehicle image pickup device
WO2012033095A1 (en) 2010-09-06 2012-03-15 国立大学法人東京大学 Vehicle system
JP2019139368A (en) 2018-02-07 2019-08-22 パイオニア株式会社 Information display control device, information display control method and information display control program

Also Published As

Publication number Publication date
CN112927538A (en) 2021-06-08
JP2021092839A (en) 2021-06-17
DE102020128224A1 (en) 2021-06-10
US11590902B2 (en) 2023-02-28
US20210170957A1 (en) 2021-06-10

Similar Documents

Publication Publication Date Title
CN109427199B (en) Augmented reality method and device for driving assistance
EP3705846A1 (en) Object location indicator system and method
JP7331696B2 (en) Information processing device, information processing method, program, and mobile object
US9240029B2 (en) Street level video simulation display system and method
CN103028243B (en) For the amusement of passenger and the front and back seat augmented reality vehicle game system of education
EP3321913A1 (en) Vehicle-use image display system and method
WO2019089554A1 (en) Systems and methods for presenting virtual content in a vehicle
CN216331768U (en) Display system, display device, and mobile device
JP7384014B2 (en) display system
JP7437630B2 (en) Display device, display method, and vehicle
WO2013113500A1 (en) Driver assistance system and method for virtual representation of a road layout under obscured visibility and/or poor visibility conditions
WO2020183893A1 (en) Information processing device, information processing method, and moving body device
US20230017486A1 (en) Display device, display method, and vehicle
EP1586861B1 (en) Method and apparatus for displaying information for the driver taking into account other movable objects
JP2023025037A (en) Enhanced navigation instructions with landmarks under difficult driving conditions
KR20230115319A (en) Route guidance device and route guidance system based on augmented reality and mixed reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231023

R151 Written notification of patent or utility model registration

Ref document number: 7384014

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151