JP7276255B2 - Image processing device, program, and image processing system - Google Patents

Image processing device, program, and image processing system Download PDF

Info

Publication number
JP7276255B2
JP7276255B2 JP2020101592A JP2020101592A JP7276255B2 JP 7276255 B2 JP7276255 B2 JP 7276255B2 JP 2020101592 A JP2020101592 A JP 2020101592A JP 2020101592 A JP2020101592 A JP 2020101592A JP 7276255 B2 JP7276255 B2 JP 7276255B2
Authority
JP
Japan
Prior art keywords
image
target
vehicle
information
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020101592A
Other languages
Japanese (ja)
Other versions
JP2021196743A5 (en
JP2021196743A (en
Inventor
敬久 藤野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2020101592A priority Critical patent/JP7276255B2/en
Priority to PCT/JP2021/021574 priority patent/WO2021251339A1/en
Publication of JP2021196743A publication Critical patent/JP2021196743A/en
Publication of JP2021196743A5 publication Critical patent/JP2021196743A5/ja
Application granted granted Critical
Publication of JP7276255B2 publication Critical patent/JP7276255B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Description

本開示は、画像処理装置、プログラム、及び画像処理システムに関する。 The present disclosure relates to image processing apparatuses, programs, and image processing systems.

特許文献1に、車両用運転操作補助装置用の表示装置が開示されている。表示装置は、自車線前方の先行車を表すシンボルと、自車線外の車両を表すシンボルとを異なる色で表示することで、先行車を強調表示する。 Patent Document 1 discloses a display device for a vehicle driving assist device. The display device highlights the preceding vehicle by displaying the symbol representing the preceding vehicle in front of the own lane and the symbol representing the vehicle outside the own lane in different colors.

特許第4779355号公報Japanese Patent No. 4779355

特許文献1に記載の表示装置では、車両の乗員の視線を、表示する画像の中の特定の物標に誘導できない場合がある。本開示の1つの局面では、車両の乗員の視線を、表示する画像の中の特定の物標に誘導できる画像処理装置、プログラム、及び画像処理システムを提供することが好ましい。 The display device described in Patent Document 1 may not be able to guide the line of sight of the vehicle occupant to a specific target in the displayed image. In one aspect of the present disclosure, it is preferable to provide an image processing device, a program, and an image processing system capable of guiding the line of sight of a vehicle occupant to a specific target in a displayed image.

(1)本開示の1つの局面は、車両(2)が備える表示装置(15、17、19)に画像(57、65、67)を表示する画像処理装置(3)である。画像処理装置は、前記車両の周辺に存在する物標(59)の位置を表す第1情報と、前記物標が強調対象物標(59A)であるか否かを表す第2情報とを取得するように構成された情報取得ユニット(35)と、前記第1情報により表された前記位置に前記物標を表す画像を作成するように構成された画像作成ユニット(37)とを備える。 (1) One aspect of the present disclosure is an image processing device (3) that displays images (57, 65, 67) on display devices (15, 17, 19) provided in a vehicle (2). The image processing device acquires first information representing the position of a target (59) existing around the vehicle and second information representing whether or not the target is a target to be emphasized (59A). and an image creation unit (37) configured to create an image representing said target at said position represented by said first information.

前記画像に表される前記物標の少なくとも一部が前記強調対象物標であることを前記第2情報が表している場合、前記画像作成ユニットは、前記強調対象物標が被写界深度にあるように表された前記画像(57、65)を作成する。 When the second information indicates that at least a part of the target represented in the image is the target to be emphasized, the image creation unit may determine that the target to be emphasized is within the depth of field. Create the image (57, 65) represented as such.

本開示の1つの局面である画像処理装置は、作成する画像のうち、強調対象物標へ、車両の乗員の視線を誘導することができる。
(2)本開示の別の局面は、コンピュータを画像処理装置(3)として機能させるプログラムである。前記画像処理装置は、車両(2)の周辺に存在する物標(59)の位置を表す第1情報と、前記物標が強調対象物標(59A)であるか否かを表す第2情報とを取得するように構成された情報取得ユニット(35)と、前記第1情報により表された前記位置に前記物標を表す画像(57、65、67)を作成するように構成された画像作成ユニット(37)とを備える。
An image processing device, which is one aspect of the present disclosure, can guide the line of sight of a vehicle occupant to a target to be emphasized in an image to be created.
(2) Another aspect of the present disclosure is a program that causes a computer to function as an image processing device (3). The image processing device includes first information representing the position of a target (59) existing around the vehicle (2), and second information representing whether or not the target is a target to be emphasized (59A). and an image configured to create an image (57, 65, 67) representing said target at said location represented by said first information. a production unit (37).

前記画像に表される前記物標の少なくとも一部が前記強調対象物標であることを前記第2情報が表している場合、前記画像作成ユニットは、前記強調対象物標が被写界深度にあるように表された前記画像(57、65)を作成する。 When the second information indicates that at least a part of the target represented in the image is the target to be emphasized, the image creation unit may determine that the target to be emphasized is within the depth of field. Create the image (57, 65) represented as such.

本開示の別の局面であるプログラムは、コンピュータを画像処理装置として機能させる。画像処理装置は、作成する画像のうち、強調対象物標へ、車両の乗員の視線を誘導することができる。 A program, which is another aspect of the present disclosure, causes a computer to function as an image processing device. The image processing device can guide the line of sight of the vehicle occupant to the target to be emphasized in the created image.

(3)本開示の別の局面は、情報提供装置(41)と、画像処理装置(3)と、を備える画像処理システム(41、3)である。前記情報提供装置は、車両(2)の周辺に存在する物標(59)の位置を表す第1情報と、前記物標が強調対象物標(59A)であるか否かを表す第2情報とを提供するように構成される。 (3) Another aspect of the present disclosure is an image processing system (41, 3) comprising an information providing device (41) and an image processing device (3). The information providing device includes first information representing the position of a target (59) existing around the vehicle (2), and second information representing whether or not the target is a target to be emphasized (59A). and configured to provide

前記画像処理装置は、前記情報提供装置から前記第1情報及び前記第2情報を取得するように構成された情報取得ユニット(35)と、前記第1情報により表された前記位置に前記物標を表す画像(57、65、67)を作成するように構成された画像作成ユニット(37)と、を備える。 The image processing device comprises: an information acquisition unit (35) configured to acquire the first information and the second information from the information providing device; an image creation unit (37) configured to create an image (57, 65, 67) representing the.

前記画像に表される前記物標の少なくとも一部が前記強調対象物標であることを前記第2情報が表している場合、前記画像作成ユニットは、前記強調対象物標が被写界深度にあるように表された前記画像(57、65)を作成する。 When the second information indicates that at least a part of the target represented in the image is the target to be emphasized, the image creation unit may determine that the target to be emphasized is within the depth of field. Create the image (57, 65) represented as such.

本開示の別の局面である画像処理システムは、作成する画像のうち、強調対象物標へ、車両の乗員の視線を誘導することができる。 An image processing system, which is another aspect of the present disclosure, can guide the line of sight of a vehicle occupant to a target to be emphasized in an image to be created.

車載システムの構成を表すブロック図である。1 is a block diagram showing the configuration of an in-vehicle system; FIG. 車載システムの機能的構成を表すブロック図である。It is a block diagram showing the functional composition of an in-vehicle system. 画像処理装置が実行する処理を表すフローチャートである。4 is a flowchart showing processing executed by an image processing apparatus; 第1画像の例を表す説明図である。FIG. 4 is an explanatory diagram showing an example of a first image; 第1画像の例を表す説明図である。FIG. 4 is an explanatory diagram showing an example of a first image; 第2画像の例を表す説明図である。FIG. 10 is an explanatory diagram showing an example of a second image; 第2画像の例を表す説明図である。FIG. 10 is an explanatory diagram showing an example of a second image; 第3画像の例を表す説明図である。FIG. 11 is an explanatory diagram showing an example of a third image; 第3画像の例を表す説明図である。FIG. 11 is an explanatory diagram showing an example of a third image; 第3画像の例を表す説明図である。FIG. 11 is an explanatory diagram showing an example of a third image; 強調対象物標の優先度が変化した場合の第2画像の変化を表す説明図である。FIG. 12 is an explanatory diagram showing changes in the second image when the priority of the target to be emphasized changes; 第1画像の表示範囲を変更する処理を表す説明図である。FIG. 10 is an explanatory diagram showing processing for changing the display range of the first image;

本開示の例示的な実施形態について図面を参照しながら説明する。
<第1実施形態>
1.車載システム1の構成
車載システム1の構成を、図1及び図2に基づき説明する。車載システム1は、車両2に搭載されている。
Exemplary embodiments of the present disclosure are described with reference to the drawings.
<First Embodiment>
1. Configuration of In-vehicle System 1 The configuration of the in-vehicle system 1 will be described with reference to FIGS. 1 and 2. FIG. An in-vehicle system 1 is mounted in a vehicle 2 .

図1に示すように、車載システム1は、画像処理装置3と、自動運転システム5と、ロケータECU7と、走行制御ECU9と、周辺監視センサ11と、メータディスプレイ15と、CID(Center Information Display)17と、HUD19と、操作デバイス21と、ボディECU23と、方向指示SW(スイッチ)25と、ドライバモニタ27と、を備える。車載システム1の各構成は、通信バス29により、互いに通信可能に接続されている。 As shown in FIG. 1, the in-vehicle system 1 includes an image processing device 3, an automatic driving system 5, a locator ECU 7, a travel control ECU 9, a surrounding monitoring sensor 11, a meter display 15, and a CID (Center Information Display). 17 , HUD 19 , operation device 21 , body ECU 23 , direction indicator SW (switch) 25 , and driver monitor 27 . Each component of the in-vehicle system 1 is communicably connected to each other via a communication bus 29 .

画像処理装置3は、は、CPU31と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ33とする)と、を有するマイクロコンピュータを備える。
画像処理装置3の各機能は、CPU31が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ33が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、画像処理装置3は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。
The image processing apparatus 3 includes a microcomputer having a CPU 31 and a semiconductor memory such as RAM or ROM (hereinafter referred to as memory 33).
Each function of the image processing device 3 is realized by the CPU 31 executing a program stored in a non-transitional substantive recording medium. In this example, the memory 33 corresponds to a non-transitional substantive recording medium storing programs. Also, by executing this program, a method corresponding to the program is executed. Note that the image processing apparatus 3 may include one microcomputer, or may include a plurality of microcomputers.

画像処理装置3は、図2に示すように、情報取得ユニット35と、画像作成ユニット37と、画像出力ユニット39と、を備える。画像処理装置3が備える各構成の機能は後述する。
自動運転システム5は、自動運転ECU41と、運転支援ECU43と、を備える。自動運転ECU41は、車両2の乗員に代わり運転操作を自動で行う自動運転機能を実現させる車載ECUである。自動運転ECU41は、例えば、米国自動車技術会が規定する自動運転レベル3以上の自律走行を可能にする。
The image processing device 3 includes an information acquisition unit 35, an image creation unit 37, and an image output unit 39, as shown in FIG. The function of each component provided in the image processing apparatus 3 will be described later.
The automatic driving system 5 includes an automatic driving ECU 41 and a driving support ECU 43 . The automatic driving ECU 41 is an in-vehicle ECU that realizes an automatic driving function that automatically performs driving operations on behalf of the occupant of the vehicle 2 . The automatic driving ECU 41 enables autonomous driving at automatic driving level 3 or higher defined by the Society of Automotive Engineers of America, for example.

自動運転ECU41は、図2に示すように、環境認識ユニット45と、行動判断ユニット47と、操作実行ユニット49と、を備える。
環境認識ユニット45は、ロケータECU7からロケータ情報及び地図情報を取得する。ロケータ情報及び地図情報については後述する。環境認識ユニット45は、周辺監視センサ11から検出情報を取得する。検出情報については後述する。
The automatic driving ECU 41 includes an environment recognition unit 45, an action determination unit 47, and an operation execution unit 49, as shown in FIG.
The environment recognition unit 45 acquires locator information and map information from the locator ECU 7 . Locator information and map information will be described later. The environment recognition unit 45 acquires detection information from the perimeter monitoring sensor 11 . Detection information will be described later.

環境認識ユニット45は、ロケータ情報、地図情報、及び検出情報に基づき、車両2の走行環境を認識する。走行環境として、例えば、車両2の周辺に存在する物標59の位置及び速度等が挙げられる。物標59として、例えば、他の車両、歩行者、自転車、動物、固定物、車線境界線等が挙げられる。また、走行環境として、例えば、車両2が走行しているレーンの位置及び形状等が挙げられる。 The environment recognition unit 45 recognizes the driving environment of the vehicle 2 based on the locator information, map information, and detection information. The running environment includes, for example, the position and speed of a target 59 existing around the vehicle 2 . Examples of targets 59 include other vehicles, pedestrians, bicycles, animals, fixed objects, lane boundaries, and the like. Further, the running environment includes, for example, the position and shape of the lane on which the vehicle 2 is running.

環境認識ユニット45は、第1情報及び第2情報を作成する。第1情報は、車両2の周辺に存在する物標59の位置を表す情報である。第2情報は、第1情報により位置を表された物標59が強調対象物標59Aであるか否かを表す情報である。強調対象物標59Aとは、車両2の乗員が注意を向けるべき物標である。 The environment recognition unit 45 produces first information and second information. The first information is information representing the position of the target object 59 existing around the vehicle 2 . The second information is information indicating whether or not the target 59 whose position is indicated by the first information is the emphasis target target 59A. The emphasis target object 59A is a target object to which the occupant of the vehicle 2 should pay attention.

強調対象物標59Aとして、例えば、車両2が追従している先行車、蛇行運転をしている他の車両、車両2がレーンチェンジを予定している場合に、変更後のレーンを走行している他の車両、車両2と通信を行っている周辺車、自動運転システム5が認識した、並走を回避すべき周辺車、自動運転システム5が認識した、割り込み進入してきた周辺車等が挙げられる。 Examples of the target object 59A to be emphasized include a preceding vehicle that the vehicle 2 is following, another vehicle that is meandering, and a vehicle that is traveling in the lane after the change when the vehicle 2 is planning to change lanes. other vehicles in the vehicle, surrounding vehicles communicating with the vehicle 2, surrounding vehicles recognized by the automatic driving system 5 that should avoid running side by side, and surrounding vehicles that have cut in and entered the vehicle recognized by the automatic driving system 5. be done.

環境認識ユニット45は、強調対象物標59Aが2以上存在する場合、強調対象物標59Aに優先度を設定する。車両2にとって注意すべき必要性が高いほど優先度は高くなる。第2情報は、優先度をさらに含む。 The environment recognition unit 45 sets the priority to the emphasis target object 59A when there are two or more emphasis target targets 59A. The higher the need for attention of the vehicle 2, the higher the priority. The second information further includes priority.

環境認識ユニット45は、例えば、車両2の挙動に基づき優先度を設定することができる。環境認識ユニット45は、例えば、ボディECU23から、後述する方向指示情報を取得する。環境認識ユニット45は、方向指示情報に基づき、車両2が進路を変更した場合に、変更後の進路上にある物標を探索する。変更後の進路上に物標が存在する場合、環境認識ユニット45は、その物標の優先度を、他の物標の優先度より高く設定する。 The environment recognition unit 45 can set the priority based on the behavior of the vehicle 2, for example. The environment recognition unit 45 acquires later-described direction indication information from the body ECU 23, for example. Based on the direction indication information, the environment recognition unit 45 searches for a target on the changed route when the vehicle 2 changes the route. If a target exists on the changed course, the environment recognition unit 45 sets the priority of that target higher than that of other targets.

行動判断ユニット47は、環境認識ユニット45が認識した走行環境に基づき、車両2の予定走行ラインを生成する。操作実行ユニット49は、走行制御ECU9と連携しながら、行動判断ユニット47が生成した予定走行ラインに沿って車両2が走行するように、車両2の加減速制御及び操舵制御等を実行する。操作実行ユニット49は、第3情報を作成する。第3情報は、現時点において車両2の状態が自動運転状態であるか否かを表す情報である。自動運転状態とは、自動運転を実行している状態である。 The behavior determination unit 47 generates a planned travel line for the vehicle 2 based on the travel environment recognized by the environment recognition unit 45 . The operation execution unit 49 performs acceleration/deceleration control, steering control, etc. of the vehicle 2 so that the vehicle 2 travels along the planned travel line generated by the action determination unit 47 in cooperation with the travel control ECU 9 . The operation execution unit 49 creates the third information. The third information is information indicating whether or not the vehicle 2 is currently in the automatic driving state. The automatic driving state is a state in which automatic driving is being performed.

なお、自動運転ECU41は、第1情報と第2情報とを画像処理装置3に提供する情報提供装置に対応する。自動運転ECU41と画像処理装置3とを備えるシステムは、画像処理システムに対応する。
運転支援ECU43は、車両2の乗員の運転操作を支援する運転支援操作を実現させる車載ECUである。運転支援ECU43は、例えば、米国自動車技術会が規定する自動運転レベル2程度の高度運転支援又は部分的な自動走行制御を可能にする。
The automatic driving ECU 41 corresponds to an information providing device that provides the image processing device 3 with the first information and the second information. A system including the automatic driving ECU 41 and the image processing device 3 corresponds to an image processing system.
The driving assistance ECU 43 is an in-vehicle ECU that realizes a driving assistance operation for assisting the driving operation of the occupant of the vehicle 2 . The driving assistance ECU 43 enables advanced driving assistance or partial automatic driving control, for example, about automatic driving level 2 defined by the Society of Automotive Engineers of America.

ロケータECU7は、GNSS(Global Navigation Satellite System)受信器及び慣性センサ等を含む。ロケータECU7は、GNSS受信器で受信する測位信号、慣性センサの計測結果、及び通信バス29に出力された車速情報等を組み合わせ、車両2の位置及び進行方向等を逐次測定する。ロケータECU7は、ロケータ情報を通信バス29に逐次出力する。ロケータ情報は、車両2の位置及び進行方向等を表す情報である。 The locator ECU 7 includes a GNSS (Global Navigation Satellite System) receiver, an inertial sensor, and the like. The locator ECU 7 combines the positioning signal received by the GNSS receiver, the measurement result of the inertial sensor, the vehicle speed information output to the communication bus 29, and the like, and sequentially measures the position, traveling direction, and the like of the vehicle 2. The locator ECU 7 sequentially outputs locator information to the communication bus 29 . The locator information is information representing the position, traveling direction, and the like of the vehicle 2 .

ロケータECU7は、地図データベース51をさら備える。地図データベース51は、大容量の記憶媒体を主体とする構成である。記憶媒体には、多数の地図データが格納されている。地図データとして、3次元地図データ及び2次元地図データがある。3次元地図データは、いわゆる高精度地図データである。3次元地図データは、高度運転支援及び自動運転に必要な情報を含んでいる。3次元地図データは、道路の3次元形状情報、各レーンの詳細情報等を含んでいる。 The locator ECU 7 further includes a map database 51 . The map database 51 is mainly composed of a large-capacity storage medium. A storage medium stores a large amount of map data. Map data includes three-dimensional map data and two-dimensional map data. Three-dimensional map data is so-called high-precision map data. The 3D map data contains information necessary for advanced driving assistance and automatic driving. The 3D map data includes 3D shape information of roads, detailed information of each lane, and the like.

ロケータECU7は、車両2の現在位置周辺の地図データを地図データベース51から読み出す。ロケータ7ECUは、運転支援ECU43及び自動運転ECU41等に、ロケータ情報とともに地図情報を提供する。地図情報は、地図データベース51から読み出した地図データを含む情報である。 The locator ECU 7 reads map data around the current position of the vehicle 2 from the map database 51 . The locator 7ECU provides map information together with locator information to the driving support ECU 43, the automatic driving ECU 41, and the like. The map information is information including map data read from the map database 51 .

なお、車載システム1は、ロケータECU7に替えて、スマートフォン等のユーザ端末又はナビゲーション装置等からロケータ情報及び地図情報を取得し、取得したロケータ情報及び地図情報を運転支援ECU43及び自動運転ECU41等に提供してもよい。 In addition, the in-vehicle system 1 acquires locator information and map information from a user terminal such as a smartphone or a navigation device instead of the locator ECU 7, and provides the acquired locator information and map information to the driving support ECU 43, the automatic driving ECU 41, and the like. You may

走行制御ECU9は、マイクロコントローラを主体として含む電子制御装置である。走行制御ECU9は、車両2の各輪のハブ部分に設けられた車輪速センサの検出信号に基づき、車両2の現在の走行速度を示す車速情報を生成する。走行制御ECU9は、車速情報を通信バス29に逐次出力する。 The travel control ECU 9 is an electronic control device that mainly includes a microcontroller. The travel control ECU 9 generates vehicle speed information indicating the current travel speed of the vehicle 2 based on detection signals from wheel speed sensors provided at the hub portions of the wheels of the vehicle 2 . The traveling control ECU 9 sequentially outputs vehicle speed information to the communication bus 29 .

走行制御ECU9は、ブレーキ制御ECU及び駆動制御ECUの機能を少なくとも有する。走行制御ECU9は、車両2の乗員の運転操作に基づく操作指令、運転支援ECU43からの制御指令、及び自動運転ECU41からの制御指令のいずれか一つに基づき、車両2の各輪に発生させるブレーキ力の制御と、車両2の動力源の出力制御とを継続的に実施する。 The travel control ECU 9 has at least functions of a brake control ECU and a drive control ECU. The travel control ECU 9 brakes each wheel of the vehicle 2 based on one of an operation command based on the driving operation of the occupant of the vehicle 2, a control command from the driving support ECU 43, and a control command from the automatic driving ECU 41. Force control and output control of the power source of the vehicle 2 are continuously performed.

周辺監視センサ11は、車両2の周辺環境を監視する自律センサである。周辺監視センサ11は、車両2の周辺に存在する物標を検出可能である。周辺監視センサ11は、検出情報を、通信バス29を介して、運転支援ECU43及び自動運転ECU41等に提供する。検出情報は、検出した物標の位置及び速度等を表す情報である。 The surroundings monitoring sensor 11 is an autonomous sensor that monitors the surrounding environment of the vehicle 2 . The surroundings monitoring sensor 11 can detect targets existing around the vehicle 2 . The surroundings monitoring sensor 11 provides detection information to the driving support ECU 43, the automatic driving ECU 41, and the like via the communication bus 29. The detection information is information representing the position, speed, etc. of the detected target.

周辺監視センサ11は、例えば、カメラユニット53及びミリ波レーダ55等を含む。カメラユニット53は、単眼カメラを含む構成であってもよいし、複眼カメラを含む構成であってもよい。カメラユニット53は、例えば、車両2の前方範囲、側方範囲、及び後方範囲等を撮影可能である。検出情報は、例えば、カメラユニット53が車両2の周囲を撮影して生じた撮像データ、及び撮像データの解析結果の少なくとも一方を含む。 The perimeter monitoring sensor 11 includes, for example, a camera unit 53, a millimeter wave radar 55, and the like. The camera unit 53 may be configured to include a monocular camera or may be configured to include a compound eye camera. The camera unit 53 can photograph, for example, the front range, the side range, and the rear range of the vehicle 2 . The detection information includes, for example, at least one of imaging data generated by imaging the surroundings of the vehicle 2 by the camera unit 53 and an analysis result of the imaging data.

ミリ波レーダ55は、ミリ波又は準ミリ波を車両2の周囲へ向けて照射する。ミリ波レーダ55は、物標で反射した反射波を受信する。検出情報は、例えば、ミリ波レーダ55の検出結果を含む。周辺監視センサ11は、ライダ及びソナー等をさらに備えていてもよい。 The millimeter wave radar 55 emits millimeter waves or quasi-millimeter waves toward the surroundings of the vehicle 2 . The millimeter wave radar 55 receives reflected waves reflected by the target. The detection information includes detection results of the millimeter wave radar 55, for example. The perimeter monitoring sensor 11 may further include a lidar, a sonar, and the like.

メータディスプレイ15及びCID17は、それぞれ、例えば、液晶ディスプレイ又はOLED(Organic Light Emitting Diode)ディスプレイ等を主体とする構成である。メータディスプレイ15及びCID17は、画像処理装置3から取得する制御信号及び映像データに基づき、種々の画像を表示画面に表示させる。メータディスプレイ15は、例えば、車両2の運転席の正面に設置されている。CID17は、例えば、車両2のセンタクラスタの上方に設置されている。CID17は、タッチパネルの機能を有している。CID17は、例えば、車両2の乗員等による表示画面へのタッチ操作及びスワイプ操作等を検出する。 The meter display 15 and the CID 17 each have a configuration mainly including a liquid crystal display or an OLED (Organic Light Emitting Diode) display, for example. The meter display 15 and the CID 17 display various images on the display screen based on the control signal and video data acquired from the image processing device 3 . The meter display 15 is installed in front of the driver's seat of the vehicle 2, for example. The CID 17 is installed above the center cluster of the vehicle 2, for example. The CID 17 has a touch panel function. The CID 17 detects, for example, a touch operation, a swipe operation, or the like on the display screen by an occupant of the vehicle 2 or the like.

HUD19は、画像処理装置3から取得する制御信号及び映像データに基づき、車両2の乗員の前方に結像される画像の光を、ウィンドシールドに投影する。ウィンドシールドにて車両2の車室内側に反射された画像の光は、車両2の乗員によって知覚される。こうしてHUD19は、ウィンドシールドよりも前方の空間中に虚像を表示する。車両2の乗員は、HUD19によって表示される虚像を、車両2の前景と重ねて視認する。 The HUD 19 projects the light of the image formed in front of the occupant of the vehicle 2 onto the windshield based on the control signal and video data acquired from the image processing device 3 . An occupant of the vehicle 2 perceives the light of the image reflected by the windshield toward the interior of the vehicle 2 . Thus, the HUD 19 displays a virtual image in the space ahead of the windshield. The occupant of the vehicle 2 visually recognizes the virtual image displayed by the HUD 19 while superimposing it on the foreground of the vehicle 2 .

なお、メータディスプレイ15、CID17、及びHUD19は、車両2が備える表示装置に対応する。
操作デバイス21は、車両2の乗員等によるユーザ操作を受け付ける入力部である。操作デバイス21には、例えば、自動運転機能の作動及び停止に関連するユーザ操作等が入力される。操作デバイス21として、例えば、ステアリングホイールのスポーク部に設けられたステアスイッチ、ステアリングコラム部に設けられた操作レバー、及び車両2の乗員の発話内容を認識する音声入力装置等が挙げられる。
Note that the meter display 15, the CID 17, and the HUD 19 correspond to display devices that the vehicle 2 has.
The operation device 21 is an input unit that receives a user operation by an occupant of the vehicle 2 or the like. For example, user operations related to activation and deactivation of the automatic driving function are input to the operation device 21 . Examples of the operating device 21 include a steering switch provided on the spoke portion of the steering wheel, an operating lever provided on the steering column portion, and a voice input device for recognizing the utterance content of the occupant of the vehicle 2 .

ボディECU23は、マイクロコントローラを主体として含む電子制御装置である。ボディECU23は、車両2に搭載された灯火装置の作動を制御する機能を少なくとも有する。ボディECU23は、方向指示スイッチ25と電気的に接続されている。方向指示スイッチ25は、ステアリングコラム部に設けられたレバー状の操作部である。 The body ECU 23 is an electronic control device that mainly includes a microcontroller. The body ECU 23 has at least the function of controlling the operation of the lighting device mounted on the vehicle 2 . Body ECU 23 is electrically connected to direction switch 25 . The direction indicator switch 25 is a lever-shaped operating portion provided on the steering column.

方向指示スイッチ25は、左方向の操作と、右方向の操作とを受け付けることができる。方向指示スイッチ25が左方向の操作を受け付けたとき、ボディECU23は、左の方向指示器の点滅を開始させる。方向指示スイッチ25が右方向の操作を受け付けたとき、ボディECU23は、右の方向指示器の点滅を開始させる。 The direction switch 25 can accept a leftward operation and a rightward operation. When the direction indicator switch 25 receives a leftward operation, the body ECU 23 causes the left direction indicator to start blinking. When the direction indicator switch 25 receives a right direction operation, the body ECU 23 causes the right direction indicator to start blinking.

ボディECU23は、方向指示情報を、通信バス29を介して、自動運転ECU41等に提供する。方向指示情報は、方向指示スイッチ25に対し行われた操作の内容を表す情報である。
ドライバモニタ27は、近赤外光源及び近赤外カメラと、これらを制御する制御ユニットとを含む構成である。ドライバモニタ27は、例えば、ステアリングコラム部の上面又はインスツルメントパネルの上面等に設置されている。ドライバモニタ27は、近赤外カメラが運転席のヘッドレスト部分に向くように取付けられている。
The body ECU 23 provides the direction indication information to the automatic driving ECU 41 and the like via the communication bus 29 . The direction indication information is information representing the content of the operation performed on the direction indication switch 25 .
The driver monitor 27 includes a near-infrared light source, a near-infrared camera, and a control unit for controlling them. The driver monitor 27 is installed, for example, on the upper surface of the steering column or the upper surface of the instrument panel. The driver monitor 27 is attached so that the near-infrared camera faces the headrest portion of the driver's seat.

ドライバモニタ27は、近赤外光源によって近赤外光を照射された、車両2の乗員の頭部を、近赤外カメラによって撮影する。近赤外カメラによる撮像画像は、制御ユニットによって画像解析される。制御ユニットは、車両2の乗員のアイポイントの位置及び視線方向等を表す情報(以下では乗員情報とする)を撮像画像から抽出する。制御ユニットは、抽出した乗員情報を、通信バス29を介して、画像処理装置3等に提供する。 The driver monitor 27 uses a near-infrared camera to photograph the head of the occupant of the vehicle 2 irradiated with near-infrared light from the near-infrared light source. An image captured by the near-infrared camera is image-analyzed by the control unit. The control unit extracts information (hereinafter referred to as occupant information) representing the position of the eye point and the line-of-sight direction of the occupant of the vehicle 2 from the captured image. The control unit provides the extracted occupant information to the image processing device 3 and the like via the communication bus 29 .

2.画像処理装置3が実行する処理
画像処理装置3が所定時間ごとに繰り返し実行する処理を、図3~図12に基づき説明する。図3のステップ1では、情報取得ユニット35が、環境認識ユニット45から第1情報及び第2情報を取得する。第1情報は、車両2の周辺に存在する物標の位置を表す情報である。第2情報は、第1情報により位置を表された物標が強調対象物標59Aであるか否かを表す情報である。また、情報取得ユニット35は、行動判断ユニット47から第3情報を取得する。第3情報は、現時点において車両2の状態が自動運転状態であるか否かを表す情報である。
2. 3. Processing Executed by Image Processing Apparatus 3 The processing repeatedly executed by the image processing apparatus 3 at predetermined time intervals will be described with reference to FIGS. 3 to 12. FIG. In step 1 of FIG. 3 , the information acquisition unit 35 acquires first information and second information from the environment recognition unit 45 . The first information is information representing the positions of targets existing around the vehicle 2 . The second information is information indicating whether or not the target whose position is indicated by the first information is the emphasis target target 59A. The information acquisition unit 35 also acquires the third information from the behavior determination unit 47 . The third information is information indicating whether or not the vehicle 2 is currently in the automatic driving state.

ステップ2では、画像作成ユニット37が、前記ステップ1で取得した第3情報に基づき、現時点において車両2の状態が自動運転状態であるか否かを判断する。自動運転状態であると判断した場合、本処理はステップ3に進む。自動運転状態ではないと判断した場合、本処理は終了する。 In step 2, the image creation unit 37 determines whether or not the vehicle 2 is currently in the automatic driving state based on the third information acquired in step 1 above. If it is determined that the vehicle is in the automatic driving state, the process proceeds to step 3. If it is determined that the vehicle is not in the automatic driving state, the process ends.

ステップ3では、画像作成ユニット37が、第1情報により位置を表された物標のうち、強調対象物標59Aに該当するものを認識する。画像作成ユニット37は、前記ステップ1で取得した第2情報において強調対象物標59Aであるとされている物標を、強調対象物標59Aとして認識する。画像作成ユニット37は、認識した強調対象物標59Aの数を算出する。強調対象物標59Aの数が1である場合、本処理はステップ4に進む。強調対象物標59Aの数が2以上である場合、本処理はステップ5に進む。強調対象物標59Aの数が0である場合、本処理はステップ6に進む。 In step 3, the image forming unit 37 recognizes the targets corresponding to the enhancement target 59A among the targets whose positions are represented by the first information. The image creation unit 37 recognizes the target, which is determined as the enhancement target target 59A in the second information acquired in step 1, as the enhancement target target 59A. The image creation unit 37 calculates the number of recognized enhancement target objects 59A. If the number of emphasis target objects 59A is 1, the process proceeds to step 4; If the number of emphasis target objects 59A is two or more, the process proceeds to step 5. If the number of emphasis target objects 59A is 0, the process proceeds to step 6;

ステップ4では、画像作成ユニット37が、第1画像57を作成する。第1画像57の例を図4に示す。第1画像57は、物標59を表す画像である。図4に示す例では、物標59は他の車両である。第1画像57は、例えば、一定の撮影位置からカメラにより撮影された撮影画像を模した合成画像である。撮影位置は、例えば、車両2の上方且つ後方の位置である。第1画像57における物標59の位置は、第1情報により表された物標の位置である。 In step 4 , image creation unit 37 creates first image 57 . An example of the first image 57 is shown in FIG. A first image 57 is an image representing a target 59 . In the example shown in FIG. 4, target 59 is another vehicle. The first image 57 is, for example, a composite image simulating a photographed image photographed by a camera from a fixed photographing position. The shooting position is, for example, a position above and behind the vehicle 2 . The position of the target 59 in the first image 57 is the position of the target represented by the first information.

第1画像57の一部は、被写界深度領域61である。被写界深度領域61の中にある物標59は、被写界深度にあるように表される。すなわち、被写界深度領域61の中にある物標59は、被写界深度領域61の外にある物標59に比べて、一層ピントが合っているように表される。 A portion of first image 57 is depth of field region 61 . Targets 59 that are within depth of field region 61 are represented as being in depth of field. That is, targets 59 within the depth-of-field region 61 appear more in focus than targets 59 outside the depth-of-field region 61 .

第1画像57において、強調対象物標59Aは、被写界深度領域61の中にある。よって、第1画像57において、強調対象物標59Aは、被写界深度にあるように表される。第1画像57において、例えば、強調対象物標59Aには、強調表現がなされている。 In first image 57 , enhanced target 59 A is within depth of field region 61 . Therefore, in the first image 57, the target object 59A to be emphasized is represented as being in the depth of field. In the first image 57, for example, the emphasis target object 59A is emphasized.

強調表現として、例えば、ハイライトを加えること、アニメーションの加工を加えること、別の部品を加えること等が挙げられる。アニメーションの加工として、例えば、点滅のアニメーション、拡大のアニメーション等が挙げられる。別の部品として、例えば、スポットライト、波紋マーク、矢印等が挙げられる。また、強調表現として、例えば、強調対象物標59Aではない物標59(以下では通常物標59Bとする)とは異なる色で表すこと等が挙げられる。
例えば、被写界深度領域61の中に1つの物標59のみしか存在しない場合等では、強調対象物標59Aには、強調表現がなされていなくてもよい。
Examples of emphasizing expressions include adding highlights, adding animation processing, adding other parts, and the like. Animation processing includes, for example, blinking animation, enlargement animation, and the like. Other components include, for example, spotlights, ripple marks, arrows, and the like. In addition, as the emphasized expression, for example, the target 59 that is not the emphasized target 59A (hereinafter referred to as the normal target 59B) is represented in a different color.
For example, when only one target 59 exists in the depth of field area 61, the enhancement target 59A does not have to be emphasized.

第1画像57において、被写界深度領域61の中に、通常物標59Bが存在してもよいし、存在しなくてもよい。図4に示す例では、被写界深度領域61の中に通常物標59Bが存在する。被写界深度領域61の中にある通常物標59Bには、例えば、上述した強調表現がなされていない。被写界深度領域61の中にある通常物標59Bには、例えば、目立ちにくくなる表現がなされている。目立ちにくくなる表現として、例えば、モザイク表現、トーンダウン、低画素化、アニメーションの加工を加えること、別の部品を加えること等が挙げられる。アニメーションの加工として、例えば、通常物標59Bを縮小すること等が挙げられる。別の部品として、例えば、通常物標59Bを隠すマスク等が挙げられる。 In the first image 57, the normal target 59B may or may not exist within the depth of field region 61. FIG. In the example shown in FIG. 4, the normal target 59B exists within the depth of field region 61. In the example shown in FIG. The normal target 59B in the depth of field region 61 is not, for example, emphasized as described above. The normal target 59B in the depth of field region 61 is, for example, rendered inconspicuous. Examples of less conspicuous expressions include mosaic expression, tone down, pixel reduction, addition of animation processing, addition of other parts, and the like. As processing of the animation, for example, reduction of the normal target 59B can be mentioned. Another component is, for example, a mask that normally hides the target 59B.

第1画像57において、例えば、被写界深度領域61の外に、通常物標59Bが存在する。被写界深度領域61の外にある通常物標59Bは、被写界深度の外にあるように表される。すなわち、被写界深度領域61の外にある通常物標59Bは、強調対象物標59Aに比べて、ピントが合っていないように表される。被写界深度領域61の外にある通常物標59Bには、例えば、上述した強調表現がなされていない。 In the first image 57, for example, outside the depth-of-field region 61, there is usually a target 59B. A normal target 59B that is outside the depth of field region 61 is represented as being outside the depth of field. That is, the normal target 59B outside the depth-of-field region 61 appears out of focus compared to the enhancement target 59A. The normal target 59B outside the depth of field region 61 is not, for example, emphasized as described above.

第1画像57は、例えば、図4に示すように、車両2を含む。車両2は、例えば、被写界深度領域61の中に存在する。この場合、第1画像57において、車両2は、被写界深度領域61の外にある通常物標59Bに比べて、ピントが合っているように表される。車両2は、例えば、被写界深度領域61の外に存在していてもよい。また、第1画像57は、被写界深度領域61とは別の被写界深度領域61を備えていてもよい。車両2は、例えば、被写界深度領域61とは別の被写界深度領域の中に存在していてもよい。 The first image 57 includes the vehicle 2, for example, as shown in FIG. The vehicle 2 is, for example, within the depth of field region 61 . In this case, in the first image 57 the vehicle 2 appears to be in focus compared to the normal target 59B outside the depth of field region 61 . The vehicle 2 may exist outside the depth of field region 61, for example. Also, the first image 57 may have a depth of field area 61 different from the depth of field area 61 . The vehicle 2 may, for example, be present in a depth of field area different from the depth of field area 61 .

第1画像57は、例えば、車両2の挙動を表す表示を含む。車両2の挙動を表す表示として、例えば、第1画像57に表された車両2のストップランプやターンランプが点灯したり点滅したりする表示が挙げられる。第1画像57に表された車両2のストップランプが点灯する表示は、車両2がブレーキをかけたことを表す。第1画像57に表された車両2のターンランプが点滅する表示は、車両2が右又は左に進路を変えることを表す。車両2がブレーキをかけること、及び、車両2が右又は左に進路を変えることは、車両2の挙動に対応する。
例えば、車両2のストップランプやターンランプが点灯したり点滅したりする表示をする場合、車両2を強調対象物標59Aとしてもよい。
The first image 57 includes, for example, a representation of behavior of the vehicle 2 . The display representing the behavior of the vehicle 2 includes, for example, a display in which the stop lamps and turn lamps of the vehicle 2 represented in the first image 57 light up or blink. The indication that the stop lamp of the vehicle 2 is turned on in the first image 57 indicates that the vehicle 2 is braked. The blinking display of the turn lamp of the vehicle 2 displayed in the first image 57 indicates that the vehicle 2 changes course to the right or left. The vehicle 2 braking and the vehicle 2 turning left or right correspond to the behavior of the vehicle 2 .
For example, when the stop lamps and turn lamps of the vehicle 2 are lit or blinked, the vehicle 2 may be the emphasis target object 59A.

第1画像57は、図5に示すものであってもよい。図5に示す第1画像57は、図4に示す第1画像57と基本的には同じである。ただし、図5に示す第1画像57は、警告63をさらに含む。警告63は、車両2の乗員に伝えるべき内容を含む。警告63の内容は、例えば、強調対象物標59Aに関する内容である。第1画像57において、警告63は、被写界深度領域61の外にある。警告63は、ピントが合っているように表される。 The first image 57 may be as shown in FIG. The first image 57 shown in FIG. 5 is basically the same as the first image 57 shown in FIG. However, first image 57 shown in FIG. 5 further includes warning 63 . The warning 63 includes the content to be conveyed to the occupants of the vehicle 2 . The content of the warning 63 is, for example, the content regarding the emphasis target object 59A. In the first image 57 the warning 63 is outside the depth of field region 61 . Alert 63 appears to be in focus.

ステップ5では、画像作成ユニット37が、第2画像65を作成する。第2画像65の例を図6に示す。第2画像65は、基本的には、第1画像57と同じである。ただし、第2画像65において、2以上の強調対象物標59Aが、被写界深度領域61の中にある。例えば、第2画像65において、第2情報によって強調対象物標59Aであるとされた全ての強調対象物標59Aが、被写界深度領域61の中にある。よって、第2画像65において、2以上の強調対象物標59Aは、それぞれ、被写界深度にあるように表される。 In step 5 , image creation unit 37 creates second image 65 . An example of the second image 65 is shown in FIG. The second image 65 is basically the same as the first image 57 . However, in the second image 65 , two or more enhancement target objects 59A are within the depth of field region 61 . For example, in the second image 65 , all enhancement target objects 59 A identified as enhancement target objects 59 A by the second information are within the depth of field region 61 . Therefore, in the second image 65, the two or more emphasis target objects 59A are represented as if they are in the depth of field.

第2画像65において、例えば、2以上の強調対象物標59Aには、それぞれ、強調表現がなされている。例えば、第2画像65は、第1画像57に比べて、被写界深度が深いように表される。2以上の強調対象物標59Aの間に優先度の差がある場合、第2画像65において、例えば、強調対象物標59Aは、その優先度が高いほど、ピントが一層合っているように表される。また、第2画像65において、例えば、強調対象物標59Aには、その優先度が高いほど、著しい強調表現がなされている。 In the second image 65, for example, two or more emphasis target objects 59A are respectively emphasized. For example, the second image 65 is represented with a deeper depth of field than the first image 57 . When there is a difference in priority between two or more enhancement target objects 59A, in the second image 65, for example, the enhancement target object 59A appears to be more focused as its priority is higher. be done. Further, in the second image 65, for example, the emphasis target object 59A is emphasized more remarkably as its priority is higher.

第2画像65は、図7に示すものであってもよい。図7に示す第2画像65は、分割画像65Aと分割画像65Bとに分割されている。分割画像65Aは、被写界深度領域61Aを含む。分割画像65Bは、被写界深度領域61Bを含む。被写界深度領域61Aの上下方向における位置と、被写界深度領域61Bの上下方向における位置とは、例えば、異なる。 The second image 65 may be as shown in FIG. A second image 65 shown in FIG. 7 is divided into a divided image 65A and a divided image 65B. The split image 65A includes a depth of field area 61A. Split image 65B includes depth of field region 61B. For example, the vertical position of the depth of field region 61A and the vertical position of the depth of field region 61B are different.

分割画像65Aにおいて、強調対象物標59Aは、被写界深度領域61Aの中にある。分割画像65Bにおいて、強調対象物標59Aは、被写界深度領域61Bの中にある。分割画像65A及び分割画像65Bのそれぞれにおいて、例えば、強調対象物標59Aには、強調表現がなされている。 In split image 65A, enhancement target 59A is within depth of field region 61A. In split image 65B, enhancement target 59A is within depth of field region 61B. In each of the divided image 65A and the divided image 65B, for example, the emphasis target object 59A is emphasized.

分割画像65A及び分割画像65Bに存在する全ての強調対象物標59Aを含む1つの被写界深度領域を設ける場合に比べて、分割画像65A及び分割画像65Bは、被写界深度が狭いように表される。そのため、強調対象物標59Aに車両2の乗員の視線を誘導する効果が一層高い。 The divided image 65A and the divided image 65B are arranged so that the depth of field is narrower than in the case of providing one depth-of-field area including all the enhancement target objects 59A present in the divided image 65A and the divided image 65B. expressed. Therefore, the effect of guiding the line of sight of the occupant of the vehicle 2 to the emphasis target object 59A is even higher.

ステップ6では、画像作成ユニット37が、第3画像67を作成する。第3画像67の例を図8に示す。図8に示す第3画像67は、基本的には、第1画像57と同じである。ただし、図8に示す第3画像67では、全ての通常物標59Bが、ピントが合っているように表される。また、第3画像67は、強調対象物標59Aを含まない。 In step 6 , image creation unit 37 creates third image 67 . An example of the third image 67 is shown in FIG. A third image 67 shown in FIG. 8 is basically the same as the first image 57 . However, in the third image 67 shown in FIG. 8, all the normal targets 59B are represented as being in focus. Also, the third image 67 does not include the enhancement target object 59A.

第3画像67は、図9に示すものであってもよい。図9に示す第3画像67は、基本的には、第1画像57と同じである。ただし、図9に示す第3画像67では、被写界深度領域61の中に、車両2に対して前車に該当する通常物標59Bが存在する。 The third image 67 may be as shown in FIG. A third image 67 shown in FIG. 9 is basically the same as the first image 57 . However, in the third image 67 shown in FIG. 9 , the normal target 59B corresponding to the vehicle ahead of the vehicle 2 exists in the depth of field region 61 .

第3画像67は、図10に示すものであってもよい。図10に示す第3画像67は、基本的には、第1画像57と同じである。ただし、図10に示す第3画像67では、被写界深度領域61の中に、車両2が存在する。被写界深度領域61の中に、通常物標59Bがさらに存在してもよい。 The third image 67 may be the one shown in FIG. A third image 67 shown in FIG. 10 is basically the same as the first image 57 . However, in the third image 67 shown in FIG. 10 , the vehicle 2 exists within the depth of field region 61 . A normal target 59B may also be present in the depth of field region 61 .

ステップ7では、画像出力ユニット39が、前記ステップ4~6のいずれかで作成された画像に対応する制御信号及び映像データを、表示装置に出力する。表示装置は、メータディスプレイ15、CID17、及びHUD19のうちの1以上である。表示装置は、前記ステップ4~6のいずれかで作成された画像を表示する。車両2の乗員は、表示された画像を見ることができる。 In step 7, the image output unit 39 outputs control signals and video data corresponding to the image created in any one of steps 4 to 6 to the display device. The display device is one or more of meter display 15 , CID 17 and HUD 19 . The display device displays the image created in any of steps 4-6 above. An occupant of the vehicle 2 can see the displayed image.

画像処理装置3は上述したステップ1~7の処理を繰り返す。時間の経過にともない、第2画像65に表されている強調対象物標59Aの優先度が変化することがある。図11に示す事例では、第2画像65は、2つの強調対象物標59Aを表す。時刻T1において、2つの強調対象物標59Aのうち、右車線にある強調対象物標59Aが、優先物標59Mであった。優先物標59Mとは、優先度が最も高い強調対象物標59Aである。 The image processing device 3 repeats the processing of steps 1 to 7 described above. The priority of the emphasis target object 59A represented in the second image 65 may change with the passage of time. In the example shown in FIG. 11, the second image 65 represents two enhanced targets 59A. At time T1, of the two emphasis target objects 59A, the emphasis target object 59A in the right lane was the priority target object 59M. The priority target 59M is the emphasis target 59A with the highest priority.

時刻T1での第2画像65は、例えば、優先物標59Mを、左側にある強調対象物標59Aに比べて、一層ピントが合っているように表す。また、時刻T1での第2画像65において、例えば、優先物標59Mには、左側にある強調対象物標59Aに比べて、一層著しい強調表現がなされている。 The second image 65 at time T1, for example, represents the priority target 59M as being more in focus than the enhancement target 59A on the left. Also, in the second image 65 at time T1, for example, the priority target 59M is emphasized more significantly than the emphasis target 59A on the left side.

時刻T2において、車両2の左の方向指示器の点滅が始まった。方向指示情報の内容は、方向指示スイッチ25に対して左方向の操作がなされたことを表す内容となった。環境認識ユニット45は、方向指示情報に基づき、2つの強調対象物標59Aのうち、左側にある強調対象物標59Aを、優先物標59Mとした。右車線にある強調対象物標59Aは、優先物標59Mではなくなった。 At time T2, the left direction indicator of the vehicle 2 started blinking. The content of the direction indication information is the content indicating that the direction indication switch 25 has been operated in the left direction. Based on the direction indication information, the environment recognition unit 45 sets the left emphasis target 59A of the two emphasis targets 59A as the priority target 59M. The emphasis target 59A in the right lane is no longer the priority target 59M.

時刻T2での第2画像65は、例えば、新たな優先物標59Mを、右車線にある強調対象物標59Aに比べて、一層ピントが合っているように表す。また、時刻T2での第2画像65において、例えば、新たな優先物標59Mには、右車線にある強調対象物標59Aに比べて、一層著しい強調表現がなされている。 The second image 65 at time T2, for example, shows the new priority target 59M to be more in focus than the emphasis target 59A in the right lane. Also, in the second image 65 at time T2, for example, the new priority target 59M is emphasized more significantly than the emphasis target 59A in the right lane.

画像処理装置3は上述したS1~7の処理を繰り返す。時間の経過にともない、第1画像57又は第2画像65に表されている強調対象物標59Aが変化することがある。例えば、通常物標59Bが、強調対象物標59Aに変化することがある。また、強調対象物標59Aが、通常物標59Bに変化することがある。また、それまで画角の外にあった強調対象物標59Aが、第1画像57又は第2画像65に新たに表されることがある。また、第1画像57又は第2画像65にそれまで表されていた強調対象物標59Aが、消失することがある。 The image processing device 3 repeats the processing of S1 to S7 described above. The emphasis target object 59A represented in the first image 57 or the second image 65 may change over time. For example, normal target 59B may change to enhanced target 59A. In addition, the emphasis target target 59A may change to the normal target 59B. Also, the enhancement target object 59A that has been out of the angle of view until then may be newly represented in the first image 57 or the second image 65 . Also, the emphasis target object 59A that has been displayed in the first image 57 or the second image 65 may disappear.

画像作成ユニット37は、強調対象物標59Aの変化に応じて、第1画像57及び第2画像65を変化させる。例えば、画像作成ユニット37は、変化後の強調対象物標59Aが被写界深度領域61に含まれるように、被写界深度領域61の位置、大きさ、形状、ピント位置等を変化させる。ピント位置とは、被写界深度領域61の中で最もはっきり見える部分である。画像作成ユニット37は、被写界深度領域61の位置、大きさ、形状、ピント位置等を、シームレスに変化させることが好ましい。 The image creation unit 37 changes the first image 57 and the second image 65 in accordance with the change in the enhancement target object 59A. For example, the image creation unit 37 changes the position, size, shape, focus position, etc. of the depth of field area 61 so that the changed emphasis target object 59A is included in the depth of field area 61 . The focus position is the most clearly visible part of the depth of field area 61 . The image creation unit 37 preferably seamlessly changes the position, size, shape, focus position, etc. of the depth of field area 61 .

画像作成ユニット37は、強調対象物標59Aの位置や数等に応じて、第1画像57又は第2画像65の表示範囲を変更することができる。例えば、画像作成ユニット37は、図12の左側に示す広い表示範囲の第1画像57と、右側に示す狭い表示範囲の第1画像57とのいずれか一方を、強調対象物標59Aの位置や数等に応じて選択することができる。画像作成ユニット37は、第1画像57又は第2画像65の表示範囲を、シームレスに変化させることが好ましい。 The image creation unit 37 can change the display range of the first image 57 or the second image 65 according to the positions, number, etc. of the emphasis target object 59A. For example, the image creation unit 37 creates either the first image 57 with a wide display range shown on the left side of FIG. 12 or the first image 57 with a narrow display range shown on the right side of FIG. It can be selected according to the number and the like. Image creation unit 37 preferably seamlessly changes the display range of first image 57 or second image 65 .

3.画像処理装置3が奏する効果
(1A)画像処理装置3は、第1情報と、第2情報とを取得する。画像処理装置3は、第1情報により表された位置に物標59を表す画像を作成する。画像に表される物標59の少なくとも一部が強調対象物標59Aであることを第2情報が表している場合、画像処理装置3は、強調対象物標59Aが被写界深度にあるように表された第1画像57又は第2画像65を作成する。
3. Effects of Image Processing Apparatus 3 (1A) The image processing apparatus 3 acquires first information and second information. The image processing device 3 creates an image representing the target 59 at the position represented by the first information. If the second information indicates that at least part of the target 59 represented in the image is the enhancement target 59A, the image processing device 3 adjusts the enhancement target 59A so that it is in the depth of field. create a first image 57 or a second image 65 represented by .

第1画像57又は第2画像65において、強調対象物標59Aは、被写界深度にあるように表されるので、車両2の乗員の注意を引きやすい。そのため、画像処理装置3は、第1画像57又は第2画像65のうち、強調対象物標59Aへ、車両2の乗員の視線を誘導することができる。 In the first image 57 or the second image 65, the emphasis target 59A is represented as if it were in the depth of field, so it is easy to attract the attention of the occupants of the vehicle 2. FIG. Therefore, the image processing device 3 can guide the line of sight of the occupant of the vehicle 2 to the enhancement target object 59A in the first image 57 or the second image 65 .

(1B)画像処理装置3は、被写界深度にあるように表された車両2と、車両2の挙動を表す表示とを含む画像を作成することができる。車両2の乗員は、画像を見ることで、車両2の挙動を容易に理解することができる。また、車両2の乗員は、画像を見ることで、車両2の挙動と強調対象物標59Aとの関連性を理解することができる。 (1B) The image processing device 3 can create an image that includes the vehicle 2 represented as being in the depth of field and a representation of the behavior of the vehicle 2 . An occupant of the vehicle 2 can easily understand the behavior of the vehicle 2 by viewing the image. Further, the occupant of the vehicle 2 can understand the relationship between the behavior of the vehicle 2 and the emphasis target object 59A by viewing the image.

(1C)画像処理装置3は、画像のうち、被写界深度の外であるように表された部分に警告63を表示することができる。警告63の周囲は、ピントが合っていないように表されているので、警告63が目立ちやすい。 (1C) The image processing device 3 can display a warning 63 in the portion of the image that is represented as being outside the depth of field. Since the area around the warning 63 is shown to be out of focus, the warning 63 is easily conspicuous.

(1D)第1画像57又は第2画像65において、強調対象物標59Aが変化した場合、画像処理装置3は、変化後の強調対象物標59Aが被写界深度にあるように表されるように、第1画像57又は第2画像65を変化させる。そのため、強調対象物標59Aが変化した場合でも、画像処理装置3は、前記(1A)の効果を維持できる。 (1D) In the first image 57 or the second image 65, when the target object 59A to be enhanced is changed, the image processing device 3 displays the changed target object 59A to be enhanced so that it is in the depth of field. so that the first image 57 or the second image 65 is changed. Therefore, even when the emphasis target object 59A changes, the image processing device 3 can maintain the above effect (1A).

(1E)第2情報は、強調対象物標59Aの優先度を表す。画像処理装置3は、第1画像57又は第2画像65において、強調対象物標59Aを、優先度が高いほどピントが一層合っているように表す。画像処理装置3は、第1画像57又は第2画像65の中で、優先度が高い強調対象物標59Aへ、車両2の乗員の視線を一層誘導することができる。 (1E) The second information represents the priority of the emphasis target object 59A. The image processing device 3 displays the enhancement target object 59A in the first image 57 or the second image 65 such that the higher the priority, the better the focus. The image processing device 3 can further guide the line of sight of the occupant of the vehicle 2 to the emphasis target object 59A having a high priority in the first image 57 or the second image 65 .

(1F)第1画像57又は第2画像65に表されている強調対象物標59Aの優先度が変化した場合、画像処理装置3は、強調対象物標59Aの表現を、変化後の優先度に応じた表現に変化させる。そのため、強調対象物標59Aの優先度が変化した場合でも、画像処理装置3は、前記(1E)の効果を維持することができる。
<他の実施形態>
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(1F) When the priority of the target object 59A to be emphasized represented in the first image 57 or the second image 65 is changed, the image processing device 3 converts the representation of the target object 59A to the priority after the change. change the expression according to Therefore, even when the priority of the emphasis target object 59A changes, the image processing device 3 can maintain the effect of (1E).
<Other embodiments>
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and various modifications can be made.

(1)画像処理装置3は、画像のうち、被写界深度領域61以外の部分のテクスチャ解像度や表示ポリゴン数を、被写界深度領域61に比べて削減することができる。この場合、画像処理装置3の計算負荷を軽減できる。 (1) The image processing device 3 can reduce the texture resolution and the number of display polygons of the portion of the image other than the depth of field region 61 compared to the depth of field region 61 . In this case, the calculation load of the image processing device 3 can be reduced.

(2)強調対象物標59Aの優先度を、方向指示情報以外の情報に基づき設定してもよい。例えば、画像処理装置3は、ドライバモニタ27から取得した乗員情報に基づき、強調対象物標59Aの優先度を設定する。 (2) The priority of the emphasis target object 59A may be set based on information other than direction indication information. For example, the image processing device 3 sets the priority of the emphasis target object 59A based on the occupant information acquired from the driver monitor 27 .

乗員情報は、例えば、車両2の乗員の視線方向を表す情報である。画像処理装置3は、車両2の乗員が見ていない方向にある強調対象物標59Aの優先度を、車両2の乗員の視線方向にある強調対象物標59Aの優先度より高くする。この場合、画像処理装置3は、車両2の乗員が気づいていないおそれがある強調対象物標59Aに、車両2の乗員の視線を誘導できる。 The occupant information is, for example, information representing the line-of-sight direction of the occupant of the vehicle 2 . The image processing device 3 gives higher priority to the emphasis target object 59A in the direction not viewed by the occupant of the vehicle 2 than to the emphasis target object 59A in the line-of-sight direction of the occupant of the vehicle 2 . In this case, the image processing device 3 can guide the line of sight of the occupant of the vehicle 2 to the emphasis target object 59A, which the occupant of the vehicle 2 may not have noticed.

(3)本開示に記載の画像処理装置3及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の画像処理装置3及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の画像処理装置3及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。画像処理装置3に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。 (3) The image processing apparatus 3 and techniques described in the present disclosure were provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. It may also be implemented by a dedicated computer. Alternatively, the image processing apparatus 3 and techniques described in this disclosure may be implemented by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits. Alternatively, the image processing apparatus 3 and techniques thereof described in this disclosure are a combination of a processor and memory programmed to perform one or more functions and a processor configured by one or more hardware logic circuits. It may also be implemented by one or more dedicated computers configured in combination. Computer programs may also be stored as computer-executable instructions on a computer-readable non-transitional tangible storage medium. The method of realizing the function of each part included in the image processing device 3 does not necessarily include software, and all the functions may be realized using one or a plurality of pieces of hardware.

(4)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。 (4) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or a function possessed by one component may be realized by a plurality of components. . Also, a plurality of functions possessed by a plurality of components may be realized by a single component, or a function realized by a plurality of components may be realized by a single component. Also, part of the configuration of the above embodiment may be omitted. Moreover, at least part of the configuration of the above embodiment may be added or replaced with respect to the configuration of the other above embodiment.

(5)上述した画像処理装置3の他、当該画像処理装置3を構成要素とするシステム、当該画像処理装置3としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、画像処理方法、画像作成方法、画像表示方法等、種々の形態で本開示を実現することもできる。 (5) In addition to the image processing device 3 described above, a system having the image processing device 3 as a component, a program for causing a computer to function as the image processing device 3, and a non-transitional device such as a semiconductor memory recording this program The present disclosure can also be implemented in various forms such as a physical recording medium, an image processing method, an image creation method, an image display method, and the like.

2…車両、3…画像処理装置、15…メータディスプレイ、17…CID、19…HUD、35…情報取得ユニット、37…画像作成ユニット、39…画像出力ユニット、41…自動運転ECU、45…環境認識ユニット、47…行動判断ユニット、49…操作実行ユニット、57…第1画像、59…物標、59A…強調対象物標、59B…通常物標、59M…優先物標、61、61A、61B…被写界深度領域、63…警告、65…第2画像、67…第3画像 2 Vehicle 3 Image processing device 15 Meter display 17 CID 19 HUD 35 Information acquisition unit 37 Image creation unit 39 Image output unit 41 Automated driving ECU 45 Environment Recognition unit 47 Action determination unit 49 Operation execution unit 57 First image 59 Target 59A Target to be emphasized 59B Normal target 59M Priority target 61, 61A, 61B ... depth of field area, 63 ... warning, 65 ... second image, 67 ... third image

Claims (7)

車両(2)が備える表示装置(15、17、19)に画像(57、65、67)を表示するように構成された画像処理装置(3)であって、
前記車両の周辺に存在する物標(59)の位置を表す第1情報と、前記物標が強調対象物標(59A)であるか否かを表す第2情報とを取得するように構成された情報取得ユニット(35)と、
前記第1情報により表された前記位置に前記物標を表す画像を作成するように構成された画像作成ユニット(37)と、
を備え、
前記画像に表される前記物標の少なくとも一部が前記強調対象物標であることを前記第2情報が表している場合、前記画像作成ユニットは、前記強調対象物標が被写界深度にあるように表された前記画像(57、65)を作成し、
前記画像作成ユニットは、被写界深度にあるように表された前記車両と、前記車両の挙動を表す表示とを含む前記画像を作成するように構成され、
前記車両の挙動を表す表示は、前記車両のストップランプ又はターンランプが点灯又は点滅する表示である画像処理装置。
An image processing device (3) configured to display images (57, 65, 67) on display devices (15, 17, 19) of a vehicle (2),
It is configured to acquire first information representing the position of a target (59) existing around the vehicle and second information representing whether or not the target is a target to be emphasized (59A). an information acquisition unit (35),
an image creation unit (37) configured to create an image representing the target at the location represented by the first information;
with
When the second information indicates that at least a part of the target represented in the image is the target to be emphasized, the image creation unit may determine that the target to be emphasized is within the depth of field. creating said image (57, 65) represented as
the image creation unit is configured to create the image including the vehicle represented as being in a depth of field and a representation representing behavior of the vehicle;
The image processing device , wherein the display representing the behavior of the vehicle is a display in which a stop lamp or a turn lamp of the vehicle lights up or blinks .
請求項1記載の画像処理装置であって、
前記画像作成ユニットは、前記画像のうち、被写界深度の外であるように表された部分に警告(63)を表示するように構成された画像処理装置。
The image processing device according to claim 1,
An image processing device, wherein the image creation unit is configured to display a warning (63) on portions of the image that are represented as being outside the depth of field.
請求項1又は2に記載の画像処理装置であって、
前記画像において、前記強調対象物標が変化した場合、前記画像作成ユニットは、変化後の前記強調対象物標が被写界深度にあるように表されるように、前記画像を変化させる画像処理装置。
The image processing device according to claim 1 or 2 ,
In the image, when the object to be emphasized has changed, the image creation unit changes the image so that the object to be emphasized after the change is represented in the depth of field. Device.
請求項1~のいずれか1項に記載の画像処理装置であって、
前記第2情報は、前記強調対象物標の優先度をさらに表し、
前記画像作成ユニットは、前記画像において、前記強調対象物標を、前記優先度が高いほどピントが一層合っているように表すように構成された画像処理装置。
The image processing device according to any one of claims 1 to 3 ,
the second information further represents the priority of the target to be emphasized;
The image processing device, wherein the image creation unit is configured to represent the target to be emphasized in the image so as to be more in focus as the priority is higher.
請求項に記載の画像処理装置であって、
前記画像に表されている前記強調対象物標の前記優先度が変化した場合、前記画像作成ユニットは、前記強調対象物標の表現を、変化後の前記優先度に応じた表現に変化させる画像処理装置。
The image processing device according to claim 4 ,
When the priority of the target object to be emphasized represented in the image is changed, the image creation unit changes the expression of the target object to be emphasized to an expression corresponding to the changed priority. processing equipment.
コンピュータを画像処理装置(3)として機能させるプログラムであって、
前記画像処理装置は、
車両(2)の周辺に存在する物標(59)の位置を表す第1情報と、前記物標が強調対象物標(59A)であるか否かを表す第2情報とを取得するように構成された情報取得ユニット(35)と、
前記第1情報により表された前記位置に前記物標を表す画像(57、65、67)を作成するように構成された画像作成ユニット(37)と、
を備え、
前記画像に表される前記物標の少なくとも一部が前記強調対象物標であることを前記第2情報が表している場合、前記画像作成ユニットは、前記強調対象物標が被写界深度にあるように表された前記画像(57、65)を作成
前記画像作成ユニットは、被写界深度にあるように表された前記車両と、前記車両の挙動を表す表示とを含む前記画像を作成するように構成され、
前記車両の挙動を表す表示は、前記車両のストップランプ又はターンランプが点灯又は点滅する表示である、
プログラム。
A program that causes a computer to function as an image processing device (3),
The image processing device is
so as to obtain first information representing the position of a target (59) existing around the vehicle (2) and second information representing whether or not the target is a target to be emphasized (59A) a configured information acquisition unit (35);
an image creation unit (37) configured to create an image (57, 65, 67) representing the target at the location represented by the first information;
with
When the second information indicates that at least a part of the target represented in the image is the target to be emphasized, the image creation unit may determine that the target to be emphasized is within the depth of field. creating said image (57, 65) represented as
the image creation unit is configured to create the image including the vehicle represented as being in a depth of field and a representation representing behavior of the vehicle;
The display representing the behavior of the vehicle is a display in which a stop lamp or a turn lamp of the vehicle lights up or blinks.
program.
情報提供装置(41)と、画像処理装置(3)と、を備える画像処理システム(41、3)であって、
前記情報提供装置は、車両(2)の周辺に存在する物標(59)の位置を表す第1情報と、前記物標が強調対象物標(59A)であるか否かを表す第2情報とを提供するように構成され、
前記画像処理装置は、
前記情報提供装置から前記第1情報及び前記第2情報を取得するように構成された情報取得ユニット(35)と、
前記第1情報により表された前記位置に前記物標を表す画像(57、65、67)を作成するように構成された画像作成ユニット(37)と、
を備え、
前記画像に表される前記物標の少なくとも一部が前記強調対象物標であることを前記第2情報が表している場合、前記画像作成ユニットは、前記強調対象物標が被写界深度にあるように表された前記画像(57、65)を作成
前記画像作成ユニットは、被写界深度にあるように表された前記車両と、前記車両の挙動を表す表示とを含む前記画像を作成するように構成され、
前記車両の挙動を表す表示は、前記車両のストップランプ又はターンランプが点灯又は点滅する表示である、
画像処理システム。
An image processing system (41, 3) comprising an information providing device (41) and an image processing device (3),
The information providing device includes first information representing the position of a target (59) existing around the vehicle (2), and second information representing whether or not the target is a target to be emphasized (59A). and configured to provide
The image processing device is
an information acquisition unit (35) configured to acquire said first information and said second information from said information providing device;
an image creation unit (37) configured to create an image (57, 65, 67) representing the target at the location represented by the first information;
with
When the second information indicates that at least a part of the target represented in the image is the target to be emphasized, the image creation unit may determine that the target to be emphasized is within the depth of field. creating said image (57, 65) represented as
the image creation unit is configured to create the image including the vehicle represented as being in a depth of field and a representation representing behavior of the vehicle;
The display representing the behavior of the vehicle is a display in which a stop lamp or a turn lamp of the vehicle lights up or blinks.
image processing system.
JP2020101592A 2020-06-11 2020-06-11 Image processing device, program, and image processing system Active JP7276255B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020101592A JP7276255B2 (en) 2020-06-11 2020-06-11 Image processing device, program, and image processing system
PCT/JP2021/021574 WO2021251339A1 (en) 2020-06-11 2021-06-07 Image processing device, program, and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020101592A JP7276255B2 (en) 2020-06-11 2020-06-11 Image processing device, program, and image processing system

Publications (3)

Publication Number Publication Date
JP2021196743A JP2021196743A (en) 2021-12-27
JP2021196743A5 JP2021196743A5 (en) 2022-08-17
JP7276255B2 true JP7276255B2 (en) 2023-05-18

Family

ID=78846265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020101592A Active JP7276255B2 (en) 2020-06-11 2020-06-11 Image processing device, program, and image processing system

Country Status (2)

Country Link
JP (1) JP7276255B2 (en)
WO (1) WO2021251339A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018148530A (en) 2017-03-09 2018-09-20 株式会社Jvcケンウッド Vehicle display controller, vehicle display system, vehicle display control method, and program
JP2019180075A (en) 2018-03-30 2019-10-17 パナソニックIpマネジメント株式会社 Operation support system, image processing system, and image processing method
JP2019179296A (en) 2018-03-30 2019-10-17 アイシン・エィ・ダブリュ株式会社 Travelling assistance device and computer program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5178553B2 (en) * 2009-01-27 2013-04-10 オリンパス株式会社 Imaging device
US10721384B2 (en) * 2014-03-27 2020-07-21 Sony Corporation Camera with radar system
JP6827378B2 (en) * 2017-07-04 2021-02-10 本田技研工業株式会社 Vehicle control systems, vehicle control methods, and programs
US20190143905A1 (en) * 2017-11-15 2019-05-16 Toyota Research Institute, Inc. Image capture with a vehicle object sensor device based on user input

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018148530A (en) 2017-03-09 2018-09-20 株式会社Jvcケンウッド Vehicle display controller, vehicle display system, vehicle display control method, and program
JP2019180075A (en) 2018-03-30 2019-10-17 パナソニックIpマネジメント株式会社 Operation support system, image processing system, and image processing method
JP2019179296A (en) 2018-03-30 2019-10-17 アイシン・エィ・ダブリュ株式会社 Travelling assistance device and computer program

Also Published As

Publication number Publication date
WO2021251339A1 (en) 2021-12-16
JP2021196743A (en) 2021-12-27

Similar Documents

Publication Publication Date Title
JP6806156B2 (en) Peripheral monitoring device
CN111052733B (en) Surrounding vehicle display method and surrounding vehicle display device
JP4807263B2 (en) Vehicle display device
EP3235684B1 (en) Apparatus that presents result of recognition of recognition target
KR20190028667A (en) Image generating apparatus, image generating method, and program
US10474907B2 (en) Apparatus that presents result of recognition of recognition target
US11787335B2 (en) Periphery monitoring device
JP7222216B2 (en) Driving support device
CN109204305B (en) Method for enriching the field of view, device for use in an observer vehicle and object, and motor vehicle
JP2018144526A (en) Periphery monitoring device
JP7014205B2 (en) Display control device and display control program
JP6876236B2 (en) Display control device
JP6448714B2 (en) Information display system
US11858414B2 (en) Attention calling device, attention calling method, and computer-readable medium
US20230373309A1 (en) Display control device
US11214197B2 (en) Vehicle surrounding area monitoring device, vehicle surrounding area monitoring method, vehicle, and storage medium storing program for the vehicle surrounding area monitoring device
JP2023112053A (en) Image processing device
JP7276255B2 (en) Image processing device, program, and image processing system
WO2017026223A1 (en) Display system
JP7318431B2 (en) Display control device and display control program
JP7342926B2 (en) Display control device and display control program
JP7255429B2 (en) Display controller and display control program
JP7439949B2 (en) Display control device, display system, display control method, and display control program
WO2020246114A1 (en) Display control device and display control program
CN116868251A (en) Display control device and display control program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220808

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230417

R151 Written notification of patent or utility model registration

Ref document number: 7276255

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151