JP7276255B2 - Image processing device, program, and image processing system - Google Patents
Image processing device, program, and image processing system Download PDFInfo
- Publication number
- JP7276255B2 JP7276255B2 JP2020101592A JP2020101592A JP7276255B2 JP 7276255 B2 JP7276255 B2 JP 7276255B2 JP 2020101592 A JP2020101592 A JP 2020101592A JP 2020101592 A JP2020101592 A JP 2020101592A JP 7276255 B2 JP7276255 B2 JP 7276255B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- target
- vehicle
- information
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Description
本開示は、画像処理装置、プログラム、及び画像処理システムに関する。 The present disclosure relates to image processing apparatuses, programs, and image processing systems.
特許文献1に、車両用運転操作補助装置用の表示装置が開示されている。表示装置は、自車線前方の先行車を表すシンボルと、自車線外の車両を表すシンボルとを異なる色で表示することで、先行車を強調表示する。
特許文献1に記載の表示装置では、車両の乗員の視線を、表示する画像の中の特定の物標に誘導できない場合がある。本開示の1つの局面では、車両の乗員の視線を、表示する画像の中の特定の物標に誘導できる画像処理装置、プログラム、及び画像処理システムを提供することが好ましい。
The display device described in
(1)本開示の1つの局面は、車両(2)が備える表示装置(15、17、19)に画像(57、65、67)を表示する画像処理装置(3)である。画像処理装置は、前記車両の周辺に存在する物標(59)の位置を表す第1情報と、前記物標が強調対象物標(59A)であるか否かを表す第2情報とを取得するように構成された情報取得ユニット(35)と、前記第1情報により表された前記位置に前記物標を表す画像を作成するように構成された画像作成ユニット(37)とを備える。 (1) One aspect of the present disclosure is an image processing device (3) that displays images (57, 65, 67) on display devices (15, 17, 19) provided in a vehicle (2). The image processing device acquires first information representing the position of a target (59) existing around the vehicle and second information representing whether or not the target is a target to be emphasized (59A). and an image creation unit (37) configured to create an image representing said target at said position represented by said first information.
前記画像に表される前記物標の少なくとも一部が前記強調対象物標であることを前記第2情報が表している場合、前記画像作成ユニットは、前記強調対象物標が被写界深度にあるように表された前記画像(57、65)を作成する。 When the second information indicates that at least a part of the target represented in the image is the target to be emphasized, the image creation unit may determine that the target to be emphasized is within the depth of field. Create the image (57, 65) represented as such.
本開示の1つの局面である画像処理装置は、作成する画像のうち、強調対象物標へ、車両の乗員の視線を誘導することができる。
(2)本開示の別の局面は、コンピュータを画像処理装置(3)として機能させるプログラムである。前記画像処理装置は、車両(2)の周辺に存在する物標(59)の位置を表す第1情報と、前記物標が強調対象物標(59A)であるか否かを表す第2情報とを取得するように構成された情報取得ユニット(35)と、前記第1情報により表された前記位置に前記物標を表す画像(57、65、67)を作成するように構成された画像作成ユニット(37)とを備える。
An image processing device, which is one aspect of the present disclosure, can guide the line of sight of a vehicle occupant to a target to be emphasized in an image to be created.
(2) Another aspect of the present disclosure is a program that causes a computer to function as an image processing device (3). The image processing device includes first information representing the position of a target (59) existing around the vehicle (2), and second information representing whether or not the target is a target to be emphasized (59A). and an image configured to create an image (57, 65, 67) representing said target at said location represented by said first information. a production unit (37).
前記画像に表される前記物標の少なくとも一部が前記強調対象物標であることを前記第2情報が表している場合、前記画像作成ユニットは、前記強調対象物標が被写界深度にあるように表された前記画像(57、65)を作成する。 When the second information indicates that at least a part of the target represented in the image is the target to be emphasized, the image creation unit may determine that the target to be emphasized is within the depth of field. Create the image (57, 65) represented as such.
本開示の別の局面であるプログラムは、コンピュータを画像処理装置として機能させる。画像処理装置は、作成する画像のうち、強調対象物標へ、車両の乗員の視線を誘導することができる。 A program, which is another aspect of the present disclosure, causes a computer to function as an image processing device. The image processing device can guide the line of sight of the vehicle occupant to the target to be emphasized in the created image.
(3)本開示の別の局面は、情報提供装置(41)と、画像処理装置(3)と、を備える画像処理システム(41、3)である。前記情報提供装置は、車両(2)の周辺に存在する物標(59)の位置を表す第1情報と、前記物標が強調対象物標(59A)であるか否かを表す第2情報とを提供するように構成される。 (3) Another aspect of the present disclosure is an image processing system (41, 3) comprising an information providing device (41) and an image processing device (3). The information providing device includes first information representing the position of a target (59) existing around the vehicle (2), and second information representing whether or not the target is a target to be emphasized (59A). and configured to provide
前記画像処理装置は、前記情報提供装置から前記第1情報及び前記第2情報を取得するように構成された情報取得ユニット(35)と、前記第1情報により表された前記位置に前記物標を表す画像(57、65、67)を作成するように構成された画像作成ユニット(37)と、を備える。 The image processing device comprises: an information acquisition unit (35) configured to acquire the first information and the second information from the information providing device; an image creation unit (37) configured to create an image (57, 65, 67) representing the.
前記画像に表される前記物標の少なくとも一部が前記強調対象物標であることを前記第2情報が表している場合、前記画像作成ユニットは、前記強調対象物標が被写界深度にあるように表された前記画像(57、65)を作成する。 When the second information indicates that at least a part of the target represented in the image is the target to be emphasized, the image creation unit may determine that the target to be emphasized is within the depth of field. Create the image (57, 65) represented as such.
本開示の別の局面である画像処理システムは、作成する画像のうち、強調対象物標へ、車両の乗員の視線を誘導することができる。 An image processing system, which is another aspect of the present disclosure, can guide the line of sight of a vehicle occupant to a target to be emphasized in an image to be created.
本開示の例示的な実施形態について図面を参照しながら説明する。
<第1実施形態>
1.車載システム1の構成
車載システム1の構成を、図1及び図2に基づき説明する。車載システム1は、車両2に搭載されている。
Exemplary embodiments of the present disclosure are described with reference to the drawings.
<First Embodiment>
1. Configuration of In-
図1に示すように、車載システム1は、画像処理装置3と、自動運転システム5と、ロケータECU7と、走行制御ECU9と、周辺監視センサ11と、メータディスプレイ15と、CID(Center Information Display)17と、HUD19と、操作デバイス21と、ボディECU23と、方向指示SW(スイッチ)25と、ドライバモニタ27と、を備える。車載システム1の各構成は、通信バス29により、互いに通信可能に接続されている。
As shown in FIG. 1, the in-
画像処理装置3は、は、CPU31と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ33とする)と、を有するマイクロコンピュータを備える。
画像処理装置3の各機能は、CPU31が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ33が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、画像処理装置3は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。
The
Each function of the
画像処理装置3は、図2に示すように、情報取得ユニット35と、画像作成ユニット37と、画像出力ユニット39と、を備える。画像処理装置3が備える各構成の機能は後述する。
自動運転システム5は、自動運転ECU41と、運転支援ECU43と、を備える。自動運転ECU41は、車両2の乗員に代わり運転操作を自動で行う自動運転機能を実現させる車載ECUである。自動運転ECU41は、例えば、米国自動車技術会が規定する自動運転レベル3以上の自律走行を可能にする。
The
The
自動運転ECU41は、図2に示すように、環境認識ユニット45と、行動判断ユニット47と、操作実行ユニット49と、を備える。
環境認識ユニット45は、ロケータECU7からロケータ情報及び地図情報を取得する。ロケータ情報及び地図情報については後述する。環境認識ユニット45は、周辺監視センサ11から検出情報を取得する。検出情報については後述する。
The automatic driving
The
環境認識ユニット45は、ロケータ情報、地図情報、及び検出情報に基づき、車両2の走行環境を認識する。走行環境として、例えば、車両2の周辺に存在する物標59の位置及び速度等が挙げられる。物標59として、例えば、他の車両、歩行者、自転車、動物、固定物、車線境界線等が挙げられる。また、走行環境として、例えば、車両2が走行しているレーンの位置及び形状等が挙げられる。
The
環境認識ユニット45は、第1情報及び第2情報を作成する。第1情報は、車両2の周辺に存在する物標59の位置を表す情報である。第2情報は、第1情報により位置を表された物標59が強調対象物標59Aであるか否かを表す情報である。強調対象物標59Aとは、車両2の乗員が注意を向けるべき物標である。
The
強調対象物標59Aとして、例えば、車両2が追従している先行車、蛇行運転をしている他の車両、車両2がレーンチェンジを予定している場合に、変更後のレーンを走行している他の車両、車両2と通信を行っている周辺車、自動運転システム5が認識した、並走を回避すべき周辺車、自動運転システム5が認識した、割り込み進入してきた周辺車等が挙げられる。
Examples of the
環境認識ユニット45は、強調対象物標59Aが2以上存在する場合、強調対象物標59Aに優先度を設定する。車両2にとって注意すべき必要性が高いほど優先度は高くなる。第2情報は、優先度をさらに含む。
The
環境認識ユニット45は、例えば、車両2の挙動に基づき優先度を設定することができる。環境認識ユニット45は、例えば、ボディECU23から、後述する方向指示情報を取得する。環境認識ユニット45は、方向指示情報に基づき、車両2が進路を変更した場合に、変更後の進路上にある物標を探索する。変更後の進路上に物標が存在する場合、環境認識ユニット45は、その物標の優先度を、他の物標の優先度より高く設定する。
The
行動判断ユニット47は、環境認識ユニット45が認識した走行環境に基づき、車両2の予定走行ラインを生成する。操作実行ユニット49は、走行制御ECU9と連携しながら、行動判断ユニット47が生成した予定走行ラインに沿って車両2が走行するように、車両2の加減速制御及び操舵制御等を実行する。操作実行ユニット49は、第3情報を作成する。第3情報は、現時点において車両2の状態が自動運転状態であるか否かを表す情報である。自動運転状態とは、自動運転を実行している状態である。
The
なお、自動運転ECU41は、第1情報と第2情報とを画像処理装置3に提供する情報提供装置に対応する。自動運転ECU41と画像処理装置3とを備えるシステムは、画像処理システムに対応する。
運転支援ECU43は、車両2の乗員の運転操作を支援する運転支援操作を実現させる車載ECUである。運転支援ECU43は、例えば、米国自動車技術会が規定する自動運転レベル2程度の高度運転支援又は部分的な自動走行制御を可能にする。
The
The driving
ロケータECU7は、GNSS(Global Navigation Satellite System)受信器及び慣性センサ等を含む。ロケータECU7は、GNSS受信器で受信する測位信号、慣性センサの計測結果、及び通信バス29に出力された車速情報等を組み合わせ、車両2の位置及び進行方向等を逐次測定する。ロケータECU7は、ロケータ情報を通信バス29に逐次出力する。ロケータ情報は、車両2の位置及び進行方向等を表す情報である。
The
ロケータECU7は、地図データベース51をさら備える。地図データベース51は、大容量の記憶媒体を主体とする構成である。記憶媒体には、多数の地図データが格納されている。地図データとして、3次元地図データ及び2次元地図データがある。3次元地図データは、いわゆる高精度地図データである。3次元地図データは、高度運転支援及び自動運転に必要な情報を含んでいる。3次元地図データは、道路の3次元形状情報、各レーンの詳細情報等を含んでいる。
The
ロケータECU7は、車両2の現在位置周辺の地図データを地図データベース51から読み出す。ロケータ7ECUは、運転支援ECU43及び自動運転ECU41等に、ロケータ情報とともに地図情報を提供する。地図情報は、地図データベース51から読み出した地図データを含む情報である。
The
なお、車載システム1は、ロケータECU7に替えて、スマートフォン等のユーザ端末又はナビゲーション装置等からロケータ情報及び地図情報を取得し、取得したロケータ情報及び地図情報を運転支援ECU43及び自動運転ECU41等に提供してもよい。
In addition, the in-
走行制御ECU9は、マイクロコントローラを主体として含む電子制御装置である。走行制御ECU9は、車両2の各輪のハブ部分に設けられた車輪速センサの検出信号に基づき、車両2の現在の走行速度を示す車速情報を生成する。走行制御ECU9は、車速情報を通信バス29に逐次出力する。
The travel control ECU 9 is an electronic control device that mainly includes a microcontroller. The travel control ECU 9 generates vehicle speed information indicating the current travel speed of the
走行制御ECU9は、ブレーキ制御ECU及び駆動制御ECUの機能を少なくとも有する。走行制御ECU9は、車両2の乗員の運転操作に基づく操作指令、運転支援ECU43からの制御指令、及び自動運転ECU41からの制御指令のいずれか一つに基づき、車両2の各輪に発生させるブレーキ力の制御と、車両2の動力源の出力制御とを継続的に実施する。
The travel control ECU 9 has at least functions of a brake control ECU and a drive control ECU. The travel control ECU 9 brakes each wheel of the
周辺監視センサ11は、車両2の周辺環境を監視する自律センサである。周辺監視センサ11は、車両2の周辺に存在する物標を検出可能である。周辺監視センサ11は、検出情報を、通信バス29を介して、運転支援ECU43及び自動運転ECU41等に提供する。検出情報は、検出した物標の位置及び速度等を表す情報である。
The
周辺監視センサ11は、例えば、カメラユニット53及びミリ波レーダ55等を含む。カメラユニット53は、単眼カメラを含む構成であってもよいし、複眼カメラを含む構成であってもよい。カメラユニット53は、例えば、車両2の前方範囲、側方範囲、及び後方範囲等を撮影可能である。検出情報は、例えば、カメラユニット53が車両2の周囲を撮影して生じた撮像データ、及び撮像データの解析結果の少なくとも一方を含む。
The
ミリ波レーダ55は、ミリ波又は準ミリ波を車両2の周囲へ向けて照射する。ミリ波レーダ55は、物標で反射した反射波を受信する。検出情報は、例えば、ミリ波レーダ55の検出結果を含む。周辺監視センサ11は、ライダ及びソナー等をさらに備えていてもよい。
The
メータディスプレイ15及びCID17は、それぞれ、例えば、液晶ディスプレイ又はOLED(Organic Light Emitting Diode)ディスプレイ等を主体とする構成である。メータディスプレイ15及びCID17は、画像処理装置3から取得する制御信号及び映像データに基づき、種々の画像を表示画面に表示させる。メータディスプレイ15は、例えば、車両2の運転席の正面に設置されている。CID17は、例えば、車両2のセンタクラスタの上方に設置されている。CID17は、タッチパネルの機能を有している。CID17は、例えば、車両2の乗員等による表示画面へのタッチ操作及びスワイプ操作等を検出する。
The
HUD19は、画像処理装置3から取得する制御信号及び映像データに基づき、車両2の乗員の前方に結像される画像の光を、ウィンドシールドに投影する。ウィンドシールドにて車両2の車室内側に反射された画像の光は、車両2の乗員によって知覚される。こうしてHUD19は、ウィンドシールドよりも前方の空間中に虚像を表示する。車両2の乗員は、HUD19によって表示される虚像を、車両2の前景と重ねて視認する。
The
なお、メータディスプレイ15、CID17、及びHUD19は、車両2が備える表示装置に対応する。
操作デバイス21は、車両2の乗員等によるユーザ操作を受け付ける入力部である。操作デバイス21には、例えば、自動運転機能の作動及び停止に関連するユーザ操作等が入力される。操作デバイス21として、例えば、ステアリングホイールのスポーク部に設けられたステアスイッチ、ステアリングコラム部に設けられた操作レバー、及び車両2の乗員の発話内容を認識する音声入力装置等が挙げられる。
Note that the
The
ボディECU23は、マイクロコントローラを主体として含む電子制御装置である。ボディECU23は、車両2に搭載された灯火装置の作動を制御する機能を少なくとも有する。ボディECU23は、方向指示スイッチ25と電気的に接続されている。方向指示スイッチ25は、ステアリングコラム部に設けられたレバー状の操作部である。
The
方向指示スイッチ25は、左方向の操作と、右方向の操作とを受け付けることができる。方向指示スイッチ25が左方向の操作を受け付けたとき、ボディECU23は、左の方向指示器の点滅を開始させる。方向指示スイッチ25が右方向の操作を受け付けたとき、ボディECU23は、右の方向指示器の点滅を開始させる。
The direction switch 25 can accept a leftward operation and a rightward operation. When the
ボディECU23は、方向指示情報を、通信バス29を介して、自動運転ECU41等に提供する。方向指示情報は、方向指示スイッチ25に対し行われた操作の内容を表す情報である。
ドライバモニタ27は、近赤外光源及び近赤外カメラと、これらを制御する制御ユニットとを含む構成である。ドライバモニタ27は、例えば、ステアリングコラム部の上面又はインスツルメントパネルの上面等に設置されている。ドライバモニタ27は、近赤外カメラが運転席のヘッドレスト部分に向くように取付けられている。
The
The driver monitor 27 includes a near-infrared light source, a near-infrared camera, and a control unit for controlling them. The driver monitor 27 is installed, for example, on the upper surface of the steering column or the upper surface of the instrument panel. The driver monitor 27 is attached so that the near-infrared camera faces the headrest portion of the driver's seat.
ドライバモニタ27は、近赤外光源によって近赤外光を照射された、車両2の乗員の頭部を、近赤外カメラによって撮影する。近赤外カメラによる撮像画像は、制御ユニットによって画像解析される。制御ユニットは、車両2の乗員のアイポイントの位置及び視線方向等を表す情報(以下では乗員情報とする)を撮像画像から抽出する。制御ユニットは、抽出した乗員情報を、通信バス29を介して、画像処理装置3等に提供する。
The driver monitor 27 uses a near-infrared camera to photograph the head of the occupant of the
2.画像処理装置3が実行する処理
画像処理装置3が所定時間ごとに繰り返し実行する処理を、図3~図12に基づき説明する。図3のステップ1では、情報取得ユニット35が、環境認識ユニット45から第1情報及び第2情報を取得する。第1情報は、車両2の周辺に存在する物標の位置を表す情報である。第2情報は、第1情報により位置を表された物標が強調対象物標59Aであるか否かを表す情報である。また、情報取得ユニット35は、行動判断ユニット47から第3情報を取得する。第3情報は、現時点において車両2の状態が自動運転状態であるか否かを表す情報である。
2. 3. Processing Executed by
ステップ2では、画像作成ユニット37が、前記ステップ1で取得した第3情報に基づき、現時点において車両2の状態が自動運転状態であるか否かを判断する。自動運転状態であると判断した場合、本処理はステップ3に進む。自動運転状態ではないと判断した場合、本処理は終了する。
In
ステップ3では、画像作成ユニット37が、第1情報により位置を表された物標のうち、強調対象物標59Aに該当するものを認識する。画像作成ユニット37は、前記ステップ1で取得した第2情報において強調対象物標59Aであるとされている物標を、強調対象物標59Aとして認識する。画像作成ユニット37は、認識した強調対象物標59Aの数を算出する。強調対象物標59Aの数が1である場合、本処理はステップ4に進む。強調対象物標59Aの数が2以上である場合、本処理はステップ5に進む。強調対象物標59Aの数が0である場合、本処理はステップ6に進む。
In
ステップ4では、画像作成ユニット37が、第1画像57を作成する。第1画像57の例を図4に示す。第1画像57は、物標59を表す画像である。図4に示す例では、物標59は他の車両である。第1画像57は、例えば、一定の撮影位置からカメラにより撮影された撮影画像を模した合成画像である。撮影位置は、例えば、車両2の上方且つ後方の位置である。第1画像57における物標59の位置は、第1情報により表された物標の位置である。
In step 4 ,
第1画像57の一部は、被写界深度領域61である。被写界深度領域61の中にある物標59は、被写界深度にあるように表される。すなわち、被写界深度領域61の中にある物標59は、被写界深度領域61の外にある物標59に比べて、一層ピントが合っているように表される。
A portion of
第1画像57において、強調対象物標59Aは、被写界深度領域61の中にある。よって、第1画像57において、強調対象物標59Aは、被写界深度にあるように表される。第1画像57において、例えば、強調対象物標59Aには、強調表現がなされている。
In
強調表現として、例えば、ハイライトを加えること、アニメーションの加工を加えること、別の部品を加えること等が挙げられる。アニメーションの加工として、例えば、点滅のアニメーション、拡大のアニメーション等が挙げられる。別の部品として、例えば、スポットライト、波紋マーク、矢印等が挙げられる。また、強調表現として、例えば、強調対象物標59Aではない物標59(以下では通常物標59Bとする)とは異なる色で表すこと等が挙げられる。
例えば、被写界深度領域61の中に1つの物標59のみしか存在しない場合等では、強調対象物標59Aには、強調表現がなされていなくてもよい。
Examples of emphasizing expressions include adding highlights, adding animation processing, adding other parts, and the like. Animation processing includes, for example, blinking animation, enlargement animation, and the like. Other components include, for example, spotlights, ripple marks, arrows, and the like. In addition, as the emphasized expression, for example, the target 59 that is not the emphasized
For example, when only one target 59 exists in the depth of
第1画像57において、被写界深度領域61の中に、通常物標59Bが存在してもよいし、存在しなくてもよい。図4に示す例では、被写界深度領域61の中に通常物標59Bが存在する。被写界深度領域61の中にある通常物標59Bには、例えば、上述した強調表現がなされていない。被写界深度領域61の中にある通常物標59Bには、例えば、目立ちにくくなる表現がなされている。目立ちにくくなる表現として、例えば、モザイク表現、トーンダウン、低画素化、アニメーションの加工を加えること、別の部品を加えること等が挙げられる。アニメーションの加工として、例えば、通常物標59Bを縮小すること等が挙げられる。別の部品として、例えば、通常物標59Bを隠すマスク等が挙げられる。
In the
第1画像57において、例えば、被写界深度領域61の外に、通常物標59Bが存在する。被写界深度領域61の外にある通常物標59Bは、被写界深度の外にあるように表される。すなわち、被写界深度領域61の外にある通常物標59Bは、強調対象物標59Aに比べて、ピントが合っていないように表される。被写界深度領域61の外にある通常物標59Bには、例えば、上述した強調表現がなされていない。
In the
第1画像57は、例えば、図4に示すように、車両2を含む。車両2は、例えば、被写界深度領域61の中に存在する。この場合、第1画像57において、車両2は、被写界深度領域61の外にある通常物標59Bに比べて、ピントが合っているように表される。車両2は、例えば、被写界深度領域61の外に存在していてもよい。また、第1画像57は、被写界深度領域61とは別の被写界深度領域61を備えていてもよい。車両2は、例えば、被写界深度領域61とは別の被写界深度領域の中に存在していてもよい。
The
第1画像57は、例えば、車両2の挙動を表す表示を含む。車両2の挙動を表す表示として、例えば、第1画像57に表された車両2のストップランプやターンランプが点灯したり点滅したりする表示が挙げられる。第1画像57に表された車両2のストップランプが点灯する表示は、車両2がブレーキをかけたことを表す。第1画像57に表された車両2のターンランプが点滅する表示は、車両2が右又は左に進路を変えることを表す。車両2がブレーキをかけること、及び、車両2が右又は左に進路を変えることは、車両2の挙動に対応する。
例えば、車両2のストップランプやターンランプが点灯したり点滅したりする表示をする場合、車両2を強調対象物標59Aとしてもよい。
The
For example, when the stop lamps and turn lamps of the
第1画像57は、図5に示すものであってもよい。図5に示す第1画像57は、図4に示す第1画像57と基本的には同じである。ただし、図5に示す第1画像57は、警告63をさらに含む。警告63は、車両2の乗員に伝えるべき内容を含む。警告63の内容は、例えば、強調対象物標59Aに関する内容である。第1画像57において、警告63は、被写界深度領域61の外にある。警告63は、ピントが合っているように表される。
The
ステップ5では、画像作成ユニット37が、第2画像65を作成する。第2画像65の例を図6に示す。第2画像65は、基本的には、第1画像57と同じである。ただし、第2画像65において、2以上の強調対象物標59Aが、被写界深度領域61の中にある。例えば、第2画像65において、第2情報によって強調対象物標59Aであるとされた全ての強調対象物標59Aが、被写界深度領域61の中にある。よって、第2画像65において、2以上の強調対象物標59Aは、それぞれ、被写界深度にあるように表される。
In
第2画像65において、例えば、2以上の強調対象物標59Aには、それぞれ、強調表現がなされている。例えば、第2画像65は、第1画像57に比べて、被写界深度が深いように表される。2以上の強調対象物標59Aの間に優先度の差がある場合、第2画像65において、例えば、強調対象物標59Aは、その優先度が高いほど、ピントが一層合っているように表される。また、第2画像65において、例えば、強調対象物標59Aには、その優先度が高いほど、著しい強調表現がなされている。
In the
第2画像65は、図7に示すものであってもよい。図7に示す第2画像65は、分割画像65Aと分割画像65Bとに分割されている。分割画像65Aは、被写界深度領域61Aを含む。分割画像65Bは、被写界深度領域61Bを含む。被写界深度領域61Aの上下方向における位置と、被写界深度領域61Bの上下方向における位置とは、例えば、異なる。
The
分割画像65Aにおいて、強調対象物標59Aは、被写界深度領域61Aの中にある。分割画像65Bにおいて、強調対象物標59Aは、被写界深度領域61Bの中にある。分割画像65A及び分割画像65Bのそれぞれにおいて、例えば、強調対象物標59Aには、強調表現がなされている。
In
分割画像65A及び分割画像65Bに存在する全ての強調対象物標59Aを含む1つの被写界深度領域を設ける場合に比べて、分割画像65A及び分割画像65Bは、被写界深度が狭いように表される。そのため、強調対象物標59Aに車両2の乗員の視線を誘導する効果が一層高い。
The divided
ステップ6では、画像作成ユニット37が、第3画像67を作成する。第3画像67の例を図8に示す。図8に示す第3画像67は、基本的には、第1画像57と同じである。ただし、図8に示す第3画像67では、全ての通常物標59Bが、ピントが合っているように表される。また、第3画像67は、強調対象物標59Aを含まない。
In step 6 ,
第3画像67は、図9に示すものであってもよい。図9に示す第3画像67は、基本的には、第1画像57と同じである。ただし、図9に示す第3画像67では、被写界深度領域61の中に、車両2に対して前車に該当する通常物標59Bが存在する。
The
第3画像67は、図10に示すものであってもよい。図10に示す第3画像67は、基本的には、第1画像57と同じである。ただし、図10に示す第3画像67では、被写界深度領域61の中に、車両2が存在する。被写界深度領域61の中に、通常物標59Bがさらに存在してもよい。
The
ステップ7では、画像出力ユニット39が、前記ステップ4~6のいずれかで作成された画像に対応する制御信号及び映像データを、表示装置に出力する。表示装置は、メータディスプレイ15、CID17、及びHUD19のうちの1以上である。表示装置は、前記ステップ4~6のいずれかで作成された画像を表示する。車両2の乗員は、表示された画像を見ることができる。
In
画像処理装置3は上述したステップ1~7の処理を繰り返す。時間の経過にともない、第2画像65に表されている強調対象物標59Aの優先度が変化することがある。図11に示す事例では、第2画像65は、2つの強調対象物標59Aを表す。時刻T1において、2つの強調対象物標59Aのうち、右車線にある強調対象物標59Aが、優先物標59Mであった。優先物標59Mとは、優先度が最も高い強調対象物標59Aである。
The
時刻T1での第2画像65は、例えば、優先物標59Mを、左側にある強調対象物標59Aに比べて、一層ピントが合っているように表す。また、時刻T1での第2画像65において、例えば、優先物標59Mには、左側にある強調対象物標59Aに比べて、一層著しい強調表現がなされている。
The
時刻T2において、車両2の左の方向指示器の点滅が始まった。方向指示情報の内容は、方向指示スイッチ25に対して左方向の操作がなされたことを表す内容となった。環境認識ユニット45は、方向指示情報に基づき、2つの強調対象物標59Aのうち、左側にある強調対象物標59Aを、優先物標59Mとした。右車線にある強調対象物標59Aは、優先物標59Mではなくなった。
At time T2, the left direction indicator of the
時刻T2での第2画像65は、例えば、新たな優先物標59Mを、右車線にある強調対象物標59Aに比べて、一層ピントが合っているように表す。また、時刻T2での第2画像65において、例えば、新たな優先物標59Mには、右車線にある強調対象物標59Aに比べて、一層著しい強調表現がなされている。
The
画像処理装置3は上述したS1~7の処理を繰り返す。時間の経過にともない、第1画像57又は第2画像65に表されている強調対象物標59Aが変化することがある。例えば、通常物標59Bが、強調対象物標59Aに変化することがある。また、強調対象物標59Aが、通常物標59Bに変化することがある。また、それまで画角の外にあった強調対象物標59Aが、第1画像57又は第2画像65に新たに表されることがある。また、第1画像57又は第2画像65にそれまで表されていた強調対象物標59Aが、消失することがある。
The
画像作成ユニット37は、強調対象物標59Aの変化に応じて、第1画像57及び第2画像65を変化させる。例えば、画像作成ユニット37は、変化後の強調対象物標59Aが被写界深度領域61に含まれるように、被写界深度領域61の位置、大きさ、形状、ピント位置等を変化させる。ピント位置とは、被写界深度領域61の中で最もはっきり見える部分である。画像作成ユニット37は、被写界深度領域61の位置、大きさ、形状、ピント位置等を、シームレスに変化させることが好ましい。
The
画像作成ユニット37は、強調対象物標59Aの位置や数等に応じて、第1画像57又は第2画像65の表示範囲を変更することができる。例えば、画像作成ユニット37は、図12の左側に示す広い表示範囲の第1画像57と、右側に示す狭い表示範囲の第1画像57とのいずれか一方を、強調対象物標59Aの位置や数等に応じて選択することができる。画像作成ユニット37は、第1画像57又は第2画像65の表示範囲を、シームレスに変化させることが好ましい。
The
3.画像処理装置3が奏する効果
(1A)画像処理装置3は、第1情報と、第2情報とを取得する。画像処理装置3は、第1情報により表された位置に物標59を表す画像を作成する。画像に表される物標59の少なくとも一部が強調対象物標59Aであることを第2情報が表している場合、画像処理装置3は、強調対象物標59Aが被写界深度にあるように表された第1画像57又は第2画像65を作成する。
3. Effects of Image Processing Apparatus 3 (1A) The
第1画像57又は第2画像65において、強調対象物標59Aは、被写界深度にあるように表されるので、車両2の乗員の注意を引きやすい。そのため、画像処理装置3は、第1画像57又は第2画像65のうち、強調対象物標59Aへ、車両2の乗員の視線を誘導することができる。
In the
(1B)画像処理装置3は、被写界深度にあるように表された車両2と、車両2の挙動を表す表示とを含む画像を作成することができる。車両2の乗員は、画像を見ることで、車両2の挙動を容易に理解することができる。また、車両2の乗員は、画像を見ることで、車両2の挙動と強調対象物標59Aとの関連性を理解することができる。
(1B) The
(1C)画像処理装置3は、画像のうち、被写界深度の外であるように表された部分に警告63を表示することができる。警告63の周囲は、ピントが合っていないように表されているので、警告63が目立ちやすい。
(1C) The
(1D)第1画像57又は第2画像65において、強調対象物標59Aが変化した場合、画像処理装置3は、変化後の強調対象物標59Aが被写界深度にあるように表されるように、第1画像57又は第2画像65を変化させる。そのため、強調対象物標59Aが変化した場合でも、画像処理装置3は、前記(1A)の効果を維持できる。
(1D) In the
(1E)第2情報は、強調対象物標59Aの優先度を表す。画像処理装置3は、第1画像57又は第2画像65において、強調対象物標59Aを、優先度が高いほどピントが一層合っているように表す。画像処理装置3は、第1画像57又は第2画像65の中で、優先度が高い強調対象物標59Aへ、車両2の乗員の視線を一層誘導することができる。
(1E) The second information represents the priority of the
(1F)第1画像57又は第2画像65に表されている強調対象物標59Aの優先度が変化した場合、画像処理装置3は、強調対象物標59Aの表現を、変化後の優先度に応じた表現に変化させる。そのため、強調対象物標59Aの優先度が変化した場合でも、画像処理装置3は、前記(1E)の効果を維持することができる。
<他の実施形態>
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(1F) When the priority of the target object 59A to be emphasized represented in the
<Other embodiments>
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and various modifications can be made.
(1)画像処理装置3は、画像のうち、被写界深度領域61以外の部分のテクスチャ解像度や表示ポリゴン数を、被写界深度領域61に比べて削減することができる。この場合、画像処理装置3の計算負荷を軽減できる。
(1) The
(2)強調対象物標59Aの優先度を、方向指示情報以外の情報に基づき設定してもよい。例えば、画像処理装置3は、ドライバモニタ27から取得した乗員情報に基づき、強調対象物標59Aの優先度を設定する。
(2) The priority of the
乗員情報は、例えば、車両2の乗員の視線方向を表す情報である。画像処理装置3は、車両2の乗員が見ていない方向にある強調対象物標59Aの優先度を、車両2の乗員の視線方向にある強調対象物標59Aの優先度より高くする。この場合、画像処理装置3は、車両2の乗員が気づいていないおそれがある強調対象物標59Aに、車両2の乗員の視線を誘導できる。
The occupant information is, for example, information representing the line-of-sight direction of the occupant of the
(3)本開示に記載の画像処理装置3及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の画像処理装置3及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の画像処理装置3及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。画像処理装置3に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
(3) The
(4)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。 (4) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or a function possessed by one component may be realized by a plurality of components. . Also, a plurality of functions possessed by a plurality of components may be realized by a single component, or a function realized by a plurality of components may be realized by a single component. Also, part of the configuration of the above embodiment may be omitted. Moreover, at least part of the configuration of the above embodiment may be added or replaced with respect to the configuration of the other above embodiment.
(5)上述した画像処理装置3の他、当該画像処理装置3を構成要素とするシステム、当該画像処理装置3としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、画像処理方法、画像作成方法、画像表示方法等、種々の形態で本開示を実現することもできる。
(5) In addition to the
2…車両、3…画像処理装置、15…メータディスプレイ、17…CID、19…HUD、35…情報取得ユニット、37…画像作成ユニット、39…画像出力ユニット、41…自動運転ECU、45…環境認識ユニット、47…行動判断ユニット、49…操作実行ユニット、57…第1画像、59…物標、59A…強調対象物標、59B…通常物標、59M…優先物標、61、61A、61B…被写界深度領域、63…警告、65…第2画像、67…第3画像
2
Claims (7)
前記車両の周辺に存在する物標(59)の位置を表す第1情報と、前記物標が強調対象物標(59A)であるか否かを表す第2情報とを取得するように構成された情報取得ユニット(35)と、
前記第1情報により表された前記位置に前記物標を表す画像を作成するように構成された画像作成ユニット(37)と、
を備え、
前記画像に表される前記物標の少なくとも一部が前記強調対象物標であることを前記第2情報が表している場合、前記画像作成ユニットは、前記強調対象物標が被写界深度にあるように表された前記画像(57、65)を作成し、
前記画像作成ユニットは、被写界深度にあるように表された前記車両と、前記車両の挙動を表す表示とを含む前記画像を作成するように構成され、
前記車両の挙動を表す表示は、前記車両のストップランプ又はターンランプが点灯又は点滅する表示である画像処理装置。 An image processing device (3) configured to display images (57, 65, 67) on display devices (15, 17, 19) of a vehicle (2),
It is configured to acquire first information representing the position of a target (59) existing around the vehicle and second information representing whether or not the target is a target to be emphasized (59A). an information acquisition unit (35),
an image creation unit (37) configured to create an image representing the target at the location represented by the first information;
with
When the second information indicates that at least a part of the target represented in the image is the target to be emphasized, the image creation unit may determine that the target to be emphasized is within the depth of field. creating said image (57, 65) represented as
the image creation unit is configured to create the image including the vehicle represented as being in a depth of field and a representation representing behavior of the vehicle;
The image processing device , wherein the display representing the behavior of the vehicle is a display in which a stop lamp or a turn lamp of the vehicle lights up or blinks .
前記画像作成ユニットは、前記画像のうち、被写界深度の外であるように表された部分に警告(63)を表示するように構成された画像処理装置。 The image processing device according to claim 1,
An image processing device, wherein the image creation unit is configured to display a warning (63) on portions of the image that are represented as being outside the depth of field.
前記画像において、前記強調対象物標が変化した場合、前記画像作成ユニットは、変化後の前記強調対象物標が被写界深度にあるように表されるように、前記画像を変化させる画像処理装置。 The image processing device according to claim 1 or 2 ,
In the image, when the object to be emphasized has changed, the image creation unit changes the image so that the object to be emphasized after the change is represented in the depth of field. Device.
前記第2情報は、前記強調対象物標の優先度をさらに表し、
前記画像作成ユニットは、前記画像において、前記強調対象物標を、前記優先度が高いほどピントが一層合っているように表すように構成された画像処理装置。 The image processing device according to any one of claims 1 to 3 ,
the second information further represents the priority of the target to be emphasized;
The image processing device, wherein the image creation unit is configured to represent the target to be emphasized in the image so as to be more in focus as the priority is higher.
前記画像に表されている前記強調対象物標の前記優先度が変化した場合、前記画像作成ユニットは、前記強調対象物標の表現を、変化後の前記優先度に応じた表現に変化させる画像処理装置。 The image processing device according to claim 4 ,
When the priority of the target object to be emphasized represented in the image is changed, the image creation unit changes the expression of the target object to be emphasized to an expression corresponding to the changed priority. processing equipment.
前記画像処理装置は、
車両(2)の周辺に存在する物標(59)の位置を表す第1情報と、前記物標が強調対象物標(59A)であるか否かを表す第2情報とを取得するように構成された情報取得ユニット(35)と、
前記第1情報により表された前記位置に前記物標を表す画像(57、65、67)を作成するように構成された画像作成ユニット(37)と、
を備え、
前記画像に表される前記物標の少なくとも一部が前記強調対象物標であることを前記第2情報が表している場合、前記画像作成ユニットは、前記強調対象物標が被写界深度にあるように表された前記画像(57、65)を作成し、
前記画像作成ユニットは、被写界深度にあるように表された前記車両と、前記車両の挙動を表す表示とを含む前記画像を作成するように構成され、
前記車両の挙動を表す表示は、前記車両のストップランプ又はターンランプが点灯又は点滅する表示である、
プログラム。 A program that causes a computer to function as an image processing device (3),
The image processing device is
so as to obtain first information representing the position of a target (59) existing around the vehicle (2) and second information representing whether or not the target is a target to be emphasized (59A) a configured information acquisition unit (35);
an image creation unit (37) configured to create an image (57, 65, 67) representing the target at the location represented by the first information;
with
When the second information indicates that at least a part of the target represented in the image is the target to be emphasized, the image creation unit may determine that the target to be emphasized is within the depth of field. creating said image (57, 65) represented as
the image creation unit is configured to create the image including the vehicle represented as being in a depth of field and a representation representing behavior of the vehicle;
The display representing the behavior of the vehicle is a display in which a stop lamp or a turn lamp of the vehicle lights up or blinks.
program.
前記情報提供装置は、車両(2)の周辺に存在する物標(59)の位置を表す第1情報と、前記物標が強調対象物標(59A)であるか否かを表す第2情報とを提供するように構成され、
前記画像処理装置は、
前記情報提供装置から前記第1情報及び前記第2情報を取得するように構成された情報取得ユニット(35)と、
前記第1情報により表された前記位置に前記物標を表す画像(57、65、67)を作成するように構成された画像作成ユニット(37)と、
を備え、
前記画像に表される前記物標の少なくとも一部が前記強調対象物標であることを前記第2情報が表している場合、前記画像作成ユニットは、前記強調対象物標が被写界深度にあるように表された前記画像(57、65)を作成し、
前記画像作成ユニットは、被写界深度にあるように表された前記車両と、前記車両の挙動を表す表示とを含む前記画像を作成するように構成され、
前記車両の挙動を表す表示は、前記車両のストップランプ又はターンランプが点灯又は点滅する表示である、
画像処理システム。 An image processing system (41, 3) comprising an information providing device (41) and an image processing device (3),
The information providing device includes first information representing the position of a target (59) existing around the vehicle (2), and second information representing whether or not the target is a target to be emphasized (59A). and configured to provide
The image processing device is
an information acquisition unit (35) configured to acquire said first information and said second information from said information providing device;
an image creation unit (37) configured to create an image (57, 65, 67) representing the target at the location represented by the first information;
with
When the second information indicates that at least a part of the target represented in the image is the target to be emphasized, the image creation unit may determine that the target to be emphasized is within the depth of field. creating said image (57, 65) represented as
the image creation unit is configured to create the image including the vehicle represented as being in a depth of field and a representation representing behavior of the vehicle;
The display representing the behavior of the vehicle is a display in which a stop lamp or a turn lamp of the vehicle lights up or blinks.
image processing system.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020101592A JP7276255B2 (en) | 2020-06-11 | 2020-06-11 | Image processing device, program, and image processing system |
PCT/JP2021/021574 WO2021251339A1 (en) | 2020-06-11 | 2021-06-07 | Image processing device, program, and image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020101592A JP7276255B2 (en) | 2020-06-11 | 2020-06-11 | Image processing device, program, and image processing system |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021196743A JP2021196743A (en) | 2021-12-27 |
JP2021196743A5 JP2021196743A5 (en) | 2022-08-17 |
JP7276255B2 true JP7276255B2 (en) | 2023-05-18 |
Family
ID=78846265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020101592A Active JP7276255B2 (en) | 2020-06-11 | 2020-06-11 | Image processing device, program, and image processing system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7276255B2 (en) |
WO (1) | WO2021251339A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018148530A (en) | 2017-03-09 | 2018-09-20 | 株式会社Jvcケンウッド | Vehicle display controller, vehicle display system, vehicle display control method, and program |
JP2019180075A (en) | 2018-03-30 | 2019-10-17 | パナソニックIpマネジメント株式会社 | Operation support system, image processing system, and image processing method |
JP2019179296A (en) | 2018-03-30 | 2019-10-17 | アイシン・エィ・ダブリュ株式会社 | Travelling assistance device and computer program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5178553B2 (en) * | 2009-01-27 | 2013-04-10 | オリンパス株式会社 | Imaging device |
US10721384B2 (en) * | 2014-03-27 | 2020-07-21 | Sony Corporation | Camera with radar system |
JP6827378B2 (en) * | 2017-07-04 | 2021-02-10 | 本田技研工業株式会社 | Vehicle control systems, vehicle control methods, and programs |
US20190143905A1 (en) * | 2017-11-15 | 2019-05-16 | Toyota Research Institute, Inc. | Image capture with a vehicle object sensor device based on user input |
-
2020
- 2020-06-11 JP JP2020101592A patent/JP7276255B2/en active Active
-
2021
- 2021-06-07 WO PCT/JP2021/021574 patent/WO2021251339A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018148530A (en) | 2017-03-09 | 2018-09-20 | 株式会社Jvcケンウッド | Vehicle display controller, vehicle display system, vehicle display control method, and program |
JP2019180075A (en) | 2018-03-30 | 2019-10-17 | パナソニックIpマネジメント株式会社 | Operation support system, image processing system, and image processing method |
JP2019179296A (en) | 2018-03-30 | 2019-10-17 | アイシン・エィ・ダブリュ株式会社 | Travelling assistance device and computer program |
Also Published As
Publication number | Publication date |
---|---|
WO2021251339A1 (en) | 2021-12-16 |
JP2021196743A (en) | 2021-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6806156B2 (en) | Peripheral monitoring device | |
CN111052733B (en) | Surrounding vehicle display method and surrounding vehicle display device | |
JP4807263B2 (en) | Vehicle display device | |
EP3235684B1 (en) | Apparatus that presents result of recognition of recognition target | |
KR20190028667A (en) | Image generating apparatus, image generating method, and program | |
US10474907B2 (en) | Apparatus that presents result of recognition of recognition target | |
US11787335B2 (en) | Periphery monitoring device | |
JP7222216B2 (en) | Driving support device | |
CN109204305B (en) | Method for enriching the field of view, device for use in an observer vehicle and object, and motor vehicle | |
JP2018144526A (en) | Periphery monitoring device | |
JP7014205B2 (en) | Display control device and display control program | |
JP6876236B2 (en) | Display control device | |
JP6448714B2 (en) | Information display system | |
US11858414B2 (en) | Attention calling device, attention calling method, and computer-readable medium | |
US20230373309A1 (en) | Display control device | |
US11214197B2 (en) | Vehicle surrounding area monitoring device, vehicle surrounding area monitoring method, vehicle, and storage medium storing program for the vehicle surrounding area monitoring device | |
JP2023112053A (en) | Image processing device | |
JP7276255B2 (en) | Image processing device, program, and image processing system | |
WO2017026223A1 (en) | Display system | |
JP7318431B2 (en) | Display control device and display control program | |
JP7342926B2 (en) | Display control device and display control program | |
JP7255429B2 (en) | Display controller and display control program | |
JP7439949B2 (en) | Display control device, display system, display control method, and display control program | |
WO2020246114A1 (en) | Display control device and display control program | |
CN116868251A (en) | Display control device and display control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220808 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220812 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230417 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7276255 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |