JP7122408B2 - Information processing device and information processing method - Google Patents

Information processing device and information processing method Download PDF

Info

Publication number
JP7122408B2
JP7122408B2 JP2021020129A JP2021020129A JP7122408B2 JP 7122408 B2 JP7122408 B2 JP 7122408B2 JP 2021020129 A JP2021020129 A JP 2021020129A JP 2021020129 A JP2021020129 A JP 2021020129A JP 7122408 B2 JP7122408 B2 JP 7122408B2
Authority
JP
Japan
Prior art keywords
vehicle
display
window
information processing
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021020129A
Other languages
Japanese (ja)
Other versions
JP2022071801A (en
Inventor
正史 程塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Research Institute Ltd
Original Assignee
Japan Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Research Institute Ltd filed Critical Japan Research Institute Ltd
Publication of JP2022071801A publication Critical patent/JP2022071801A/en
Priority to JP2022126460A priority Critical patent/JP7340078B2/en
Application granted granted Critical
Publication of JP7122408B2 publication Critical patent/JP7122408B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置及び情報処理方法に関する。
に関する。
The present invention relates to an information processing device and an information processing method.
Regarding.

車両に乗車する人物が視認する景色に画像を重畳する拡張現実(AR;Augmented Reality)の表示技術がある。例えば特許文献1では、車両のフロントガラスにオブジェクトを投影するヘッドアップディスプレイシステムにおいて、車両の動作方向に応じてオブジェクトを補正する画像処理装置が開示されている。 There is a display technology of augmented reality (AR) that superimposes an image on a scenery visually recognized by a person riding in a vehicle. For example, Patent Literature 1 discloses an image processing device that corrects an object according to the movement direction of the vehicle in a head-up display system that projects the object onto the windshield of the vehicle.

特開2019-202698号公報JP 2019-202698 A

しかしながら、特許文献1に係る発明は運転支援を目的としたオブジェクトをフロントガラスに投影するのみで、運転支援以外のコンテンツを乗車人物に提示するに至っていない。 However, the invention according to Patent Document 1 only projects an object for driving assistance onto the windshield, and does not present content other than driving assistance to the passenger.

一つの側面では、ARコンテンツを好適に表示することができる情報処理装置等を提供することを目的とする。 An object of one aspect is to provide an information processing apparatus or the like capable of suitably displaying AR content.

一つの側面に係る情報処理装置は、車両の窓を表示領域として画像を表示する表示部と、前記車両の状況を示すデータを取得する第1取得部と、前記窓に表示するオブジェクトを取得する第2取得部と、前記車両の状況に応じて、実空間における前記オブジェクトの配置位置を決定する決定部と、前記窓を介して前記配置位置に前記オブジェクトが視認されるように、前記窓における前記オブジェクトの表示位置を制御する表示制御部とを備え、前記第1取得部は、前記車両の目的地を取得し、前記第2取得部は、前記目的地に応じたオブジェクトを取得し、前記決定部は、オブジェクト毎に該オブジェクトを配置する前記車両からの相対位置を規定するテーブルを参照して、前記オブジェクトを配置する前記車両からの相対位置を決定し、前記第1取得部は、前記実空間に存在する周辺物の位置及び形状を検出した検出結果を取得し、前記表示制御部は、前記実空間において前記相対位置に存在する前記周辺物の位置及び形状に基づき、前記オブジェクトの表示を制御するAn information processing apparatus according to one aspect includes a display unit that displays an image using a window of a vehicle as a display area, a first acquisition unit that acquires data indicating the state of the vehicle, and an object to be displayed on the window. a second acquisition unit, a determination unit that determines a placement position of the object in the real space according to the situation of the vehicle, and a position on the window so that the object can be seen at the placement position through the window. a display control unit that controls a display position of the object , wherein the first acquisition unit acquires a destination of the vehicle; the second acquisition unit acquires an object according to the destination; The determining unit refers to a table that specifies a relative position of each object from the vehicle to place the object, and determines the relative position of the object from the vehicle. Acquiring a detection result of detecting the position and shape of a peripheral object existing in the real space, and displaying the object based on the position and shape of the peripheral object existing at the relative position in the real space. to control .

一つの側面では、ARコンテンツを好適に表示することができる。 In one aspect, AR content can be displayed favorably.

オブジェクト表示システムの構成例を示す説明図である。1 is an explanatory diagram showing a configuration example of an object display system; FIG. サーバの構成例を示すブロック図である。It is a block diagram which shows the structural example of a server. 車載装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of an in-vehicle apparatus. コンテンツDB、車両DB、表示テーブルのレコードレイアウトの一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of record layouts of a content DB, a vehicle DB, and a display table; 車両内部を示す模式図である。FIG. 2 is a schematic diagram showing the inside of the vehicle; 目的地に応じたオブジェクトの表示例を示す説明図である。FIG. 4 is an explanatory diagram showing a display example of objects according to destinations; 周辺構造物に応じたオブジェクトの表示例を示す説明図である。FIG. 5 is an explanatory diagram showing an example of display of objects according to surrounding structures; 周辺移動体に応じたオブジェクトの表示例を示す説明図である。FIG. 11 is an explanatory diagram showing an example of display of objects according to peripheral moving bodies; 車速に応じたオブジェクトの表示例を示す説明図である。FIG. 5 is an explanatory diagram showing an example of display of objects according to vehicle speed; 他の車両からのメッセージの表示例を示す説明図である。FIG. 5 is an explanatory diagram showing a display example of a message from another vehicle; 車載装置が実行する処理手順の一例を示すフローチャートである。4 is a flowchart showing an example of a processing procedure executed by an in-vehicle device; 車載装置が実行する処理手順の一例を示すフローチャートである。4 is a flowchart showing an example of a processing procedure executed by an in-vehicle device; 実施の形態2の概要を示す説明図である。FIG. 10 is an explanatory diagram showing an overview of Embodiment 2; 実施の形態2に係る車載装置が実行する処理手順の一例を示すフローチャートである。9 is a flowchart showing an example of a processing procedure executed by an in-vehicle device according to Embodiment 2; 実施の形態3の概要を示す説明図である。FIG. 11 is an explanatory diagram showing an overview of Embodiment 3;

以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施の形態1)
図1は、オブジェクト表示システムの構成例を示す説明図である。本実施の形態では、所定のARコンテンツに係るオブジェクトを、車両4の窓(以下、「車窓」と記載)に表示するオブジェクト表示システムについて説明する。オブジェクト表示システムは、サーバ1と、車両4に搭載された車載装置2(情報処理装置)とを含む。各装置は、ネットワークNを介して通信接続されている。
Hereinafter, the present invention will be described in detail based on the drawings showing its embodiments.
(Embodiment 1)
FIG. 1 is an explanatory diagram showing a configuration example of an object display system. In the present embodiment, an object display system that displays an object related to predetermined AR content on a window of the vehicle 4 (hereinafter referred to as "car window") will be described. The object display system includes a server 1 and an in-vehicle device 2 (information processing device) mounted on a vehicle 4 . Each device is connected via a network N for communication.

サーバ1は、種々の情報処理、情報の送受信が可能なサーバコンピュータである。なお、サーバ1に相当する装置はパーソナルコンピュータ等であってもよい。サーバ1は、車載装置2に配信するARコンテンツを管理するサーバコンピュータであり、ネットワークNを介して車載装置2にARコンテンツを配信する。 The server 1 is a server computer capable of various types of information processing and transmission/reception of information. A device corresponding to the server 1 may be a personal computer or the like. The server 1 is a server computer that manages AR content to be distributed to the in-vehicle device 2 , and distributes the AR content to the in-vehicle device 2 via the network N.

車両4は、本システムのユーザが利用する車両である。車両4は、例えば自動運転車であるが、自動運転機能を有しない手動運転車両であってもよい。車両4には車載装置2が搭載され、ARコンテンツをユーザに提示する。なお、図1では車両4を一台しか図示していないが、サーバ1は複数の車両4と通信可能に接続されている。 A vehicle 4 is a vehicle used by a user of this system. The vehicle 4 is, for example, an automatic vehicle, but may be a manually operated vehicle that does not have an automatic driving function. An in-vehicle device 2 is mounted in a vehicle 4 and presents AR content to the user. Although only one vehicle 4 is shown in FIG. 1, the server 1 is connected to a plurality of vehicles 4 so as to be communicable.

車載装置2は、サーバ1から配信されたARコンテンツに係るオブジェクトの表示を制御する装置である。なお、車載装置2は、ECU(Electronic Control Unit)のように車両4に組み込まれた装置であってもよく、又は車両4に外付けされた装置であってもよい。車載装置2は、車両4の車窓を表示領域とした表示手段を備え、車窓に画像を表示する。詳しくは後述するように、車載装置2は、車両4のフロントガラス、フロントドアガラス、リアドアガラス、ルーフガラス等の複数の車窓を表示領域として、いずれかの車窓にオブジェクトを表示する(図5参照)。 The in-vehicle device 2 is a device that controls display of objects related to AR content distributed from the server 1 . The in-vehicle device 2 may be a device built into the vehicle 4 like an ECU (Electronic Control Unit), or may be a device externally attached to the vehicle 4 . The in-vehicle device 2 includes display means having a window of the vehicle 4 as a display area, and displays an image on the window of the vehicle. As will be described later in detail, the in-vehicle device 2 displays an object on any one of a plurality of car windows such as the windshield, front door glass, rear door glass, and roof glass of the vehicle 4 as display areas (see FIG. 5). ).

本実施の形態において車載装置2は、車両4の状況に応じて、車窓におけるオブジェクトの表示を制御する。詳しくは後述するように、車載装置2は、車両4の目的地、車両4の周辺に存在する周辺物、車両4に乗車しているユーザ(人物)の感情、車両4の走行速度(以下、「車速」と記載)等に応じて、オブジェクトを表示する車窓、その車窓におけるオブジェクトの表示位置等を制御する。 In the present embodiment, the in-vehicle device 2 controls display of objects in the car window according to the situation of the vehicle 4 . As will be described later in detail, the in-vehicle device 2 is configured to detect the destination of the vehicle 4, peripheral objects existing around the vehicle 4, the emotions of a user (person) riding in the vehicle 4, the traveling speed of the vehicle 4 (hereinafter referred to as (described as "vehicle speed"), etc., controls the car window where the object is displayed, the display position of the object in the car window, and the like.

図2は、サーバ1の構成例を示すブロック図である。サーバ1は、制御部11、主記憶部12、通信部13、及び補助記憶部14を備える。
制御部11は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサを有し、補助記憶部14に記憶されたプログラムP1を読み出して実行することにより、種々の情報処理を行う。主記憶部12は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の一時記憶領域であり、制御部11が演算処理を実行するために必要なデータを一時的に記憶する。通信部13は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。
FIG. 2 is a block diagram showing a configuration example of the server 1. As shown in FIG. The server 1 includes a control section 11 , a main storage section 12 , a communication section 13 and an auxiliary storage section 14 .
The control unit 11 has a processor such as one or more CPU (Central Processing Unit), MPU (Micro-Processing Unit), GPU (Graphics Processing Unit), etc., and reads out the program P1 stored in the auxiliary storage unit 14. By executing it, various information processing is performed. The main storage unit 12 is a temporary storage area such as SRAM (Static Random Access Memory), DRAM (Dynamic Random Access Memory), flash memory, etc., and temporarily stores data necessary for the control unit 11 to perform arithmetic processing. Remember. The communication unit 13 is a communication module for performing processing related to communication, and transmits and receives information to and from the outside.

補助記憶部14は、大容量メモリ、ハードディスク等の不揮発性記憶領域であり、制御部11が処理を実行するために必要なプログラムP1、その他のデータを記憶している。また、補助記憶部14は、コンテンツDB141、車両DB142を記憶している。コンテンツDB141は、車載装置2に配信するコンテンツを格納するデータベースである。車両DB142は、コンテンツの配信対象とする車両4の情報を格納するデータベースである。 The auxiliary storage unit 14 is a non-volatile storage area such as a large-capacity memory or hard disk, and stores a program P1 and other data necessary for the control unit 11 to execute processing. The auxiliary storage unit 14 also stores a content DB 141 and a vehicle DB 142 . The content DB 141 is a database that stores content to be distributed to the in-vehicle device 2 . The vehicle DB 142 is a database that stores information on vehicles 4 to which content is to be distributed.

なお、補助記憶部14はサーバ1に接続された外部記憶装置であってもよい。また、サーバ1は複数のコンピュータからなるマルチコンピュータであってもよく、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。 Incidentally, the auxiliary storage unit 14 may be an external storage device connected to the server 1 . Moreover, the server 1 may be a multicomputer consisting of a plurality of computers, or may be a virtual machine virtually constructed by software.

また、本実施の形態においてサーバ1は上記の構成に限られず、例えば操作入力を受け付ける入力部、画像を表示する表示部等を含んでもよい。また、サーバ1は、非一時的なコンピュータ読取可能な記録媒体1a(Non-Transitory Computer-Readable Storage Medium)を読み取る読取部を備え、記録媒体1aからプログラムP1を読み込んでもよい。 Moreover, in the present embodiment, the server 1 is not limited to the configuration described above, and may include, for example, an input unit for receiving operation inputs, a display unit for displaying images, and the like. The server 1 may also include a reader for reading a non-transitory computer-readable storage medium 1a (Non-Transitory Computer-Readable Storage Medium), and read the program P1 from the recording medium 1a.

図3は、車載装置2の構成例を示すブロック図である。車載装置2は、制御部21、主記憶部22、通信部23、表示部24、測位部25、周辺撮像部26、車内撮像部27、音声入力部28、音声出力部29、車速検出部30、及び補助記憶部31を備える。
制御部21は、一又は複数のCPU等のプロセッサを有し、補助記憶部31に記憶されたプログラムP2を読み出して実行することにより、種々の情報処理を行う。主記憶部22は、RAM等の一時記憶領域であり、制御部21が演算処理を実行するために必要なデータを一時的に記憶する。通信部23は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。
FIG. 3 is a block diagram showing a configuration example of the in-vehicle device 2. As shown in FIG. The in-vehicle device 2 includes a control unit 21 , a main storage unit 22 , a communication unit 23 , a display unit 24 , a positioning unit 25 , a peripheral imaging unit 26 , an in-vehicle imaging unit 27 , an audio input unit 28 , an audio output unit 29 , and a vehicle speed detection unit 30 . , and an auxiliary storage unit 31 .
The control unit 21 has one or more processors such as CPUs, and performs various information processing by reading and executing the program P2 stored in the auxiliary storage unit 31 . The main storage unit 22 is a temporary storage area such as a RAM, and temporarily stores data necessary for the control unit 21 to execute arithmetic processing. The communication unit 23 is a communication module for performing processing related to communication, and transmits and receives information to and from the outside.

表示部24は、車窓を表示領域として画像(オブジェクト)を表示する表示手段である。具体的には後述するように、表示部24は、車窓をスクリーンとして画像を投影する投影装置、又は車窓自体をディスプレイ画面とした透明ディスプレイ等である。測位部25は、車両4の現在位置を示す位置情報を取得するモジュールであり、例えばGPS(Global Positioning System)座標値を受信するモジュールである。 The display unit 24 is display means for displaying an image (object) using the car window as a display area. Specifically, as will be described later, the display unit 24 is a projection device that projects an image using the car window as a screen, or a transparent display that uses the car window itself as a display screen, or the like. The positioning unit 25 is a module that acquires position information indicating the current position of the vehicle 4, and is a module that receives GPS (Global Positioning System) coordinate values, for example.

周辺撮像部26は、車外を撮像範囲として画像を撮像するカメラであり、車両4周辺を撮像する。車内撮像部27は、車内を撮像範囲として画像を撮像するカメラであり、車内を撮像する。好適には、周辺撮像部26及び/又は車内撮像部27は、レーザ光等を用いた距離センサ付きのカメラ、又は複眼カメラであり、画像に写る物体との距離を取得可能に構成されている。 The periphery imaging unit 26 is a camera that captures an image with the exterior of the vehicle as an imaging range, and captures an image of the periphery of the vehicle 4 . The in-vehicle imaging unit 27 is a camera that captures an image with the interior of the vehicle as an imaging range, and captures the interior of the vehicle. Preferably, the peripheral imaging unit 26 and/or the in-vehicle imaging unit 27 is a camera with a distance sensor using laser light or the like, or a compound eye camera, and is configured to be able to acquire the distance to an object captured in the image. .

音声入力部28は音声を集音するマイクであり、車内の音声を取得する。音声出力部29は音声を出力するスピーカであり、車内に音声を出力する。車速検出部30は、車両4の車速を検出するセンサである。 The voice input unit 28 is a microphone that collects voice, and acquires the voice inside the vehicle. The audio output unit 29 is a speaker that outputs audio, and outputs audio to the inside of the vehicle. The vehicle speed detector 30 is a sensor that detects the vehicle speed of the vehicle 4 .

補助記憶部31は、ハードディスク、大容量メモリ等の不揮発性記憶領域であり、制御部21が処理を実行するために必要なプログラムP2、その他のデータを記憶している。また、補助記憶部31は、地図データM、表示テーブル311を記憶している。地図データMは、地図上の各位置における位置情報(GPS座標値)が付された地図データである。表示テーブル311は、サーバ1から配信されるコンテンツに係るオブジェクトの表示規則を格納するテーブルである。 The auxiliary storage unit 31 is a nonvolatile storage area such as a hard disk or a large-capacity memory, and stores a program P2 and other data necessary for the control unit 21 to execute processing. Further, the auxiliary storage unit 31 stores map data M and a display table 311 . The map data M is map data to which position information (GPS coordinate values) at each position on the map is added. The display table 311 is a table that stores display rules for objects related to content distributed from the server 1 .

なお、車載装置2は、非一時的なコンピュータ読取可能な記録媒体2a(Non-Transitory Computer-Readable Storage Medium)を読み取る読取部を備え、記録媒体2aからプログラムP2を読み込んでもよい。 The in-vehicle device 2 may include a reading unit that reads a non-transitory computer-readable storage medium 2a (Non-Transitory Computer-Readable Storage Medium), and may read the program P2 from the recording medium 2a.

図4は、コンテンツDB141、車両DB142、表示テーブル311のレコードレイアウトの一例を示す説明図である。
コンテンツDB141は、コンテンツID列、オブジェクトID列、オブジェクト列を含む。コンテンツID列は、各コンテンツを識別するためのコンテンツIDを記憶している。オブジェクトID列は、コンテンツIDと対応付けて、コンテンツ内の各オブジェクトを識別するためのオブジェクトIDを記憶している。オブジェクト列は、オブジェクトIDと対応付けて、オブジェクトの表示データ(2D画像、3D画像等)を記憶している。
FIG. 4 is an explanatory diagram showing an example of record layouts of the content DB 141, the vehicle DB 142, and the display table 311. As shown in FIG.
The content DB 141 includes a content ID column, an object ID column, and an object column. The content ID column stores content IDs for identifying each content. The object ID column stores an object ID for identifying each object in the content in association with the content ID. The object column stores object display data (2D image, 3D image, etc.) in association with the object ID.

車両DB142は、車両ID列、ユーザ名列、ユーザ属性列、アバター列、視聴履歴列を含む。車両ID列は、コンテンツの配信対象である各車両4を識別するための車両IDを記憶している。ユーザ名列、ユーザ属性列、アバター列、及び視聴履歴列はそれぞれ、車両IDと対応付けて、車両4に乗車するユーザの氏名、ユーザの属性情報(性別、年齢等)、後述のメッセージの送受信時に用いるアバター画像、及びユーザによるコンテンツの視聴履歴を記憶している。 The vehicle DB 142 includes a vehicle ID column, a user name column, a user attribute column, an avatar column, and a viewing history column. The vehicle ID column stores vehicle IDs for identifying each vehicle 4 to which content is to be distributed. A user name column, a user attribute column, an avatar column, and a viewing history column are associated with a vehicle ID, respectively, and the name of the user who gets on the vehicle 4, user attribute information (sex, age, etc.), and transmission/reception of messages to be described later. It stores the avatar image used at times and the content viewing history by the user.

表示テーブル311は、コンテンツID列、オブジェクトID列、表示条件列、位置列、感情列、及び動作列を含む。コンテンツID列は、各コンテンツを識別するためのコンテンツIDを記憶している。オブジェクトID列、表示条件列、及び位置列はそれぞれ、コンテンツIDと対応付けて、コンテンツ内の各オブジェクトを識別するためのオブジェクトID、オブジェクトの表示条件(出現条件)、及び実空間におけるオブジェクトの仮想的な配置位置(デフォルト値)を記憶している。感情列、並びに動作列はそれぞれ、オブジェクトIDと対応付けて、オブジェクトを視聴したユーザの感情(反応)のパターン、並びに各パターンの感情に応じたオブジェクトの表示動作及び表示時間を記憶している。 The display table 311 includes a content ID column, an object ID column, a display condition column, a position column, an emotion column, and an action column. The content ID column stores content IDs for identifying each content. The object ID column, the display condition column, and the position column are associated with the content ID, respectively, to identify the object ID for identifying each object in the content, the display condition (appearance condition) of the object, and the virtual space of the object in the real space. A typical placement position (default value) is stored. Each of the emotion column and the action column stores patterns of emotions (reactions) of the user who viewed the object, and the display operation and display time of the object according to the emotion of each pattern, in association with the object ID.

例えば、オブジェクトID「Elephant 101」のオブジェクトは、所定の表示条件を満たした場合に、車両4からの距離が300mで、かつ、車両4の直進方向を0°として「-30°」(左側30°)の方向に表示される。当該オブジェクトを視聴したユーザの感情が「興奮」であった場合、「雄たけび」の表示動作が「30秒」継続される。表示テーブル311に基づくオブジェクトの表示制御について、詳しくは後述する。 For example, when the object with the object ID “Elephant 101” satisfies a predetermined display condition, the distance from the vehicle 4 is 300 m, and the straight-ahead direction of the vehicle 4 is “−30°” (left side 30°). °) direction. If the emotion of the user viewing the object is "excitement", the display operation of "roar cry" continues for "30 seconds". The display control of objects based on the display table 311 will be described later in detail.

図5は、車両4内部を示す模式図である。図5では、後部座席から見た車両4内部の様子を模式的に図示している。図5に基づき、本実施の形態に係る車両4について説明する。 FIG. 5 is a schematic diagram showing the interior of the vehicle 4. As shown in FIG. FIG. 5 schematically shows the interior of the vehicle 4 as seen from the rear seats. A vehicle 4 according to the present embodiment will be described with reference to FIG.

本実施の形態に係る車両4は、車窓周辺のボディ面積が極力小さくなり、車窓の面積が極力大きくなるように構成されている。具体的には、車両4の各ピラー(Aピラー、Bピラー、Cピラー、ルーフピラー等。図5に太線で図示)が細長に形成され、ピラーによって遮られる視認範囲が狭くなるように構成されている。車両4には、各ピラーの間に各車窓(フロントガラス、フロントドアガラス、リアドアガラス等)が設けられている。また、本実施の形態に係る車両4は天井全面がルーフガラスで構成されている。 The vehicle 4 according to the present embodiment is configured such that the body area around the car window is minimized and the area of the car window is maximized. Specifically, each pillar of the vehicle 4 (A pillar, B pillar, C pillar, roof pillar, etc.; shown in thick lines in FIG. 5) is formed to be long and narrow, and is configured to narrow the visible range blocked by the pillars. there is Each vehicle window (a windshield, a front door glass, a rear door glass, etc.) is provided between each pillar in the vehicle 4 . Further, the entire ceiling of the vehicle 4 according to the present embodiment is made of roof glass.

上述の如く、車両4は、車窓を表示領域とする表示手段を備え、車窓に画像を表示する。具体的には、車両4は、フロントガラス、フロントドアガラス、リアドアガラス、ルーフガラス、リアガラス等、複数の車窓それぞれに画像を表示する。当該表示手段は、例えば車窓をスクリーンとするプロジェクタであるが、車窓自体を透明ディスプレイとして構成してもよく、その具体的な表示手段は特に限定されない。また、例えばルーフ部分は車窓(ガラス)とせずに遮蔽し、ルーフに画像を表示(投影)するだけであってもよい。 As described above, the vehicle 4 is provided with display means having a display area of the vehicle window, and displays an image on the vehicle window. Specifically, the vehicle 4 displays images on each of a plurality of vehicle windows such as the windshield, front door glass, rear door glass, roof glass, and rear glass. The display means is, for example, a projector using the car window as a screen, but the car window itself may be configured as a transparent display, and the specific display means is not particularly limited. Further, for example, the roof portion may be shielded instead of being used as a car window (glass), and only an image may be displayed (projected) on the roof.

また、車両4には、車内外を撮像するカメラが設置されている。例えば図5に示すように、車両4のルーフピラーには、車内撮像用のカメラ(車内撮像部27)が3つ設置されている。図示は省略するが、同様にして車外撮像用のカメラ(周辺撮像部26)も複数台設置され、車両周辺(例えば車両の前方、側方、後方及び/又は上方)を撮像する。 In addition, the vehicle 4 is equipped with a camera that captures images of the inside and outside of the vehicle. For example, as shown in FIG. 5, a roof pillar of the vehicle 4 is provided with three cameras (in-vehicle imaging units 27) for capturing images inside the vehicle. Although not shown, a plurality of cameras (periphery imaging units 26) for capturing images outside the vehicle are also installed in the same manner, and capture images of the vehicle periphery (for example, the front, sides, rear and/or above the vehicle).

なお、以下の説明では便宜上、車内撮像部27が撮像する画像を「車内画像」と呼び、周辺撮像部26が撮像する画像を「周辺画像」と呼んで区別する。 In the following description, for the sake of convenience, an image captured by the vehicle interior imaging unit 27 will be referred to as a "vehicle interior image", and an image captured by the peripheral imaging unit 26 will be referred to as a "surrounding image".

そのほか、車両4には車内の音声を集音するマイク(音声入力部28)、車内に音声を出力するスピーカ(音声出力部29)が設置されている(いずれも不図示)。 In addition, the vehicle 4 is equipped with a microphone (audio input unit 28) for collecting voices inside the vehicle and a speaker (audio output unit 29) for outputting voices inside the vehicle (both not shown).

以上の通り、車両4はユーザが視認可能な景色が極力大きくなるように構成されている。車載装置2は、ARコンテンツに係るオブジェクトを各車窓に表示することで、ユーザが視認する景色にオブジェクトを重畳表示する。このように、本システムでは、視認範囲を極力大きくした車窓を通して見える景色にオブジェクトを重畳表示することで、車両4の車内を、ARコンテンツを体験する空間として提供する。 As described above, the vehicle 4 is configured so that the view that can be visually recognized by the user is as large as possible. The in-vehicle device 2 superimposes the object on the scenery visually recognized by the user by displaying the object related to the AR content on each car window. In this way, the present system provides the interior of the vehicle 4 as a space for experiencing AR content by superimposing objects on the scenery that can be seen through the car window with the maximum visible range.

なお、図5に示す車両4の構成は例示であって、本実施の形態はこれに限定されるものではない。例えば車内撮像用のカメラはピラー以外の箇所に設置されてもよく、オブジェクトを表示する車窓はフロントガラスのみであってもよい。 Note that the configuration of the vehicle 4 shown in FIG. 5 is an example, and the present embodiment is not limited to this. For example, an in-vehicle imaging camera may be installed at a location other than the pillar, and the vehicle window for displaying the object may be only the windshield.

以下では、車両4がユーザ所望の目的地(例えば動物園)に向かう場合を一例にして、具体的なオブジェクトの表示方法について説明する。 A specific object display method will be described below, taking as an example a case where the vehicle 4 is heading to a destination desired by the user (for example, a zoo).

図6は、目的地に応じたオブジェクトの表示例を示す説明図である。例えば車載装置2はまず、走行を開始する場合に、ユーザから目的地の設定入力を受け付ける。目的地の設定手段は、例えばユーザからの音声入力で行う。あるいは車載装置2は、手動操作入力手段(例えばタッチパネルディスプレイ)を別途設け、手動操作で目的地の設定入力を受け付けるようにしてもよい。 FIG. 6 is an explanatory diagram showing a display example of objects according to destinations. For example, the in-vehicle device 2 first receives a destination setting input from the user when starting to travel. The destination is set by voice input from the user, for example. Alternatively, the in-vehicle device 2 may be separately provided with manual operation input means (for example, a touch panel display) so as to receive destination setting input by manual operation.

なお、上記の操作入力手段は一例であって、本実施の形態はこれに限定されるものではない。例えば車載装置2は、ユーザの手の動作(ジェスチャ)を車内画像から認識することで、ユーザの手の動作に基づく操作入力を受け付けるようにしてもよい。具体的には、車載装置2は、車内撮像部27を距離センサ付きのカメラとして構成し、各画素に対し距離の測定値が対応付けられた距離画像を車内画像として取得して、距離画像からユーザの手の動作を認識する。あるいは車載装置2は、車内撮像部27を複眼カメラとして構成し、複数の車内画像からユーザの手の動作を認識してもよい。例えば車載装置2は、目的地設定用の操作画面を車窓に表示すると共に、ユーザの手の動作を認識することで、指差し動作等によって当該画面に対する目的地の設定入力を受け付ける。このように、車両4は、ユーザの手の動作を車内画像から認識することで目的地の設定入力を受け付けるようにしてもよい。以降の操作入力時も同様である。 Note that the operation input means described above is merely an example, and the present embodiment is not limited to this. For example, the in-vehicle device 2 may recognize an operation (gesture) of the user's hand from an in-vehicle image to receive an operation input based on the user's hand operation. Specifically, the in-vehicle device 2 configures the in-vehicle imaging unit 27 as a camera with a distance sensor, acquires a distance image in which each pixel is associated with a measured value of distance as an in-vehicle image, and obtains a distance image from the distance image. Recognizing the user's hand movements. Alternatively, the in-vehicle device 2 may configure the in-vehicle imaging unit 27 as a compound eye camera, and recognize the user's hand motion from a plurality of in-vehicle images. For example, the in-vehicle device 2 displays an operation screen for setting a destination on the car window, and receives a destination setting input on the screen by pointing or the like by recognizing the motion of the user's hand. In this way, the vehicle 4 may accept the destination setting input by recognizing the motion of the user's hand from the in-vehicle image. The same applies to subsequent operation inputs.

目的地の設定入力を受け付けた場合に、車載装置2は、当該目的地に向かうユーザ向けのコンテンツをサーバ1から取得する。例えば目的地が動物園である場合、車載装置2は、当該動物園の画像(例えば正面玄関の写真)や、種々の動物の3D画像などの表示オブジェクトをコンテンツとして取得する。 When the destination setting input is received, the in-vehicle device 2 acquires from the server 1 content for the user heading to the destination. For example, when the destination is a zoo, the in-vehicle device 2 acquires display objects such as an image of the zoo (for example, a photograph of the front entrance) and 3D images of various animals as content.

なお、本実施の形態では目的地に応じてコンテンツ(オブジェクト)が用意されているものとして説明するが、コンテンツは目的地と無関係なものであってもよい。 In this embodiment, it is assumed that content (object) is prepared according to the destination, but the content may be irrelevant to the destination.

目的地の設定入力を受け付けた場合、車載装置2は、目的地を表すオブジェクト(例えば動物園の正面玄関の写真)を車窓に表示する。具体的には、車載装置2は、車両4に乗車しているユーザから見て、実際に目的地が所在する位置に当該オブジェクトが常に視認されるように表示する。 When the destination setting input is received, the in-vehicle device 2 displays an object representing the destination (for example, a photograph of the front entrance of a zoo) on the car window. Specifically, the in-vehicle device 2 displays the object so that it is always visible at the position where the destination is actually located when viewed from the user in the vehicle 4 .

例えば車載装置2は、設定された目的地の所在位置(例えばGPS座標値)を地図データMから特定する。そして車載装置2は、特定した目的地の所在位置を、車窓から視認可能な実空間においてオブジェクトを仮想的に配置する配置位置に決定する。次に車載装置2は、車両4の位置情報を測位部25により取得する。車載装置2は、取得した位置情報が示す車両4の現在位置に基づき、上記で決定した配置位置(所在位置)にオブジェクトが視認されるように、車窓におけるオブジェクトの表示位置を制御する。すなわち、車載装置2は、目的地が所在する方向にオブジェクトが表示されるように制御する。車載装置2は、上記の表示位置にオブジェクトを表示する。 For example, the in-vehicle device 2 identifies the location of the set destination (for example, GPS coordinate values) from the map data M. FIG. Then, the in-vehicle device 2 determines the location of the identified destination as the placement position where the object is virtually placed in the real space visible from the car window. Next, the in-vehicle device 2 acquires position information of the vehicle 4 by the positioning unit 25 . Based on the current position of the vehicle 4 indicated by the acquired position information, the in-vehicle device 2 controls the display position of the object in the car window so that the object can be visually recognized at the arrangement position (located position) determined above. That is, the in-vehicle device 2 controls so that the object is displayed in the direction in which the destination is located. The in-vehicle device 2 displays the object at the above display position.

車載装置2は、車両4の走行中、車両4の位置情報を逐次取得する。そして車載装置2は、逐次取得する位置情報が示す車両4の現在位置に基づき、目的地が所在する方向に常にオブジェクトが視認されるように、オブジェクトの表示位置を逐次変更する。これにより、ユーザは目的地の所在方向をリアルタイムで視認することができる。 The in-vehicle device 2 sequentially acquires the position information of the vehicle 4 while the vehicle 4 is running. Based on the current position of the vehicle 4 indicated by the sequentially acquired position information, the in-vehicle device 2 sequentially changes the display position of the object so that the object is always visible in the direction of the destination. This allows the user to visually recognize the location direction of the destination in real time.

なお、以降も目的地に到着するまで当該オブジェクトが常に表示されるが、以下の図面(表示例)では便宜上、当該オブジェクトの図示を省略する。 Although the object is always displayed until the destination is reached, the illustration of the object is omitted for the sake of convenience in the following drawings (display examples).

また、図6の例ではフロントガラスにオブジェクトが表示される様子を図示しているが、オブジェクトの配置位置(目的地の方向)によっては、フロントドアガラスやリアドアガラス等、他の車窓にオブジェクトを表示する。例えば車載装置2は、実空間におけるオブジェクトの配置位置と、車両4の位置及び向き(直進方向)とに基づき、車内のユーザから目的地(配置位置)が視認される車窓を特定し、特定した車窓にオブジェクトを表示する。このように、本実施の形態では複数の車窓に跨ってオブジェクトを表示可能とすることで、車両4の全方位をAR空間として提示することができる。オブジェクトの配置位置に応じてフロントガラス以外の車窓にオブジェクトを表示する点は以下の説明でも同様である。 In the example of FIG. 6, the object is displayed on the windshield. indicate. For example, the in-vehicle device 2 identifies a car window through which the user in the vehicle can see the destination (arrangement position) based on the arrangement position of the object in the real space and the position and orientation (straight direction) of the vehicle 4. Display objects in car windows. In this way, in the present embodiment, by enabling the display of objects across a plurality of car windows, all directions of the vehicle 4 can be presented as an AR space. The same applies to the following description of displaying an object on a car window other than the windshield according to the arrangement position of the object.

図7は、周辺構造物に応じたオブジェクトの表示例を示す説明図である。車両4の出発後、車載装置2は、車両4の状況に応じて種々のオブジェクトを車窓に出現(表示)させ、ユーザにARコンテンツを体験させる。 FIG. 7 is an explanatory diagram showing a display example of objects according to surrounding structures. After the vehicle 4 departs, the in-vehicle device 2 makes various objects appear (display) in the car window according to the situation of the vehicle 4, and allows the user to experience AR content.

例えば車載装置2は、表示テーブル311で規定する各オブジェクトの表示条件をクリアした場合、オブジェクトを表示する。表示条件は、例えば特定エリアへの車両4の進入、出発後の経過時間、時間帯、天候、車窓から視認可能な景色、車両4に乗車しているユーザの感情、発話、動作、属性等に応じて、オブジェクト毎に規定されている。車載装置2は、これらの情報に応じて各オブジェクトの表示条件をクリアしたか否かを逐次判定する。 For example, the in-vehicle device 2 displays the object when the display conditions for each object defined in the display table 311 are cleared. The display conditions include, for example, the entry of the vehicle 4 into a specific area, the elapsed time after departure, the time period, the weather, the view visible from the vehicle window, the emotion, speech, motion, and attributes of the user riding in the vehicle 4. Accordingly, it is specified for each object. The in-vehicle device 2 sequentially determines whether or not the display conditions for each object have been cleared according to these pieces of information.

なお、上記の表示条件は一例であって、本実施の形態はこれに限定されるものではない。例えば車載装置2は、ユーザの過去のコンテンツの視聴履歴から表示するオブジェクトを選択し、車窓に表示するようにしてもよい。例えば車載装置2は、オブジェクトと対応付けて、後述するように車内画像から推定されるユーザの感情をユーザDB142に記憶しておくことで、ポジティブな感情を誘起するオブジェクト(コンテンツ)を優先的に選択し、表示するようにする。このように、車載装置2は、コンテンツの視聴履歴等も表示条件の基準としてもよく、その判定方法は特に問わない。 Note that the display conditions described above are merely examples, and the present embodiment is not limited to these. For example, the in-vehicle device 2 may select an object to be displayed from the user's past content viewing history, and display the object on the car window. For example, the in-vehicle device 2 preferentially selects an object (content) that induces a positive emotion by storing, in the user DB 142, the user's emotion estimated from an in-vehicle image as will be described later, in association with the object. Select and make it visible. In this way, the in-vehicle device 2 may use the content viewing history or the like as a reference for the display condition, and the determination method is not particularly limited.

表示条件をクリアしたと判定した場合、車載装置2は、表示条件をクリアしたオブジェクトを車窓に表示する。図7では一例として、動物の3D画像が表示される様子を図示している。この場合に車載装置2は、車両4の周辺物に応じてオブジェクトの表示位置を制御する。 When it is determined that the display condition is cleared, the in-vehicle device 2 displays the object for which the display condition is cleared on the car window. As an example, FIG. 7 illustrates how a 3D image of an animal is displayed. In this case, the in-vehicle device 2 controls the display position of the object according to the peripheral objects of the vehicle 4 .

例えば車載装置2は、周辺撮像部26により撮像した周辺画像から、車両4の周辺に存在する周辺物を逐次検出(認識)している。周辺物は、例えば車両4の周辺に存在する構造物や自然物(山、海、樹木等)などの物体、あるいは車両4の周辺に存在する移動体などである。例えば車載装置2は、周辺画像から各周辺物の位置及び形状を検出する。具体的には、車載装置2は、車内撮像部27と同様に周辺撮像部26を距離センサ付きのカメラとして構成し、距離画像を周辺画像として取得する。そして車載装置2は、画像から周辺物を認識すると同時に、認識した周辺物の位置(距離、方向)及び形状を検出する。 For example, the in-vehicle device 2 sequentially detects (recognizes) peripheral objects existing around the vehicle 4 from the peripheral image captured by the peripheral imaging unit 26 . The surrounding objects are, for example, objects such as structures and natural objects (mountains, seas, trees, etc.) existing around the vehicle 4, or mobile objects existing around the vehicle 4, and the like. For example, the in-vehicle device 2 detects the position and shape of each peripheral object from the peripheral image. Specifically, the in-vehicle device 2 configures the peripheral imaging unit 26 as a camera with a distance sensor, similar to the in-vehicle imaging unit 27, and acquires the distance image as the peripheral image. The in-vehicle device 2 recognizes the surrounding objects from the image and simultaneously detects the position (distance, direction) and shape of the recognized surrounding objects.

図7では周辺物として、車両4の周辺に存在する構造物を検出した場合を図示している。構造物とは、実空間の一定の位置に存在する物体であり、例えば建物、ガードレール、信号機等の人工物を指す。図7の例では、建物の陰、及びガードレール上にオブジェクトが表示される様子を図示している。車載装置2は、周辺画像から検出した構造物の位置及び形状に応じて、オブジェクトの表示位置を制御する。 FIG. 7 shows a case where a structure existing around the vehicle 4 is detected as a peripheral object. A structure is an object that exists at a fixed position in real space, and refers to an artificial object such as a building, a guardrail, or a traffic light. The example of FIG. 7 illustrates how objects are displayed behind buildings and on guardrails. The in-vehicle device 2 controls the display position of the object according to the position and shape of the structure detected from the peripheral image.

例えば表示テーブル311には、実空間にオブジェクトを配置する際の配置位置のデフォルト値であって、車両4を基準とする相対位置が予め規定されている。詳しくは図4のオブジェクトID「Elephant 101」の行に示したように、表示テーブル311には、オブジェクトを配置する車両4からの距離及び方向が規定されている。 For example, the display table 311 predefines a relative position with respect to the vehicle 4, which is a default value of the placement position when the object is placed in the real space. Specifically, as shown in the row of the object ID "Elephant 101" in FIG. 4, the display table 311 defines the distance and direction from the vehicle 4 where the object is arranged.

車載装置2は、周辺画像から検出した構造物の位置と、表示テーブル311で規定されているオブジェクトの相対位置とを比較して、当該相対位置に構造物が存在するか否か、すなわち、オブジェクト及び構造物が重複するか否かを判定する。具体的には、車載装置2は、周辺画像から検出した構造物の距離及び方向と、表示テーブル311で規定されているオブジェクトの距離及び方向とが同一又は近似するか否かを判定する。表示テーブル311で規定されている相対位置に構造物が存在しないと判定した場合、車載装置2は、当該相対位置をオブジェクトの配置位置に決定し、当該配置位置にオブジェクトが視認されるように、車窓におけるオブジェクトの表示位置を制御する。 The in-vehicle device 2 compares the position of the structure detected from the peripheral image with the relative position of the object defined in the display table 311 to determine whether or not the structure exists at the relative position. and determine whether or not the structures overlap. Specifically, the in-vehicle device 2 determines whether or not the distance and direction of the structure detected from the peripheral image are the same or similar to the distance and direction of the object defined in the display table 311 . When it is determined that the structure does not exist at the relative position defined by the display table 311, the in-vehicle device 2 determines the relative position as the arrangement position of the object so that the object can be visually recognized at the arrangement position. Controls the display position of the object in the car window.

構造物が存在すると判定した場合、車載装置2は、オブジェクトの配置位置を規定の相対位置から変更し、構造物と重複しないように調整する。例えば車載装置2は、構造物に載置される形で、構造物の上を配置位置に決定する。図7の例では、規定の相対位置にガードレールが存在するため、ガードレール上にオブジェクトが表示されている When it is determined that a structure exists, the in-vehicle device 2 changes the arrangement position of the object from the specified relative position and adjusts it so that it does not overlap with the structure. For example, the in-vehicle device 2 is placed on the structure, and the arrangement position is determined to be above the structure. In the example of Fig. 7, the object is displayed on the guardrail because the guardrail exists at the prescribed relative position.

車載装置2は、上記で決定した配置位置にオブジェクトが視認されるように、車窓におけるオブジェクトの表示位置を制御する。具体的には上述の如く、車載装置2は、構造物の上を配置位置に決定した場合は、構造物の上にオブジェクトを表示する。 The in-vehicle device 2 controls the display position of the object on the car window so that the object can be visually recognized at the arrangement position determined above. Specifically, as described above, the in-vehicle device 2 displays the object on the structure when the arrangement position is determined to be on the structure.

また、車載装置2は、オブジェクトを配置する方向が構造物の方向と略同一であるが、オブジェクトの距離が構造物の距離よりも長い場合、その構造物の形状に応じて、オブジェクトの一部又は全部が構造物に被覆されるように非表示とする。図7の例では、ビルの陰にオブジェクト(動物)の一部が隠れる形で、ビルの背後にオブジェクトが表示されている。このように、車載装置2はオブジェクト及び構造物の距離から両者の前後関係を定義し、その前後関係に応じて、オブジェクトの全部を表示するか、あるいはオブジェクトの一部又は全部を非表示とする。 In addition, if the direction in which the object is arranged is substantially the same as the direction of the structure, but the distance of the object is longer than the distance of the structure, the in-vehicle device 2 can arrange the part of the object according to the shape of the structure. Or hide it so that it is completely covered by the structure. In the example of FIG. 7, the object (animal) is displayed behind the building such that part of the object (animal) is hidden behind the building. In this way, the in-vehicle device 2 defines the anteroposterior relationship between the object and the structure based on the distance between them, and depending on the anteroposterior relationship, either displays the entire object or hides part or all of the object. .

なお、上記の表示方法は一例であって、本実施の形態はこれに限定されるものではない。例えば車載装置2は、オブジェクト及び構造物が重複する場合、オブジェクトを非表示としてもよい。また、上記では構造物に載置する形で、オブジェクトを配置する高さを変更したが、オブジェクトを配置する距離又は方向を変更してもよい。また、例えば車載装置2は、高層建築物(ビル)の上にオブジェクトが表示されることは不自然なため、構造物の高さが一定以上である場合は構造物の上にオブジェクトを配置(載置)せずに非表示とし、高さが一定以下の場合のみ構造物の上にオブジェクトを表示するようにしてもよい。また、例えば車載装置2は、オブジェクトの全部が構造物の背後に隠れてしまう場合、オブジェクトを表示する方向をデフォルト値から微調整(変更)し、少なくともオブジェクトの一部が視認できるようにしてもよい。このように、上記の表示方法は一例であって、種々の変更が考えられる。 The display method described above is merely an example, and the present embodiment is not limited to this. For example, the in-vehicle device 2 may hide the object when the object and the structure overlap. Also, in the above description, the height at which the object is placed is changed by placing it on the structure, but the distance or direction at which the object is placed may be changed. For example, since it is unnatural for an object to be displayed on top of a high-rise building (building), the in-vehicle device 2 places the object on top of the structure ( Alternatively, the object may be hidden without being placed), and the object may be displayed on top of the structure only when the height is below a certain level. Further, for example, when the entire object is hidden behind a structure, the in-vehicle device 2 finely adjusts (changes) the direction in which the object is displayed from the default value so that at least part of the object can be seen. good. Thus, the display method described above is merely an example, and various modifications are conceivable.

なお、上記では周辺画像から検出する物体として構造物を挙げたが、例えば山、海、樹木等の自然物を検出するようにしてもよい。すなわち、車載装置2は、一定の位置に存在する物体を検出可能であればよく、その対象物体は構造物に限定されない。 In the above description, a structure is mentioned as an object to be detected from the peripheral image, but for example, a natural object such as a mountain, the sea, or a tree may be detected. That is, the in-vehicle device 2 only needs to be able to detect an object existing at a certain position, and the target object is not limited to a structure.

また、上記では周辺画像から構造物を検出するものとしたが、本実施の形態はこれに限定されるものではない。例えば地図データMを3次元の立体地図として、車両4の現在の位置情報から、車両4の周辺に存在する構造物の位置及び形状を地図データMから取得(検出)するようにしてもよい。このように、車載装置2は車両4の周辺に存在する構造物を検出可能であればよく、その検出手段は画像認識に限定されない。 Moreover, although the structure is detected from the peripheral image in the above description, the present embodiment is not limited to this. For example, the map data M may be a three-dimensional map, and the positions and shapes of structures existing around the vehicle 4 may be acquired (detected) from the map data M based on the current position information of the vehicle 4 . In this way, the in-vehicle device 2 only needs to be able to detect structures existing around the vehicle 4, and its detection means is not limited to image recognition.

上述の如く、車載装置2はARコンテンツに係るオブジェクトを表示する。さらに車載装置2は、当該オブジェクトを視聴したユーザの反応に応じて、オブジェクトの表示を制御する。 As described above, the in-vehicle device 2 displays objects related to AR content. Furthermore, the in-vehicle device 2 controls the display of the object according to the reaction of the user viewing the object.

具体的には、車載装置2は、車内撮像部27により撮像された車内画像、及び/又は音声入力部28により取得した車内音声から、オブジェクトを視聴したユーザの感情を推定する。例えば車載装置2は、車内画像から認識可能なユーザの表情、動作、及び/又は車内音声から認識可能なユーザの発話(個々のユーザの発言、あるいはユーザ同士の会話)から感情を推定する。なお、ユーザの感情はパターンマッチングで推定してもよく、あるいは機械学習モデルを用いて推定してもよい。 Specifically, the in-vehicle device 2 estimates the emotion of the user viewing the object from the in-vehicle image captured by the in-vehicle imaging unit 27 and/or the in-vehicle audio acquired by the audio input unit 28 . For example, the in-vehicle device 2 estimates emotions from user's facial expressions and actions recognizable from in-vehicle images and/or user utterances recognizable from in-vehicle sounds (utterances of individual users or conversations between users). Note that the user's emotion may be estimated by pattern matching, or may be estimated using a machine learning model.

なお、上記では車内画像及び/又は音声からユーザの反応を推定したが、本実施の形態はこれに限定されるものではない。例えば車載装置2は、ユーザの生体情報(体温、呼吸、脈拍、心電等)を計測する生体センサを備え、生体情報からユーザの反応を推定してもよい。 In addition, although the reaction of the user is estimated from the in-vehicle image and/or voice in the above description, the present embodiment is not limited to this. For example, the in-vehicle device 2 may include a biosensor that measures the user's biometric information (body temperature, respiration, pulse, electrocardiogram, etc.), and estimate the user's reaction from the biometric information.

車載装置2は表示テーブル311を参照して、推定したユーザの感情に応じてオブジェクトの表示を制御する。具体的には、車載装置2は、ユーザの感情に応じてオブジェクトの表示動作を制御すると共に、オブジェクトの表示時間を制御する。図7の例では、車載装置2は、ユーザの感情が「興奮」である場合、動物が雄たけびを上げる演出表示を「30秒」継続する。一方で、ユーザの感情が「怯え」である場合、車載装置2は、動物が退出する演出表示を「10秒」で行う。これにより、ユーザはARコンテンツを好適に体験することができる。 The in-vehicle device 2 refers to the display table 311 and controls the display of the object according to the estimated user's emotion. Specifically, the in-vehicle device 2 controls the display operation of the object according to the user's emotion, and controls the display time of the object. In the example of FIG. 7, when the user's emotion is "excited", the vehicle-mounted device 2 continues the effect display of the animal roaring for "30 seconds". On the other hand, when the user's emotion is "frightened", the in-vehicle device 2 performs the effect display of the animal leaving in "10 seconds". This allows the user to experience the AR content favorably.

図8は、周辺移動体に応じたオブジェクトの表示例を示す説明図である。図8では周辺物として、車両4の周辺に存在する移動体を検出してオブジェクトを表示する場合を図示している。 FIG. 8 is an explanatory diagram showing a display example of an object according to a peripheral moving body. FIG. 8 illustrates a case in which moving objects existing in the vicinity of the vehicle 4 are detected as peripheral objects and displayed as objects.

本実施の形態において車載装置2は、ユーザが指定した移動体(例えば自車両と並走する他の車両)を対象として、ユーザが指定したオブジェクトを表示する。移動体及びオブジェクトの指定方法は特に問わないが、例えば車載装置2は、ユーザの手の動作に基づき移動体及びオブジェクトの指定入力を受け付ける。車載装置2は、ユーザが周辺の移動体を指差す動作を車内画像から認識し、指差し動作で指し示された移動体を周辺画像から特定する。そして車載装置2は、ARコンテンツとして予め用意されている複数のオブジェクトを車窓に表示し、当該複数のオブジェクトからいずれかを選択する指差し動作を認識する。 In the present embodiment, the in-vehicle device 2 displays an object specified by the user for a mobile body specified by the user (for example, another vehicle running parallel to the own vehicle). Although there is no particular limitation on the method of specifying the moving body and the object, for example, the in-vehicle device 2 receives a specification input of the moving body and the object based on the motion of the user's hand. The in-vehicle device 2 recognizes from the in-vehicle image the motion of the user pointing to a nearby moving object, and identifies the moving object pointed to by the pointing motion from the surrounding image. Then, the in-vehicle device 2 displays a plurality of objects prepared in advance as AR content on the car window, and recognizes a pointing action of selecting one of the plurality of objects.

車載装置2は、上記で指定された移動体の位置に基づき、実空間におけるオブジェクトの配置位置を決定する。例えば車載装置2は、図8に示すように、移動体の上部(例えば車両のルーフやトランクの上)をオブジェクトの配置位置に決定する。車載装置2は、決定した配置位置にオブジェクトが視認されるように、車窓にオブジェクトを表示する。 The in-vehicle device 2 determines the arrangement position of the object in the real space based on the position of the moving object specified above. For example, as shown in FIG. 8, the in-vehicle device 2 determines the upper portion of the moving body (for example, the roof or trunk of the vehicle) as the placement position of the object. The in-vehicle device 2 displays the object on the car window so that the object can be visually recognized at the determined arrangement position.

その後、車載装置2はオプティカルフロー等の方法で、周辺画像から移動体の動きを追跡(トラッキング)する。そして車載装置2は、移動体に対するオブジェクトの相対位置が変わらないように、移動体の動きに応じてオブジェクトの表示位置を逐次変更する。これにより、車載装置2は、移動体に追従する形でオブジェクトを表示する。なお、例えば車載装置2は図7と同様に、当該オブジェクトを視聴したユーザの感情に応じて、オブジェクトの表示を制御する。 After that, the in-vehicle device 2 tracks the movement of the moving object from the surrounding images by a method such as optical flow. Then, the in-vehicle device 2 sequentially changes the display position of the object according to the movement of the moving body so that the relative position of the object with respect to the moving body does not change. As a result, the in-vehicle device 2 displays the object so as to follow the moving object. Note that, for example, the in-vehicle device 2 controls the display of the object according to the emotion of the user viewing the object, as in FIG.

なお、上記の表示方法は一例であって、移動体の位置に応じた位置にオブジェクトを配置可能であればよい。例えば車載装置2は、移動体から所定距離だけ離れた位置にオブジェクトを配置することで、オブジェクト(動物)が移動体と共に移動する(走る)ように表示してもよい。また、例えば車載装置2は、移動体自体がオブジェクト(動物)として視認されるように、移動体全体にオブジェクトを重畳表示してもよい。 Note that the display method described above is an example, and any method may be used as long as the object can be placed at a position corresponding to the position of the moving body. For example, the in-vehicle device 2 may display the object (animal) so that it moves (runs) together with the moving body by arranging the object at a predetermined distance from the moving body. Further, for example, the in-vehicle device 2 may display an object superimposed on the entire moving object so that the moving object itself can be visually recognized as an object (animal).

また、本実施の形態ではユーザが指定した場合に移動体に応じたオブジェクトを表示するものとしたが、車載装置2は、周辺画像から移動体を検出した場合に自動的にオブジェクトを選択し、移動体に対応する位置にオブジェクトを表示してもよい。 Further, in the present embodiment, an object corresponding to a moving object is displayed when specified by the user. An object may be displayed at a position corresponding to the moving object.

また、上記では移動体として並走車両を挙げたが、例えば歩道を走行する自転車、又は周辺画像に写る航空機など、その他の移動体であってもよい。すなわち、車載装置2は、車窓から視認可能な実空間に存在する移動体に対してオブジェクトを表示可能であればよく、その移動体は車両に限定されない。 In the above description, a vehicle running side by side is used as a moving object, but other moving objects such as a bicycle traveling on a sidewalk or an aircraft appearing in a peripheral image may be used. That is, the in-vehicle device 2 only needs to be able to display an object on a moving object that exists in a real space that is visible from the car window, and the moving object is not limited to a vehicle.

図9は、車速に応じたオブジェクトの表示例を示す説明図である。図9では、車両が横断歩道で停止した場合に、オブジェクトが車窓に出現する様子を図示している。 FIG. 9 is an explanatory diagram showing a display example of objects according to vehicle speed. FIG. 9 illustrates how an object appears in the car window when the car stops at a pedestrian crossing.

図4のオブジェクトID「Otter 101」の行に示したように、表示テーブル311にはオブジェクトに応じて、表示条件として車速が規定されている。なお、車速に加えて、オブジェクトを出現させるエリア、時間帯等を表示条件として規定しておいてもよい。車載装置2は、車速検出部30により車速を逐次検出し、表示テーブル311で規定されている特定の速度以下になったか否かを判定する。具体的には、車載装置2は、車両4が停止、又は停止状態に近似できるほど十分低速になったか否かを判定する。 As shown in the row of the object ID "Otter 101" in FIG. 4, the display table 311 defines the vehicle speed as a display condition for each object. In addition to the vehicle speed, an area, a time zone, etc., in which an object appears may be defined as display conditions. The in-vehicle device 2 sequentially detects the vehicle speed using the vehicle speed detection unit 30 and determines whether or not the vehicle speed has become equal to or less than a specific speed defined in the display table 311 . Specifically, the in-vehicle device 2 determines whether or not the vehicle 4 has stopped or has slowed down sufficiently to approximate a stopped state.

特定の速度以下になったと判定した場合、車載装置2は、表示テーブル311で規定されている相対位置(車両4からの距離及び方向)をオブジェクトの配置位置に決定し、オブジェクトを車窓に表示する。図9の例では、車両4の左斜め前方にオブジェクトが表示されている。 When it is determined that the speed has decreased below a specific speed, the in-vehicle device 2 determines the relative position (distance and direction from the vehicle 4) defined in the display table 311 as the object arrangement position, and displays the object on the car window. . In the example of FIG. 9 , an object is displayed obliquely forward left of the vehicle 4 .

この場合、車載装置2は、オブジェクトの配置位置を固定し、当該位置にオブジェクトが固定して視認されるように、車両4の発進後の車窓における表示位置を制御する。図9の例では車両4は横断歩道で停止したため、車両4は前方に進行する。この場合、車載装置2は、フロントガラスの左側から左フロントドアガラス、左リアドアガラスへとオブジェクトを移動させる。このように、車載装置2は、特定の速度以下になった場合に実空間の所定位置にオブジェクトを出現させ、その後の車両4の移動に応じてオブジェクトの表示位置を複数の車窓に跨って変更する。このように、車載装置2は、車両4の運転状況(車速)に応じてARコンテンツを表示してもよい。 In this case, the in-vehicle device 2 fixes the placement position of the object, and controls the display position in the car window after the vehicle 4 starts so that the object can be visually recognized fixed at that position. In the example of FIG. 9, the vehicle 4 stops at the pedestrian crossing, so the vehicle 4 moves forward. In this case, the in-vehicle device 2 moves the object from the left side of the windshield to the left front door glass and left rear door glass. In this manner, the in-vehicle device 2 causes an object to appear at a predetermined position in the real space when the speed is below a specific speed, and changes the display position of the object over a plurality of car windows according to the subsequent movement of the vehicle 4. do. In this way, the in-vehicle device 2 may display AR content according to the driving conditions (vehicle speed) of the vehicle 4 .

図10は、他の車両4からのメッセージの表示例を示す説明図である。本実施の形態に係る車載装置2は、上記のARコンテンツの表示機能のほかに、本システムに接続された他の車両4との間のメッセージ共有機能を有する。図10では、他の車両4から受信したメッセージが車窓に表示される様子を図示している。 FIG. 10 is an explanatory diagram showing a display example of a message from another vehicle 4. As shown in FIG. The in-vehicle device 2 according to the present embodiment has a message sharing function with another vehicle 4 connected to the present system, in addition to the AR content display function described above. FIG. 10 illustrates how a message received from another vehicle 4 is displayed on the car window.

例えば他の車両4の車載装置2は、音声入力等によってメッセージの入力を受け付け、サーバ1を介して、送信対象の車両4にメッセージを送信する。送信対象の車両4の車載装置2は、当該メッセージを受信する。なお、メッセージには本文(テキスト)だけでなく画像等も含まれていてもよい。 For example, the in-vehicle device 2 of another vehicle 4 accepts input of a message by voice input or the like, and transmits the message to the vehicle 4 to be transmitted via the server 1 . The in-vehicle device 2 of the transmission target vehicle 4 receives the message. Note that the message may include not only the body (text) but also an image or the like.

メッセージを受信した場合、車載装置2はまず、メッセージを受信した旨をユーザに通知する。例えば車載装置2は、所定のアイコンを車窓に表示してもよく、又はメッセージを受信した旨の音声を出力してもよい。 When receiving the message, the in-vehicle device 2 first notifies the user that the message has been received. For example, the in-vehicle device 2 may display a predetermined icon on the car window, or output a voice indicating that the message has been received.

車載装置2は、通知したメッセージを表示するか否か、ユーザから選択入力を受け付ける。例えば車載装置2は、ユーザの特定の動作(例えばアイコンへの指差し動作)を車内画像から認識するようにしてもよく、又はメッセージを表示させる特定の発話音声の入力を受け付けるようにしてもよい。 The in-vehicle device 2 receives a selection input from the user as to whether or not to display the notified message. For example, the in-vehicle device 2 may recognize a specific action of the user (for example, pointing to an icon) from the in-vehicle image, or may receive an input of a specific utterance for displaying a message. .

メッセージを表示する旨の選択入力を受け付けた場合、車載装置2は、受信したメッセージを車窓に表示する。具体的には図10に示すように、車載装置2は、メッセージの送り主である他のユーザのアバターを表示すると共に、吹き出しの形でメッセージを表示する。これにより、例えば目的地に同行する他の車両4がある場合などに、メッセージを共有することができる。 When receiving a selection input to display a message, the in-vehicle device 2 displays the received message on the car window. Specifically, as shown in FIG. 10, the in-vehicle device 2 displays the avatar of the other user, who is the sender of the message, and also displays the message in the form of a balloon. This allows the message to be shared, for example, when there is another vehicle 4 accompanying the destination.

なお、上記ではメッセージを表示するものとしたが、例えばメッセージ(テキスト)を音声に変換して再生するようにしてもよい。 Although the message is displayed in the above description, the message (text) may be converted into voice and reproduced.

また、例えば車載装置2は、メッセージを表示するだけでなく、メッセージの内容に応じたナビゲーションを行ってもよい。図10の例で説明すると、車載装置2は、メッセージから特定の地名(「××サービスエリア」)を認識し、当該地名に対応する位置を地図データMから特定して、中間の目的地に設定して、図6と同様に当該目的地のオブジェクトを車窓に表示するようにしてもよい。これにより、ユーザを好適に支援することができる。 Further, for example, the in-vehicle device 2 may not only display the message, but also perform navigation according to the content of the message. In the example of FIG. 10, the in-vehicle device 2 recognizes a specific place name (“xx service area”) from the message, specifies a position corresponding to the place name from the map data M, and moves to an intermediate destination. It may be set so that the object of the destination is displayed on the train window in the same manner as in FIG. Thereby, a user can be suitably supported.

以上より、本実施の形態1によれば、車載装置2は車両4の状況(車両4の目的地、周辺物、車速等)に応じてオブジェクトの配置位置を決定し、車窓を介して当該配置位置にオブジェクトが視認されるように、複数の車窓におけるオブジェクトの表示を制御する。これにより、車両4の車内をARコンテンツの体験空間として、ARコンテンツをユーザに好適に体感させることができる。 As described above, according to the first embodiment, the in-vehicle device 2 determines the placement position of the object according to the situation of the vehicle 4 (destination of the vehicle 4, surrounding objects, vehicle speed, etc.), and determines the placement position through the car window. To control the display of objects in a plurality of car windows so that the objects are visually recognized at their positions. As a result, the inside of the vehicle 4 can be used as an AR content experience space, and the user can preferably experience the AR content.

図11及び図12は、車載装置2が実行する処理手順の一例を示すフローチャートである。図11及び図12に基づき、車載装置2が実行する処理内容について説明する。
車載装置2の制御部21は、目的地の設定入力を受け付ける(ステップS11)。制御部21は、目的地に応じたコンテンツをサーバ1から取得する(ステップS12)。なお、既に述べたように、コンテンツは目的地と無関係なコンテンツであってもよい。
11 and 12 are flowcharts showing an example of the processing procedure executed by the in-vehicle device 2. FIG. Based on FIG.11 and FIG.12, the content of the process which the vehicle-mounted apparatus 2 performs is demonstrated.
The control unit 21 of the in-vehicle device 2 receives a destination setting input (step S11). The control unit 21 acquires the content corresponding to the destination from the server 1 (step S12). It should be noted that, as already mentioned, the content may be content unrelated to the destination.

制御部21は、設定された目的地の所在位置を地図データMから特定する(ステップS13)。制御部21は、目的地の所在位置を、目的地に対応するオブジェクトを実空間に配置する配置位置に決定する(ステップS14)。制御部21は、測位部25により車両4の位置情報を取得し、位置情報が示す車両4の現在位置に基づき、ステップS14で決定した配置位置にオブジェクトが視認されるようにオブジェクトを表示する(ステップS15)。以降の処理では、制御部21は車両4の位置情報を逐次取得して、車窓におけるオブジェクトの表示位置を逐次変更する。 The control unit 21 identifies the location of the set destination from the map data M (step S13). The control unit 21 determines the location of the destination as the placement position where the object corresponding to the destination is placed in the real space (step S14). The control unit 21 acquires the position information of the vehicle 4 by the positioning unit 25, and displays the object so that the object can be visually recognized at the arrangement position determined in step S14 based on the current position of the vehicle 4 indicated by the position information ( step S15). In subsequent processing, the control unit 21 sequentially acquires the position information of the vehicle 4 and sequentially changes the display position of the object on the car window.

制御部21は、周辺撮像部26により車両4周辺を撮像する(ステップS16)。制御部21は、車両4周辺を撮像した周辺画像から、周辺物を検出する(ステップS17)。具体的には、制御部21は、距離センサ付きのカメラ等で撮像した周辺画像(距離画像)から車両4周辺に存在する構造物、移動体等を認識すると共に、センサで計測した距離から各周辺物の位置及び形状を検出する。 The control unit 21 captures an image of the periphery of the vehicle 4 using the periphery imaging unit 26 (step S16). The control unit 21 detects surrounding objects from the image of the surroundings of the vehicle 4 (step S17). Specifically, the control unit 21 recognizes structures, moving objects, and the like existing around the vehicle 4 from a surrounding image (distance image) captured by a camera with a distance sensor or the like, and recognizes each object from the distance measured by the sensor. Detect the position and shape of surrounding objects.

制御部21は、所定の表示条件をクリアしたか否かを判定する(ステップS18)。表示条件をクリアしたと判定した場合(S18:YES)、制御部21は、表示テーブル311で予め規定されているオブジェクトの位置(車両4からの距離及び方向)と、ステップS17で検出した構造物の位置とに基づき、実空間におけるオブジェクトの配置位置を決定する(ステップS19)。具体的には、制御部21は、オブジェクトを配置する車両4からの相対位置を規定する表示テーブル311を参照して、当該相対位置に構造物が存在するか否かを判定する。構造物が存在しないと判定した場合、制御部21は、表示テーブル311で規定されている相対位置をオブジェクトの配置位置に決定する。構造物が存在すると判定した場合、制御部21は、オブジェクトの配置位置を、デフォルトの相対位置から変更する。例えば制御部21は、構造物の形状に応じて、構造物の上を配置位置に決定する。 The control unit 21 determines whether or not a predetermined display condition has been cleared (step S18). If it is determined that the display conditions have been cleared (S18: YES), the control unit 21 displays the position of the object (distance and direction from the vehicle 4) predefined in the display table 311 and the structure detected in step S17. , and the position of the object in the real space is determined (step S19). Specifically, the control unit 21 refers to the display table 311 that defines the relative position of the object from the vehicle 4, and determines whether or not there is a structure at that relative position. When determining that the structure does not exist, the control unit 21 determines the relative position defined in the display table 311 as the object placement position. When determining that a structure exists, the control unit 21 changes the arrangement position of the object from the default relative position. For example, the control unit 21 determines the top of the structure as the arrangement position according to the shape of the structure.

制御部21は、ステップS19で決定した配置位置にオブジェクトが視認されるように、車窓にオブジェクトを表示する(ステップS20)。具体的には、制御部21は、構造物の上を配置位置に決定した場合は、構造物の上にオブジェクトを表示する。また、制御部21は、オブジェクトの車両4からの距離が構造物の車両4からの距離よりも長い場合、構造物の形状に応じて、オブジェクトの一部又は全部が構造物に隠れるように非表示とする。 The control unit 21 displays the object on the car window so that the object can be seen at the placement position determined in step S19 (step S20). Specifically, when the control unit 21 determines that the arrangement position is on the structure, the control unit 21 displays the object on the structure. In addition, when the distance of the object from the vehicle 4 is longer than the distance of the structure from the vehicle 4, the control unit 21 controls the object so that part or all of the object is hidden behind the structure according to the shape of the structure. display.

制御部21は、オブジェクトを視聴したユーザの感情を推定する(ステップS21)。例えば制御部21は、車内撮像部27により撮像した車内画像、及び/又は音声入力部28により取得した車内音声から、ユーザの感情を推定する。なお、制御部21は、車内画像及び車内音声に加えて、又は車内画像及び車内音声に代えて、ユーザの生体情報から感情を推定してもよい。制御部21は表示テーブル311を参照して、推定したユーザの感情に応じてオブジェクトの表示を制御する(ステップS22)。具体的には、制御部21は、ユーザの感情に応じてオブジェクトの動作を制御すると共に、オブジェクトの表示時間を変更する。 The control unit 21 estimates the emotion of the user viewing the object (step S21). For example, the control unit 21 estimates the emotion of the user from the in-vehicle image captured by the in-vehicle imaging unit 27 and/or the in-vehicle voice acquired by the voice input unit 28 . Note that the control unit 21 may estimate the emotion from the biological information of the user in addition to or instead of the in-vehicle image and the in-vehicle voice. The control unit 21 refers to the display table 311 and controls the display of the object according to the estimated user's emotion (step S22). Specifically, the control unit 21 controls the action of the object according to the user's emotion, and changes the display time of the object.

ステップS22の処理を実行後、又はステップS18でNOの場合、制御部21は、オブジェクトと、当該オブジェクトの表示対象とする移動体とを指定する指定入力をユーザから受け付けたか否かを判定する(ステップS23)。オブジェクト及び移動体の指定入力を受け付けたと判定した場合(S23:YES)、制御部21は、指定された移動体の上部等を、指定されたオブジェクトの配置位置に決定する(ステップS24)。制御部21は、決定した配置位置にオブジェクトが視認されるようにオブジェクトを表示する(ステップS25)。以降の処理では、制御部21は周辺画像から移動体の動きを追跡し、移動体に対するオブジェクトの相対位置が変わらないように、移動体の動きに応じてオブジェクトの表示位置を逐次変更する。 After executing the process of step S22, or in the case of NO in step S18, the control unit 21 determines whether or not a designation input designating an object and a moving object to be displayed for the object has been received from the user ( step S23). If it is determined that the designation input of the object and moving object has been received (S23: YES), the control unit 21 determines the upper portion of the designated moving object, etc., as the layout position of the designated object (step S24). The control unit 21 displays the object so that the object can be visually recognized at the determined placement position (step S25). In subsequent processing, the control unit 21 tracks the movement of the moving object from the peripheral image, and sequentially changes the display position of the object according to the movement of the moving object so that the relative position of the object with respect to the moving object does not change.

制御部21は、オブジェクトを視聴したユーザの反応を推定する(ステップS26)。制御部21は、推定したユーザの反応に応じてオブジェクトの表示を制御する(ステップS27)。 The control unit 21 estimates the reaction of the user viewing the object (step S26). The control unit 21 controls the display of the object according to the estimated user reaction (step S27).

ステップS27の処理を実行後、又はステップS23でNOの場合、制御部21は、車速検出部30により車速を検出する(ステップS28)。制御部21は、車速が特定の速度以下になったか否かを判定する(ステップS29)。 After executing the process of step S27, or in the case of NO in step S23, the control unit 21 detects the vehicle speed by the vehicle speed detection unit 30 (step S28). The control unit 21 determines whether or not the vehicle speed has become equal to or less than a specific speed (step S29).

特定の速度以下になったと判定した場合(S29:YES)、制御部21は表示テーブル311を参照して、実空間におけるオブジェクトの配置位置を決定する(ステップS30)。制御部21は、決定した配置位置にオブジェクトが視認されるように、車窓にオブジェクトを表示する(ステップS31)。制御部21は、ステップS30で決定した位置にオブジェクトの配置位置を固定し、車両4の発進後も実空間の該当位置にオブジェクトが視認されるように、車窓におけるオブジェクトの表示位置を逐次変更する。 If it is determined that the speed is below the specific speed (S29: YES), the control unit 21 refers to the display table 311 and determines the placement position of the object in the real space (step S30). The control unit 21 displays the object on the car window so that the object can be seen at the determined placement position (step S31). The control unit 21 fixes the placement position of the object to the position determined in step S30, and sequentially changes the display position of the object in the car window so that the object can be visually recognized at the corresponding position in the real space even after the vehicle 4 starts moving. .

ステップS31の処理を実行後、又はステップS29でNOの場合、制御部21は、他の車両4からメッセージを受信したか否かを判定する(ステップS32)。メッセージを受信したと判定した場合(S32:YES)、制御部21は、メッセージを受信した旨をユーザに通知する(ステップS33)。例えば制御部21は、メッセージを表す所定のアイコンを車窓に表示してもよく、又はメッセージを受信した旨の音声を出力してもよい。 After executing the process of step S31, or in the case of NO in step S29, the control unit 21 determines whether or not a message has been received from another vehicle 4 (step S32). If it is determined that the message has been received (S32: YES), the control section 21 notifies the user that the message has been received (step S33). For example, the control unit 21 may display a predetermined icon representing the message on the car window, or output a voice indicating that the message has been received.

制御部21は、メッセージを表示するか否かの選択入力をユーザから受け付ける(ステップS34)。例えば制御部21は、ユーザの特定の動作を車内画像から認識するようにしてもよく、又はメッセージを表示させる特定の発話音声の入力を受け付けるようにしてもよい。メッセージを表示する旨の選択入力を受け付けた場合、制御部21は、他車両からのメッセージを表示する(ステップS35)。例えば制御部21は、他の車両4のユーザに対応するアバターを表示すると共に、メッセージ(テキスト)を表示する。 The control unit 21 receives from the user a selection input as to whether or not to display the message (step S34). For example, the control unit 21 may recognize a specific action of the user from an in-vehicle image, or may receive an input of a specific uttered voice that causes a message to be displayed. If the selection input to display the message is received, the control unit 21 displays the message from the other vehicle (step S35). For example, the control unit 21 displays an avatar corresponding to the user of the other vehicle 4 and a message (text).

ステップS35の処理を実行後、又はステップS32でNOの場合、制御部21は、車両4の位置情報から目的地に到着したか否かを判定する(ステップS36)。目的地に到着していないと判定した場合(S36:NO)、制御部21は処理をステップS16に戻す。目的地に到着したと判定した場合(S36:YES)、制御部21は一連の処理を終了する。 After executing the process of step S35, or in the case of NO in step S32, the control unit 21 determines whether or not the vehicle 4 has arrived at the destination based on the position information of the vehicle 4 (step S36). If it is determined that the vehicle has not arrived at the destination (S36: NO), the control unit 21 returns the process to step S16. If it is determined that the destination has been reached (S36: YES), the control unit 21 terminates the series of processes.

以上より、本実施の形態1によれば、目的地、周辺物(構造物、移動体)、車速等の車両4の状況に応じてオブジェクトの配置位置を決定し、当該配置位置にオブジェクトが視認されるように車窓におけるオブジェクトの表示を制御することで、ARコンテンツをユーザに好適に体感させることができる。 As described above, according to the first embodiment, the arrangement position of the object is determined according to the situation of the vehicle 4 such as the destination, the surrounding objects (structures, mobile bodies), and the vehicle speed, and the object is visually recognized at the arrangement position. By controlling the display of the object in the car window so that the AR content is preferably experienced by the user.

(実施の形態2)
本実施の形態では、ユーザが着座する車両4の座席の位置に応じて、車窓におけるオブジェクトの表示位置を制御する形態について述べる。なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。
(Embodiment 2)
In the present embodiment, a mode will be described in which the display position of an object on the car window is controlled according to the position of the seat of the vehicle 4 on which the user sits. In addition, the same code|symbol is attached|subjected about the content which overlaps with Embodiment 1, and description is abbreviate|omitted.

図13は、実施の形態2の概要を示す説明図である。図13Aでは、車両4の座席とオブジェクトの配置位置との位置関係を概念的に示す車両4の俯瞰図を図示している。図13Bでは、座席位置に応じて車窓(フロントガラス)におけるオブジェクトの表示位置が変更される様子を概念的に図示している。図13に基づき、本実施の形態の概要を説明する。 FIG. 13 is an explanatory diagram showing an overview of the second embodiment. FIG. 13A shows a bird's-eye view of the vehicle 4 conceptually showing the positional relationship between the seats of the vehicle 4 and the arrangement positions of the objects. FIG. 13B conceptually illustrates how the display position of the object on the car window (windshield) is changed according to the seat position. Based on FIG. 13, the outline of this embodiment will be described.

図13Aにおいて、太線は車窓を表し、太線で囲まれた矩形領域は車両4の室内を表す。また、矩形領域内に位置する白抜きの丸は座席(運転席及び助手席)を表し、矩形領域外に位置するハッチング付きの丸はオブジェクトの配置位置を表す。 In FIG. 13A , the thick line represents the car window, and the rectangular area surrounded by the thick line represents the interior of the vehicle 4 . White circles located within the rectangular area represent seats (driver's seat and front passenger's seat), and hatched circles located outside the rectangular area represent the positions of objects.

図13Aに示すように、実空間の同一位置を各座席から視認した場合、当該位置に対応する車窓上の位置は異なる。例えば図13Aに示すように、運転席前方の位置は、助手席から見れば右斜め前に位置する。 As shown in FIG. 13A, when the same position in real space is viewed from each seat, the position on the train window corresponding to the position is different. For example, as shown in FIG. 13A, the position in front of the driver's seat is located obliquely in front of the right when viewed from the passenger's seat.

ここで、例えば助手席に着座しているユーザ向けにARコンテンツを提示する場合、運転席を基準(視点位置)として車窓におけるオブジェクトの表示位置を定めた場合、実際に表示すべき位置からオブジェクトがずれることになる。例えば、子供向けのARコンテンツを提示する場合において、子供が助手席に着座しているにも関わらず運転席を基準にオブジェクトの表示位置を定めた場合、本来景色に重畳したい位置とはずれてオブジェクトが表示されることになる。 Here, for example, when presenting AR content to a user sitting in the front passenger seat, if the display position of the object in the car window is determined with the driver's seat as the reference (viewpoint position), the object will be displayed from the position where it should actually be displayed. will deviate. For example, when presenting AR content for children, if the display position of the object is determined based on the driver's seat even though the child is sitting in the front passenger seat, the object will be displayed in a position that is not the position that is originally intended to be superimposed on the scenery. will be displayed.

そこで本実施の形態では、車載装置2は、コンテンツ(オブジェクト)の表示対象とするユーザの座席の位置に応じて、車窓におけるコンテンツの表示位置を制御する。例えば車載装置2は、コンテンツの表示を開始する前に、表示対象とするユーザの座席を指定する指定入力を受け付ける。なお、例えば車載装置2は、コンテンツの表示対象とするユーザの属性(年齢、性別等)を規定しておき、表示対象のユーザ属性に該当するユーザを車内画像から認識して、対象ユーザの座席を自動的に特定してもよい。また、例えば各ユーザ(家族等)が普段着座する座席を予めユーザDB142に登録しておき、コンテンツの表示対象とするユーザ属性に該当するユーザの座席を自動的に特定してもよい。 Therefore, in the present embodiment, the in-vehicle device 2 controls the display position of the content in the car window according to the position of the seat of the user who is the display target of the content (object). For example, the in-vehicle device 2 receives a designation input that designates the user's seat to be displayed before starting to display the content. Note that, for example, the in-vehicle device 2 prescribes the attributes (age, gender, etc.) of the user whose content is to be displayed, recognizes the user corresponding to the user attribute to be displayed from the in-vehicle image, and selects the seat of the target user. may be automatically identified. Further, for example, the seats where each user (family member, etc.) usually sits may be registered in the user DB 142 in advance, and the user's seat corresponding to the user attribute to be displayed in the content may be automatically specified.

車載装置2は、実施の形態1と同様に、各オブジェクトの実空間における配置位置を決定する。本実施の形態において車載装置2は、決定した配置位置と、上記で指定(特定)された対象ユーザの座席の位置とに基づき、車窓におけるオブジェクトの表示位置を決定する。具体的には図13Aに示すように、車載装置2は、オブジェクトの配置位置と、対象ユーザの座席の位置とを結ぶ直線と交差する車窓上の位置を、オブジェクトの表示位置に決定する。車載装置2は、決定した表示位置にオブジェクトを表示する。これにより、図13Bに示すように、ユーザが着座する座席の位置に応じて、オブジェクトの表示位置が好適に制御される。 The in-vehicle device 2 determines the arrangement position of each object in the real space, as in the first embodiment. In the present embodiment, the in-vehicle device 2 determines the display position of the object in the car window based on the determined arrangement position and the position of the target user's seat specified (specified) above. Specifically, as shown in FIG. 13A, the in-vehicle device 2 determines the display position of the object as a position on the car window that intersects a straight line connecting the position of the object and the position of the target user's seat. The in-vehicle device 2 displays the object at the determined display position. Thereby, as shown in FIG. 13B, the display position of the object is preferably controlled according to the position of the seat on which the user sits.

図14は、実施の形態2に係る車載装置2が実行する処理手順の一例を示すフローチャートである。サーバ1からコンテンツを取得した後(ステップS12)、車載装置2は以下の処理を実行する。
車載装置2の制御部21は、コンテンツ(オブジェクト)の表示対象とするユーザの座席を特定する(ステップS201)。例えば制御部21は、表示対象とするユーザの座席を指定する指定入力を受け付ける。オブジェクトを表示する場合(ステップS15、S20、S25、及び/又はS31)、制御部21は、オブジェクトの配置位置と、対象ユーザの座席の位置とに基づき、車窓におけるオブジェクトの表示位置を決定する。
FIG. 14 is a flow chart showing an example of a processing procedure executed by the in-vehicle device 2 according to the second embodiment. After acquiring the content from the server 1 (step S12), the in-vehicle device 2 executes the following processes.
The control unit 21 of the in-vehicle device 2 identifies the user's seat for which content (object) is to be displayed (step S201). For example, the control unit 21 receives a designation input that designates the user's seat to be displayed. When displaying an object (steps S15, S20, S25, and/or S31), the control unit 21 determines the display position of the object on the train window based on the position of the object and the position of the target user's seat.

以上より、本実施の形態2によれば、コンテンツを視聴するユーザが着座する座席に応じて、車窓におけるオブジェクトの表示位置を制御することで、ARコンテンツをより好適に提示することができる。 As described above, according to the second embodiment, by controlling the display position of the object in the train window according to the seat where the user who views the content sits, the AR content can be presented more preferably.

(実施の形態3)
本実施の形態では、車両4の運転状況に応じて、車窓におけるオブジェクトの表示を制限する形態について説明する。
(Embodiment 3)
In the present embodiment, an embodiment will be described in which the display of objects in the car window is restricted according to the driving conditions of the vehicle 4. FIG.

図15は、実施の形態3の概要を示す説明図である。図15では、車窓(フロントガラス)が、オブジェクトを表示可能な表示可能領域A1と、オブジェクトの表示が禁止される表示禁止領域A2とに区分される様子を概念的に図示している。図15に基づき、本実施の形態の概要を説明する。 FIG. 15 is an explanatory diagram showing an overview of the third embodiment. FIG. 15 conceptually illustrates how a car window (windshield) is divided into a displayable area A1 in which an object can be displayed and a display prohibited area A2 in which display of an object is prohibited. Based on FIG. 15, the outline of this embodiment will be described.

本実施の形態において車載装置2は、車両4の運転状況に応じて、車窓におけるオブジェクトの表示を制限する。具体的には、車載装置2は、オブジェクトの表示を禁止する表示禁止領域A2を設定する。例えば車載装置2は、車両4が運転中である(動いている)か、又は停止中である(動いていない)かを判定する。車両4が停止中である場合、車載装置2は表示禁止領域A2を設定せず、車窓の全領域にオブジェクトを表示可能とする。一方で、車両4が運転中であると判定した場合、車載装置2は一定の視野を確保するため、表示禁止領域A2を設定して当該領域におけるオブジェクトの表示を禁止する。 In the present embodiment, the in-vehicle device 2 limits the display of objects in the car window according to the driving conditions of the vehicle 4 . Specifically, the in-vehicle device 2 sets a display prohibited area A2 in which display of the object is prohibited. For example, the in-vehicle device 2 determines whether the vehicle 4 is driving (moving) or stopped (not moving). When the vehicle 4 is stopped, the in-vehicle device 2 does not set the display prohibited area A2 and allows the object to be displayed in the entire area of the vehicle window. On the other hand, when it is determined that the vehicle 4 is driving, the in-vehicle device 2 sets a display prohibited area A2 and prohibits display of objects in this area in order to secure a certain field of view.

なお、「運転中」とは自動運転中及び手動運転中を指すが、手動運転時のみ表示禁止領域A2を設定するようにして、自動運転中は車窓の全領域でオブジェクトを表示可能としてもよい。また、上記の運転状況の判定基準は一例であって、例えば車載装置2は、車両4の車速、車両4の運転方向(ステアリングの角度)、走行している場所(一般車道であるか高速道路であるか等)など、その他の運転状況に応じて表示禁止領域A2を設定するか否かを判定してもよい。また、車載装置2は、例えば車速が速いほど表示禁止領域A2を大きくするなど、車速、運転方向等に応じて、車窓に占める表示禁止領域A2の面積、位置等を変更してもよい。 Note that "while driving" refers to both automatic driving and manual driving, but the display prohibited area A2 may be set only during manual driving so that the object can be displayed in the entire area of the car window during automatic driving. . Further, the criteria for judging the above-mentioned driving conditions are only an example. It may be determined whether or not to set the display prohibited area A2 according to other driving conditions such as whether the vehicle is Further, the in-vehicle device 2 may change the area, position, etc. of the display prohibited area A2 in the car window according to the vehicle speed, driving direction, etc., for example, increasing the display prohibited area A2 as the vehicle speed increases.

例えば図15に示すように、車載装置2は、車窓周縁に沿う一部領域を表示可能領域A1に設定する。そして車載装置2は、表示可能領域A1以外の車窓中央の領域を表示禁止領域A2に設定する。なお、図15に示す表示禁止領域A2は一例であって、表示禁止領域A2の位置及び形状は特に限定されない。例えば車載装置2は、車窓の下端縁から上方に向かって一定範囲を表示禁止領域A2に設定するなどしてもよい。 For example, as shown in FIG. 15, the in-vehicle device 2 sets a partial area along the periphery of the car window as the displayable area A1. Then, the in-vehicle device 2 sets the area in the center of the car window other than the displayable area A1 as the display prohibited area A2. Note that the display prohibited area A2 shown in FIG. 15 is an example, and the position and shape of the display prohibited area A2 are not particularly limited. For example, the in-vehicle device 2 may set a certain range upward from the lower edge of the car window as the display prohibited area A2.

また、図15ではフロントガラスの例を図示しているが、フロントドアガラス、リアガラス等についても同様に表示禁止領域A2を設定してもよい。この場合に、車載装置2は、車窓の種類に応じて、表示禁止領域A2を設定する車窓を選択するようにしてもよい。例えば、フロントガラス、フロントドアガラス等は視野を確保するため表示禁止領域A2を設定する一方、視野を確保する必要性が低いリアドアガラス、ルーフガラス等は表示禁止領域A2を設定しないようにしてもよい。また、車載装置2は、車窓の種類に応じて、各車窓に占める表示禁止領域A2の面積、位置等を変更するなどしてもよい。 Also, although FIG. 15 shows an example of the windshield, the display prohibited area A2 may be similarly set for the front door glass, the rear glass, and the like. In this case, the in-vehicle device 2 may select the car window for setting the display prohibited area A2 according to the type of the car window. For example, even if the display prohibited area A2 is set for the windshield, front door glass, etc. in order to secure the field of view, the display prohibited area A2 is not set for the rear door glass, roof glass, etc., for which there is little need to secure the field of view. good. In addition, the in-vehicle device 2 may change the area, position, etc. of the display prohibited area A2 occupied by each car window according to the type of car window.

なお、上記では表示禁止領域A2を設定することでオブジェクトの表示を制限したが、本実施の形態はこれに限定されるものではない。例えば車載装置2は、表示禁止領域A2の設定に加えて、又は表示禁止領域A2の設定に代えて、車窓に表示するオブジェクトを半透明オブジェクトに変更するようにしてもよい。例えば車載装置2は、車両4が運転中である場合、オブジェクトの透過率を上げる。これにより、ユーザの視野を確保することができる。このように、車載装置2は車両4の運転状況に応じてオブジェクトの表示を制限可能であればよく、オブジェクトの表示制限手段は表示禁止領域A2の設定に限定されない。 Although the display of the object is restricted by setting the display prohibited area A2 in the above description, the present embodiment is not limited to this. For example, in addition to setting the display prohibited area A2, or instead of setting the display prohibited area A2, the in-vehicle device 2 may change the object displayed on the car window to a translucent object. For example, the in-vehicle device 2 increases the transmittance of the object when the vehicle 4 is driving. Thereby, a user's visual field can be secured. As described above, the in-vehicle device 2 only needs to be able to restrict the display of objects according to the driving conditions of the vehicle 4, and the means for restricting the display of objects is not limited to setting the display prohibited area A2.

車両4の運転状況に応じてオブジェクトの表示が制限される点以外は実施の形態1と同様であるため、本実施の形態ではフローチャート等の詳細な説明は省略する。 Since the present embodiment is the same as the first embodiment except that the display of objects is restricted according to the driving conditions of the vehicle 4, detailed description of the flowchart and the like will be omitted in the present embodiment.

以上より、本実施の形態3によれば、ARコンテンツの表示を行いつつ、ユーザの視野を確保することができる。 As described above, according to the third embodiment, it is possible to secure the user's field of view while displaying the AR content.

今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time are illustrative in all respects and should not be considered restrictive. The scope of the present invention is indicated by the scope of the claims rather than the above-described meaning, and is intended to include all modifications within the scope and meaning equivalent to the scope of the claims.

1 サーバ
11 制御部
12 主記憶部
13 通信部
14 補助記憶部
P1 プログラム
2 車載装置(情報処理装置)
21 制御部
22 主記憶部
23 通信部
24 表示部
25 測位部
26 周辺撮像部
27 車内撮像部
28 音声入力部
29 音声出力部
30 車速検出部
31 補助記憶部
P2 プログラム
M 地図データ
311 表示テーブル
1 Server 11 Control Unit 12 Main Storage Unit 13 Communication Unit 14 Auxiliary Storage Unit P1 Program 2 In-Vehicle Device (Information Processing Device)
21 control unit 22 main storage unit 23 communication unit 24 display unit 25 positioning unit 26 peripheral imaging unit 27 in-vehicle imaging unit 28 voice input unit 29 voice output unit 30 vehicle speed detection unit 31 auxiliary storage unit P2 program M map data 311 display table

Claims (12)

車両の窓を表示領域として画像を表示する表示部と、
前記車両の状況を示すデータを取得する第1取得部と、
前記窓に表示するオブジェクトを取得する第2取得部と、
前記車両の状況に応じて、実空間における前記オブジェクトの配置位置を決定する決定部と、
前記窓を介して前記配置位置に前記オブジェクトが視認されるように、前記窓における前記オブジェクトの表示位置を制御する表示制御部と
を備え
前記第1取得部は、前記車両の目的地を取得し、
前記第2取得部は、前記目的地に応じたオブジェクトを取得し、
前記決定部は、オブジェクト毎に該オブジェクトを配置する前記車両からの相対位置を規定するテーブルを参照して、前記オブジェクトを配置する前記車両からの相対位置を決定し、
前記第1取得部は、前記実空間に存在する周辺物の位置及び形状を検出した検出結果を取得し、
前記表示制御部は、前記実空間において前記相対位置に存在する前記周辺物の位置及び形状に基づき、前記オブジェクトの表示を制御する
情報処理装置。
a display unit that displays an image using a vehicle window as a display area;
a first acquisition unit that acquires data indicating the status of the vehicle;
a second acquisition unit that acquires an object to be displayed in the window;
a determination unit that determines the placement position of the object in real space according to the situation of the vehicle;
a display control unit that controls the display position of the object in the window so that the object can be seen at the arrangement position through the window ,
The first acquisition unit acquires a destination of the vehicle,
The second acquisition unit acquires an object corresponding to the destination,
The determination unit refers to a table that defines a relative position of each object from the vehicle to place the object, and determines the relative position from the vehicle to place the object;
The first acquisition unit acquires a detection result of detecting the position and shape of a peripheral object existing in the real space,
The display control unit controls display of the object based on the position and shape of the peripheral object existing at the relative position in the real space.
Information processing equipment.
記決定部は、前記周辺物の位置に応じて前記オブジェクトの配置位置を決定する
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the determination unit determines the placement position of the object according to the position of the peripheral object.
前記周辺物は、一定の位置に存在する物体を含み、
前記テーブルを参照して、前記相対位置に前記物体が存在するか否かを判定し、
前記物体が存在しないと判定した場合、前記決定部は、前記相対位置を前記オブジェクトの配置位置に決定し、
前記物体が存在すると判定した場合、前記決定部は、前記オブジェクトの配置位置を前記相対位置から変更する
請求項2に記載の情報処理装置。
The surrounding object includes an object existing at a fixed position,
referring to the table to determine whether the object exists at the relative position;
When determining that the object does not exist, the determination unit determines the relative position to be the placement position of the object;
The information processing apparatus according to claim 2, wherein when determining that the object exists, the determination unit changes the arrangement position of the object from the relative position.
記表示制御部は、前記配置位置の前記車両からの距離が前記物体の前記車両からの距離よりも長い場合、前記物体の形状に応じて、前記オブジェクトの一部又は全部を非表示とする
請求項3に記載の情報処理装置。
The display control unit hides part or all of the object according to the shape of the object when the distance of the arrangement position from the vehicle is longer than the distance of the object from the vehicle. The information processing apparatus according to claim 3.
前記周辺物は、前記車両の周辺に存在する移動体を含み、
検出された前記移動体の動きを追跡する追跡部を備え、
前記表示制御部は、前記移動体の動きに応じて前記オブジェクトの表示位置を逐次変更する
請求項2~4のいずれか1項に記載の情報処理装置。
The peripheral objects include moving bodies existing around the vehicle,
A tracking unit that tracks the detected movement of the moving body,
The information processing apparatus according to any one of claims 2 to 4, wherein the display control section sequentially changes the display position of the object according to the movement of the moving body.
記車両の位置情報を逐次取得する位置取得部を備え、
前記決定部は、前記目的地の所在位置を前記オブジェクトの配置位置に決定し、
前記表示制御部は、前記配置位置と、逐次取得する前記位置情報が示す前記車両の現在位置とに基づき、前記目的地が所在する方向に前記オブジェクトが視認されるように、前記窓における前記オブジェクトの表示位置を逐次変更する
請求項1~5のいずれか1項に記載の情報処理装置。
A position acquisition unit that sequentially acquires position information of the vehicle,
The determination unit determines the location of the destination as the location of the object,
The display control unit displays the object in the window so that the object can be viewed in a direction in which the destination is located, based on the arrangement position and the current position of the vehicle indicated by the position information that is sequentially acquired. The information processing apparatus according to any one of claims 1 to 5, wherein the display position of the is sequentially changed.
前記第1取得部は、前記車両の走行速度を取得し、
前記走行速度が特定の速度以下になったか否かを判定する速度判定部を備え、
前記特定の速度以下になったと判定した場合、前記決定部は前記オブジェクトの配置位置を決定し、
前記表示制御部は、決定した前記配置位置に前記オブジェクトが固定して視認されるように、前記窓における前記オブジェクトの表示位置を制御する
請求項1~6のいずれか1項に記載の情報処理装置。
The first acquisition unit acquires the traveling speed of the vehicle,
A speed determination unit that determines whether the running speed has become a specific speed or less,
If it is determined that the speed is equal to or less than the specific speed, the determination unit determines the placement position of the object,
The information processing according to any one of claims 1 to 6, wherein the display control unit controls the display position of the object in the window so that the object can be viewed fixedly at the determined placement position. Device.
前記車両に乗車している人物の感情を推定する推定部を備え、
前記表示制御部は、前記オブジェクトの表示後における前記人物の感情に応じて、前記オブジェクトの表示を制御する
請求項1~7のいずれか1項に記載の情報処理装置。
An estimating unit that estimates the emotion of a person riding in the vehicle,
The information processing apparatus according to any one of claims 1 to 7, wherein the display control section controls display of the object according to the emotion of the person after the object is displayed.
前記第1取得部は、前記車両の運転状況を示すデータを取得し、
前記表示制御部は、前記運転状況に応じて、前記窓において前記オブジェクトの表示を禁止する表示禁止領域を設定、又は前記オブジェクトを半透明オブジェクトに変更する
請求項1~8のいずれか1項に記載の情報処理装置。
The first acquisition unit acquires data indicating a driving situation of the vehicle,
9. The display controller according to any one of claims 1 to 8, wherein the display control unit sets a display prohibited area for prohibiting display of the object in the window, or changes the object to a translucent object, according to the driving situation. The information processing device described.
前記オブジェクトの表示対象である人物が着座している前記車両内の座席を特定する特定部を備え、
前記表示制御部は、特定した前記座席の位置と、前記オブジェクトの配置位置とに基づき、前記窓における前記オブジェクトの表示位置を制御する
請求項1~9のいずれか1項に記載の情報処理装置。
a specifying unit that specifies a seat in the vehicle on which the person who is the display target of the object is seated;
The information processing apparatus according to any one of claims 1 to 9, wherein the display control unit controls the display position of the object in the window based on the specified position of the seat and the arrangement position of the object. .
前記表示部は、前記車両の複数の前記窓に画像を表示し、
前記表示制御部は、前記オブジェクトの配置位置に応じて、いずれかの前記窓に前記オブジェクトを表示させる
請求項1~10のいずれか1項に記載の情報処理装置。
The display unit displays images on the plurality of windows of the vehicle,
The information processing apparatus according to any one of claims 1 to 10, wherein the display control unit displays the object in one of the windows according to the position of arrangement of the object.
車両の状況を示すデータを取得し、
前記車両の窓を表示領域とする表示部に表示するオブジェクトを取得し、
前記車両の状況に応じて、実空間における前記オブジェクトの配置位置を決定し、
前記窓を介して前記配置位置に前記オブジェクトが視認されるように、前記窓における前記オブジェクトの表示位置を制御する
処理をコンピュータに実行させるプログラムであって、
前記車両の目的地を取得し、
前記目的地に応じたオブジェクトを取得し、
オブジェクト毎に該オブジェクトを配置する前記車両からの相対位置を規定するテーブルを参照して、前記オブジェクトを配置する前記車両からの相対位置を決定し、
前記実空間に存在する周辺物の位置及び形状を検出した検出結果を取得し、
前記実空間において前記相対位置に存在する前記周辺物の位置及び形状に基づき、前記オブジェクトの表示を制御する
処理をコンピュータに実行させるプログラム。
Acquiring data indicating the vehicle status,
Acquiring an object to be displayed on a display unit having a window of the vehicle as a display area,
determining the placement position of the object in real space according to the situation of the vehicle;
A program for causing a computer to execute a process of controlling the display position of the object in the window so that the object can be seen at the arrangement position through the window,
obtaining a destination of the vehicle;
obtaining an object corresponding to the destination;
determining the relative position from the vehicle where the object is placed by referring to a table that defines the relative position from the vehicle where the object is placed for each object;
Acquiring a detection result of detecting the position and shape of a peripheral object existing in the real space;
controlling the display of the object based on the position and shape of the peripheral object existing at the relative position in the real space;
A program that causes a computer to carry out a process .
JP2021020129A 2020-10-28 2021-02-10 Information processing device and information processing method Active JP7122408B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022126460A JP7340078B2 (en) 2020-10-28 2022-08-08 Information processing device and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202063106453P 2020-10-28 2020-10-28
US63/106,453 2020-10-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022126460A Division JP7340078B2 (en) 2020-10-28 2022-08-08 Information processing device and program

Publications (2)

Publication Number Publication Date
JP2022071801A JP2022071801A (en) 2022-05-16
JP7122408B2 true JP7122408B2 (en) 2022-08-19

Family

ID=81593853

Family Applications (8)

Application Number Title Priority Date Filing Date
JP2021020129A Active JP7122408B2 (en) 2020-10-28 2021-02-10 Information processing device and information processing method
JP2021020126A Active JP7157188B2 (en) 2020-10-28 2021-02-10 Information processing method, information processing system and program
JP2021020127A Active JP7170076B2 (en) 2020-10-28 2021-02-10 Information processing method and information processing system
JP2021020124A Active JP7236478B2 (en) 2020-10-28 2021-02-10 Information processing system, computer program, and display method
JP2021020128A Pending JP2022071800A (en) 2020-10-28 2021-02-10 Information processing device and emotion induction method
JP2021020125A Pending JP2022071797A (en) 2020-10-28 2021-02-10 Vehicle and display method
JP2022126460A Active JP7340078B2 (en) 2020-10-28 2022-08-08 Information processing device and program
JP2022178790A Active JP7470171B2 (en) 2020-10-28 2022-11-08 Information processing device and emotion induction method

Family Applications After (7)

Application Number Title Priority Date Filing Date
JP2021020126A Active JP7157188B2 (en) 2020-10-28 2021-02-10 Information processing method, information processing system and program
JP2021020127A Active JP7170076B2 (en) 2020-10-28 2021-02-10 Information processing method and information processing system
JP2021020124A Active JP7236478B2 (en) 2020-10-28 2021-02-10 Information processing system, computer program, and display method
JP2021020128A Pending JP2022071800A (en) 2020-10-28 2021-02-10 Information processing device and emotion induction method
JP2021020125A Pending JP2022071797A (en) 2020-10-28 2021-02-10 Vehicle and display method
JP2022126460A Active JP7340078B2 (en) 2020-10-28 2022-08-08 Information processing device and program
JP2022178790A Active JP7470171B2 (en) 2020-10-28 2022-11-08 Information processing device and emotion induction method

Country Status (1)

Country Link
JP (8) JP7122408B2 (en)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002267470A (en) 2001-03-14 2002-09-18 Toyota Motor Corp System and method for presenting information
JP2003143477A (en) 2001-10-31 2003-05-16 Canon Inc Image compositing device and method
JP2005098916A (en) 2003-09-26 2005-04-14 Mazda Motor Corp On-vehicle information provision apparatus
JP2005207776A (en) 2004-01-20 2005-08-04 Mazda Motor Corp Image display apparatus, method, and program for vehicle
JP2005208159A (en) 2004-01-20 2005-08-04 Mazda Motor Corp Image display device for vehicle, image display method for the vehicle and image display program for the vehicle
JP2009290842A (en) 2008-06-02 2009-12-10 Casio Comput Co Ltd Image compositing apparatus, image compositing method and program
JP2012063253A (en) 2010-09-16 2012-03-29 Olympus Corp Image generation system, program, and information storage medium
JP2016053880A (en) 2014-09-04 2016-04-14 株式会社ランディード On-vehicle system, information processing method, and computer program
WO2017046937A1 (en) 2015-09-18 2017-03-23 日産自動車株式会社 Display apparatus for vehicle and display method for vehicle
JP2017191378A (en) 2016-04-11 2017-10-19 富士通テン株式会社 Augmented reality information display device and augmented reality information display method
US20180066956A1 (en) 2016-09-02 2018-03-08 Lg Electronics Inc. Vehicle user interface apparatus and vehicle
JP2019184962A (en) 2018-04-17 2019-10-24 株式会社Nttドコモ Content display device, content provision server device and dimming control method of content display device
JP2020142792A (en) 2017-03-17 2020-09-10 マクセル株式会社 AR display device
WO2021192469A1 (en) 2020-03-23 2021-09-30 パナソニックIpマネジメント株式会社 Display device, display method, and vehicle

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09183334A (en) * 1995-12-28 1997-07-15 Fujita Corp Mobile office
JP3474053B2 (en) * 1996-04-16 2003-12-08 株式会社日立製作所 Map display method for navigation device and navigation device
FR2806042B1 (en) * 2000-03-13 2002-07-12 Renault DASHBOARD WITH TABLET FOR MOTOR VEHICLE
WO2003020571A1 (en) * 2001-08-31 2003-03-13 Johnson Controls Technology Company Stowable steering wheel
JP2004212160A (en) 2002-12-27 2004-07-29 Matsushita Electric Ind Co Ltd Route searching device and device for changing internal environment of vehicle
JP2005010664A (en) 2003-06-20 2005-01-13 Matsushita Electric Ind Co Ltd On-vehicle content reproduction system
FR2861657B1 (en) * 2003-11-04 2007-01-19 Peugeot Citroen Automobiles Sa DRIVING STATION OF A MOTOR VEHICLE
JP4525926B2 (en) * 2005-11-29 2010-08-18 株式会社デンソー Automotive user hospitality system
JP4525925B2 (en) * 2005-11-29 2010-08-18 株式会社デンソー Automotive user hospitality system
JP4332813B2 (en) * 2007-07-23 2009-09-16 株式会社デンソー Automotive user hospitality system
JP5152570B2 (en) * 2008-03-06 2013-02-27 株式会社デンソー Automotive user hospitality system
JP2011055250A (en) 2009-09-02 2011-03-17 Sony Corp Information providing method and apparatus, information display method and mobile terminal, program, and information providing system
JP2012019895A (en) * 2010-07-13 2012-02-02 Kokuyo Co Ltd Top board and furniture with top board
JP2012243007A (en) * 2011-05-18 2012-12-10 Toshiba Corp Image display device and image area selection method using the same
JP5703194B2 (en) * 2011-11-14 2015-04-15 株式会社東芝 Gesture recognition apparatus, method thereof, and program thereof
JP6021488B2 (en) * 2012-07-19 2016-11-09 キヤノン株式会社 Control device, control method, and control program
WO2014032822A2 (en) * 2012-08-29 2014-03-06 Johnson Controls Gmbh Device and method for controlling vehicle functions by the detection of user interaction
CN104798129B (en) * 2012-11-27 2018-10-19 索尼公司 Display device, display methods and computer-readable medium
JP6031972B2 (en) * 2012-11-27 2016-11-24 富士通株式会社 Perceptual reaction analyzer, its method and program
EP2746833A1 (en) * 2012-12-18 2014-06-25 Volvo Car Corporation Vehicle adaptation to automatic driver independent control mode
JP6015547B2 (en) * 2013-05-09 2016-10-26 株式会社デンソー Line-of-sight input device
US9440660B2 (en) * 2014-07-22 2016-09-13 Toyota Motor Engineering & Manufacturing North America, Inc. Method for remote communication with and through a vehicle
JP6384869B2 (en) * 2015-01-23 2018-09-05 アルパイン株式会社 Information processing system and computer program
JP6115577B2 (en) * 2015-01-29 2017-04-19 マツダ株式会社 Vehicle occupant emotion response control device
KR101687543B1 (en) * 2015-04-27 2016-12-19 엘지전자 주식회사 Display apparatus and method for controlling the same
US10380888B2 (en) 2015-09-18 2019-08-13 Sony Corporation Information processing apparatus, information processing method, and program
CN111190290B (en) * 2015-10-09 2022-05-10 麦克赛尔株式会社 Head-up display device
JP6556643B2 (en) * 2016-02-19 2019-08-07 ヒュンダイ・モービス・カンパニー・リミテッド Head-up display device
JP2019515730A (en) * 2016-04-18 2019-06-13 マサチューセッツ インスティテュート オブ テクノロジー Feature extraction from physiological signals
JP6402136B2 (en) * 2016-05-17 2018-10-10 オートリブ ディベロップメント エービー Side airbag device
JP7067482B2 (en) * 2016-11-04 2022-05-16 ソニーグループ株式会社 Controls, recording media, and programs
US10257582B2 (en) 2017-03-17 2019-04-09 Sony Corporation Display control system and method to generate a virtual environment in a vehicle
JP6683163B2 (en) * 2017-03-29 2020-04-15 マツダ株式会社 Vehicle driving support system
WO2019044400A1 (en) * 2017-08-28 2019-03-07 株式会社日立産機システム Motor drive system
JP6819539B2 (en) * 2017-10-20 2021-01-27 株式会社デンソー Gesture input device
JP2019113407A (en) * 2017-12-22 2019-07-11 トヨタ自動車株式会社 Picture display device
JP2019119445A (en) 2018-01-04 2019-07-22 ハーマン インターナショナル インダストリーズ インコーポレイテッド Moodroof for augmented media experience in vehicle cabin
JP2019124601A (en) 2018-01-17 2019-07-25 トヨタ自動車株式会社 Display device for vehicle
JP6973141B2 (en) * 2018-02-07 2021-11-24 トヨタ自動車株式会社 Display device for vehicles
JP2019140571A (en) * 2018-02-13 2019-08-22 三菱電機株式会社 Content reproduction control device, content reproduction system, and program
JP2019159867A (en) * 2018-03-14 2019-09-19 日本精機株式会社 Head mounted display, image display method for head mounted display, and control program for head mounted display
JP7124367B2 (en) * 2018-03-20 2022-08-24 トヨタ自動車株式会社 Work support system, information processing method and program
US10592197B2 (en) * 2018-04-24 2020-03-17 Adobe Inc. Gesture-based alignment methodology to extend the viewport on adjacent touch screen devices
JP2019208576A (en) * 2018-05-31 2019-12-12 株式会社デンソー Emotion data acquisition device and emotion operation device
JP2020003953A (en) * 2018-06-26 2020-01-09 日産自動車株式会社 Image radiation method and user interface device
JP2020053795A (en) 2018-09-26 2020-04-02 株式会社Jvcケンウッド Display control device, image management server device, display system, display control method, and program
WO2020069517A2 (en) * 2018-09-30 2020-04-02 Strong Force Intellectual Capital, Llc Intelligent transportation systems
JP7163732B2 (en) * 2018-11-13 2022-11-01 トヨタ自動車株式会社 Driving support device, driving support system, driving support method and program
JP6741746B2 (en) * 2018-12-26 2020-08-19 株式会社ポケモン Program, game server, information processing terminal, method and game system
JP7028228B2 (en) 2019-01-16 2022-03-02 株式会社デンソー Display system, display control device and display control program
EP3920046A4 (en) 2019-01-30 2022-03-09 Sony Group Corporation Information processing system, information processing method, and information processing device
JP7172705B2 (en) * 2019-02-18 2022-11-16 沖電気工業株式会社 Emotion estimation device, emotion estimation method, program, and emotion estimation system
WO2020183893A1 (en) 2019-03-14 2020-09-17 ソニー株式会社 Information processing device, information processing method, and moving body device
JP2020170345A (en) * 2019-04-03 2020-10-15 トヨタ自動車株式会社 Vehicle driving advice providing system

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002267470A (en) 2001-03-14 2002-09-18 Toyota Motor Corp System and method for presenting information
JP2003143477A (en) 2001-10-31 2003-05-16 Canon Inc Image compositing device and method
JP2005098916A (en) 2003-09-26 2005-04-14 Mazda Motor Corp On-vehicle information provision apparatus
JP2005207776A (en) 2004-01-20 2005-08-04 Mazda Motor Corp Image display apparatus, method, and program for vehicle
JP2005208159A (en) 2004-01-20 2005-08-04 Mazda Motor Corp Image display device for vehicle, image display method for the vehicle and image display program for the vehicle
JP2009290842A (en) 2008-06-02 2009-12-10 Casio Comput Co Ltd Image compositing apparatus, image compositing method and program
JP2012063253A (en) 2010-09-16 2012-03-29 Olympus Corp Image generation system, program, and information storage medium
JP2016053880A (en) 2014-09-04 2016-04-14 株式会社ランディード On-vehicle system, information processing method, and computer program
WO2017046937A1 (en) 2015-09-18 2017-03-23 日産自動車株式会社 Display apparatus for vehicle and display method for vehicle
JP2017191378A (en) 2016-04-11 2017-10-19 富士通テン株式会社 Augmented reality information display device and augmented reality information display method
US20180066956A1 (en) 2016-09-02 2018-03-08 Lg Electronics Inc. Vehicle user interface apparatus and vehicle
JP2020142792A (en) 2017-03-17 2020-09-10 マクセル株式会社 AR display device
JP2019184962A (en) 2018-04-17 2019-10-24 株式会社Nttドコモ Content display device, content provision server device and dimming control method of content display device
WO2021192469A1 (en) 2020-03-23 2021-09-30 パナソニックIpマネジメント株式会社 Display device, display method, and vehicle

Also Published As

Publication number Publication date
JP2022071796A (en) 2022-05-16
JP2022071799A (en) 2022-05-16
JP2022071801A (en) 2022-05-16
JP2022071797A (en) 2022-05-16
JP2022071798A (en) 2022-05-16
JP7236478B2 (en) 2023-03-09
JP7170076B2 (en) 2022-11-11
JP7470171B2 (en) 2024-04-17
JP2022171655A (en) 2022-11-11
JP7157188B2 (en) 2022-10-19
JP7340078B2 (en) 2023-09-06
JP2023027783A (en) 2023-03-02
JP2022071800A (en) 2022-05-16

Similar Documents

Publication Publication Date Title
US10339711B2 (en) System and method for providing augmented reality based directions based on verbal and gestural cues
US20190101976A1 (en) Systems and methods to provide an interactive space based on predicted events
JP6834704B2 (en) Driving support device and computer program
US10460186B2 (en) Arrangement for creating an image of a scene
JP7068986B2 (en) Agent system, agent control method, and program
US11256104B2 (en) Intelligent vehicle point of focus communication
WO2021079975A1 (en) Display system, display device, display method, and moving device
US10901503B2 (en) Agent apparatus, agent control method, and storage medium
JP7250547B2 (en) Agent system, information processing device, information processing method, and program
JP2008039596A (en) System, method, program for providing information and memory medium
CN109774723A (en) Information processing unit, methods and procedures, driver's monitoring system and preservation media
JP2005212709A (en) Vehicle driving supporting system
US11151775B2 (en) Image processing apparatus, display system, computer readable recoring medium, and image processing method
JP2013072778A (en) Image displaying apparatus for vehicle use
JP4253918B2 (en) Agent device
JP7340078B2 (en) Information processing device and program
JP7148296B2 (en) In-vehicle robot
WO2022124164A1 (en) Attention object sharing device, and attention object sharing method
US20240087339A1 (en) Information processing device, information processing system, and information processing method
JP6739017B1 (en) Tourism support device, robot equipped with the device, tourism support system, and tourism support method
JP7088643B2 (en) Information providing device and information providing method
JP2024057142A (en) Information processing device, control method, program, and storage medium
JP2024057143A (en) Information processing device, control method, program, and storage medium
JP2023174695A (en) Image display unit and image display method
JP2023073150A (en) Display control method and display control apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R150 Certificate of patent or registration of utility model

Ref document number: 7122408

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150