JP2021081372A - Display image generator and display image generation method - Google Patents

Display image generator and display image generation method Download PDF

Info

Publication number
JP2021081372A
JP2021081372A JP2019210845A JP2019210845A JP2021081372A JP 2021081372 A JP2021081372 A JP 2021081372A JP 2019210845 A JP2019210845 A JP 2019210845A JP 2019210845 A JP2019210845 A JP 2019210845A JP 2021081372 A JP2021081372 A JP 2021081372A
Authority
JP
Japan
Prior art keywords
display image
user
extraction target
image
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019210845A
Other languages
Japanese (ja)
Other versions
JP7418189B2 (en
Inventor
井上 裕史
Yasushi Inoue
裕史 井上
乘 西山
Nori Nishiyama
乘 西山
雄宇 志小田
Yuu Shioda
雄宇 志小田
剛仁 寺口
Takehito Teraguchi
剛仁 寺口
翔太 大久保
Shota Okubo
翔太 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Nissan Motor Co Ltd
Original Assignee
Renault SAS
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS, Nissan Motor Co Ltd filed Critical Renault SAS
Priority to JP2019210845A priority Critical patent/JP7418189B2/en
Publication of JP2021081372A publication Critical patent/JP2021081372A/en
Application granted granted Critical
Publication of JP7418189B2 publication Critical patent/JP7418189B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To appropriately generate information relating to the position of an extraction target recognized by the utterance of other than a user, irrespective of whether or not the extraction target is included in the visual field of the user.SOLUTION: A display image generator 1A comprises: an utterance data acquisition unit 12 for acquiring the utterance data of the statement uttered to a user by an uttering entity; a target extraction unit 13 for extracting data out of the utterance data that matches the target data as an extraction target; a visual field image acquisition unit 14A for acquiring the visual field image of the user; a target determination unit 15A for determining whether or not the extraction target that is the extracted target is included in the visual field image; and a display image generation unit 18A for acquiring extraction target information that is information relating to the position of the extraction target and generating a display image that includes the extraction target information. The display image generation unit 18A determines the display mode of the display image relating to the extraction target on the basis of the determination result of whether or not the extraction target is included in the visual field image.SELECTED DRAWING: Figure 1

Description

本開示は、表示画像生成装置及び表示画像生成方法に関する。 The present disclosure relates to a display image generation device and a display image generation method.

認識されている車外対象物の位置に関する情報を生成する技術が知られている。例えば特許文献1には、車両乗員が注目している車外対象物を視線検出及び音声認識により特定し、特定された対象物の車両に対する相対位置を示す表示画像を生成する技術が開示されている。 Techniques are known to generate information about the location of recognized out-of-vehicle objects. For example, Patent Document 1 discloses a technique of identifying an object outside the vehicle that the vehicle occupant is paying attention to by line-of-sight detection and voice recognition, and generating a display image showing the relative position of the identified object with respect to the vehicle. ..

特開2006−90790号公報Japanese Unexamined Patent Publication No. 2006-90790

しかし、上述した従来の技術は、対象物が存在する方向をユーザが見ていることを前提としており、当該対象物がユーザの視野内に含まれているか否かにかかわらず当該対象物の位置に関する情報を生成し得るものではない。また、上述した従来の技術は、ユーザ自身により認識されている対象物の位置に関する情報を生成しようとするものであって、そのユーザ以外の主体により認識されている対象物の位置に関する情報をユーザのために生成することについては考慮されていない。 However, the above-mentioned conventional technique presupposes that the user is looking in the direction in which the object exists, and the position of the object regardless of whether or not the object is included in the user's field of view. It cannot generate information about. Further, the above-mentioned conventional technique is to generate information on the position of the object recognized by the user himself / herself, and the user can generate information on the position of the object recognized by a subject other than the user. No consideration is given to producing for.

本開示は、このような事情に鑑みてなされてものであって、ユーザ以外の主体により認識されている抽出対象物がユーザの視野内に含まれているか否かにかかわらず、当該抽出対象物の位置に関する情報を適切に生成する表示画像生成装置及び表示画像生成方法を提供することを目的とする。 This disclosure is made in view of such circumstances, and regardless of whether or not the extraction target recognized by a subject other than the user is included in the user's field of view, the extraction target is concerned. It is an object of the present invention to provide a display image generation device and a display image generation method for appropriately generating information regarding the position of.

本開示に係る表示画像生成装置は、発言主体により発せられた発言に含まれる対象物を抽出対象物として特定し、当該抽出対象物に関する表示画像を生成する表示画像生成装置である。本開示に係る表示画像生成装置は、発言データ取得部と、対象物抽出部と、視野画像取得部と、対象物判定部と、表示画像生成部と、を備える。発言データ取得部は、発言主体によりユーザに対して発せられた発言の発言データを取得する。対象物抽出部は、予め複数の対象物データを記憶し、複数の対象物データと発言データ取得部により取得された発言データとを対比して、発言データのうち対象物データと一致するデータを抽出対象物として抽出する。視野画像取得部は、ユーザの視野に対応する視野画像を少なくとも含む画像を取得する。対象物判定部は、対象物抽出部により抽出された抽出対象物が視野画像に含まれるか否かを判定する。表示画像生成部は、抽出対象物の位置に関する情報である対象物情報を取得し、視野画像とは異なる出対象物情報を含む表示画像を生成する。表示画像生成部は、対象物判定部による抽出対象物が視野画像に含まれるか否かの判定結果に基づいて、抽出対象物に関する表示画像の表示態様を決定する。 The display image generation device according to the present disclosure is a display image generation device that identifies an object included in a statement made by a speaking subject as an extraction target and generates a display image related to the extraction object. The display image generation device according to the present disclosure includes a speech data acquisition unit, an object extraction unit, a visual field image acquisition unit, an object determination unit, and a display image generation unit. The remark data acquisition unit acquires the remark data of the remark made to the user by the remark subject. The object extraction unit stores a plurality of object data in advance, compares the plurality of object data with the speech data acquired by the speech data acquisition unit, and selects data that matches the object data among the speech data. Extract as an extraction target. The field-of-view image acquisition unit acquires an image including at least a field-of-view image corresponding to the user's field of view. The object determination unit determines whether or not the extraction target extracted by the object extraction unit is included in the visual field image. The display image generation unit acquires the object information which is the information about the position of the extraction object, and generates the display image including the output object information different from the visual field image. The display image generation unit determines the display mode of the display image related to the extraction target based on the determination result of whether or not the extraction target is included in the visual field image by the object determination unit.

本開示によれば、ユーザ以外の主体により認識されている対象物がユーザの視野内に含まれているか否かにかかわらず、当該対象物の位置に関する情報を適切に生成することが可能となる。 According to the present disclosure, it is possible to appropriately generate information on the position of an object recognized by a subject other than the user, regardless of whether or not the object is included in the user's field of view. ..

第1実施形態に係る表示画像生成装置を示すブロック図である。It is a block diagram which shows the display image generation apparatus which concerns on 1st Embodiment. 端末を装着して車両に同乗しているユーザ及び同乗者を示す図である。It is a figure which shows the user and the passenger who are riding a vehicle with a terminal attached. 車両の上方から見たときのユーザの視野を説明するための平面図である。It is a top view for demonstrating the user's field of view when viewed from above the vehicle. 表示画像が第1表示態様で重畳して表示されたユーザXの視野に対応する周辺状況を示す図である。It is a figure which shows the peripheral situation corresponding to the field of view of the user X which the display image was superposed and displayed in the 1st display mode. 第1表示画像が表示された表示画像表示装置を示す図である。It is a figure which shows the display image display apparatus which displayed the 1st display image. 表示画像が第2表示態様で重畳して表示されたユーザXの視野に対応する周辺状況を示す図である。It is a figure which shows the peripheral situation corresponding to the field of view of the user X which the display image was superposed and displayed in the 2nd display mode. 第2表示画像が表示された表示画像表示装置を示す図である。It is a figure which shows the display image display apparatus which displayed the 2nd display image. 表示画像が第3表示態様で重畳して表示されたユーザXの視野に対応する周辺状況を示す図である。It is a figure which shows the peripheral situation corresponding to the field of view of the user X which the display image was superposed and displayed in the 3rd display mode. 第3表示画像が表示された表示画像表示装置を示す図である。It is a figure which shows the display image display apparatus which displayed the 3rd display image. 第1実施形態に係る表示画像生成処理を示すフローチャートである。It is a flowchart which shows the display image generation processing which concerns on 1st Embodiment. 第2実施形態に係る表示画像生成装置を示すブロック図である。It is a block diagram which shows the display image generation apparatus which concerns on 2nd Embodiment. 第2実施形態に係る表示画像生成処理を示すフローチャートである。It is a flowchart which shows the display image generation processing which concerns on 2nd Embodiment. 第3実施形態に係る表示画像生成装置を示すブロック図である。It is a block diagram which shows the display image generation apparatus which concerns on 3rd Embodiment. 第3実施形態に係る表示画像生成処理を示すフローチャートである。It is a flowchart which shows the display image generation processing which concerns on 3rd Embodiment.

以下、図面を参照して、本開示の例示的な実施形態について説明する。なお、以下の説明において、同一又は相当部分には同一符号を付し、重複する説明は省略する。
[第1実施形態]
Hereinafter, exemplary embodiments of the present disclosure will be described with reference to the drawings. In the following description, the same or corresponding parts will be designated by the same reference numerals, and duplicate description will be omitted.
[First Embodiment]

図1は、第1実施形態に係る表示画像生成装置1Aを示すブロック図である。図2は、端末を装着して車両2Aに同乗しているユーザX及びユーザYを示す図である。図3は、車両2Aの上方から見たときのユーザXの視野Exを説明するための平面図である。図4Aと図5Aと図6Aは、表示画像が各表示態様で重畳して表示されたユーザXの視野Exに対応する周辺状況を示す図である。図4Bと図5Bと図6Bは、各表示画像が表示された表示画像表示装置を示す図である。図1〜図6に示されるように、表示画像生成装置1Aは、発言主体により発せられた発言に含まれる(すなわち、発言主体により発せられた発言において言及されている)対象物Tを抽出対象物Teとして特定し、当該抽出対象物Teに関する表示画像Pを生成する装置である。 FIG. 1 is a block diagram showing a display image generation device 1A according to the first embodiment. FIG. 2 is a diagram showing a user X and a user Y who are riding in a vehicle 2A with a terminal attached. FIG. 3 is a plan view for explaining the field of view Ex of the user X when viewed from above the vehicle 2A. 4A, 5A, and 6A are diagrams showing a peripheral situation corresponding to the visual field Ex of the user X in which the displayed images are superimposed and displayed in each display mode. 4B, 5B, and 6B are diagrams showing a display image display device on which each display image is displayed. As shown in FIGS. 1 to 6, the display image generator 1A extracts the object T included in the remarks made by the speaking subject (that is, referred to in the remarks made by the speaking subject). This is a device that identifies the object Te and generates a display image P related to the extraction target Te.

より詳細には、表示画像生成装置1Aは、ユーザXの視野Exに対応する周辺状況に重畳して表示される表示画像Pを生成する装置である。ユーザXは、人であるユーザ(発言主体)Yと車両2Aに乗車しており、例えば車外の景色を視認している。ユーザXは、ユーザ用端末3Aを装着している。ユーザYは、発言主体用端末4を装着している(図2参照)。本実施形態では、ユーザYがユーザXに対して話しかける状況を例示して、表示画像生成装置1Aについて説明する。 More specifically, the display image generation device 1A is a device that generates a display image P that is superimposed and displayed on the surrounding situation corresponding to the visual field Ex of the user X. The user X is in the vehicle 2A with the user (speaking subject) Y who is a person, and is visually recognizing the scenery outside the vehicle, for example. User X is wearing a user terminal 3A. The user Y is equipped with the speaking subject terminal 4 (see FIG. 2). In the present embodiment, the display image generation device 1A will be described by exemplifying a situation in which the user Y speaks to the user X.

ここで、「ユーザXの視野Ex」とは、ユーザXにより視認可能な視認可能領域を意味する。「視認可能領域」は、ヒトが眼を使い、生理的視野中心付近に固視点(注視点)を設けている際に外界から有効に情報を得られる範囲という有効視野である。例えば、ユーザXの視野Exは、ユーザXの視野Exの中心軸を中心として視認可能な上下左右の全ての領域に設定されてもよい。図3は、車両2Aの上方から見たとき、ユーザXの水平方向の視認可能領域を示している。ユーザXの視野Exは車両2Aの移動により変化する。例えば、図3では、現在のユーザXの位置を現在位置X1により示し、現在地から移動した後のユーザXの位置を移動位置X2により示す。以下の説明では、ユーザXの視野Exは、後述するユーザ用端末3Aを装着したユーザXが所定の方向を向いている状態で、ユーザ用端末3Aの透過型ディスプレイを介してユーザXが視認可能な上下左右の全ての領域に設定されているものとする。なお、ユーザYの視野Eyは、ユーザXの視野Exと同様に、ユーザYにより視認可能な視認可能領域を意味する(図2参照)。 Here, the "viewing field Ex of the user X" means a visible area that can be visually recognized by the user X. The "visible area" is an effective visual field in which information can be effectively obtained from the outside world when a human uses the eye and a fixed viewpoint (gaze point) is provided near the center of the physiological visual field. For example, the field of view Ex of the user X may be set in all the visible top, bottom, left, and right regions centered on the central axis of the field of view Ex of the user X. FIG. 3 shows a horizontally visible area of the user X when viewed from above the vehicle 2A. The field of view Ex of the user X changes with the movement of the vehicle 2A. For example, in FIG. 3, the current position of the user X is indicated by the current position X1, and the position of the user X after moving from the current location is indicated by the moving position X2. In the following description, the field of view Ex of the user X can be visually recognized by the user X through the transmissive display of the user terminal 3A in a state where the user X wearing the user terminal 3A described later is facing a predetermined direction. It is assumed that it is set in all areas of up, down, left and right. The visual field Eye of the user Y means a visible region that can be visually recognized by the user Y, similarly to the visual field Ex of the user X (see FIG. 2).

「周辺状況」は、ユーザXの周辺の領域であってユーザXが視認可能な現実の車外の景色(外景)を意味する。周辺状況は、例えばユーザXの現在位置を中心として水平方向の360度にわたる領域であって、ユーザXの上方や下方までを含めた領域の車外の景色(外景)である。「ユーザXの視野Exに対応する周辺状況」とは、ユーザXの視野Exに含まれる車外の景色(外景)を意味する。言い換えると、周辺状況は、ユーザXの視野Ex内の車外の景色である。図3に示されるように、車両2Aの移動により、ユーザXの視野Exに対応する周辺状況が変わる。 The "surrounding situation" means an actual scenery (outside view) outside the vehicle that is visible to the user X in the area around the user X. The surrounding situation is, for example, a landscape (outside view) of a region extending 360 degrees in the horizontal direction centered on the current position of the user X, including the upper and lower parts of the user X. The “surrounding situation corresponding to the field of view Ex of the user X” means the scenery (outside view) outside the vehicle included in the field of view Ex of the user X. In other words, the surrounding situation is the scenery outside the vehicle in the field of view Ex of the user X. As shown in FIG. 3, the movement of the vehicle 2A changes the peripheral situation corresponding to the visual field Ex of the user X.

「表示画像を生成する」とは、ディスプレイ等に表示される画像情報を生成することを意味する。表示画像生成装置1Aにより生成された画像情報が有線通信又は無線通信によりディスプレイ等に送信されると、送信された画像情報に係る表示画像Pが当該ディスプレイに表示可能となる。なお、「表示画像P」とは、抽出対象物Teに関する情報等を表示する画像であり、より具体的には、対象物Tの位置に関する情報を表示する画像である。ここでは、表示画像Pは、ユーザXの視野Exに対応する周辺状況に重畳して表示される。表示画像Pとしては、例えば、抽出対象物Teが視野画像に含まれるか否かを示す文字を含む画像であってもよく、視野画像に含まれる特定の抽出対象物Teが枠囲みされて見えるように表示される矩形枠線の画像であってもよい。なお、詳しくは後述する。ここで、「視野画像」とは、ユーザXの視野Exに対応する画像である。つまり、視野画像は、ユーザXの視野Exに対応する周辺状況を撮像した画像である。本実施形態において、ユーザXの視野Exに対応する周辺状況とは現実の車外の景色であり、視野画像とは当該ユーザXの視野Exに対応する周辺状況が撮像装置(視野画像取得装置32)により撮像された画像である。 "Generating a display image" means generating image information to be displayed on a display or the like. When the image information generated by the display image generation device 1A is transmitted to a display or the like by wired communication or wireless communication, the display image P related to the transmitted image information can be displayed on the display. The "display image P" is an image that displays information or the like regarding the extraction target object Te, and more specifically, is an image that displays information regarding the position of the object T. Here, the display image P is superimposed and displayed on the peripheral situation corresponding to the visual field Ex of the user X. The display image P may be, for example, an image including characters indicating whether or not the extraction target Te is included in the visual field image, and the specific extraction target Te included in the visual field image appears to be surrounded by a frame. It may be an image of a rectangular border displayed as follows. The details will be described later. Here, the "field of view image" is an image corresponding to the field of view Ex of the user X. That is, the visual field image is an image obtained by capturing the peripheral situation corresponding to the visual field Ex of the user X. In the present embodiment, the peripheral situation corresponding to the visual field Ex of the user X is the actual scenery outside the vehicle, and the visual field image is the peripheral situation corresponding to the visual field Ex of the user X as the imaging device (field image acquisition device 32). It is an image taken by.

表示画像生成装置1Aは、例えばサーバとして構成されており、プロセッサ(処理装置)及びメモリ(記憶装置)等を含んでいる。 The display image generation device 1A is configured as, for example, a server, and includes a processor (processing device), a memory (storage device), and the like.

プロセッサは、例えばCPU(Central Processing Unit)又はMPU(Micro-Processing Unit)により構成されていてもよい。メモリは、半導体記憶装置、磁気記憶装置、及び光学記憶装置の少なくともいずれかを備えていてもよい。また、メモリは、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)又はRAM(Random Access Memory)等を含んでいてもよい。 The processor may be composed of, for example, a CPU (Central Processing Unit) or an MPU (Micro-Processing Unit). The memory may include at least one of a semiconductor storage device, a magnetic storage device, and an optical storage device. Further, the memory may include a register, a cache memory, a ROM (Read Only Memory) or a RAM (Random Access Memory) used as a main storage device, and the like.

表示画像生成装置1A、車両2A、ユーザ用端末3A、及び発言主体用端末4は、相互に有線又は無線により通信(送受信)可能に接続されている。なお、表示画像生成装置1Aの機能的な構成については後述する。 The display image generator 1A, the vehicle 2A, the user terminal 3A, and the speaking subject terminal 4 are connected to each other so as to be able to communicate (transmit and receive) by wire or wirelessly. The functional configuration of the display image generation device 1A will be described later.

車両2Aは、ユーザX及びユーザYが乗車している乗用車等である。車両2Aは、手動運転と自動運転の両方が切り替えにより可能であってもよいし、どちらか一方のみの運転が可能であってもよい。車両2Aは、ナビゲーション装置21及び周辺撮像装置22を備えている。ナビゲーション装置21は、例えば、GPS(Global Positioning System)等により検出された車両2Aの位置情報、及び、地図情報に基づいて、設定された目的地までの車両2Aの走行経路を設定し、当該走行経路に沿って車両2Aを案内する装置である。ナビゲーション装置21は、車両2Aの位置(例えば、GPSにより検出された位置座標)の履歴を時系列で記憶(保持)する。ナビゲーション装置21は、記憶した車両2Aの位置の履歴に基づいて車両2Aの進行方向を取得してもよい。 The vehicle 2A is a passenger car or the like on which the user X and the user Y are riding. The vehicle 2A may be capable of both manual driving and automatic driving by switching, or may be capable of driving only one of them. The vehicle 2A includes a navigation device 21 and a peripheral imaging device 22. The navigation device 21 sets the travel route of the vehicle 2A to the set destination based on the position information of the vehicle 2A detected by, for example, GPS (Global Positioning System) and the map information, and the travel thereof. It is a device that guides the vehicle 2A along the route. The navigation device 21 stores (holds) the history of the position of the vehicle 2A (for example, the position coordinates detected by GPS) in chronological order. The navigation device 21 may acquire the traveling direction of the vehicle 2A based on the stored history of the position of the vehicle 2A.

周辺撮像装置22は、ユーザXの周辺状況を撮像して、周辺画像を取得する装置である。「周辺画像」とは、ユーザXの視野Ex(すなわち視野画像)を含むユーザXの周辺の領域であってユーザXの視野Exを含む領域の画像である。ユーザXの周辺画像は、例えばユーザXを中心として水平方向の360度にわたる領域が撮像された画像であってもよく、更にユーザXの上方まで含めた領域が撮像された画像であってもよい。あるいは、ユーザXの周辺画像は、ユーザXの周辺の領域のうち、ユーザXにより視認されにくい領域(一例として、車両2Aの座席に着座した状態のユーザXの後方の領域等)を除く領域であってもよい。あるいは、ユーザXの視野Exに対応する領域と同一の領域であってもよい。「ユーザXの視野Exを含む領域」とは、ユーザXの視野Exを含む領域であれば、その範囲は特に限定されない。 The peripheral image pickup device 22 is a device that captures the peripheral situation of the user X and acquires the peripheral image. The "peripheral image" is an image of a region around the user X including the visual field Ex (that is, the visual field image) of the user X and a region including the visual field Ex of the user X. The peripheral image of the user X may be, for example, an image in which a region extending 360 degrees in the horizontal direction around the user X is captured, or an image in which a region including the upper part of the user X is captured. .. Alternatively, the peripheral image of the user X is an area other than the area around the user X that is difficult to be visually recognized by the user X (for example, the area behind the user X in the state of being seated in the seat of the vehicle 2A). There may be. Alternatively, it may be the same region as the region corresponding to the field of view Ex of the user X. The range of the "region including the visual field Ex of the user X" is not particularly limited as long as it is the region including the visual field Ex of the user X.

周辺撮像装置22は、例えば1又は複数のカメラによって構成されている。周辺撮像装置22のカメラは、例えば車両2Aの屋根上等の車室外に設けられていてもよく、フロントガラス裏等の車室内に設けられていてもよい。車両2Aは、周辺撮像装置22により撮像されたユーザXの周辺画像を表示画像生成装置1Aに送信する。なお、「画像を送信する」とは、画像の画像データを送信することを意味する。 The peripheral imaging device 22 is composed of, for example, one or a plurality of cameras. The camera of the peripheral imaging device 22 may be provided outside the vehicle interior, such as on the roof of the vehicle 2A, or may be installed inside the vehicle interior, such as behind the windshield. The vehicle 2A transmits the peripheral image of the user X captured by the peripheral image pickup device 22 to the display image generation device 1A. Note that "transmitting an image" means transmitting image data of an image.

ユーザ用端末3Aは、ユーザXの頭部に装着される装置であり、表示画像表示装置31A及び視野画像取得装置32を備えている。表示画像表示装置31Aは、表示画像生成装置1Aにより生成された表示画像Pを表示可能なディスプレイを有している。表示画像表示装置31Aのディスプレイは、例えば眼鏡型又はゴーグル型のような透過型ディスプレイであり、ユーザXによりユーザ用端末3Aが装着された状態でユーザXの目の直前に位置する。したがって、ユーザXは表示画像表示装置31Aを介してユーザXの視野Exに対応する周辺状況を視認可能となる。また、表示画像表示装置31Aに表示画像Pが表示されると、ユーザXから見て、表示画像P(図4B,図5B,図6B参照)がユーザXの視野Exに対応する周辺状況に重畳して表示されることとなる。つまり、表示画像表示装置31Aは、いわゆるAR(Augmented Reality)の技術において用いられるHMD(Head Mounted Display)としての機能を備えている。 The user terminal 3A is a device worn on the head of the user X, and includes a display image display device 31A and a visual field image acquisition device 32. The display image display device 31A has a display capable of displaying the display image P generated by the display image generation device 1A. The display of the display image display device 31A is a transmissive display such as a glasses type or goggles type, and is located immediately in front of the eyes of the user X with the user terminal 3A attached by the user X. Therefore, the user X can visually recognize the peripheral situation corresponding to the visual field Ex of the user X via the display image display device 31A. Further, when the display image P is displayed on the display image display device 31A, the display image P (see FIGS. 4B, 5B, and 6B) is superimposed on the peripheral situation corresponding to the visual field Ex of the user X when viewed from the user X. Will be displayed. That is, the display image display device 31A has a function as an HMD (Head Mounted Display) used in so-called AR (Augmented Reality) technology.

視野画像取得装置32は、ユーザXの視野Exに対応する周辺状況を撮像して、視野画像を取得する撮像装置である。視野画像取得装置32は、ユーザXによりユーザ用端末3Aが装着された状態でユーザXの視線方向を撮像可能な向きとなるように、ユーザ用端末3Aに設けられている。視野画像取得装置32は、例えば表示画像表示装置31Aの側部に設けられている。ユーザ用端末3Aは、視野画像取得装置32により撮像された視野画像を表示画像生成装置1Aに送信する。なお、「視野画像を送信する」とは、視野画像の画像データを送信することを意味する。さらに、視野画像取得装置32は、ユーザXの視線方向を検出するセンサを備え(不図示)、センサから検出されたユーザXの視線方向の情報を視野画像の画像データと共に送信してもよい。 The field-of-view image acquisition device 32 is an image pickup device that acquires a field-of-view image by capturing the peripheral situation corresponding to the field-of-view Ex of the user X. The field image acquisition device 32 is provided on the user terminal 3A so that the user X can take an image of the line-of-sight direction of the user X while the user terminal 3A is attached. The field image acquisition device 32 is provided, for example, on the side of the display image display device 31A. The user terminal 3A transmits the field of view image captured by the field of view image acquisition device 32 to the display image generation device 1A. In addition, "transmitting the field of view image" means transmitting the image data of the field of view image. Further, the visual field image acquisition device 32 may include a sensor for detecting the line-of-sight direction of the user X (not shown), and may transmit information on the line-of-sight direction of the user X detected from the sensor together with the image data of the visual field image.

発言主体用端末4は、ユーザYの頭部に装着される装置であり、発言データ取得装置41を備えている。発言データ取得装置41は、ユーザYによりユーザXに対して発せられた発言を発言データとして取得する装置である。発言データ取得装置41は、例えばマイクロフォンによって構成されている。ここでは、発言データ取得装置41は、発言主体用端末4はヘッドセットであり、発言データ取得装置41はヘッドセットに設けられたマイクロフォンである。なお、発言データ取得装置41は、車内マイクロフォン又はイヤホーンであってもよい。また、発言主体用端末4は、ユーザ用端末3Aと同様の表示画像表示装置31A及び視野画像取得装置32を更に備えていてもよい。「発言データ」とは、発言の内容についての情報を有するデータであり、ここでは、発言データは、発言の発言信号データである。「発言信号データ」とは、発言の音声信号を意味する。なお、発言データには、ユーザYが何も発していないデータも含まれる。 The speaking subject terminal 4 is a device worn on the head of the user Y, and includes a speaking data acquisition device 41. The speech data acquisition device 41 is a device that acquires the speech made by the user Y to the user X as speech data. The speech data acquisition device 41 is composed of, for example, a microphone. Here, in the speech data acquisition device 41, the speech subject terminal 4 is a headset, and the speech data acquisition device 41 is a microphone provided in the headset. The speech data acquisition device 41 may be an in-vehicle microphone or an earphone. Further, the speaking subject terminal 4 may further include a display image display device 31A and a visual field image acquisition device 32 similar to the user terminal 3A. The “speech data” is data having information about the content of the remark, and here, the remark data is the remark signal data of the remark. The “speech signal data” means a speech signal. It should be noted that the speech data also includes data in which the user Y does not emit anything.

発言主体用端末4は、発言データ取得装置41により取得された発言を表示画像生成装置1Aに送信する。このとき、発言主体用端末4は、当該発言主体用端末4がユーザYにより装着されていることを特定する情報(ユーザYを特定する情報)を、表示画像生成装置1Aへ更に送信する。「発言主体用端末4がユーザYにより装着されていることを特定する情報」とは、ユーザYに紐付けられた情報であり、例えば、ユーザYと紐付けられた発言主体用端末4のID(Identification)番号であってもよい。なお、「発言を送信する」とは、発言の発言信号データ(詳しくは後述)を送信することを意味する。 The speech subject terminal 4 transmits the speech acquired by the speech data acquisition device 41 to the display image generation device 1A. At this time, the speaking subject terminal 4 further transmits information specifying that the speaking subject terminal 4 is worn by the user Y (information specifying the user Y) to the display image generation device 1A. The "information that identifies that the speaking subject terminal 4 is attached by the user Y" is information associated with the user Y, for example, the ID of the speaking subject terminal 4 associated with the user Y. It may be an (Identification) number. In addition, "transmitting a remark" means transmitting the remark signal data (details will be described later) of the remark.

次に、表示画像生成装置1Aの機能的な構成について説明する。表示画像生成装置1Aは、周辺画像取得部11、発言データ取得部12、対象物抽出部13、視野画像取得部14A、対象物判定部15A、存否判定部16A、位置関係取得部17A、及び表示画像生成部18Aを有している。 Next, the functional configuration of the display image generation device 1A will be described. The display image generation device 1A includes a peripheral image acquisition unit 11, a speech data acquisition unit 12, an object extraction unit 13, a field image acquisition unit 14A, an object determination unit 15A, an existence / absence determination unit 16A, a positional relationship acquisition unit 17A, and a display. It has an image generation unit 18A.

周辺画像取得部11は、車両2Aから送信される周辺画像を取得して記憶する。周辺画像取得部11は、ユーザXの周辺画像を取得して時系列で記憶する。より具体的には、周辺画像取得部11は、車両2Aの周辺撮像装置22により撮像されたユーザXの周辺画像を車両2Aから受信することで、ユーザXの周辺画像を取得する。周辺画像取得部11は、取得したユーザXの周辺画像を時系列で記憶する。つまり、周辺画像取得部11は、ユーザXの現在の周辺画像を取得するとともに、取得された周辺画像を過去の周辺画像として記憶(蓄積)していく。周辺画像取得部11は、予め設定されたタイミングで、記憶している過去の周辺画像の情報を消去してもよい。 The peripheral image acquisition unit 11 acquires and stores the peripheral image transmitted from the vehicle 2A. The peripheral image acquisition unit 11 acquires the peripheral image of the user X and stores it in chronological order. More specifically, the peripheral image acquisition unit 11 acquires the peripheral image of the user X by receiving the peripheral image of the user X captured by the peripheral image pickup device 22 of the vehicle 2A from the vehicle 2A. The peripheral image acquisition unit 11 stores the acquired peripheral image of the user X in chronological order. That is, the peripheral image acquisition unit 11 acquires the current peripheral image of the user X and stores (accumulates) the acquired peripheral image as a past peripheral image. The peripheral image acquisition unit 11 may delete the stored information on the past peripheral image at a preset timing.

発言データ取得部12は、ユーザYによりユーザXに対して発せられた発言の発言データを取得する。より具体的には、発言データ取得部12は、発言主体用端末4の発言データ取得装置41により取得されたユーザYの発言の発言信号データを発言主体用端末4から受信することで、ユーザYによりユーザXに対して発せられた発言の発言データを取得する。なお、発言データ取得部12は、発言データにユーザYの発言が含まれるか否かを判定する。即ち、ユーザYが発言していない場合には、発言データにユーザYの発言が含まれないと判定する。 The remark data acquisition unit 12 acquires the remark data of the remarks made by the user Y to the user X. More specifically, the speech data acquisition unit 12 receives the speech signal data of the user Y's speech acquired by the speech data acquisition device 41 of the speech subject terminal 4 from the speech subject terminal 4, so that the user Y Acquires the speech data of the speech issued to the user X by. The speech data acquisition unit 12 determines whether or not the speech data includes the speech of the user Y. That is, when the user Y does not speak, it is determined that the speech data does not include the speech of the user Y.

また、発言データ取得部12は、ユーザXに対して発言を発したユーザYを特定する情報を取得する。例えば、発言データ取得部12は、ユーザYを特定する情報を発言主体用端末4から受信する。 In addition, the speech data acquisition unit 12 acquires information that identifies the user Y who has made a speech to the user X. For example, the speech data acquisition unit 12 receives information identifying the user Y from the speech subject terminal 4.

対象物抽出部13は、発言データ取得部12により取得された発言データに基づいて、当該発言データに係る発言に含まれる予め記憶された対象物Tを表す文字列を抽出する。詳述すると、対象物抽出部13は、予め複数の対象物Tを表す文字列(対象物データ)を記憶しており、複数の対象物Tを表す文字列と発言データを変換した文字列(発言データの一種)を対比して、発言データを変換した文字列のうち対象物Tを表す文字列と一致する文字列(データ)を抽出対象物Teとして抽出する。「対象物T」とは、現実に存在している物体である。物体としては、例えば、一般名詞で表現される物体の種別(自転車、街灯、建物等)であってもよく、固有名詞で表現される物体の名称(富士山、国会議事堂等)であってもよい。また、物体は、その属性、特徴等について限定されていてもよい(例えば、青い自転車、富士山の頂上等)。対象物抽出部13は、記憶部を有し、対象物Tを表す一般名詞、固有名詞、属性、または特徴を予め記憶している。対象物抽出部13は、発言データ取得部12により取得された発言データから予め記憶された対象物Tを表す一般名詞、固有名詞、属性、または特徴を抽出する。 The object extraction unit 13 extracts a character string representing a pre-stored object T included in the speech related to the speech data based on the speech data acquired by the speech data acquisition unit 12. More specifically, the object extraction unit 13 stores character strings (object data) representing a plurality of object Ts in advance, and converts the character strings representing the plurality of objects T and the speech data (object data). (A type of speech data) is compared, and a character string (data) that matches the character string representing the object T among the character strings converted from the speech data is extracted as the extraction target Te. The "object T" is an object that actually exists. The object may be, for example, the type of the object expressed by a general noun (bicycle, street light, building, etc.) or the name of the object expressed by a proper noun (Mt. Fuji, Parliament building, etc.). .. In addition, the object may be limited in terms of its attributes, characteristics, etc. (for example, a blue bicycle, the summit of Mt. Fuji, etc.). The object extraction unit 13 has a storage unit and stores in advance a general noun, a proper noun, an attribute, or a feature representing the object T. The object extraction unit 13 extracts a general noun, a proper noun, an attribute, or a feature representing the object T stored in advance from the speech data acquired by the speech data acquisition unit 12.

一例として、ユーザYによりユーザXに対して「向こうに自転車があるね。」との発言が発せられた場合を説明する。この場合、発言データ取得部12によりユーザYが発せられた発言の発言データに基づいて、対象物抽出部13は、ユーザYにより発せられた発言から抽出対象物Teを抽出する。ここでは、対象物抽出部13は、「自転車」との言葉が対象物T(自転車)の種別を表すことを予め記憶しているものとする。対象物抽出部13は、ユーザYにより発せられた発言から「自転車」という抽出対象物Teを抽出する。なお、ユーザYの発言内容から、抽出対象物Teを抽出できない場合もある。 As an example, a case where the user Y makes a statement to the user X that "there is a bicycle over there" will be described. In this case, the object extraction unit 13 extracts the extraction target Te from the remarks made by the user Y based on the remark data of the remarks made by the user Y by the remark data acquisition unit 12. Here, it is assumed that the object extraction unit 13 stores in advance that the word "bicycle" represents the type of the object T (bicycle). The object extraction unit 13 extracts the extraction object Te called "bicycle" from the remarks made by the user Y. In some cases, the extraction target Te may not be extracted from the content of the user Y's remarks.

対象物抽出部13は、例えば発言認識(音声認識)により、発言データに係る発言において言及されている予め記憶された複数の対象物Tを表す文字列を抽出する。ここで、「発言認識」としては、公知の発言認識技術が適用可能である。例えば、対象物抽出部13は、発言認識により、発言データに基づいて発言音声信号を文字列として認識し、認識された文字列と複数の対象物Tを表す文字列から抽出対象物Teを抽出する。 The object extraction unit 13 extracts, for example, by speech recognition (speech recognition), character strings representing a plurality of pre-stored objects T referred to in the speech relating to the speech data. Here, as "speech recognition", a known speech recognition technique can be applied. For example, the object extraction unit 13 recognizes the speech voice signal as a character string based on the speech data by the speech recognition, and extracts the extraction target Te from the recognized character string and the character string representing the plurality of objects T. To do.

視野画像取得部14Aは、ユーザXの視野Exに対応する画像である視野画像を少なくとも含む画像を取得する。「視野画像を少なくとも含む画像」とは、視野画像と同一範囲の画像であってもよく、視野画像よりも広い範囲の画像であってもよい。視野画像取得部14Aは、ユーザ用端末3Aの視野画像取得装置32により撮像された視野画像を視野画像取得装置32から受信することで、当該視野画像を取得する。また、視野画像取得部14Aは、視野画像取得装置32からユーザXの視線方向の情報を取得してもよい。 The visual field image acquisition unit 14A acquires an image including at least a visual field image which is an image corresponding to the visual field Ex of the user X. The "image including at least the visual field image" may be an image having the same range as the visual field image, or may be an image having a wider range than the visual field image. The visual field image acquisition unit 14A acquires the visual field image by receiving the visual field image captured by the visual field image acquisition device 32 of the user terminal 3A from the visual field image acquisition device 32. Further, the visual field image acquisition unit 14A may acquire information on the line-of-sight direction of the user X from the visual field image acquisition device 32.

対象物判定部15Aは、抽出対象物Teが視野画像取得部14Aにより取得されたユーザXの視野Exの視野画像に含まれるか否かを判定する。「抽出対象物Te」とは、上述した通り、対象物抽出部13が記憶している複数の対象物Tの中からその発言データと一致するものである。ここでは、対象物抽出部13により「自転車(bicycle)」という抽出対象物Teが抽出されている。 The object determination unit 15A determines whether or not the extraction target Te is included in the visual field image of the visual field Ex of the user X acquired by the visual field image acquisition unit 14A. As described above, the “extraction target object Te” is the one that matches the remark data from the plurality of object T stored in the object extraction unit 13. Here, the object extraction unit 13 extracts the extraction object Te called "bicycle".

対象物判定部15Aは、例えば画像認識により、抽出対象物Teが視野画像に含まれるか否かを判定する。ここで、「画像認識」としては、公知の画像認識技術が適用可能である。例えば、対象物判定部15Aは、画像認識として、画像上に含まれる物体の名称、種別、形状、色、方向等の識別情報を検出できる機械学習モデル、深層学習モデル、及びOpenCV(Open Source Computer Vision Library)を用いた画像処理アルゴリズムが適用されてもよい。 The object determination unit 15A determines whether or not the extraction target Te is included in the visual field image, for example, by image recognition. Here, as "image recognition", a known image recognition technique can be applied. For example, the object determination unit 15A can detect identification information such as the name, type, shape, color, and direction of an object included in the image as image recognition, a machine learning model, a deep learning model, and OpenCV (Open Source Computer). An image processing algorithm using Vision Library) may be applied.

例えば、対象物判定部15Aは、視野画像に含まれる複数の物体の識別情報を検出し、対象物抽出部13により取得された抽出対象物Teを表現するデータ(物体の種別等)と、視野画像に含まれる複数の物体の検出された識別情報と、を比較する。その後、対象物判定部15Aは、種別及び名称の少なくともいずれかにおいて、抽出対象物Teを表現するデータと、視野画像に含まれる複数の物体と、が一致するか否かに基づいて、視野画像に抽出対象物Teが含まれるか否かを判定する。また、対象物判定部15Aは、画像認識として、OCR(Optical Character Recognition)を用いて、視野画像に含まれる看板の文字内容を認識し、対象物抽出部13が取得された抽出対象物Teの名称を表現されるデータと認識された看板の内容と比較し、抽出対象物Teの名称と視野画像に含まれる看板の中に少なくとも1つの看板の内容の一部と一致するか否かに基づいて、視野画像に抽出対象物Teが含まれるか否かを判定してもよい。 For example, the object determination unit 15A detects identification information of a plurality of objects included in the field image, and data (object type, etc.) representing the extraction target Te acquired by the object extraction unit 13 and the field of view. The detected identification information of a plurality of objects included in the image is compared with the detected identification information. After that, the object determination unit 15A determines the visual field image based on whether or not the data representing the extraction target Te and the plurality of objects included in the visual field image match in at least one of the type and the name. It is determined whether or not the extraction target Te is included in. Further, the object determination unit 15A uses OCR (Optical Character Recognition) as image recognition to recognize the character content of the signboard included in the field image, and the object extraction unit 13 has acquired the extracted object Te. Compared with the data expressing the name and the content of the recognized signboard, it is based on whether or not the name of the extraction target Te and a part of the content of at least one signboard in the signboard included in the field image match. It may be determined whether or not the field image includes the extraction target Te.

対象物判定部15Aは、抽出対象物Teが視野画像に含まれるか否かの判定結果の情報をユーザXの表示画像表示装置31Aに出力する。「視野画像に含まれるか否かの判定結果」とは、抽出対象物TeがユーザXにより視認可能である(ユーザXの視野Ex内)か否かの判定結果の情報を意味する。ここでは、対象物判定部15Aは、ユーザXのユーザ用端末3Aに判定結果の情報を出力する。なお、発言主体であるユーザYの発言主体用端末4にも判定結果の情報を出力する。 The object determination unit 15A outputs the information of the determination result as to whether or not the extraction object Te is included in the visual field image to the display image display device 31A of the user X. The “determination result of whether or not it is included in the visual field image” means the information of the determination result of whether or not the extraction target Te is visible to the user X (within the visual field Ex of the user X). Here, the object determination unit 15A outputs the determination result information to the user terminal 3A of the user X. It should be noted that the information of the determination result is also output to the speaking subject terminal 4 of the user Y who is the speaking subject.

存否判定部16Aは、抽出対象物Teが視野画像に含まれないと対象物判定部15Aにより判定された場合に、抽出対象物Teが予め設定された対象範囲内に存在するか否かを判定する。具体的には、存否判定部16Aは、周辺画像取得部11により取得された現在又は過去の周辺画像に基づいて、抽出対象物Teが対象範囲内に存在するか否かを判定する。「対象範囲」とは、ユーザXまたは車両2Aの位置を中心として予め設定された所定の範囲である。例えば、対象範囲は、ユーザXまたは車両2Aの位置を中心としてユーザXが視認可能な所定の範囲であってもよい(図3に二点鎖線で示した範囲)。当該範囲は、ユーザXまたは車両2Aから例えば50キロメートルの円形の範囲であってもよく、円形以外の任意の形状の範囲であってもよい。対象範囲は、抽出対象物Teの大きさに応じて、ユーザXが、抽出対象物Teが視認可能な範囲でもよく、例えば、抽出対象物Teが富士山であれば、対象範囲をユーザXまたは車両2Aの位置(中心)から300キロメートルまでの範囲に設定すればよい。この例では、対象範囲は、中心から半径300キロメートルの範囲とする。 The existence / non-existence determination unit 16A determines whether or not the extraction target Te exists within the preset target range when the object determination unit 15A determines that the extraction target Te is not included in the visual field image. To do. Specifically, the presence / absence determination unit 16A determines whether or not the extraction target Te exists within the target range based on the current or past peripheral image acquired by the peripheral image acquisition unit 11. The “target range” is a predetermined range set in advance around the position of the user X or the vehicle 2A. For example, the target range may be a predetermined range that can be visually recognized by the user X around the position of the user X or the vehicle 2A (the range shown by the chain double-dashed line in FIG. 3). The range may be a circular range, for example 50 kilometers, from User X or vehicle 2A, or may be a range of any shape other than circular. The target range may be a range in which the extraction target Te can be visually recognized by the user X according to the size of the extraction target Te. For example, if the extraction target Te is Mt. Fuji, the target range is the user X or the vehicle. It may be set in the range from the position (center) of 2A to 300 kilometers. In this example, the target range is a range with a radius of 300 kilometers from the center.

まず、存否判定部16Aは、周辺画像取得部11により取得されて時系列で記憶されたユーザXの現在の周辺画像及び過去の周辺画像に抽出対象物Teが含まれているか否かを判定する。より詳細には、存否判定部16Aは、周辺画像取得部11により記憶されている現在の周辺画像及び過去の周辺画像を取得し、取得された現在の周辺画像及び過去の周辺画像に抽出対象物Teが含まれているか否かを判定する。存否判定部16Aは、例えば画像認識により、当該判定を実行してもよい。存否判定部16Aは、周辺画像取得部11により取得され記憶された現在の周辺画像及び過去の周辺画像に含まれる複数の画像の画像認識の処理を対象物判定部15Aに実行させて、その実行結果に基づいて、当該判定を実行してもよい。 First, the presence / absence determination unit 16A determines whether or not the extraction target Te is included in the current peripheral image and the past peripheral image of the user X acquired by the peripheral image acquisition unit 11 and stored in time series. .. More specifically, the presence / absence determination unit 16A acquires the current peripheral image and the past peripheral image stored by the peripheral image acquisition unit 11, and extracts the acquired current peripheral image and the past peripheral image into the extracted object. Determine if Te is included. The existence / non-existence determination unit 16A may execute the determination by, for example, image recognition. The existence / non-existence determination unit 16A causes the object determination unit 15A to execute image recognition processing of the current peripheral image acquired and stored by the peripheral image acquisition unit 11 and a plurality of images included in the past peripheral image, and executes the processing. Based on the result, the determination may be executed.

また、存否判定部16Aは、周辺画像取得部11により記憶されている現在の周辺画像及び過去の周辺画像に含まれる複数の画像内の様々な物体を検出して、物体の名称、種別、形状、色、及び方向等の識別情報を検出し、検出された識別情報に1つ以上の画像タグを割り当ててタグ付き画像を生成し記憶する。その後、存否判定部16Aは、対象物抽出部13により取得された抽出対象物Teを表現する発言データと、複数の画像タグのうち物体の名称及び種別の少なくともいずれかと一致する周辺画像が存在するか否かに基づいて、取得された現在の周辺画像及び過去の周辺画像に抽出対象物Teが含まれているか否かを判定する。 Further, the presence / absence determination unit 16A detects various objects in a plurality of images included in the current peripheral image and the past peripheral image stored by the peripheral image acquisition unit 11, and the name, type, and shape of the object. , Color, direction, and other identification information is detected, and one or more image tags are assigned to the detected identification information to generate and store a tagged image. After that, the existence / non-existence determination unit 16A has speech data representing the extraction target object Te acquired by the object extraction unit 13, and a peripheral image that matches at least one of the names and types of the objects among the plurality of image tags. Based on whether or not, it is determined whether or not the acquired current peripheral image and the past peripheral image include the extraction target Te.

また、存否判定部16Aは、取得された現在の周辺画像及び過去の周辺画像に抽出対象物Teが含まれていないと判定された場合には、抽出対象物Teが予め設定された対象範囲内に存在しないと判定する。 Further, when the presence / absence determination unit 16A determines that the acquired current peripheral image and the past peripheral image do not include the extraction target Te, the extraction target Te is within the preset target range. It is determined that it does not exist in.

次に、存否判定部16Aは、取得された現在の周辺画像及び過去の周辺画像に抽出対象物Teが含まれていると判定された場合に、抽出対象物Teが存在する位置が対象範囲内であるか否かを判定する。存否判定部16Aは、抽出対象物Teが現在の周辺画像に含まれる場合に、ユーザX又は車両2Aから抽出対象物Teまでの方向及び距離を公知の手法により取得することができる。例えば、存否判定部16Aは、周辺画像取得部11により取得されたユーザXの現在の周辺画像に基づいて、ユーザX又は車両2Aから抽出対象物Teまでの方向及び距離を推定し、抽出対象物Teが存在する位置が対象範囲内であるか否かを判定してもよい。あるいは、存否判定部16Aは、車両2Aに設けられたRADAR(Radio Detection and Ranging)又はLIDAR(Light Detection and Ranging)等を用いて(不図示)、ユーザX又は車両2Aから抽出対象物Teまでの方向及び距離を計測し、抽出対象物Teが存在する位置が対象範囲内であるか否かを判定してもよい。 Next, when the existence / non-existence determination unit 16A determines that the acquired current peripheral image and the past peripheral image include the extraction target Te, the position where the extraction target Te exists is within the target range. It is determined whether or not it is. When the extraction target Te is included in the current peripheral image, the existence / non-existence determination unit 16A can acquire the direction and distance from the user X or the vehicle 2A to the extraction target Te by a known method. For example, the presence / absence determination unit 16A estimates the direction and distance from the user X or the vehicle 2A to the extraction target Te based on the current peripheral image of the user X acquired by the peripheral image acquisition unit 11, and the extraction target object. It may be determined whether or not the position where Te exists is within the target range. Alternatively, the presence / absence determination unit 16A uses RADAR (Radio Detection and Ranging) or LIDAR (Light Detection and Ranging) provided in the vehicle 2A (not shown) from the user X or the vehicle 2A to the extraction target Te. The direction and distance may be measured to determine whether or not the position where the extraction target Te exists is within the target range.

なお、存否判定部16Aは、抽出対象物Teが現在の周辺画像に含まれない場合に、周辺画像取得部11から時間順で抽出対象物Teが含まれる最後の周辺画像を取得する。次に、存否判定部16Aは、ナビゲーション装置21から取得した実車両位置履歴により現在のユーザX又は車両2Aと撮像した時点でのユーザX又は車両2Aとの相対方向及び距離を算出する。次に、存否判定部16Aは、その相対方向及び距離と、ユーザX又は車両2Aから抽出対象物Teとの相対方向及び距離に基づいて、ユーザX又は車両2Aから抽出対象物Teまでの方向及び距離を推定する。続いて、存否判定部16Aは、ユーザX又は車両2Aから抽出対象物Teまでの距離が対象範囲内であるか否かを判定してもよい。 When the extraction target Te is not included in the current peripheral image, the presence / absence determination unit 16A acquires the last peripheral image including the extraction target Te from the peripheral image acquisition unit 11 in chronological order. Next, the presence / absence determination unit 16A calculates the relative direction and distance between the current user X or the vehicle 2A and the user X or the vehicle 2A at the time of imaging based on the actual vehicle position history acquired from the navigation device 21. Next, the presence / absence determination unit 16A determines the direction and distance from the user X or the vehicle 2A to the extraction target Te based on the relative direction and distance thereof and the relative direction and distance from the user X or the vehicle 2A to the extraction target Te. Estimate the distance. Subsequently, the presence / absence determination unit 16A may determine whether or not the distance from the user X or the vehicle 2A to the extraction target Te is within the target range.

位置関係取得部17Aは、抽出対象物TeとユーザXとの相対的な位置関係を取得する。「位置関係」は、ユーザXの位置又はユーザXの近傍の位置に設定される基準位置(例えば車両2Aの中心位置)を基準として、抽出対象物Teの位置の方向及び距離により表されてもよいし、抽出対象物Teが予め設定された対象範囲内に存在しない情報を表されてもよい。位置関係取得部17Aは、ユーザX又は車両2Aから抽出対象物Teまでの方向及び距離を存否判定部16Aから取得してもよい。また、位置関係取得部17Aは、周辺画像取得部11により取得された現在または過去の周辺画像に基づいて、ユーザX又は車両2Aから抽出対象物Teまでの方向及び距離を推定してもよい。また、位置関係取得部17Aは、車両2Aに設けられたレーダ又はライダー等によりユーザX又は車両2Aから抽出対象物Teまでの方向及び距離を推定してもよい。また、位置関係取得部17Aは、存否判定部16Aから、抽出対象物Teが予め設定された対象範囲内に存在しない情報を取得してもよい。 The positional relationship acquisition unit 17A acquires the relative positional relationship between the extraction target Te and the user X. The "positional relationship" may be represented by the direction and distance of the position of the extraction target Te with reference to the reference position (for example, the center position of the vehicle 2A) set at the position of the user X or the position near the user X. Alternatively, the information that the extraction target Te does not exist within the preset target range may be represented. The positional relationship acquisition unit 17A may acquire the direction and distance from the user X or the vehicle 2A to the extraction target Te from the existence / non-existence determination unit 16A. Further, the positional relationship acquisition unit 17A may estimate the direction and distance from the user X or the vehicle 2A to the extraction target Te based on the current or past peripheral image acquired by the peripheral image acquisition unit 11. Further, the positional relationship acquisition unit 17A may estimate the direction and distance from the user X or the vehicle 2A to the extraction target Te by a radar or a rider provided on the vehicle 2A. Further, the positional relationship acquisition unit 17A may acquire information from the existence / non-existence determination unit 16A that the extraction target Te does not exist within the preset target range.

位置関係取得部17Aは、ユーザXの視線方向に対する抽出対象物Teの方向を算出する。位置関係取得部17Aは、視野画像取得部14Aから取得されたユーザXの視野画像と周辺画像取得部11から取得されたユーザXの周辺画像に基づいてユーザの視線方向を推定してもよい。また、位置関係取得部17Aは、視野画像取得部14AからユーザXの視線方向を取得してもよい。位置関係取得部17Aは、算出されたユーザX又は車両2Aから抽出対象物Teまでの方向とユーザXの視線方向に基づいて、ユーザXの視線方向に対する抽出対象物Te方向を推定する。また、上記ユーザXの視線方向に対する抽出対象物Teの方向は、視線方向の左後方、視線方向の右後方の2種類であってもよい。 The positional relationship acquisition unit 17A calculates the direction of the extraction target Te with respect to the line-of-sight direction of the user X. The positional relationship acquisition unit 17A may estimate the user's line-of-sight direction based on the visual field image of the user X acquired from the visual field image acquisition unit 14A and the peripheral image of the user X acquired from the peripheral image acquisition unit 11. Further, the positional relationship acquisition unit 17A may acquire the line-of-sight direction of the user X from the visual field image acquisition unit 14A. The positional relationship acquisition unit 17A estimates the extraction target Te direction with respect to the user X's line-of-sight direction based on the calculated direction from the user X or vehicle 2A to the extraction target Te and the user X's line-of-sight direction. Further, the direction of the extraction target Te with respect to the line-of-sight direction of the user X may be two types, left rear in the line-of-sight direction and right rear in the line-of-sight direction.

表示画像生成部18Aは、抽出対象物情報を取得し、当該抽出対象物情報を含む表示画像Pを生成する。「抽出対象物情報」とは、抽出対象物Teの位置に関する情報を意味する。抽出対象物情報は、抽出対象物Teの位置そのものを示す情報であってもよく、抽出対象物Teが存在する方向又は距離を示す情報であってもよく、抽出対象物Teが所定エリア内に存在するか否かを示す情報であってもよい。 The display image generation unit 18A acquires the extraction target information and generates the display image P including the extraction target information. “Extraction target information” means information regarding the position of the extraction target Te. The extraction target information may be information indicating the position of the extraction target Te itself, information indicating the direction or distance in which the extraction target Te exists, and the extraction target Te may be within a predetermined area. It may be information indicating whether or not it exists.

表示画像生成部18Aは、対象物判定部15Aの判定結果に基づいて、抽出対象物Teの表示画像Pの表示態様を決定する。「表示態様」とは、抽出対象物情報を示す画像の表示態様である。表示態様は、抽出対象物Teの位置そのものを示す画像であってもよく、ユーザから見た抽出対象物Teの距離及び方向を示す画像であってもよく、抽出対象物Teが所定エリア内に存在するか否かを示す画像であってもよい。 The display image generation unit 18A determines the display mode of the display image P of the extraction target Te based on the determination result of the object determination unit 15A. The "display mode" is a display mode of an image showing information on an object to be extracted. The display mode may be an image showing the position of the extraction target Te itself, or an image showing the distance and direction of the extraction target Te as seen by the user, and the extraction target Te may be within a predetermined area. It may be an image showing whether or not it exists.

対象物判定部15Aにより抽出対象物Teが視野画像に含まれると判定された場合には、表示画像生成部18Aは、視野画像取得部14Aから視野Exの視野画像を取得し、視野画像から抽出対象物Teを画像認識し、抽出対象物Teに重畳して表示される抽出対象物Teそのものを強調する表示態様で抽出対象物情報を示した第1表示画像P1を生成する。「抽出対象物そのものを強調する表示態様」とは、例えば、抽出対象物Teを四角又は丸等で囲うような表示態様であってもよく、抽出対象物Teを矢印で直接指し示す表示態様であってもよい(図4参照)。 When the object determination unit 15A determines that the extraction target Te is included in the field image, the display image generation unit 18A acquires the field image of the field Ex from the field image acquisition unit 14A and extracts it from the field image. The image of the target object Te is recognized, and the first display image P1 showing the extraction target information is generated in a display mode that emphasizes the extraction target Te itself that is displayed superimposed on the extraction target Te. The "display mode that emphasizes the extraction target object itself" may be, for example, a display mode in which the extraction target object Te is surrounded by a square, a circle, or the like, and is a display mode in which the extraction target object Te is directly pointed by an arrow. It may be (see FIG. 4).

また、表示画像生成部18Aは、対象物判定部15Aにより抽出対象物Teが視野画像に含まれないと判定された場合には、抽出対象物Teが対象範囲内に存在すると存否判定部16Aにより判定されたか否かに基づいて、抽出対象物情報の表示態様を決定する。より詳細には、表示画像生成部18Aは、抽出対象物Teが対象範囲内に存在すると存否判定部16Aにより判定された場合に、基準位置を基準として抽出対象物Teの位置の方向及び距離を含む位置関係を表示する表示態様で抽出対象物情報を示した第2表示画像P2を生成する(図5参照)。「位置関係を表示する表示態様」とは、基準位置を基準として抽出対象物Teの位置の方向及び距離を示した画像の表示態様である。表示画像生成部18Aは、位置関係取得部17Aにより基準位置を基準として抽出対象物Teの位置の方向及び距離を含む位置関係情報を取得し、取得された基準位置を基準として抽出対象物Teの位置の方向及び距離を含む位置関係を表示する第2表示画像P2を生成する。例えば、抽出対象物TeがユーザXの視野Exの後方左に位置する場合、図5に示されるように、ユーザXの視野Exの後方左を示す記号画像と距離を示す画像を生成して視野画像の左に表示する。 Further, when the display image generation unit 18A determines that the extraction target Te is not included in the visual field image by the object determination unit 15A, the presence / absence determination unit 16A determines that the extraction target Te is within the target range. The display mode of the extraction target information is determined based on whether or not the determination is made. More specifically, when the presence / absence determination unit 16A determines that the extraction target Te exists within the target range, the display image generation unit 18A determines the direction and distance of the position of the extraction target Te with reference to the reference position. A second display image P2 showing the extraction target information is generated in a display mode that displays the including positional relationship (see FIG. 5). The "display mode for displaying the positional relationship" is a display mode for an image showing the direction and distance of the position of the extraction target Te with reference to the reference position. The display image generation unit 18A acquires the positional relationship information including the direction and distance of the position of the extraction target Te with the reference position as a reference by the positional relationship acquisition unit 17A, and uses the acquired reference position as a reference for the extraction target Te. A second display image P2 that displays the positional relationship including the direction and distance of the position is generated. For example, when the extraction target Te is located to the rear left of the field of view Ex of the user X, as shown in FIG. 5, a symbol image indicating the rear left of the field of view Ex of the user X and an image indicating the distance are generated to generate a field of view. Display on the left of the image.

また、表示画像生成部18Aは、抽出対象物Teが対象範囲内に存在しないと存否判定部16Aにより判定された場合に、抽出対象物Teが予め設定された対象範囲内に存在しない情報を示す第3表示画像P3を生成する(図6参照)。 Further, the display image generation unit 18A indicates information that the extraction target Te does not exist in the preset target range when the existence / non-existence determination unit 16A determines that the extraction target Te does not exist in the target range. A third display image P3 is generated (see FIG. 6).

表示画像生成部18Aは、発言データ取得部12により取得された発言主体を特定する情報を含む表示画像Pを生成する。例えば、表示画像生成部18Aは、発言データ取得部12により取得された発言主体がユーザYである場合には、「Mentioned by Y.」という第1表示画像P1〜第3表示画像P3を生成してもよい(図4〜図6参照)。 The display image generation unit 18A generates a display image P including information for identifying the speaking subject acquired by the speaking data acquisition unit 12. For example, the display image generation unit 18A generates the first display image P1 to the third display image P3 of "Mentioned by Y." when the speaker subject acquired by the speech data acquisition unit 12 is the user Y. It may be (see FIGS. 4 to 6).

表示画像生成部18Aは、対象物判定部15Aによる抽出対象物Teが視野画像に含まれるか否かの判定結果に基づいて、抽出対象物TeがユーザXにより視認可能であるか否かを示す情報を含む表示画像Pを生成する(図4〜図6参照)。より詳細には、表示画像生成部18Aは、抽出対象物Teが視野画像に含まれると対象物判定部15Aにより判定された場合に、抽出対象物TeがユーザXにより視認可能であることを示す情報を含む第1表示画像P1を生成し、抽出対象物Teが視野画像に含まれないと対象物判定部15Aにより判定された場合に、抽出対象物TeがユーザXにより視認可能でないことを示す情報を含む第2表示画像P2,第3表示画像P3を生成する。例えば、表示画像生成部18Aは、抽出対象物Teが視野画像に含まれると対象物判定部15Aにより判定された場合には、「Bicycle is visible now.」という第1表示画像P1を生成してもよい(図4参照)。一方、表示画像生成部18Aは、抽出対象物Teが視野画像に含まれないと対象物判定部15Aにより判定された場合には、「Bicycle is invisible now.」という第2表示画像P2,第3表示画像P3を生成してもよい(図5と図6参照)。 The display image generation unit 18A indicates whether or not the extraction target Te is visible to the user X based on the determination result of whether or not the extraction target Te is included in the visual field image by the object determination unit 15A. A display image P including information is generated (see FIGS. 4 to 6). More specifically, the display image generation unit 18A indicates that the extraction target Te is visible to the user X when the object determination unit 15A determines that the extraction target Te is included in the field image. When the first display image P1 containing the information is generated and the object determination unit 15A determines that the extraction target Te is not included in the visual field image, it indicates that the extraction target Te is not visible to the user X. The second display image P2 and the third display image P3 including the information are generated. For example, the display image generation unit 18A generates a first display image P1 of "Bicycle is visible now." When the object determination unit 15A determines that the extraction target Te is included in the visual field image. It may be good (see FIG. 4). On the other hand, when the object determination unit 15A determines that the extraction object Te is not included in the visual field image, the display image generation unit 18A says "Bicycle is invisible now." The display image P3 may be generated (see FIGS. 5 and 6).

続いて、表示画像生成装置1Aにより実行される画像生成処理について説明する。図7は、表示画像生成処理を示すフローチャートである。図7のフローチャートは、例えば表示画像生成装置1Aによる表示画像生成処理は、車両2Aが起動されたときに開始される。 Subsequently, the image generation process executed by the display image generation device 1A will be described. FIG. 7 is a flowchart showing the display image generation process. In the flowchart of FIG. 7, for example, the display image generation process by the display image generation device 1A is started when the vehicle 2A is started.

図7に示されるように、ステップS101において、表示画像生成装置1Aは、周辺画像取得部11により、ユーザXの周辺画像を取得する。周辺画像取得部11は、車両2Aの周辺撮像装置22が撮像した周辺画像を取得する。その後、表示画像生成装置1Aは、ステップS102に進む。 As shown in FIG. 7, in step S101, the display image generation device 1A acquires the peripheral image of the user X by the peripheral image acquisition unit 11. The peripheral image acquisition unit 11 acquires the peripheral image captured by the peripheral image pickup device 22 of the vehicle 2A. After that, the display image generation device 1A proceeds to step S102.

ステップS102において、表示画像生成装置1Aは、発言データ取得部12により、ユーザ(発言主体)YによりユーザXに対して発せられた発言の発言データを取得する。発言データ取得部12は、発言主体用端末4の発言データ取得装置41から取得されたユーザYによりユーザXに対して発せられた発言の発言データを取得する。なお、上述したとおり、発言データには、ユーザYが何も発していないデータも含まれる。さらに、発言データ取得部12は、同乗者Yを特定する情報を取得し、表示画像生成装置1Aに送信する。その後、ステップS103に進む。 In step S102, the display image generation device 1A acquires the speech data of the speech issued to the user X by the user (subject of speech) Y by the speech data acquisition unit 12. The utterance data acquisition unit 12 acquires the utterance data of the utterance made to the user X by the user Y acquired from the utterance data acquisition device 41 of the utterance subject terminal 4. As described above, the speech data also includes data in which the user Y does not emit anything. Further, the speech data acquisition unit 12 acquires information for identifying the passenger Y and transmits it to the display image generation device 1A. Then, the process proceeds to step S103.

ステップS103において、表示画像生成装置1Aは、発言データ取得部12により、発言データにユーザ(発言主体)Yの発言が含まれるか否かを判定する。ユーザYの発言が含まれると判定された場合には、ステップS104に進む。ユーザYの発言が含まれないと判定された場合には、エンドに進む。 In step S103, the display image generation device 1A determines whether or not the speech data includes the speech of the user (subject of speech) Y by the speech data acquisition unit 12. If it is determined that the user Y's remark is included, the process proceeds to step S104. If it is determined that the user Y's remark is not included, the process proceeds to the end.

ステップS104において、表示画像生成装置1Aは、対象物抽出部13により、発言データのうち対象物Tと一致する抽出対象物Teを抽出できるか否かを判定する。抽出対象物Teを抽出できると判定された場合には、ステップS105に進む。抽出対象物Teを抽出できないと判定された場合には、エンドに進む。 In step S104, the display image generation device 1A determines whether or not the object extraction unit 13 can extract the extraction target Te that matches the object T from the statement data. If it is determined that the extraction target Te can be extracted, the process proceeds to step S105. If it is determined that the extraction target Te cannot be extracted, the process proceeds to the end.

ステップS105において、表示画像生成装置1Aは、視野画像取得部14Aにより、ユーザXの視野画像を取得する。視野画像取得部14Aは、ユーザXが装着しているユーザ用端末3Aの視野画像取得装置32からユーザXの視野画像を取得する。その後、ステップS106に進む。 In step S105, the display image generation device 1A acquires the visual field image of the user X by the visual field image acquisition unit 14A. The visual field image acquisition unit 14A acquires the visual field image of the user X from the visual field image acquisition device 32 of the user terminal 3A worn by the user X. Then, the process proceeds to step S106.

ステップS106において、表示画像生成装置1Aは、対象物判定部15Aにより、対象物抽出部13から抽出された抽出対象物Teが視野画像取得部14Aから取得したユーザXの視野画像に含まれるか否かを判定する。抽出対象物TeがユーザXの視野画像に含まれると判定された場合には、ステップS107に進む。抽出対象物TeがユーザXの視野画像に含まれないと判定された場合には、ステップS108に進む。 In step S106, in the display image generation device 1A, whether or not the extraction target Te extracted from the object extraction unit 13 by the object determination unit 15A is included in the field image of the user X acquired from the field image acquisition unit 14A. Is determined. If it is determined that the extraction target Te is included in the visual field image of the user X, the process proceeds to step S107. If it is determined that the extraction target Te is not included in the visual field image of the user X, the process proceeds to step S108.

抽出対象物TeがユーザXの視野画像に含まれると判定された場合には、ステップS107において、表示画像生成装置1Aは、表示画像生成部18Aにより、抽出対象物Teそのものを強調する第1表示画像P1を生成する。表示画像生成部18Aは、視野画像取得部14Aから視野Exの視野画像を取得し、視野画像から抽出対象物Teを画像認識し、視野画像に重畳して表示される抽出対象物Teそのものを強調する第1表示態様で抽出対象物情報を示した第1表示画像P1を生成する(図4参照)。なお、表示画像生成部18Aは、視野画像から抽出対象物TeがユーザXにより視認可能であることを示す情報(図4の「Bicycle is visible now.」)及び発言データ取得部12により取得された発言主体を特定する情報(図4の「Mentioned by Y.」)をさらに含む第1表示画像P1を生成してもよい。表示画像生成部18Aは、生成した第1表示画像P1をユーザ用端末3Aの表示画像表示装置31Aに送信する。 When it is determined that the extraction target Te is included in the visual field image of the user X, in step S107, the display image generation device 1A uses the display image generation unit 18A to emphasize the extraction target Te itself. Image P1 is generated. The display image generation unit 18A acquires the visual field image of the visual field Ex from the visual field image acquisition unit 14A, recognizes the extraction target Te from the visual field image, and emphasizes the extraction target Te itself displayed by superimposing it on the visual field image. A first display image P1 showing information on an object to be extracted is generated in the first display mode (see FIG. 4). The display image generation unit 18A was acquired by the information indicating that the extraction target Te is visible to the user X from the visual field image (“Bicycle is visible now.” In FIG. 4) and the speech data acquisition unit 12. The first display image P1 may further include information for identifying the speaking subject (“Mentioned by Y.” in FIG. 4). The display image generation unit 18A transmits the generated first display image P1 to the display image display device 31A of the user terminal 3A.

抽出対象物TeがユーザXの視野画像に含まれないと判定された場合には、ステップS108において、表示画像生成装置1Aは、存否判定部16Aにより、周辺画像取得部11により取得された現在または過去の周辺画像に基づいて、抽出対象物Teが対象範囲内に存在するか否かを判定する。存否判定部16Aは、抽出対象物Teが対象範囲内に存在しないと判定した場合には、スッテプS111に進む。存否判定部16Aは、抽出対象物Teが対象範囲内に存在すると判定した場合には、スッテプS109に進む。 When it is determined that the extraction target Te is not included in the visual field image of the user X, in step S108, the display image generation device 1A is currently or acquired by the peripheral image acquisition unit 11 by the presence / absence determination unit 16A. Based on the past peripheral image, it is determined whether or not the extraction target Te exists within the target range. When the existence / non-existence determination unit 16A determines that the extraction target Te does not exist within the target range, the existence / non-existence determination unit 16A proceeds to step S111. When the existence / non-existence determination unit 16A determines that the extraction target Te exists within the target range, the existence / non-existence determination unit 16A proceeds to step S109.

抽出対象物Teが存在する位置が対象範囲内であると判定された場合には、ステップS109において、表示画像生成装置1Aは、位置関係取得部17Aにより、抽出対象物TeとユーザXとの位置関係を取得する。位置関係取得部17Aは、周辺画像取得部11から取得された現在または過去のユーザXの周辺画像に基づいて、抽出対象物TeからユーザX又は車両2Aまでの距離とユーザXの視野Exに対する方向を推定する。また、位置関係取得部17Aは、存否判定部16Aより抽出対象物TeからユーザX又は車両2Aまでの距離を取得してもよい。その後、ステップS110に進む。 When it is determined that the position where the extraction target Te exists is within the target range, in step S109, the display image generation device 1A uses the positional relationship acquisition unit 17A to determine the position between the extraction target Te and the user X. Get a relationship. The positional relationship acquisition unit 17A is based on the peripheral image of the current or past user X acquired from the peripheral image acquisition unit 11, the distance from the extraction target Te to the user X or the vehicle 2A, and the direction of the user X with respect to the visual field Ex. To estimate. Further, the positional relationship acquisition unit 17A may acquire the distance from the extraction target Te to the user X or the vehicle 2A from the existence / non-existence determination unit 16A. Then, the process proceeds to step S110.

ステップS110において、表示画像生成装置1Aは、表示画像生成部18Aにより、位置関係取得部17Aから取得された基準位置を基準として抽出対象物Teの位置の方向及び距離を含む位置関係を表示する第2表示画像P2を生成する。表示画像生成部18Aは、位置関係取得部17Aから取得されたユーザXの視野Exに対する方向を示す記号画像(図5の矢印)と距離(図5の「20m」)を表示する第2表示態様で抽出対象物情報を示した第2表示画像P2を生成する。なお、表示画像生成部18Aは、視野画像から抽出対象物TeがユーザXにより視認不可能であることを示す情報(図5の「Bicycle is invisible now.」)及び発言データ取得部12により取得された発言主体を特定する情報(図5の「Mentioned by Y.」)を含む第2表示画像P2を生成してもよい。表示画像生成部18Aは、生成した第2表示画像P2をユーザ用端末3Aの表示画像表示装置31Aに送信する。 In step S110, the display image generation device 1A displays the positional relationship including the direction and distance of the position of the extraction target Te with reference to the reference position acquired from the positional relationship acquisition unit 17A by the display image generation unit 18A. 2 Display image P2 is generated. The display image generation unit 18A displays a symbol image (arrow in FIG. 5) and a distance (“20 m” in FIG. 5) indicating the direction of the user X with respect to the visual field Ex acquired from the positional relationship acquisition unit 17A. Generates the second display image P2 showing the extraction target information in. The display image generation unit 18A is acquired by the information indicating that the extraction target Te is invisible to the user X from the visual field image (“Bicycle is invisible now.” In FIG. 5) and the speech data acquisition unit 12. The second display image P2 including the information for identifying the speaking subject (“Mentioned by Y.” in FIG. 5) may be generated. The display image generation unit 18A transmits the generated second display image P2 to the display image display device 31A of the user terminal 3A.

抽出対象物Teが存在する位置が対象範囲内ではないと判定された場合には、ステップS111において、表示画像生成装置1Aは、位置関係取得部17Aにより、抽出対象物TeとユーザXとの位置関係を取得する。具体的には、位置関係取得部17Aは、存否判定部16Aから抽出対象物Teが予め設定された対象範囲内に存在しない位置関係情報を取得する。その後、ステップS112に進む。 When it is determined that the position where the extraction target Te exists is not within the target range, in step S111, the display image generation device 1A uses the positional relationship acquisition unit 17A to determine the position between the extraction target Te and the user X. Get a relationship. Specifically, the positional relationship acquisition unit 17A acquires the positional relationship information in which the extraction target Te does not exist within the preset target range from the existence / non-existence determination unit 16A. Then, the process proceeds to step S112.

ステップS112において、表示画像生成装置1Aは、位置関係取得部17Aから取得された抽出対象物Teが予め設定された対象範囲内に存在しないという抽出対象物TeとユーザXとの位置関係を表示する第3表示画像P3を生成する。表示画像生成部18Aは、視野画像から抽出対象物TeがユーザXにより視認不可能であることを示す情報(図6の「Bicycle is invisible now.」)及び発言データ取得部12により取得された発言主体を特定する情報(図6の「Mentioned by Y.」)を含む第3表示画像P3を生成する。なお、抽出対象物Teの位置の方向及び距離を含む位置関係(第2表示態様に係る位置関係)は表示されない。表示画像生成部18Aは、生成した第3表示画像P3をユーザ用端末3Aの表示画像表示装置31Aに送信する。 In step S112, the display image generation device 1A displays the positional relationship between the extraction target Te and the user X that the extraction target Te acquired from the positional relationship acquisition unit 17A does not exist within the preset target range. The third display image P3 is generated. The display image generation unit 18A indicates that the extraction target Te is invisible to the user X from the visual field image (“Bicycle is invisible now.” In FIG. 6) and the remarks acquired by the remark data acquisition unit 12. A third display image P3 including information for identifying the subject (“Mentioned by Y.” in FIG. 6) is generated. The positional relationship including the direction and distance of the position of the extraction target Te (the positional relationship according to the second display mode) is not displayed. The display image generation unit 18A transmits the generated third display image P3 to the display image display device 31A of the user terminal 3A.

表示画像生成装置1Aは、表示画像生成部18Aの上述した処理が終了すると、今回の処理を終了して、再びステップS101から表示画像生成処理を繰り返す。 When the above-described processing of the display image generation unit 18A is completed, the display image generation device 1A ends the current processing and repeats the display image generation processing from step S101 again.

上記のとおり、本実施形態では、発言主体により発せられた発言に含まれる対象物Tを抽出対象物Teとして特定し、当該抽出対象物Teに関する表示画像Pを生成する表示画像生成装置1Aを開示する。表示画像生成装置1Aは、発言データ取得部12と、対象物抽出部13と、視野画像取得部14Aと、対象物判定部15Aと、表示画像生成部18Aと、を備える。発言データ取得部12は、発言主体であるユーザYによりユーザXに対して発せられた発言の発言データを取得する。対象物抽出部13は、予め複数の対象物データ(文字列)を記憶し、複数の対象物データと発言データ取得部12により取得された発言データ(文字列)とを対比して、発言データのうち対象物データと一致するデータを抽出対象物Teとして抽出する。視野画像取得部14Aは、ユーザXの視野画像を少なくとも含む画像を取得する。対象物判定部15Aは、対象物抽出部13により抽出された抽出対象物Teが視野画像に含まれるか否かを判定する。表示画像生成部18Aは、抽出対象物Teの位置に関する情報である抽出対象物情報を取得し、視野画像とは異なる当該抽出対象物情報を含む表示画像Pを生成する。更に、表示画像生成部18Aは、対象物判定部15Aによる抽出対象物Teが視野画像に含まれるか否かの判定結果に基づいて、抽出対象物Teに関する表示画像Pの表示態様を決定する。 As described above, in the present embodiment, the display image generation device 1A that specifies the object T included in the remarks made by the speaking subject as the extraction target Te and generates the display image P related to the extraction target Te is disclosed. To do. The display image generation device 1A includes a speech data acquisition unit 12, an object extraction unit 13, a visual field image acquisition unit 14A, an object determination unit 15A, and a display image generation unit 18A. The remark data acquisition unit 12 acquires the remark data of the remark made to the user X by the user Y who is the remark subject. The object extraction unit 13 stores a plurality of object data (character strings) in advance, compares the plurality of object data with the speech data (character string) acquired by the speech data acquisition unit 12, and speaks data. Of these, the data that matches the object data is extracted as the extraction target Te. The visual field image acquisition unit 14A acquires an image including at least the visual field image of the user X. The object determination unit 15A determines whether or not the extraction target Te extracted by the object extraction unit 13 is included in the visual field image. The display image generation unit 18A acquires the extraction target information which is the information regarding the position of the extraction target Te, and generates the display image P including the extraction target information different from the visual field image. Further, the display image generation unit 18A determines the display mode of the display image P regarding the extraction target Te based on the determination result of whether or not the extraction target Te is included in the visual field image by the object determination unit 15A.

この結果、表示画像生成装置1Aは、発言データ取得部12と対象物抽出部13によりユーザX以外の主体(ユーザY)により認識されている抽出対象物Teを特定することができる。表示画像生成装置1Aは、視野画像取得部14Aと対象物判定部15Aにより、抽出対象物Teが視野画像に含まれるか否かの判定結果を得ることができる。そして、表示画像生成部18Aは、対象物判定部15Aの判定結果に基づいて、抽出対象物Teに関する表示画像Pの表示態様を決定する。これにより、表示画像生成装置1Aは、ユーザX以外の主体によって認識されている抽出対象物TeがユーザXの視野Ex内に含まれているか否かにかかわらず、当該抽出対象物Teの位置に関する情報を適切に生成することができる(図4〜図6)。 As a result, the display image generation device 1A can identify the extraction target Te recognized by the subject (user Y) other than the user X by the speech data acquisition unit 12 and the object extraction unit 13. The display image generation device 1A can obtain a determination result of whether or not the extraction target Te is included in the visual field image by the visual field image acquisition unit 14A and the object determination unit 15A. Then, the display image generation unit 18A determines the display mode of the display image P regarding the extraction target Te based on the determination result of the object determination unit 15A. As a result, the display image generation device 1A relates to the position of the extraction target Te recognized by a subject other than the user X regardless of whether or not the extraction target Te is included in the field of view Ex of the user X. Information can be appropriately generated (FIGS. 4 to 6).

また、上記した実施形態においては、表示画像生成部18Aは、抽出対象物Teが視野画像に含まれると対象物判定部15Aにより判定された場合に、抽出対象物Teそのものを強調する表示態様で抽出対象物情報を示した第1表示画像P1を生成する。この結果、表示画像生成装置1Aは、対象物判定部15Aにより抽出対象物TeがユーザXの視野画像に含まれると判定された場合には、ユーザXが抽出対象物Teを特定することができる(図7のS107)。 Further, in the above-described embodiment, the display image generation unit 18A emphasizes the extraction target Te itself when the target determination unit 15A determines that the extraction target Te is included in the visual field image. The first display image P1 showing the extraction target information is generated. As a result, when the display image generation device 1A determines that the extraction target Te is included in the visual field image of the user X by the object determination unit 15A, the user X can specify the extraction target Te. (S107 in FIG. 7).

また、上記した実施形態においては、表示画像生成装置1Aは、抽出対象物TeとユーザXとの相対的な位置関係を取得する位置関係取得部17Aを備える。表示画像生成部18Aは、抽出対象物Teが視野画像に含まれないと対象物判定部15Aにより判定された場合に、位置関係を表示する表示態様で抽出対象物情報を示した第2表示画像P2を生成する。この結果、表示画像生成装置1Aは、対象物判定部15Aにより抽出対象物Teが視野画像に含まれないと判定された場合に、位置関係取得部17Aにより抽出対象物TeとユーザXとの相対的な位置関係を取得する。表示画像生成装置1Aは、取得された位置関係を表示する表示態様で抽出対象物情報を示した第2表示画像P2を生成する。これにより、表示画像生成装置1Aは、対象物TがユーザXの視野Ex内に含まれていないときでも、抽出対象物Teの位置に関する情報を適切に生成することができる。 Further, in the above-described embodiment, the display image generation device 1A includes a positional relationship acquisition unit 17A that acquires a relative positional relationship between the extraction target Te and the user X. When the object determination unit 15A determines that the extraction object Te is not included in the visual field image, the display image generation unit 18A shows the extraction object information in a display mode for displaying the positional relationship. Generate P2. As a result, when the display image generation device 1A determines that the extraction target Te is not included in the visual field image by the object determination unit 15A, the positional relationship acquisition unit 17A determines that the extraction target Te and the user X are relative to each other. Get the positional relationship. The display image generation device 1A generates a second display image P2 showing the extraction target information in a display mode that displays the acquired positional relationship. As a result, the display image generation device 1A can appropriately generate information regarding the position of the extraction target Te even when the object T is not included in the field of view Ex of the user X.

また、上記した実施形態においては、表示画像生成部18Aは、対象物判定部15Aによる抽出対象物Teが視野画像に含まれるか否かの判定結果に基づいて、抽出対象物TeがユーザXにより視認可能であるか否かを示す情報を含む表示画像P(第1表示画像P1〜第3表示画像P3)を生成する。この結果、表示画像生成装置1Aは、対象物判定部15Aの判定結果に基づいて、視野画像から抽出対象物TeがユーザXにより視認可能であるか否かを示す情報を含む表示画像Pを生成する。これにより、表示画像生成装置1Aは、ユーザXは抽出対象物Teが視認可能か否か情報を簡単に把握することができる。 Further, in the above-described embodiment, the display image generation unit 18A determines whether or not the extraction target Te is included in the visual field image by the object determination unit 15A, and the extraction target Te is determined by the user X. A display image P (first display image P1 to third display image P3) including information indicating whether or not the image is visible is generated. As a result, the display image generation device 1A generates a display image P including information indicating whether or not the extraction target Te is visible to the user X from the visual field image based on the determination result of the object determination unit 15A. To do. As a result, the display image generation device 1A can easily grasp the information as to whether or not the extraction target Te is visible to the user X.

また、上記した実施形態においては、表示画像生成装置1Aは、抽出対象物Teが視野画像に含まれないと対象物判定部15Aにより判定された場合に、抽出対象物Teが予め設定された対象範囲内に存在するか否かを判定する存否判定部16Aを備える。表示画像生成部18Aは、抽出対象物Teが対象範囲内に存在するか否かの判定結果に基づいて、抽出対象物情報の表示態様を決定する。この結果、表示画像生成装置1Aは、存否判定部16Aの判定結果に基づいて、抽出対象物情報の表示態様を決定することにより、抽出対象物TeがユーザXにより視認可能であるか否かを示す情報を含む表示画像P(第2表示画像P2,第3表示画像P3)を生成する。これより、表示画像生成装置1Aは、抽出対象物Teが対象範囲に存在するか否かにかかわらず、当該抽出対象物Teの位置に関する情報を適切に生成することができる。 Further, in the above-described embodiment, when the display image generation device 1A determines by the object determination unit 15A that the extraction target Te is not included in the visual field image, the extraction target Te is a preset target. The presence / absence determination unit 16A for determining whether or not it exists within the range is provided. The display image generation unit 18A determines the display mode of the extraction target information based on the determination result of whether or not the extraction target Te exists within the target range. As a result, the display image generation device 1A determines whether or not the extraction target Te is visible to the user X by determining the display mode of the extraction target information based on the determination result of the presence / absence determination unit 16A. A display image P (second display image P2, third display image P3) including the information to be shown is generated. As a result, the display image generation device 1A can appropriately generate information regarding the position of the extraction target Te regardless of whether or not the extraction target Te exists in the target range.

また、上記した実施形態においては、表示画像生成装置1Aは、周辺画像を取得して、取得した周辺画像を記憶する周辺画像取得部11を備える。存否判定部16Aは、周辺画像取得部11により取得された現在または過去の周辺画像に基づいて、抽出対象物Teが対象範囲内に存在するか否かを判定する。この結果、存否判定部16Aは、取得された現在または過去の周辺画像に基づいて、抽出対象物Teが対象範囲内に存在するか否かをより詳細に判定することができる。 Further, in the above-described embodiment, the display image generation device 1A includes a peripheral image acquisition unit 11 that acquires a peripheral image and stores the acquired peripheral image. The existence / non-existence determination unit 16A determines whether or not the extraction target Te exists within the target range based on the current or past peripheral image acquired by the peripheral image acquisition unit 11. As a result, the presence / absence determination unit 16A can determine in more detail whether or not the extraction target Te exists within the target range based on the acquired current or past peripheral image.

また、上記した実施形態においては、表示画像生成装置1Aは、抽出対象物TeとユーザXとの相対的な位置関係を取得する位置関係取得部17Aを備える。表示画像生成部18Aは、抽出対象物Teが対象範囲内に存在すると存否判定部16Aにより判定された場合に、基準位置を基準として抽出対象物Teの位置の方向及び距離を含む位置関係を表示する表示態様で抽出対象物情報を示した表示画像P(第2表示画像P2,第3表示画像P3)を生成する。この結果、表示画像生成装置1Aは、存否判定部16Aにより抽出対象物Teが対象範囲内に存在すると判定された場合に、位置関係取得部17Aにより基準位置を基準として抽出対象物Teの位置の方向及び距離を取得する。次に、表示画像生成装置1Aは、基準位置を基準として抽出対象物Teの位置の方向及び距離を含む位置関係情報を生成することができる。これにより、表示画像生成装置1Aは、存否判定部16Aにより抽出対象物Teが対象範囲内に存在すると判定された場合には、ユーザXは抽出対象物Teの位置関係を把握することができる。 Further, in the above-described embodiment, the display image generation device 1A includes a positional relationship acquisition unit 17A that acquires a relative positional relationship between the extraction target Te and the user X. When the presence / absence determination unit 16A determines that the extraction target Te exists within the target range, the display image generation unit 18A displays the positional relationship including the direction and distance of the position of the extraction target Te with reference to the reference position. A display image P (second display image P2, third display image P3) showing information on the object to be extracted is generated in the display mode. As a result, when the presence / absence determination unit 16A determines that the extraction target Te exists within the target range, the display image generation device 1A determines that the extraction target Te position is based on the reference position by the positional relationship acquisition unit 17A. Get direction and distance. Next, the display image generation device 1A can generate positional relationship information including the direction and distance of the position of the extraction target Te with reference to the reference position. As a result, when the presence / absence determination unit 16A determines that the extraction target Te exists within the target range, the display image generation device 1A can grasp the positional relationship of the extraction target Te.

また、上記した実施形態においては、発言主体は人(ユーザY)であり、発言データは、発言の発言信号データである。この結果、表示画像生成装置1Aは、人である発信主体から発言の発言信号データを取得することができる。これにより、表示画像生成装置1Aは、発言主体が人であっても、ユーザX以外の主体によって認識されている抽出対象物TeがユーザXの視野内に含まれているか否かにかかわらず、当該抽出対象物Teの位置に関する情報を適切に生成することができる。 Further, in the above-described embodiment, the speaking subject is a person (user Y), and the speaking data is the speaking signal data of the speaking. As a result, the display image generation device 1A can acquire the speech signal data of the speech from the transmitting subject who is a person. As a result, in the display image generation device 1A, even if the speaking subject is a person, regardless of whether or not the extraction target Te recognized by the subject other than the user X is included in the field of view of the user X. Information regarding the position of the extraction target Te can be appropriately generated.

また、上記した実施形態においては、対象物判定部15Aは、抽出対象物TeがユーザXの視野画像に含まれるか否かの判定結果の情報を発言主体のユーザYに出力する。この結果、表示画像生成装置は、対象物判定部15により抽出対象物TeがユーザXの視野画像に含まれるか否かの判定結果を発言主体のユーザYに出力することにより、発言主体は、ユーザXが対象物を視認できるか否かの情報を取得することができ、ユーザXが対象物を視認できるか否かに応じて話題の進み方を決めることができる。 Further, in the above-described embodiment, the object determination unit 15A outputs the information of the determination result as to whether or not the extraction object Te is included in the visual field image of the user X to the user Y who is the main speaker. As a result, the display image generation device outputs the determination result of whether or not the extraction target Te is included in the visual field image of the user X to the user Y who is the speaking subject by the object determining unit 15. Information on whether or not the user X can visually recognize the object can be acquired, and how the topic proceeds can be determined depending on whether or not the user X can visually recognize the object.

また、上記した実施形態においては、発言データ取得部12は、ユーザXに対して発言を発したユーザYを特定する情報を取得する。表示画像生成部18Aは、発言データ取得部12により取得されたユーザYを特定する情報を含む表示画像P(第1表示画像P1〜第3表示画像P3)を生成する。この結果、表示画像生成装置1Aは、発言データ取得部12によりユーザYを特定する情報を取得し、表示画像生成部18AによりユーザYを特定する情報を含む表示画像Pを生成することができる。これにより、ユーザXがユーザYを把握することができる。 Further, in the above-described embodiment, the speech data acquisition unit 12 acquires information that identifies the user Y who has made a speech to the user X. The display image generation unit 18A generates a display image P (first display image P1 to third display image P3) including information for identifying the user Y acquired by the speech data acquisition unit 12. As a result, the display image generation device 1A can acquire the information that identifies the user Y by the speech data acquisition unit 12, and can generate the display image P that includes the information that identifies the user Y by the display image generation unit 18A. As a result, the user X can grasp the user Y.

また、上記した実施形態においては、表示画像生成装置1Aは、発言主体により発せられた発言に含まれる抽出対象物Teを特定し、当該抽出対象物Teに関する表示画像Pを生成する表示画像生成方法を開示する。表示画像生成装置1Aは、発言データ取得ステップと、対象物抽出ステップと、視野画像取得ステップと、対象物判定ステップと、表示画像生成ステップと、を実行する。発言データ取得ステップは、発言主体であるユーザYによりユーザXに対して発せられた発言の発言データを取得する(図7のS103)。対象物抽出ステップは、予め記憶された複数の対象物データ(文字列)と取得された発言データ(文字列)とを対比して、発言データのうち対象物データと一致するデータを抽出対象物Teとして抽出する(図7のS104)。視野画像取得ステップは、ユーザXの視野画像を取得する(図7のS105)対象物判定ステップは、抽出された抽出対象物Teが視野画像に含まれるか否かを判定する(図7のS106)。表示画像生成ステップは、抽出対象物Teの位置に関する情報である抽出対象物情報を取得し、視野画像とは異なる当該抽出対象物情報を含む表示画像Pを生成する(図7のS107,S110,S112)。更に、表示画像生成ステップにおいては、対象物判定ステップにおける抽出対象物Teが視野画像に含まれるか否かの判定結果に基づいて、抽出対象物Teに関する表示画像Pの表示態様を決定する(図7のS107,S110,S112)。 Further, in the above-described embodiment, the display image generation device 1A is a display image generation method that identifies the extraction target Te included in the remarks made by the remark subject and generates the display image P related to the extraction target Te. To disclose. The display image generation device 1A executes a speech data acquisition step, an object extraction step, a visual field image acquisition step, an object determination step, and a display image generation step. The remark data acquisition step acquires the remark data of the remark made to the user X by the user Y who is the remark subject (S103 in FIG. 7). The object extraction step compares a plurality of object data (character strings) stored in advance with the acquired speech data (character string), and extracts data that matches the object data among the speech data. Extract as Te (S104 in FIG. 7). The visual field image acquisition step acquires the visual field image of the user X (S105 in FIG. 7), and the object determination step determines whether or not the extracted extracted object Te is included in the visual field image (S106 in FIG. 7). ). The display image generation step acquires the extraction target information which is the information regarding the position of the extraction target Te, and generates the display image P including the extraction target information different from the visual field image (S107, S110, FIG. 7). S112). Further, in the display image generation step, the display mode of the display image P relating to the extraction target Te is determined based on the determination result of whether or not the extraction target Te in the object determination step is included in the visual field image (FIG. 7 S107, S110, S112).

この結果、表示画像生成装置1Aは、発言データ取得ステップ対象物抽出ステップにより、ユーザX以外の主体(ユーザY)により認識されている抽出対象物Teを特定することができる。表示画像生成装置1Aは、視野画像取得ステップと対象物判定ステップにより、抽出対象物Teが視野画像に含まれるか否かの判定結果を得ることができる。そして、表示画像生成ステップにおいて、対象物判定ステップの判定結果に基づいて、抽出対象物Teに関する表示画像Pの表示態様を決定する。これにより、表示画像生成装置1Aは、ユーザX以外の主体によって認識されている抽出対象物TeがユーザXの視野Ex内に含まれているか否かにかかわらず、当該抽出対象物Teの位置に関する情報を適切に生成することができる(図4〜図6)。
[第2実施形態]
As a result, the display image generation device 1A can identify the extraction target Te recognized by the subject (user Y) other than the user X by the speech data acquisition step object extraction step. The display image generation device 1A can obtain a determination result of whether or not the extraction target object Te is included in the visual field image by the visual field image acquisition step and the object determination step. Then, in the display image generation step, the display mode of the display image P regarding the extraction target Te is determined based on the determination result of the object determination step. As a result, the display image generation device 1A relates to the position of the extraction target Te recognized by a subject other than the user X regardless of whether or not the extraction target Te is included in the field of view Ex of the user X. Information can be appropriately generated (FIGS. 4 to 6).
[Second Embodiment]

図8は、第2実施形態に係る表示画像生成装置1Bを示すブロック図である。本実施形態では、POI(Point of Interest)情報を用いて表示画像生成処理を実行可能な表示画像生成装置1Bについて説明する。ここで、「POI」とは、POI情報記憶部19に名称、位置情報(緯度経度)が登録されている地図上の店舗、施設、興味ある名所などの特定な場所を意味する。また、第1実施形態の一例とした、ユーザYによりユーザXに対して発せられた発言「向こうに自転車があるね。」を、第2実施形態では一例として「向こうにコンビニエンスストアがあるね。」とする。そして、対象物抽出部13は、ユーザYにより発せられた発言から「コンビニエンスストア」という抽出対象物Teを抽出するものとする。なお、第2実施形態において、第1実施形態と同様の説明は省略又は簡略化する。 FIG. 8 is a block diagram showing a display image generation device 1B according to the second embodiment. In the present embodiment, the display image generation device 1B capable of executing the display image generation process using POI (Point of Interest) information will be described. Here, the "POI" means a specific place such as a store, a facility, or a famous place of interest on a map in which a name and location information (latitude / longitude) are registered in the POI information storage unit 19. Further, as an example of the first embodiment, the remark "There is a bicycle over there" made by the user Y to the user X, and as an example in the second embodiment, "There is a convenience store over there." ". Then, the object extraction unit 13 extracts the extraction object Te called "convenience store" from the remarks made by the user Y. In the second embodiment, the same description as in the first embodiment will be omitted or simplified.

図8において、表示画像生成装置1Bは、第1実施形態に係る表示画像生成装置1Aと比較して、周辺画像取得部11を備えていない点、視野画像取得部14Aに代えて視野画像取得部14Bを備えている点、対象物判定部15Aに代えて対象物判定部15Bを備えている点、存否判定部16Aに代えて存否判定部16Bを備えている点、位置関係取得部17Aに代えて位置関係取得部17Bを備えている点、表示画像生成部18Aに代えて表示画像生成部18Bを備えている点、及び、POI情報記憶部19を更に備えている点で相違しており、その他の点で同一である。 In FIG. 8, the display image generation device 1B does not include the peripheral image acquisition unit 11 as compared with the display image generation device 1A according to the first embodiment, and the visual field image acquisition unit replaces the visual field image acquisition unit 14A. 14B is provided, an object determination unit 15B is provided instead of the object determination unit 15A, an existence / absence determination unit 16B is provided instead of the existence / absence determination unit 16A, and a positional relationship acquisition unit 17A is used instead. The difference is that the positional relationship acquisition unit 17B is provided, the display image generation unit 18B is provided instead of the display image generation unit 18A, and the POI information storage unit 19 is further provided. It is otherwise the same.

表示画像生成装置1B、車両2B、ユーザ用端末3B、及び発言主体用端末4は、相互に有線又は無線により通信(送受信)可能に接続されている。 The display image generator 1B, the vehicle 2B, the user terminal 3B, and the speaking subject terminal 4 are connected to each other so as to be able to communicate (transmit and receive) by wire or wirelessly.

車両2Bは、第1実施形態に係る車両2Aと比較して、周辺撮像装置22を備えていない点で相違しており、その他の点で同一である。 The vehicle 2B is different from the vehicle 2A according to the first embodiment in that it is not provided with the peripheral imaging device 22, and is the same in other respects.

ユーザ用端末3Bは、第1実施形態に係るユーザ用端末3Aと比較して、表示画像表示装置31Aに代えて表示画像表示装置31Bを備えている点で相違しており、その他の点で同一である。 The user terminal 3B is different from the user terminal 3A according to the first embodiment in that it includes a display image display device 31B instead of the display image display device 31A, and is the same in other respects. Is.

発言主体用端末4は、第1実施形態に係る発言主体用端末4と同一である。 The speaking subject terminal 4 is the same as the speaking subject terminal 4 according to the first embodiment.

POI情報記憶部19は、地図情報に含まれる対象物Tの位置に関する情報を少なくとも含むPOI情報を記憶する。この「POI情報」は、少なくともPOIであるランドマークの名称、ランドマークの用途分類、ランドマークの特徴情報、ランドマークの画像、ランドマークの位置情報を含まれている。なお、ランドマークとは、建物や公園や商業施設や小売業の店舗(コンビニエンスストア等)等である。POI情報記憶部19は、POI情報を車両2Bの外部から通信により取得してもよく、ナビゲーション装置21に記憶されたランドマーク情報を当該ナビゲーション装置21から取得してもよい。POI情報記憶部19は、取得した車両2Bの位置に応じて、車両2Bが位置する区域のPOI情報をリアルタイムに更新してもよい。また、ナビゲーション装置21によって経路探索が行われた場合、POI情報記憶部19は、ナビゲーション装置21によりダウンロードされた経路上のPOI情報を取得してもよい。 The POI information storage unit 19 stores POI information including at least information regarding the position of the object T included in the map information. This "POI information" includes at least the name of the landmark which is the POI, the usage classification of the landmark, the feature information of the landmark, the image of the landmark, and the location information of the landmark. Landmarks are buildings, parks, commercial facilities, retail stores (convenience stores, etc.), and the like. The POI information storage unit 19 may acquire POI information from the outside of the vehicle 2B by communication, or may acquire landmark information stored in the navigation device 21 from the navigation device 21. The POI information storage unit 19 may update the POI information of the area where the vehicle 2B is located in real time according to the acquired position of the vehicle 2B. Further, when the route search is performed by the navigation device 21, the POI information storage unit 19 may acquire the POI information on the route downloaded by the navigation device 21.

視野画像取得部14Bは、第1実施形態に係る対象物判定部15Aと同一である。 The field image acquisition unit 14B is the same as the object determination unit 15A according to the first embodiment.

対象物判定部15Bは、第1実施形態に係る対象物判定部15Aとは以下の点で異なるが、その他は同一である。対象物判定部15Bは、POI情報記憶部19からPOI情報を取得し、対象物抽出部13により取得された抽出対象物TeがPOIである否かを判定する。そして、抽出対象物Teの画像が視野画像取得部14Bにより取得された視野画像に含まれるか否かを判定する。なお、抽出対象物TeがPOIではない場合、又は、抽出対象物Teが視野画像に含まれない場合には、対象物判定部15Bは、抽出対象物Teの画像が視野画像に含まれないと判定する。 The object determination unit 15B is different from the object determination unit 15A according to the first embodiment in the following points, but is the same except for the following points. The object determination unit 15B acquires POI information from the POI information storage unit 19, and determines whether or not the extraction object Te acquired by the object extraction unit 13 is a POI. Then, it is determined whether or not the image of the extraction target Te is included in the visual field image acquired by the visual field image acquisition unit 14B. If the extraction target Te is not a POI, or if the extraction target Te is not included in the visual field image, the object determination unit 15B determines that the image of the extraction target Te is not included in the visual field image. judge.

存否判定部16Bは、第1実施形態に係る対象物判定部15Aとは以下の点(POI情報を用いる点)で異なるが、その他は同一である。存否判定部16Bは、抽出対象物Teが視野画像に含まれないと対象物判定部15Bにより判定された場合に、抽出対象物Teが予め設定された対象範囲内に存在するか否かを判定する。具体的には、存否判定部16Bは、POI情報に基づいて、抽出対象物Teが対象範囲内に存在するか否かを判定する。 The existence / non-existence determination unit 16B is different from the object determination unit 15A according to the first embodiment in the following points (points of using POI information), but is the same in other respects. The existence / non-existence determination unit 16B determines whether or not the extraction target Te exists within the preset target range when the object determination unit 15B determines that the extraction target Te is not included in the visual field image. To do. Specifically, the presence / absence determination unit 16B determines whether or not the extraction target Te exists within the target range based on the POI information.

まず、存否判定部16Bは、抽出対象物TeがPOI情報記憶部19により取得されたPOI情報に含まれるか否かを判定する。より詳細には、存否判定部16Bは、POI情報記憶部19により取得されたPOI情報を取得し、取得されたPOI情報に対象物抽出部13により取得された抽出対象物Teが含まれているか否かを判定する。 First, the presence / absence determination unit 16B determines whether or not the extraction target Te is included in the POI information acquired by the POI information storage unit 19. More specifically, the presence / absence determination unit 16B acquires the POI information acquired by the POI information storage unit 19, and whether the acquired POI information includes the extraction target Te acquired by the object extraction unit 13. Judge whether or not.

また、存否判定部16Bは、取得されたPOI情報に抽出対象物Teが含まれていないと判定された場合には、抽出対象物Teが予め設定された対象範囲内に存在しないと判定する。 Further, when it is determined that the acquired POI information does not include the extraction target Te, the existence / non-existence determination unit 16B determines that the extraction target Te does not exist within the preset target range.

次に、存否判定部16Bは、取得されたPOI情報に抽出対象物Te(ここでは例えばコンビニエンスストア)が含まれていると判定された場合に、取得されたPOI情報に基づいて、抽出対象物Teが存在する位置が対象範囲内であるか否かを判定する。存否判定部16Bは、抽出対象物TeがPOI情報に含まれる場合に、ナビゲーション装置21から取得された車両2Bの位置情報とPOI情報記憶部19に記憶されたPOI情報に含まれる抽出対象物Teの位置情報を用いて、車両2Bから抽出対象物Teまでの距離を算出する。また、存否判定部16Bは、算出した距離に基づいて抽出対象物Teが予め設定された対象範囲内であるか否かを判定する。 Next, the presence / absence determination unit 16B determines that the acquired POI information includes the extraction target Te (here, for example, a convenience store), and the extraction target is based on the acquired POI information. It is determined whether or not the position where Te exists is within the target range. When the existence / non-existence determination unit 16B includes the extraction target Te in the POI information, the extraction target Te included in the position information of the vehicle 2B acquired from the navigation device 21 and the POI information stored in the POI information storage unit 19. The distance from the vehicle 2B to the extraction target Te is calculated using the position information of. In addition, the presence / absence determination unit 16B determines whether or not the extraction target Te is within the preset target range based on the calculated distance.

位置関係取得部17Bは、抽出対象物TeとユーザXとの相対的な位置関係を取得する。位置関係取得部17Bは、POI情報記憶部19により抽出対象物Teの位置情報を取得し、ナビゲーション装置21から車両2Bの位置を取得し、取得された抽出対象物Teの位置情報と車両2Bの位置情報に基づいて、車両2Bから抽出対象物Teまでの方向及び距離を算出してもよい。 The positional relationship acquisition unit 17B acquires the relative positional relationship between the extraction target Te and the user X. The positional relationship acquisition unit 17B acquires the position information of the extraction target Te by the POI information storage unit 19, acquires the position of the vehicle 2B from the navigation device 21, and obtains the position information of the acquired extraction target Te and the vehicle 2B. The direction and distance from the vehicle 2B to the extraction target Te may be calculated based on the position information.

表示画像生成部18Bは、抽出対象物情報を取得し、当該抽出対象物情報を含む表示画像Pを生成する。 The display image generation unit 18B acquires the extraction target information and generates the display image P including the extraction target information.

表示画像生成部18Bは、対象物判定部15Bの判定結果に基づいて、抽出対象物Teの表示画像Pの表示態様を決定する。なお、「抽出対象物情報」等の用語の意味は第1実施形態と同様である。また、図4〜図6に表示されている「Bicycle」を、第2実施形態では「Convenience store」とする。対象物判定部15Bにより、抽出対象物TeがPOIであり、かつ、抽出対象物Teが視野画像に含まれると判定された場合には、表示画像生成部18Bは、第1表示画像P1を生成する。この場合、表示画像生成部18Bは、視野画像取得部14Bから視野Exの視野画像を取得し、視野画像から抽出対象物Teを画像認識し、抽出対象物Teに重畳して表示される抽出対象物Teそのものを強調する表示態様で抽出対象物情報を示した第1表示画像P1を生成する(図4参照)。なお、対象物判定部15Bにより抽出対象物TeがPOIではないと判定された場合、又は、抽出対象物Teが視野画像に含まれないと判定された場合には、第2実施形態において第1表示画像P1は生成されない。 The display image generation unit 18B determines the display mode of the display image P of the extraction target Te based on the determination result of the object determination unit 15B. The meanings of terms such as "information on the object to be extracted" are the same as those in the first embodiment. Further, the "Bicycle" displayed in FIGS. 4 to 6 is referred to as a "Convenience store" in the second embodiment. When the object determination unit 15B determines that the extraction target Te is POI and the extraction target Te is included in the visual field image, the display image generation unit 18B generates the first display image P1. To do. In this case, the display image generation unit 18B acquires the visual field image of the visual field Ex from the visual field image acquisition unit 14B, recognizes the extraction target Te from the visual field image, and superimposes the extraction target Te on the extraction target Te to display the extraction target. A first display image P1 showing information on the object to be extracted is generated in a display mode that emphasizes the object Te itself (see FIG. 4). When the object determination unit 15B determines that the extraction object Te is not a POI, or when it is determined that the extraction object Te is not included in the visual field image, the first embodiment is performed. The display image P1 is not generated.

また、表示画像生成部18Bは、対象物判定部15Bにより抽出対象物Teが視野画像に含まれないと判定された場合には、POI情報に抽出対象物Teが含まれている、かつ、抽出対象物Teが対象範囲内に存在すると存否判定部16Bにより判定されたか否かに基づいて、抽出対象物情報の表示態様を決定する。より詳細には、表示画像生成部18Bは、POI情報に抽出対象物Teが含まれており、かつ、抽出対象物Teが対象範囲内に存在すると存否判定部16Bにより判定された場合に、取得された抽出対象物Teの位置情報と車両2Bの位置情報に基づいて、抽出対象物Teが基準位置に対する方向及び距離を含む位置関係を表示する表示態様で抽出対象物情報を示した第2表示画像P2を生成する。表示画像生成部18Bは、位置関係取得部17Bにより抽出対象物Teが基準位置に対する方向及び距離を含む位置関係情報を取得し、取得された抽出対象物Teが基準位置に対する方向及び距離を含む位置関係を表示する第2表示画像P2を生成する(図5参照)。 Further, when the display image generation unit 18B determines that the extraction target Te is not included in the visual field image by the object determination unit 15B, the POI information includes the extraction target Te and extracts the extraction target Te. The display mode of the extraction target information is determined based on whether or not the presence / absence determination unit 16B determines that the target object Te exists within the target range. More specifically, the display image generation unit 18B acquires the extraction target Te when the POI information includes the extraction target Te and the presence / absence determination unit 16B determines that the extraction target Te exists within the target range. A second display showing the extraction target information in a display mode in which the extraction target Te displays the positional relationship including the direction and the distance to the reference position based on the position information of the extraction target Te and the position information of the vehicle 2B. Image P2 is generated. The display image generation unit 18B acquires the positional relationship information including the direction and distance of the extraction target Te from the reference position by the positional relationship acquisition unit 17B, and the acquired position where the extraction target Te includes the direction and distance with respect to the reference position. A second display image P2 displaying the relationship is generated (see FIG. 5).

また、表示画像生成部18Bは、POI情報に抽出対象物Teが含まれていない、又は、抽出対象物Teが対象範囲内に存在しないと存否判定部16Bにより判定された場合に、抽出対象物Teが予め設定された対象範囲内に存在しない情報を示す第3表示画像P3を生成する(図6参照)。 Further, the display image generation unit 18B determines that the extraction target object Te is not included in the POI information, or the existence / non-existence determination unit 16B determines that the extraction target object Te does not exist within the target range. A third display image P3 showing information that Te does not exist within the preset target range is generated (see FIG. 6).

また、表示画像生成部18Bは、発言データ取得部12により取得された発言主体を特定する情報を含む表示画像P(第1表示画像P1〜第3表示画像P3)を生成してもよい(図4〜図6参照)。 Further, the display image generation unit 18B may generate a display image P (first display image P1 to third display image P3) including information for identifying the speaking subject acquired by the speech data acquisition unit 12 (FIG. 4 to 6).

また、表示画像生成部18Bは、対象物判定部15Bによる抽出対象物Teが視野画像に含まれるか否かの判定結果に基づいて、抽出対象物TeがユーザXにより視認可能であるか否かを示す情報を含む表示画像P(第1表示画像P1〜第3表示画像P3)を生成する(図4〜図6参照)。 Further, the display image generation unit 18B determines whether or not the extraction target object Te is visible to the user X based on the determination result of whether or not the extraction target object Te is included in the visual field image by the object determination unit 15B. Display images P (first display images P1 to third display images P3) including information indicating the above are generated (see FIGS. 4 to 6).

続いて、表示画像生成装置1Bにより実行される画像生成処理について説明する。図9は、表示画像生成処理を示すフローチャートである。図9のフローチャートは、例えば表示画像生成装置1Bによる表示画像生成処理は、車両2Bが起動されたときに開始される。 Subsequently, the image generation process executed by the display image generation device 1B will be described. FIG. 9 is a flowchart showing a display image generation process. In the flowchart of FIG. 9, for example, the display image generation process by the display image generation device 1B is started when the vehicle 2B is started.

図9に示されるように、ステップS201において、POI情報記憶部19は、外部又は車両2BからPOI情報を取得して記憶する。その後、表示画像生成装置1Bは、ステップS202に進む。 As shown in FIG. 9, in step S201, the POI information storage unit 19 acquires and stores POI information from the outside or the vehicle 2B. After that, the display image generation device 1B proceeds to step S202.

ステップS202において、表示画像生成装置1Bは、発言データ取得部12により、ユーザ(発言主体)YによりユーザXに対して発せられた音声の発言データを取得する。発言データ取得部12は、発言主体用端末4の発言データ取得装置41から取得されたユーザYによりユーザXに対して発せられた音声の発言データを取得する。なお、上述したとおり、発言データには、ユーザYが何も発していないデータも含まれる。さらに、発言データ取得部12は、ユーザYを特定する情報を取得し、表示画像生成装置1Bに送信する。その後、ステップS203に進む。 In step S202, the display image generation device 1B acquires the speech data of the voice uttered to the user X by the user (subject of speech) Y by the speech data acquisition unit 12. The speech data acquisition unit 12 acquires speech data of the voice emitted to the user X by the user Y acquired from the speech data acquisition device 41 of the speech subject terminal 4. As described above, the speech data also includes data in which the user Y does not emit anything. Further, the speech data acquisition unit 12 acquires information that identifies the user Y and transmits it to the display image generation device 1B. Then, the process proceeds to step S203.

ステップS203において、表示画像生成装置1Bは、発言データ取得部12により、発言データにユーザ(発言主体)Yの発言が含まれるか否かを判定する。ユーザYの発言が含まれると判定された場合には、ステップS204に進む。ユーザYの発言が含まれないと判定された場合には、エンドに進む。 In step S203, the display image generation device 1B determines whether or not the speech data includes the speech of the user (subject of speech) Y by the speech data acquisition unit 12. If it is determined that the remark of the user Y is included, the process proceeds to step S204. If it is determined that the user Y's remark is not included, the process proceeds to the end.

ステップS204において、表示画像生成装置1Bは、対象物抽出部13により、発言データのうち対象物Tと一致する抽出対象物Teを抽出できるか否かを判定する。抽出対象物Teを抽出できると判定された場合には、ステップS205に進む。抽出対象物Teを抽出できないと判定された場合には、エンドに進む。 In step S204, the display image generation device 1B determines whether or not the object extraction unit 13 can extract the extraction target Te that matches the object T from the statement data. If it is determined that the extraction target Te can be extracted, the process proceeds to step S205. If it is determined that the extraction target Te cannot be extracted, the process proceeds to the end.

ステップS205において、表示画像生成装置1Bは、視野画像取得部14Bにより、ユーザXの視野画像を取得する。視野画像取得部14Bは、ユーザXが装着しているユーザ用端末3Bの視野画像取得装置32からユーザXの視野画像を取得する。その後、ステップS206に進む。 In step S205, the display image generation device 1B acquires the visual field image of the user X by the visual field image acquisition unit 14B. The visual field image acquisition unit 14B acquires the visual field image of the user X from the visual field image acquisition device 32 of the user terminal 3B worn by the user X. Then, the process proceeds to step S206.

ステップS206において、表示画像生成装置1Bは、対象物判定部15Bにより、抽出対象物TeがPOIである否かを判定する。更に、表示画像生成装置1Bは、対象物判定部15Bにより、対象物抽出部13から抽出された抽出対象物Teが視野画像取得部14Bから取得したユーザXの視野画像に含まれるか否かを判定する。抽出対象物TeがPOIではないと判定された場合、又は、抽出対象物TeがユーザXの視野画像に含まれないと判定された場合には、ステップS208に進む。抽出対象物TeがPOIであると判定され、かつ、抽出対象物TeがユーザXの視野画像に含まれると判定された場合には、ステップS207に進む。ここで、例えば、抽出対象物Teがコンビニエンスストアであり、当該コンビニエンスストアがPOI情報としてPOI情報記憶部19に記憶されていれば、抽出対象物TeがPOIであると判定される。また、例えば、抽出対象物Teが走行中の自転車であれば、POI情報としてPOI情報記憶部19に記憶されていないので、抽出対象物TeがPOIではないと判定される。 In step S206, the display image generation device 1B determines whether or not the extraction target object Te is a POI by the object determination unit 15B. Further, the display image generation device 1B determines whether or not the extraction target object Te extracted from the object extraction unit 13 by the object determination unit 15B is included in the visual field image of the user X acquired from the visual field image acquisition unit 14B. judge. If it is determined that the extraction target Te is not a POI, or if it is determined that the extraction target Te is not included in the visual field image of the user X, the process proceeds to step S208. If it is determined that the extraction target Te is POI and the extraction target Te is included in the visual field image of the user X, the process proceeds to step S207. Here, for example, if the extraction target Te is a convenience store and the convenience store is stored in the POI information storage unit 19 as POI information, it is determined that the extraction target Te is a POI. Further, for example, if the extraction target Te is a running bicycle, it is determined that the extraction target Te is not a POI because it is not stored in the POI information storage unit 19 as POI information.

抽出対象物TeがPOIであると判定され、かつ、抽出対象物TeがユーザXの視野画像に含まれると判定された場合には、ステップS207において、表示画像生成装置1Bは、表示画像生成部18Bにより、抽出対象物Teそのものを強調する第1表示画像P1を生成する。表示画像生成部18Bは、視野画像取得部14Bから視野Exの視野画像を取得し、視野画像から抽出対象物Teを画像認識し、視野画像に重畳して表示される抽出対象物Teそのものを強調する第1表示態様で抽出対象物情報を示した第1表示画像P1を生成する。なお、表示画像生成部18Bは、視野画像から抽出対象物TeがユーザXにより視認可能であることを示す情報及び発言データ取得部12により取得された発言主体を特定する情報をさらに含む第1表示画像P1を生成してもよい。表示画像生成部18Bは、生成した第1表示画像P1をユーザ用端末3Bの表示画像表示装置31Bに送信する。 When it is determined that the extraction target Te is POI and the extraction target Te is included in the visual field image of the user X, in step S207, the display image generation device 1B is the display image generation unit. The first display image P1 that emphasizes the extraction target Te itself is generated by 18B. The display image generation unit 18B acquires the visual field image of the visual field Ex from the visual field image acquisition unit 14B, recognizes the extraction target Te from the visual field image, and emphasizes the extraction target Te itself displayed by superimposing it on the visual field image. A first display image P1 showing information on an object to be extracted is generated in the first display mode. The display image generation unit 18B is the first display that further includes information indicating that the extraction target Te is visible to the user X from the visual field image and information for identifying the speaking subject acquired by the speaking data acquisition unit 12. Image P1 may be generated. The display image generation unit 18B transmits the generated first display image P1 to the display image display device 31B of the user terminal 3B.

抽出対象物TeがPOIではないと判定された場合、又は、抽出対象物TeがユーザXの視野画像に含まれないと判定された場合には、ステップS208において、まず、表示画像生成装置1Bは、存否判定部16Bにより、POI情報記憶部19により記憶されたPOI情報に基づいて、POI情報に抽出対象物Teが含まれているか否かを判定する。更に、POI情報に抽出対象物Teが含まれていると判定した場合には、表示画像生成装置1Bは、存否判定部16Bにより、POI情報記憶部19により記憶されたPOI情報に基づいて、抽出対象物Teが対象範囲内に存在するか否かを判定する。POI情報に抽出対象物Teが含まれていないと判定された場合、又は、抽出対象物Teが対象範囲内に存在しないと判定された場合には、ステップS211に進む。POI情報に抽出対象物Teが含まれていると判定され、かつ、抽出対象物Teが対象範囲内に存在すると判定された場合には、スッテプS209に進む。ここで、例えば、抽出対象物Teがコンビニエンスストアであり、当該コンビニエンスストアがPOI情報としてPOI情報記憶部19に記憶されていれば、POI情報に抽出対象物Teが含まれていると判定される。また、例えば、抽出対象物Teが走行中の自転車であれば、POI情報としてPOI情報記憶部19に記憶されていないので、POI情報に抽出対象物Teが含まれていないと判定される。 When it is determined that the extraction target Te is not a POI, or when it is determined that the extraction target Te is not included in the visual field image of the user X, in step S208, first, the display image generation device 1B , The presence / absence determination unit 16B determines whether or not the extraction target Te is included in the POI information based on the POI information stored by the POI information storage unit 19. Further, when it is determined that the POI information includes the extraction target Te, the display image generation device 1B extracts the POI information by the presence / absence determination unit 16B based on the POI information stored by the POI information storage unit 19. It is determined whether or not the object Te exists within the target range. If it is determined that the extraction target Te is not included in the POI information, or if it is determined that the extraction target Te does not exist within the target range, the process proceeds to step S211. If it is determined that the extraction target Te is included in the POI information and it is determined that the extraction target Te exists within the target range, the process proceeds to step S209. Here, for example, if the extraction target Te is a convenience store and the convenience store is stored in the POI information storage unit 19 as POI information, it is determined that the extraction target Te is included in the POI information. .. Further, for example, if the extraction target Te is a running bicycle, it is determined that the extraction target Te is not included in the POI information because it is not stored in the POI information storage unit 19 as POI information.

POI情報に抽出対象物Teが含まれていると判定され、かつ、抽出対象物Teが存在する位置が対象範囲内であると判定された場合には、ステップS209において、表示画像生成装置1Bは、位置関係取得部17Bにより、抽出対象物TeとユーザXとの位置関係を取得する。位置関係取得部17Bは、取得された抽出対象物Teの位置情報と車両2Bの位置情報に基づいて、抽出対象物TeからユーザX又は車両2Bまでの方向と距離を算出により推定する。その後、ステップS210に進む。 When it is determined that the POI information includes the extraction target Te and the position where the extraction target Te exists is within the target range, in step S209, the display image generation device 1B , The positional relationship acquisition unit 17B acquires the positional relationship between the extraction target Te and the user X. The positional relationship acquisition unit 17B calculates the direction and distance from the extraction target Te to the user X or the vehicle 2B based on the acquired position information of the extraction target Te and the position information of the vehicle 2B. Then, the process proceeds to step S210.

ステップS210において、表示画像生成装置1Bは、表示画像生成部18Bにより、位置関係取得部17Bから取得された抽出対象物Teの位置情報と車両2Bの位置情報に基づいて、車両2Bから抽出対象物Teまでの方向及び距離を含む位置関係を表示する第2表示画像P2を生成する。表示画像生成部18Bは、位置関係取得部17Bから取得されたユーザXの視野Exに対する方向を示す記号画像と距離を表示する第2表示態様で抽出対象物情報を示した第2表示画像P2を生成する。なお、表示画像生成部18Bは、ユーザXから抽出対象物Teが視認不可能であることを示す情報及び発言データ取得部12により取得された発言主体を特定する情報を含む第2表示画像P2を生成してもよい。表示画像生成部18Bは、生成した第2表示画像P2をユーザ用端末3Bの表示画像表示装置31Bに送信する。 In step S210, the display image generation device 1B is extracted from the vehicle 2B based on the position information of the extraction target Te acquired from the positional relationship acquisition unit 17B and the position information of the vehicle 2B by the display image generation unit 18B. A second display image P2 that displays the positional relationship including the direction and distance to Te is generated. The display image generation unit 18B displays a symbol image indicating the direction of the user X with respect to the field of view Ex acquired from the positional relationship acquisition unit 17B and a second display image P2 showing the extraction target information in the second display mode of displaying the distance. Generate. The display image generation unit 18B provides a second display image P2 including information indicating that the extraction target Te is invisible from the user X and information for identifying the speaking subject acquired by the speaking data acquisition unit 12. It may be generated. The display image generation unit 18B transmits the generated second display image P2 to the display image display device 31B of the user terminal 3B.

POI情報に抽出対象物Teが含まれていないと判定した場合、又は、抽出対象物Teが存在する位置が対象範囲内ではないと判定された場合には、ステップS211において、表示画像生成装置1Bは、位置関係取得部17Bにより、抽出対象物TeとユーザXとの位置関係を取得する。具体的には、位置関係取得部17Bは、存否判定部16Bから抽出対象物Teが予め設定された対象範囲内に存在しない位置関係情報を取得する。その後、ステップS212に進む。 If it is determined that the POI information does not include the extraction target Te, or if it is determined that the position where the extraction target Te exists is not within the target range, in step S211, the display image generation device 1B Acquires the positional relationship between the extraction target Te and the user X by the positional relationship acquisition unit 17B. Specifically, the positional relationship acquisition unit 17B acquires the positional relationship information in which the extraction target Te does not exist within the preset target range from the existence / non-existence determination unit 16B. After that, the process proceeds to step S212.

ステップS212において、表示画像生成装置1Bは、位置関係取得部17Bから取得された抽出対象物Teが予め設定された対象範囲内に存在しないという抽出対象物TeとユーザXとの位置関係を表示する第3表示画像P3を生成する。表示画像生成部18Bは、視野画像から抽出対象物TeがユーザXにより視認不可能であることを示す情報及び発言データ取得部12により取得された発言主体を特定する情報を含む第3表示画像P3を生成する。なお、抽出対象物Teの位置の方向及び距離を含む位置関係(第2表示態様に係る位置関係)は表示されない。表示画像生成部18Bは、生成した第3表示画像P3をユーザ用端末3Bの表示画像表示装置31Bに送信する。 In step S212, the display image generation device 1B displays the positional relationship between the extraction target Te and the user X that the extraction target Te acquired from the positional relationship acquisition unit 17B does not exist within the preset target range. The third display image P3 is generated. The display image generation unit 18B is a third display image P3 including information indicating that the extraction target Te is invisible to the user X from the visual field image and information for identifying the speaker subject acquired by the speech data acquisition unit 12. To generate. The positional relationship including the direction and distance of the position of the extraction target Te (the positional relationship according to the second display mode) is not displayed. The display image generation unit 18B transmits the generated third display image P3 to the display image display device 31B of the user terminal 3B.

表示画像生成装置1Bは、表示画像生成部18Bの上述した処理が終了すると、今回の処理を終了して、再びステップS201から表示画像生成処理を繰り返す。 When the above-described processing of the display image generation unit 18B is completed, the display image generation device 1B ends the current processing and repeats the display image generation processing from step S201 again.

上記のとおり、本実施形態では、抽出対象物Teの位置に関する情報を少なくとも含むPOI情報を記憶するPOI情報記憶部19を備える。存否判定部16Bは、POI情報記憶部19により記憶されたPOI情報に基づいて、抽出対象物Teが対象範囲内に存在するか否かを判定する。この結果、存否判定部16Bは、POI情報記憶部19に記憶されたPOI情報に基づいて、抽出対象物Teが対象範囲内に存在するか否かを確実に判定することができる。
[第3実施形態]
As described above, the present embodiment includes a POI information storage unit 19 that stores POI information including at least information regarding the position of the extraction target Te. The existence / non-existence determination unit 16B determines whether or not the extraction target Te exists within the target range based on the POI information stored by the POI information storage unit 19. As a result, the presence / absence determination unit 16B can reliably determine whether or not the extraction target Te exists within the target range based on the POI information stored in the POI information storage unit 19.
[Third Embodiment]

図10は、第3実施形態に係る表示画像生成装置1Cを示すブロック図である。本実施形態では、車両2Cに設置された表示装置であるユーザ用端末3Cを用いて表示画像生成処理を実行可能な表示画像生成装置1Cについて説明する。なお、第2実施形態において、第1実施形態と同様の説明は省略又は簡略化する。 FIG. 10 is a block diagram showing the display image generation device 1C according to the third embodiment. In the present embodiment, the display image generation device 1C capable of executing the display image generation process using the user terminal 3C, which is a display device installed in the vehicle 2C, will be described. In the second embodiment, the same description as in the first embodiment will be omitted or simplified.

図10において、表示画像生成装置1Cは、第1実施形態に係る表示画像生成装置1Aと比較して、視野画像取得部14Aに代えて視野画像取得部14Cを備えている点、対象物判定部15Aに代えて対象物判定部15Cを備えている点、存否判定部16Aに代えて存否判定部16Cを備えている点、位置関係取得部17Aに代えて位置関係取得部17Cを備えている点、表示画像生成部18Aに代えて表示画像生成部18Cを備えている点、及び、視線認識部20を備えている点で相違しており、その他の点で同一である。 In FIG. 10, the display image generation device 1C includes a field image acquisition unit 14C instead of the field image acquisition unit 14A as compared with the display image generation device 1A according to the first embodiment, that is, an object determination unit. An object determination unit 15C is provided instead of the 15A, an existence determination unit 16C is provided instead of the existence determination unit 16A, and a positional relationship acquisition unit 17C is provided instead of the positional relationship acquisition unit 17A. The difference is that the display image generation unit 18C is provided instead of the display image generation unit 18A, and the line-of-sight recognition unit 20 is provided, and they are the same in other respects.

表示画像生成装置1C、車両2C、ユーザ用端末3C、及び発言主体用端末4は、相互に有線又は無線により通信(送受信)可能に接続されている。 The display image generator 1C, the vehicle 2C, the user terminal 3C, and the speaking subject terminal 4 are connected to each other so as to be able to communicate (transmit and receive) by wire or wirelessly.

車両2Cは、第1実施形態に係る車両2Aと比較して、姿勢取得装置23を備えている点で相違しており、その他の点で同一である。 The vehicle 2C is different from the vehicle 2A according to the first embodiment in that it is provided with the posture acquisition device 23, and is the same in other respects.

ユーザ用端末3Bは、第1実施形態に係るユーザ用端末3Aと比較して、視野画像取得装置32を備えていない点、表示画像表示装置31Aに代えて表示画像表示装置31Cを備えている点で相違しており、その他の点で同一である。 Compared with the user terminal 3A according to the first embodiment, the user terminal 3B does not include the visual field image acquisition device 32 and includes the display image display device 31C instead of the display image display device 31A. It is different in, and is the same in other respects.

発言主体用端末4は、第1実施形態に係る発言主体用端末4と同一である。 The speaking subject terminal 4 is the same as the speaking subject terminal 4 according to the first embodiment.

姿勢取得装置23は、ユーザXの顔画像を含む画像情報を取得する。姿勢取得装置23は、車両2Cに設置された車内カメラからユーザXの顔画像を含む画像を撮像する。 The posture acquisition device 23 acquires image information including the face image of the user X. The posture acquisition device 23 captures an image including the face image of the user X from the in-vehicle camera installed in the vehicle 2C.

視線認識部20は、ユーザXの視線を認識する。「視線」とは、ユーザXの両目の中心を通り、ユーザXの顔向きを示す視線方向である。視線認識部20は、姿勢取得装置23からユーザXの顔画像を含む画像情報を取得し、ユーザXの視線方向を認識する。 The line-of-sight recognition unit 20 recognizes the line of sight of the user X. The "line of sight" is a line-of-sight direction that passes through the centers of both eyes of the user X and indicates the face orientation of the user X. The line-of-sight recognition unit 20 acquires image information including the face image of the user X from the posture acquisition device 23, and recognizes the line-of-sight direction of the user X.

視野画像取得部14Cは、周辺画像取得部11により取得されたリアルタイムの周辺画像と視線認識部20により認識されたユーザXの視線とに基づいて視野画像を取得する。より詳細には、視野画像取得部14Cは、視線認識部20からユーザXの視線方向を取得し、ユーザXの視野Exを推定する。視野画像取得部14Cは、周辺画像取得部11からリアルタイムの車両周辺の画像を取得し、車両周辺の画像から推定されたユーザXの視野Exに対応する領域を切り出し、視野画像を取得する。ここで、「推定されたユーザXの視野Exに対応する領域」とは、例えば、眼を動かさない状態で、垂直視野の上側60度・下側70度、水平視野で左右それぞれ100度、の領域とする。 The visual field image acquisition unit 14C acquires a visual field image based on the real-time peripheral image acquired by the peripheral image acquisition unit 11 and the line of sight of the user X recognized by the line of sight recognition unit 20. More specifically, the field image acquisition unit 14C acquires the line-of-sight direction of the user X from the line-of-sight recognition unit 20 and estimates the field-of-view Ex of the user X. The visual field image acquisition unit 14C acquires a real-time image of the vehicle peripheral area from the peripheral image acquisition unit 11, cuts out a region corresponding to the user X's visual field Ex estimated from the image of the vehicle peripheral area, and acquires the visual field image. Here, the "region corresponding to the estimated user X's field of view Ex" is, for example, 60 degrees above and 70 degrees below the vertical field of view, and 100 degrees to the left and right in the horizontal field of view, respectively, without moving the eyes. Let it be an area.

対象物判定部15Cは、抽出対象物Teが視野画像取得部14Cにより取得されたユーザXの視野Exの視野画像に抽出対象物Teが含まれるか否かを判定する。対象物判定部15Cは、第1実施形態に係る対象物判定部15Aと同一の方法で判定すればよい。 The object determination unit 15C determines whether or not the extraction target Te is included in the visual field image of the visual field Ex of the user X acquired by the visual field image acquisition unit 14C. The object determination unit 15C may determine by the same method as the object determination unit 15A according to the first embodiment.

存否判定部16Cは、抽出対象物Teが視野画像に含まれないと対象物判定部15Cにより判定された場合に、抽出対象物Teが予め設定された対象範囲内に存在するか否かを判定する。存否判定部16Cは、第1実施形態に係る存否判定部16Aと同一の方法で判定すればよい。 The existence / non-existence determination unit 16C determines whether or not the extraction target Te exists within the preset target range when the object determination unit 15C determines that the extraction target Te is not included in the visual field image. To do. The presence / absence determination unit 16C may determine the presence / absence determination unit 16C by the same method as the presence / absence determination unit 16A according to the first embodiment.

位置関係取得部17Cは、抽出対象物TeとユーザXとの相対的な位置関係を取得する。位置関係取得部17Cは、第1実施形態に係る位置関係取得部17Aと同一の方法で、ユーザX又は車両2Cから抽出対象物Teまでの方向及び距離を推定すればよい。また、位置関係取得部17Cは、第1実施形態に係る位置関係取得部17Aと同一の方法で、存否判定部16Cから、抽出対象物Teが予め設定された対象範囲内に存在しない情報を取得してもよい。 The positional relationship acquisition unit 17C acquires the relative positional relationship between the extraction target Te and the user X. The positional relationship acquisition unit 17C may estimate the direction and distance from the user X or the vehicle 2C to the extraction target Te by the same method as the positional relationship acquisition unit 17A according to the first embodiment. Further, the positional relationship acquisition unit 17C acquires information from the existence / non-existence determination unit 16C that the extraction target Te does not exist within the preset target range by the same method as the positional relationship acquisition unit 17A according to the first embodiment. You may.

表示画像生成部18Cは、抽出対象物情報を取得し、当該抽出対象物情報を含む表示画像Pを生成する。 The display image generation unit 18C acquires the extraction target information and generates the display image P including the extraction target information.

表示画像生成部18Cは、対象物判定部15Cの判定結果に基づいて、第1実施形態と同様に抽出対象物Teの表示画像Pの表示態様を決定する。なお、「抽出対象物情報」等の用語の意味は第1実施形態と同様である。対象物判定部15Cにより抽出対象物Teが視野画像に含まれると判定された場合には、表示画像生成部18Cは、視野画像取得部14Cから視野Exの視野画像を取得し、視野画像から抽出対象物Teを画像認識し、抽出対象物Teに重畳して表示される抽出対象物Teそのものを強調する表示態様で抽出対象物情報を示した第1表示画像P1を生成する(図4参照)。 The display image generation unit 18C determines the display mode of the display image P of the extraction target Te as in the first embodiment, based on the determination result of the object determination unit 15C. The meanings of terms such as "information on the object to be extracted" are the same as those in the first embodiment. When the object determination unit 15C determines that the extraction target Te is included in the field image, the display image generation unit 18C acquires the field image of the field Ex from the field image acquisition unit 14C and extracts it from the field image. The object Te is image-recognized, and the first display image P1 showing the extraction target information is generated in a display mode that emphasizes the extraction target Te itself displayed by superimposing it on the extraction target Te (see FIG. 4). ..

また、表示画像生成部18Cは、対象物判定部15Cにより抽出対象物Teが視野画像に含まれないと判定された場合には、抽出対象物Teが対象範囲内に存在すると存否判定部16Cにより判定されたか否かに基づいて、第1実施形態と同様に抽出対象物情報の表示態様を決定する。より詳細には、表示画像生成部18Cは、抽出対象物Teが対象範囲内に存在すると存否判定部16Cにより判定された場合に、基準位置を基準として抽出対象物Teの位置の方向及び距離を含む位置関係を表示する表示態様で抽出対象物情報を示した第2表示画像P2を生成する(図5参照)。表示画像生成部18Cは、位置関係取得部17Cにより基準位置を基準として抽出対象物Teの位置の方向及び距離を含む位置関係情報を取得し、取得された基準位置を基準として抽出対象物Teの位置の方向及び距離を含む位置関係を表示する第2表示画像P2を生成する。 Further, when the display image generation unit 18C determines that the extraction target Te is not included in the visual field image by the object determination unit 15C, the presence / absence determination unit 16C determines that the extraction target Te exists within the target range. Based on whether or not it is determined, the display mode of the extraction target information is determined as in the first embodiment. More specifically, when the presence / absence determination unit 16C determines that the extraction target Te exists within the target range, the display image generation unit 18C determines the direction and distance of the position of the extraction target Te with reference to the reference position. A second display image P2 showing the extraction target information is generated in a display mode that displays the including positional relationship (see FIG. 5). The display image generation unit 18C acquires the positional relationship information including the direction and distance of the position of the extraction target Te with the reference position as a reference by the positional relationship acquisition unit 17C, and uses the acquired reference position as a reference for the extraction target Te. A second display image P2 that displays the positional relationship including the direction and distance of the position is generated.

また、表示画像生成部18Cは、抽出対象物Teが対象範囲内に存在しないと存否判定部16Cにより判定された場合に、抽出対象物Teが予め設定された対象範囲内に存在しない情報を示す第3表示画像P3を生成する(図6参照)。 Further, the display image generation unit 18C indicates information that the extraction target Te does not exist in the preset target range when the existence / non-existence determination unit 16C determines that the extraction target Te does not exist in the target range. A third display image P3 is generated (see FIG. 6).

また、表示画像生成部18Cは、第1実施形態と同様に発言データ取得部12により取得された発言主体を特定する情報を含む表示画像P(第1表示画像P1〜第3表示画像P3)を生成する(図4〜図6参照)。 Further, the display image generation unit 18C displays the display image P (first display image P1 to third display image P3) including the information for identifying the speaker acquired by the speech data acquisition unit 12 as in the first embodiment. Generate (see FIGS. 4 to 6).

また、表示画像生成部18Cは、対象物判定部15Cによる抽出対象物Teが視野画像に含まれるか否かの判定結果に基づいて、抽出対象物TeがユーザXにより視認可能であるか否かを示す情報を含む表示画像P(第1表示画像P1〜第3表示画像P3)を生成する(図4〜図6参照)。 Further, the display image generation unit 18C determines whether or not the extraction target object Te is visible to the user X based on the determination result of whether or not the extraction target object Te is included in the visual field image by the object determination unit 15C. Display images P (first display images P1 to third display images P3) including information indicating the above are generated (see FIGS. 4 to 6).

続いて、表示画像生成装置1Cにより実行される画像生成処理について説明する。図11は、表示画像生成処理を示すフローチャートである。図11のフローチャートは、例えば表示画像生成装置1Cによる表示画像生成処理は、車両2Cが起動されたときに開始される。 Subsequently, the image generation process executed by the display image generation device 1C will be described. FIG. 11 is a flowchart showing the display image generation process. In the flowchart of FIG. 11, for example, the display image generation process by the display image generation device 1C is started when the vehicle 2C is started.

図11に示されるように、ステップS301において、表示画像生成装置1Cは、周辺画像取得部11により、ユーザXの周辺画像を取得する。周辺画像取得部11は、車両2Cの周辺撮像装置22が撮像した周辺画像を取得する。その後、表示画像生成装置1Cは、ステップS302に進む。 As shown in FIG. 11, in step S301, the display image generation device 1C acquires the peripheral image of the user X by the peripheral image acquisition unit 11. The peripheral image acquisition unit 11 acquires the peripheral image captured by the peripheral image pickup device 22 of the vehicle 2C. After that, the display image generation device 1C proceeds to step S302.

ステップS302において、表示画像生成装置1Cは、発言データ取得部12により、ユーザ(発言主体)YによりユーザXに対して発せられた音声の発言データを取得する。発言データ取得部12は、発言主体用端末4の発言データ取得装置41から取得されたユーザYによりユーザXに対して発せられた音声の発言データを取得する。なお、上述したとおり、発言データには、ユーザYが何も発していないデータも含まれる。さらに、発言データ取得部12は、ユーザYを特定する情報を取得し、表示画像生成装置1Cに送信する。その後、ステップS303に進む。 In step S302, the display image generation device 1C acquires the speech data of the voice uttered to the user X by the user (subject of speech) Y by the speech data acquisition unit 12. The speech data acquisition unit 12 acquires speech data of the voice emitted to the user X by the user Y acquired from the speech data acquisition device 41 of the speech subject terminal 4. As described above, the speech data also includes data in which the user Y does not emit anything. Further, the speech data acquisition unit 12 acquires information that identifies the user Y and transmits it to the display image generation device 1C. Then, the process proceeds to step S303.

ステップS303において、表示画像生成装置1Cは、発言データ取得部12により、発言データにユーザ(発言主体)Yの発言が含まれるか否かを判定する。ユーザYの発言が含まれると判定された場合には、ステップS304に進む。ユーザYの発言が含まれないと判定された場合には、エンドに進む。 In step S303, the display image generation device 1C determines whether or not the speech data includes the speech of the user (subject of speech) Y by the speech data acquisition unit 12. If it is determined that the remark of the user Y is included, the process proceeds to step S304. If it is determined that the user Y's remark is not included, the process proceeds to the end.

ステップS304において、表示画像生成装置1Cは、対象物抽出部13により、発言データのうち対象物Tと一致する抽出対象物Teを抽出できるか否かを判定する。抽出対象物Teを抽出できると判定された場合には、ステップS305に進む。抽出対象物Teを抽出できないと判定された場合には、エンドに進む。 In step S304, the display image generation device 1C determines whether or not the object extraction unit 13 can extract the extraction target Te that matches the object T from the statement data. If it is determined that the extraction target Te can be extracted, the process proceeds to step S305. If it is determined that the extraction target Te cannot be extracted, the process proceeds to the end.

ステップS305において、表示画像生成装置1Cは、視線認識部20により、ユーザXの視線を認識する。視線認識部20は、姿勢取得装置23からユーザXの顔画像を含む画像情報を取得し、取得された画像情報に基づいてユーザXの視線方向を認識する。その後、ステップS306に進む。 In step S305, the display image generation device 1C recognizes the line of sight of the user X by the line of sight recognition unit 20. The line-of-sight recognition unit 20 acquires image information including the face image of the user X from the posture acquisition device 23, and recognizes the line-of-sight direction of the user X based on the acquired image information. Then, the process proceeds to step S306.

ステップS306において、表示画像生成装置1Cは、視野画像取得部14Cにより、ユーザXの視野画像を取得する。視野画像取得部14Cは、視線認識部20からユーザXの視線方向を取得し、ユーザXの視野Exを推定する。視野画像取得部14Cは、周辺画像取得部11からリアルタイムの車両周辺の画像を取得し、車両周辺の画像から推定されたユーザXの視野Exに対する領域を切り出し、視野画像を取得する。その後、ステップS307に進む。 In step S306, the display image generation device 1C acquires the visual field image of the user X by the visual field image acquisition unit 14C. The field image acquisition unit 14C acquires the line-of-sight direction of the user X from the line-of-sight recognition unit 20 and estimates the field-of-view Ex of the user X. The visual field image acquisition unit 14C acquires a real-time image of the vehicle peripheral area from the peripheral image acquisition unit 11, cuts out a region with respect to the visual field Ex of the user X estimated from the image of the vehicle peripheral area, and acquires the visual field image. Then, the process proceeds to step S307.

ステップS307において、表示画像生成装置1Cは、対象物判定部15Cにより、対象物抽出部13から抽出された抽出対象物Teが視野画像取得部14Cから取得したユーザXの視野画像に含まれるか否かを判定する。抽出対象物TeがユーザXの視野画像に含まれると判定された場合には、ステップS308に進む。抽出対象物TeがユーザXの視野画像に含まれないと判定された場合には、ステップS309に進む。 In step S307, in the display image generation device 1C, whether or not the extraction target Te extracted from the object extraction unit 13 by the object determination unit 15C is included in the field image of the user X acquired from the field image acquisition unit 14C. Is determined. If it is determined that the extraction target Te is included in the visual field image of the user X, the process proceeds to step S308. If it is determined that the extraction target Te is not included in the visual field image of the user X, the process proceeds to step S309.

抽出対象物TeがユーザXの視野画像に含まれると判定された場合には、ステップS308において、表示画像生成装置1Cは、表示画像生成部18Cにより、抽出対象物Teそのものを強調する第1表示画像P1を生成する。表示画像生成部18Cは、視野画像取得部14Cから視野Exの視野画像を取得し、視野画像から抽出対象物Teを画像認識し、視野画像に重畳して表示される抽出対象物Teそのものを強調する第1表示態様で抽出対象物情報を示した第1表示画像P1を生成する。なお、表示画像生成部18Cは、視野画像から抽出対象物TeがユーザXにより視認可能であることを示す情報及び発言データ取得部12により取得された発言主体を特定する情報をさらに含む第1表示画像P1を生成してもよい。表示画像生成部18Cは、生成した第1表示画像P1をユーザ用端末3Cの表示画像表示装置31Cに送信する。 When it is determined that the extraction target Te is included in the visual field image of the user X, in step S308, the display image generation device 1C uses the display image generation unit 18C to emphasize the extraction target Te itself. Image P1 is generated. The display image generation unit 18C acquires the visual field image of the visual field Ex from the visual field image acquisition unit 14C, recognizes the extraction target Te from the visual field image, and emphasizes the extraction target Te itself displayed by superimposing it on the visual field image. A first display image P1 showing information on an object to be extracted is generated in the first display mode. The display image generation unit 18C is the first display that further includes information indicating that the extraction target Te is visible to the user X from the visual field image and information for identifying the speaking subject acquired by the speaking data acquisition unit 12. Image P1 may be generated. The display image generation unit 18C transmits the generated first display image P1 to the display image display device 31C of the user terminal 3C.

抽出対象物TeがユーザXの視野画像に含まれないと判定された場合には、ステップS309において、表示画像生成装置1Cは、存否判定部16Cにより、周辺画像取得部11により取得された現在または過去の周辺画像に基づいて、抽出対象物Teが対象範囲内に存在するか否かを判定する。存否判定部16Cは、抽出対象物Teが対象範囲内に存在しないと判定した場合には、スッテプS312に進む。存否判定部16Cは、抽出対象物Teが対象範囲内に存在すると判定した場合には、スッテプS310に進む。 When it is determined that the extraction target Te is not included in the visual field image of the user X, in step S309, the display image generation device 1C is currently or acquired by the peripheral image acquisition unit 11 by the presence / absence determination unit 16C. Based on the past peripheral image, it is determined whether or not the extraction target Te exists within the target range. When the existence / non-existence determination unit 16C determines that the extraction target Te does not exist within the target range, the existence / non-existence determination unit 16C proceeds to step S312. When the existence / non-existence determination unit 16C determines that the extraction target Te exists within the target range, the existence / non-existence determination unit 16C proceeds to step S310.

抽出対象物Teが存在する位置が対象範囲内であると判定された場合には、ステップS310において、表示画像生成装置1Cは、位置関係取得部17Cにより、抽出対象物TeとユーザXとの位置関係を取得する。位置関係取得部17Cは、周辺画像取得部11から取得された現在または過去のユーザXの周辺画像に基づいて、抽出対象物TeからユーザX又は車両2Cまでの距離とユーザXの視野Exに対する方向を推定する。また、位置関係取得部17Cは、存否判定部16Cより抽出対象物TeからユーザX又は車両2Cまでの距離を取得してもよい。その後、ステップS311に進む。 When it is determined that the position where the extraction target Te exists is within the target range, in step S310, the display image generation device 1C uses the positional relationship acquisition unit 17C to position the extraction target Te and the user X. Get a relationship. The positional relationship acquisition unit 17C is based on the peripheral image of the current or past user X acquired from the peripheral image acquisition unit 11, the distance from the extraction target Te to the user X or the vehicle 2C, and the direction of the user X with respect to the visual field Ex. To estimate. Further, the positional relationship acquisition unit 17C may acquire the distance from the extraction target Te to the user X or the vehicle 2C from the existence / non-existence determination unit 16C. Then, the process proceeds to step S311.

ステップS311において、表示画像生成装置1Cは、表示画像生成部18Cにより、位置関係取得部17Cから取得された基準位置を基準として抽出対象物Teの位置の方向及び距離を含む位置関係を表示する第2表示画像P2を生成する。表示画像生成部18Cは、位置関係取得部17Cから取得されたユーザXの視野Exに対する方向を示す記号画像と距離を表示する第2表示態様で抽出対象物情報を示した第2表示画像P2を生成する。なお、表示画像生成部18Cは、ユーザXから抽出対象物Teが視認不可能であることを示す情報及び発言データ取得部12により取得された発言主体を特定する情報を含む第2表示画像P2を生成してもよい。表示画像生成部18Cは、生成した第2表示画像P2をユーザ用端末3Cの表示画像表示装置31Cに送信する。 In step S311, the display image generation device 1C displays the positional relationship including the direction and distance of the position of the extraction target Te with reference to the reference position acquired from the positional relationship acquisition unit 17C by the display image generation unit 18C. 2 Display image P2 is generated. The display image generation unit 18C displays a symbol image indicating the direction of the user X with respect to the field of view Ex acquired from the positional relationship acquisition unit 17C and a second display image P2 showing the extraction target information in the second display mode of displaying the distance. Generate. The display image generation unit 18C provides a second display image P2 including information indicating that the extraction target Te is invisible from the user X and information for identifying the speaking subject acquired by the speaking data acquisition unit 12. It may be generated. The display image generation unit 18C transmits the generated second display image P2 to the display image display device 31C of the user terminal 3C.

抽出対象物Teが存在する位置が対象範囲内ではないと判定された場合には、ステップS312において、表示画像生成装置1Cは、位置関係取得部17Cにより、抽出対象物TeとユーザXとの位置関係を取得する。具体的には、位置関係取得部17Cは、存否判定部16Cから抽出対象物Teが予め設定された対象範囲内に存在しない位置関係情報を取得する。その後、ステップS313に進む。 When it is determined that the position where the extraction target Te exists is not within the target range, in step S312, the display image generation device 1C uses the positional relationship acquisition unit 17C to determine the position between the extraction target Te and the user X. Get a relationship. Specifically, the positional relationship acquisition unit 17C acquires the positional relationship information in which the extraction target Te does not exist within the preset target range from the existence / non-existence determination unit 16C. Then, the process proceeds to step S313.

ステップS313において、表示画像生成装置1Cは、位置関係取得部17Cから取得された抽出対象物Teが予め設定された対象範囲内に存在しないという抽出対象物TeとユーザXとの位置関係を表示する第3表示画像P3を生成する。表示画像生成部18Cは、視野画像から抽出対象物TeがユーザXにより視認不可能であることを示す情報及び発言データ取得部12により取得された発言主体を特定する情報を含む第3表示画像P3を生成する。なお、抽出対象物Teの位置の方向及び距離を含む位置関係(第2表示態様に係る位置関係)は表示されない。表示画像生成部18Cは、生成した第3表示画像P3をユーザ用端末3Cの表示画像表示装置31Cに送信する。 In step S313, the display image generation device 1C displays the positional relationship between the extraction target Te and the user X that the extraction target Te acquired from the positional relationship acquisition unit 17C does not exist within the preset target range. The third display image P3 is generated. The display image generation unit 18C includes a third display image P3 including information indicating that the extraction target Te is invisible to the user X from the visual field image and information for identifying the speaking subject acquired by the speaking data acquisition unit 12. To generate. The positional relationship including the direction and distance of the position of the extraction target Te (the positional relationship according to the second display mode) is not displayed. The display image generation unit 18C transmits the generated third display image P3 to the display image display device 31C of the user terminal 3C.

表示画像生成装置1Cは、表示画像生成部18Cの上述した処理が終了すると、今回の処理を終了して、再びステップS301から表示画像生成処理を繰り返す。 When the above-described processing of the display image generation unit 18C is completed, the display image generation device 1C ends the current processing and repeats the display image generation processing from step S301 again.

上記のとおり、本実施形態では、表示画像生成装置1Cは、周辺画像を取得して記憶する周辺画像取得部11と、ユーザXの視線を認識する視線認識部20と、を備える。視野画像取得部14Cは、周辺画像取得部11により取得された現在の周辺画像と視線認識部20により認識されたユーザXの現在の視線とに基づいて視野画像を取得する。この結果、表示画像生成装置1Cは、周辺画像取得部11によりユーザXの視野Exを含む領域の画像である周辺画像を取得し、視線認識部20によりユーザXの視線を認識し、取得された周辺画像が含まれたユーザXの視線に応じる視野画像を取得することができる。これにより、ユーザ用端末3Cに視野画像取得装置32が無くても、視線認識部20によりユーザXの視野画像を取得することができる。 As described above, in the present embodiment, the display image generation device 1C includes a peripheral image acquisition unit 11 that acquires and stores a peripheral image, and a line-of-sight recognition unit 20 that recognizes the line of sight of the user X. The field-of-view image acquisition unit 14C acquires a field-of-view image based on the current peripheral image acquired by the peripheral image acquisition unit 11 and the current line-of-sight of the user X recognized by the line-of-sight recognition unit 20. As a result, the display image generation device 1C acquires the peripheral image which is an image of the region including the field of view Ex of the user X by the peripheral image acquisition unit 11, recognizes the line of sight of the user X by the line of sight recognition unit 20, and acquires the peripheral image. It is possible to acquire a visual field image according to the line of sight of the user X including the peripheral image. As a result, the line-of-sight recognition unit 20 can acquire the field-of-view image of the user X even if the user terminal 3C does not have the field-of-view image acquisition device 32.

以上、本開示の表示画像生成装置及び表示画像生成方法を上述した各実施形態に基づき説明してきたが、具体的な構成については、これらの各実施形態に限られるものではなく、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や追加等は許容される。 Although the display image generation device and the display image generation method of the present disclosure have been described based on the above-described embodiments, the specific configuration is not limited to each of these embodiments and is within the scope of claims. As long as the gist of the invention according to each of the above claims is not deviated, design changes and additions are permitted.

各実施形態において、ユーザXとユーザYの両方とも、車両に乗車している例を示したが、これに限られない。例えば、ユーザX、及び、発言主体であるユーザYの一方又は両方が、車両2A〜Cの車外(すなわち、車両2A〜Cから離間した場所)に存在(位置)してもよい。この場合、ユーザXのユーザ用端末又はユーザXのユーザ用端末が接続可能なサーバは、発言データ取得部と、対象物抽出部と、対象物判定部と、表示画像生成部と、の構成を少なくとも有する必要がある。なお、視野画像取得部は、例えば、ユーザ用端末が有する視野画像取得装置に含める。そして、周辺撮像装置により得られる周辺画像を、ユーザXの視野Exに対応する視野画像としてもよいし、ユーザXが周辺撮像装置を有しておりユーザ用端末に送信してもよい。更に、ユーザXが車外にいる場合、姿勢取得装置23はユーザ用端末3CまたはユーザXの周辺に設置し、ユーザXの顔画像またはセンサによりユーザXの顔向き情報を取得する。そして、視線認識部20は、姿勢取得装置23により取得したユーザXの顔画像または顔向き情報によりユーザXの視線方向を認識する。視野画像取得部は、周辺撮像装置22が撮像した周辺画像と視線認識部20が認識したユーザXの視線方向に基づいて、ユーザXの視野画像を生成する。なお、ユーザXが車外にいる場合、視線認識部20は、ユーザXのユーザ用端末又はユーザXのユーザ用端末が接続可能なサーバが有するものとする。そして、ユーザXが車外に存在する場合でも、ユーザ用端末は、発言主体により発せられた発言に含まれる抽出対象物Teに関する表示画像Pが生成される。そして、表示画像表示装置に表示画像Pが表示される。 In each embodiment, both user X and user Y have shown an example of being in a vehicle, but the present invention is not limited to this. For example, one or both of the user X and the user Y who is the speaking subject may exist (position) outside the vehicles 2A to C (that is, a place away from the vehicles 2A to C). In this case, the user terminal of user X or the server to which the user terminal of user X can be connected has a configuration of a speech data acquisition unit, an object extraction unit, an object determination unit, and a display image generation unit. You need to have at least. The field of view image acquisition unit is included in, for example, the field of view image acquisition device of the user terminal. Then, the peripheral image obtained by the peripheral imaging device may be used as a visual field image corresponding to the visual field Ex of the user X, or the user X may have the peripheral imaging device and transmit it to the user terminal. Further, when the user X is outside the vehicle, the posture acquisition device 23 is installed near the user terminal 3C or the user X, and acquires the face orientation information of the user X by the face image or the sensor of the user X. Then, the line-of-sight recognition unit 20 recognizes the line-of-sight direction of the user X from the face image or face orientation information of the user X acquired by the posture acquisition device 23. The field-of-view image acquisition unit generates a field-of-view image of the user X based on the peripheral image captured by the peripheral image pickup device 22 and the line-of-sight direction of the user X recognized by the line-of-sight recognition unit 20. When the user X is outside the vehicle, the line-of-sight recognition unit 20 is assumed to be owned by the user terminal of the user X or the server to which the user terminal of the user X can be connected. Then, even when the user X is outside the vehicle, the user terminal generates a display image P relating to the extraction target Te included in the speech made by the speaking subject. Then, the display image P is displayed on the display image display device.

各実施形態において、対象物判定部は、抽出対象物TeがユーザXの視野画像に含まれるか否かの判定結果の情報を発言主体であるユーザYの発言主体用端末4へ出力する例を示したが、これに限られない。例えば、ユーザYへ出力する情報としては、ユーザXの視野画像や表示画像Pや周辺画像などを出力しても良い。また、ユーザYが特に車外に存在する場合には、ユーザYの発言主体用端末4やVR(Virtual Reality、画像表示装置)などに画像を表示する。このように、発言主体であるユーザYに画像を表示することにより、ユーザYはユーザXの視認可能領域や視線方向の情報をえることができるので、ユーザXとユーザYとの話題の進み方をより決めやすくなる。 In each embodiment, the object determination unit outputs information on the determination result of whether or not the extraction target Te is included in the visual field image of the user X to the speaker terminal 4 of the user Y who is the speaker. Although shown, it is not limited to this. For example, as the information to be output to the user Y, the field image, the display image P, the peripheral image, and the like of the user X may be output. Further, when the user Y is particularly present outside the vehicle, the image is displayed on the user Y's speaking subject terminal 4 or VR (Virtual Reality, image display device). By displaying the image to the user Y who is the main speaker in this way, the user Y can obtain information on the visible area and the line-of-sight direction of the user X, so that the topic of the user X and the user Y progresses. It becomes easier to decide.

また、周辺撮像装置22により撮像された周辺画像は上記の各実施形態において説明したものに限定されず、例えばユーザXの視野Exに対応する視野画像としてもよい。ここで、例えば、発言主体であるユーザYが車両2Aの車外に存在する場合には、発言主体用端末4には、周辺撮像装置22により撮像された周辺画像の一部またはすべての画像が表示されてもよい。これにより、ユーザXとユーザYとの話題の進み方を決めることができる。 Further, the peripheral image captured by the peripheral imaging device 22 is not limited to the one described in each of the above embodiments, and may be, for example, a visual field image corresponding to the visual field Ex of the user X. Here, for example, when the user Y who is the speaking subject exists outside the vehicle of the vehicle 2A, the speaking subject terminal 4 displays a part or all of the peripheral images captured by the peripheral imaging device 22. May be done. As a result, it is possible to determine how to proceed with the topic between the user X and the user Y.

また、ユーザ用端末3A〜3Cの表示画像表示装置31A〜31Cは、透過型ディスプレイとする例を示したが、車両2A〜2Cに設置されたヘッドアップディスプレイでもよい。例えば、ヘッドアップディスプレイは、車両2A〜2Cのフロントウィンドウの下部位置に設定され、灯光器でウィンドシールドに画像を表示する。この場合、画像は、表示画像生成部18A〜18Cが生成したユーザXのExの視野に対応する表示画像Pを表示する。 Further, although the display image display devices 31A to 31C of the user terminals 3A to 3C have shown an example of using a transmissive display, a head-up display installed in the vehicles 2A to 2C may be used. For example, the head-up display is set at the lower position of the front window of the vehicles 2A to 2C, and displays an image on the windshield with a light device. In this case, the image displays the display image P corresponding to the field of view of Ex of the user X generated by the display image generation units 18A to 18C.

また、発言主体は、人ではなく、ユーザXに対して発言を発する発言装置でもよい。発言装置の場合、発言データは出力文データである。出力文データは、発言装置が出力文(文字列)を音声として出力する音声データであってもよいし、出力文(文字列)であってもよい。このため、表示画像生成装置1A〜1Cは、発言データ取得装置によりユーザXに対して発言を発する発言装置から出力文データを取得することができる。また、この場合、「発言主体により発せられた発言」は、「発言装置により発せられた(出力された)音声」である。また、表示画像生成部18A〜18CがユーザXに対する音声を発する発言装置を特定する情報を取得し、例えば「Mentioned by Speech output device.」という表示画像Pを生成してもよい。この結果、発言装置の発言に含まれる抽出対象物TeをユーザXに対する適切な表示態様で抽出対象物情報を表示させることができる。具体的には、発言装置は、ユーザXと音声対話可能な、いわゆる対話型エージェント装置であってもよい。 Further, the speaking subject may be a speaking device that speaks to the user X instead of a person. In the case of a speaking device, the speaking data is output sentence data. The output sentence data may be voice data in which the speaking device outputs the output sentence (character string) as voice, or may be an output sentence (character string). Therefore, the display image generation devices 1A to 1C can acquire the output sentence data from the speech device that makes a speech to the user X by the speech data acquisition device. Further, in this case, the "speech uttered by the speaking subject" is the "speech uttered (output) by the speaking device". Further, the display image generation units 18A to 18C may acquire information for specifying a speaking device that emits a voice to the user X, and may generate a display image P such as "Mentioned by Speech output device." As a result, the extraction target information included in the speech of the speaking device can be displayed in an appropriate display mode for the user X. Specifically, the speaking device may be a so-called interactive agent device capable of voice dialogue with the user X.

また、上記では、発言主体は、1人のユーザYのみ又は1つの発言装置のみであったが、発言主体の対象としては複数であってもよい。例えば、発言主体の対象として、2人以上の同乗者(ユーザ)であってもよいし、1人の同乗者(ユーザ)と1つの発言装置であってもよい。この場合、発言データ取得部12は、ユーザXに対して発言を発した発言主体を特定する情報を取得する。次に、表示画像生成部18A〜18Cは、発言データ取得部12により取得された発言主体を特定する情報を含む表示画像Pを生成する。この結果、表示画像生成装置1A〜1Cは、発言データ取得部12により発言主体を特定する情報を取得し、表示画像生成部18A〜18Cにより発言主体を特定する情報を含む表示画像Pを生成することができる。これにより、発言主体の対象が複数であるとき、ユーザXが発言主体を明確に把握することができる。 Further, in the above, the speaking subject is only one user Y or only one speaking device, but the target of the speaking subject may be a plurality. For example, the target of the speaking subject may be two or more passengers (users), or one passenger (user) and one speaking device. In this case, the remark data acquisition unit 12 acquires information that identifies the remark subject who made a remark to the user X. Next, the display image generation units 18A to 18C generate the display image P including the information for identifying the speaking subject acquired by the speaking data acquisition unit 12. As a result, the display image generation devices 1A to 1C acquire the information for identifying the speaking subject by the speech data acquisition unit 12, and generate the display image P including the information for identifying the speaking subject by the display image generation units 18A to 18C. be able to. As a result, when there are a plurality of subjects of the speaking subject, the user X can clearly grasp the speaking subject.

上記では、発言データ取得部12と発言データ取得装置41を有する例を示したが、発言データ取得部12が発言データ取得装置41の機能を備えていれば、発言データ取得装置41を備えていなくてもよい。また、視野画像取得部14A,14Bと視野画像取得装置32を有する例を示したが、視野画像取得部14A,14Bが視野画像取得装置32の機能を備えていれば、視野画像取得装置32を備えなくても良い。更に、視線認識部20と姿勢取得装置23を有する例を示したが、視線認識部20が姿勢取得装置23の機能を備えていれば、姿勢取得装置23を備えなくても良い。更にまた、周辺画像取得部11と周辺撮像装置22を有する例を示したが、周辺画像取得部11が周辺撮像装置22の機能を備えていれば、周辺撮像装置22を備えていなくても良い。 In the above, an example of having the speech data acquisition unit 12 and the speech data acquisition device 41 is shown, but if the speech data acquisition unit 12 has the function of the speech data acquisition device 41, the speech data acquisition device 41 is not provided. You may. Further, although an example having the visual field image acquisition units 14A and 14B and the visual field image acquisition device 32 is shown, if the visual field image acquisition units 14A and 14B have the functions of the visual field image acquisition device 32, the visual field image acquisition device 32 can be used. You don't have to prepare. Further, although an example having the line-of-sight recognition unit 20 and the posture acquisition device 23 is shown, if the line-of-sight recognition unit 20 has the function of the posture acquisition device 23, the posture acquisition device 23 may not be provided. Furthermore, although an example having the peripheral image acquisition unit 11 and the peripheral image pickup device 22 is shown, if the peripheral image acquisition unit 11 has the function of the peripheral image pickup device 22, the peripheral image pickup device 22 may not be provided. ..

第2実施形態では、対象物判定部15Bは、抽出対象物TeがPOIである否かを判定すると共に、抽出対象物Teの画像が視野画像取得部14Bにより取得された視野画像に含まれるか否かを判定する例を示したが、これに限定されない。例えば、対象物判定部は、抽出対象物がPOIである否かを判定せず、抽出対象物の画像が視野画像取得部により取得された視野画像に含まれるか否かのみを判定しても良い。このように判定する場合、抽出対象物がPOIでなくても、視野画像に含まれていると判定されれば、第1表示画像が生成される。 In the second embodiment, the object determination unit 15B determines whether or not the extraction target Te is POI, and whether the image of the extraction target Te is included in the visual field image acquired by the visual field image acquisition unit 14B. An example of determining whether or not to use is shown, but the present invention is not limited to this. For example, the object determination unit does not determine whether the extraction target is POI, but only determines whether the image of the extraction target is included in the field image acquired by the field image acquisition unit. good. In this determination, even if the extraction target is not POI, if it is determined that the extraction target is included in the visual field image, the first display image is generated.

1A,1B,1C 表示画像生成装置
11 周辺画像取得部
12 発言データ取得部
13 対象物抽出部
14A,14B,14C 視野画像取得部
15A,15B,15C 対象物判定部
16A,16B,16C 存否判定部
17A,17B,17C 位置関係取得部
18A,18B,18C 表示画像生成部
19 POI情報記憶部
20 視線認識部
2A,2B,2C 車両
21 ナビゲーション装置
22 周辺撮像装置
23 姿勢取得装置
3A,3B,3C ユーザ用端末
31A,31B,31C 表示画像表示装置
32 視野画像取得装置
4 発言主体用端末
41 発言データ取得装置
1A, 1B, 1C Display image generator 11 Peripheral image acquisition unit 12 Speech data acquisition unit 13 Object extraction unit 14A, 14B, 14C Field image acquisition unit 15A, 15B, 15C Object determination unit 16A, 16B, 16C Presence / absence determination unit 17A, 17B, 17C Positional relationship acquisition unit 18A, 18B, 18C Display image generation unit 19 POI information storage unit 20 Line-of-sight recognition unit 2A, 2B, 2C Vehicle 21 Navigation device 22 Peripheral image pickup device 23 Posture acquisition device 3A, 3B, 3C User Terminals 31A, 31B, 31C Display image display device 32 Field image acquisition device 4 Speech-based terminal 41 Speech data acquisition device

Claims (14)

発言主体により発せられた発言に含まれる対象物を抽出対象物として特定し、当該抽出対象物に関する表示画像を生成する表示画像生成装置であって、
前記発言主体によりユーザに対して発せられた前記発言の発言データを取得する発言データ取得部と、
予め複数の対象物データを記憶し、複数の前記対象物データと前記発言データ取得部により取得された前記発言データとを対比して、前記発言データのうち前記対象物データと一致するデータを前記抽出対象物として抽出する対象物抽出部と、
前記ユーザの視野に対応する視野画像を少なくとも含む画像を取得する視野画像取得部と、
前記対象物抽出部により抽出された前記抽出対象物が前記視野画像に含まれるか否かを判定する対象物判定部と、
前記抽出対象物の位置に関する情報である抽出対象物情報を取得し、前記視野画像とは異なる当該抽出対象物情報を含む前記表示画像を生成する表示画像生成部と、を備え、
前記表示画像生成部は、前記対象物判定部による前記抽出対象物が前記視野画像に含まれるか否かの判定結果に基づいて、前記抽出対象物に関する前記表示画像の表示態様を決定する
ことを特徴とする表示画像生成装置。
A display image generator that identifies an object included in a statement made by a speaker as an extraction object and generates a display image related to the extraction object.
A speech data acquisition unit that acquires speech data of the speech issued to the user by the speech subject, and a speech data acquisition unit.
A plurality of object data are stored in advance, the plurality of object data are compared with the speech data acquired by the speech data acquisition unit, and the data that matches the object data among the speech data is selected as described above. An object extraction unit to be extracted as an extraction object,
A field image acquisition unit that acquires an image including at least a field image corresponding to the user's field of view, and a field image acquisition unit.
An object determination unit that determines whether or not the extraction object extracted by the object extraction unit is included in the visual field image, and an object determination unit.
A display image generation unit that acquires extraction target information that is information on the position of the extraction target and generates the display image that includes the extraction target information that is different from the field image is provided.
The display image generation unit determines the display mode of the display image regarding the extraction target based on the determination result of whether or not the extraction target is included in the visual field image by the object determination unit. A featured display image generator.
前記表示画像生成部は、前記抽出対象物が前記視野画像に含まれると前記対象物判定部により判定された場合に、前記抽出対象物そのものを強調する前記表示態様で前記抽出対象物情報を示した前記表示画像を生成する
ことを特徴とする請求項1に記載の表示画像生成装置。
When the object determination unit determines that the extraction object is included in the field image, the display image generation unit displays the extraction object information in the display mode that emphasizes the extraction object itself. The display image generation device according to claim 1, wherein the display image is generated.
前記抽出対象物と前記ユーザとの相対的な位置関係を取得する位置関係取得部を備え、
前記表示画像生成部は、前記抽出対象物が前記視野画像に含まれないと前記対象物判定部により判定された場合に、前記位置関係を表示する前記表示態様で前記抽出対象物情報を示した前記表示画像を生成する
ことを特徴とする請求項1又は2に記載の表示画像生成装置。
A positional relationship acquisition unit for acquiring the relative positional relationship between the extraction target and the user is provided.
When the object determination unit determines that the extraction object is not included in the field image, the display image generation unit shows the extraction object information in the display mode for displaying the positional relationship. The display image generation device according to claim 1 or 2, wherein the display image is generated.
前記表示画像生成部は、前記対象物判定部による前記抽出対象物が前記視野画像に含まれるか否かの判定結果に基づいて、前記視野画像から前記抽出対象物が前記ユーザにより視認可能であるか否かを示す情報を含む前記表示画像を生成する
ことを特徴とする請求項1から3までのいずれか一項に記載の表示画像生成装置。
The display image generation unit makes the extraction target visible to the user from the field image based on the determination result of whether or not the extraction target is included in the field image by the object determination unit. The display image generation device according to any one of claims 1 to 3, wherein the display image including information indicating whether or not the image is generated is generated.
前記抽出対象物が前記視野画像に含まれないと前記対象物判定部により判定された場合に、前記抽出対象物が予め設定された対象範囲内に存在するか否かを判定する存否判定部を備え、
前記表示画像生成部は、前記存否判定部による前記抽出対象物が前記対象範囲内に存在するか否かの判定結果に基づいて、前記抽出対象物情報の前記表示態様を決定する
ことを特徴とする請求項1から4までのいずれか一項に記載の表示画像生成装置。
When the object determination unit determines that the extraction target is not included in the visual field image, the presence / absence determination unit that determines whether or not the extraction target exists within the preset target range is provided. Prepare,
The display image generation unit is characterized in that the display mode of the extraction target information is determined based on the determination result of whether or not the extraction target is within the target range by the presence / absence determination unit. The display image generator according to any one of claims 1 to 4.
前記視野画像を含む前記ユーザの周辺の領域である周辺画像を取得して、取得した前記周辺画像を記憶する周辺画像取得部を備え、
前記存否判定部は、前記周辺画像取得部により取得された現在又は過去の前記周辺画像に基づいて、前記抽出対象物が前記対象範囲内に存在するか否かを判定する
ことを特徴とする請求項5に記載の表示画像生成装置。
A peripheral image acquisition unit that acquires a peripheral image that is a peripheral area of the user including the visual field image and stores the acquired peripheral image is provided.
The presence / absence determination unit determines whether or not the extraction target is within the target range based on the current or past peripheral image acquired by the peripheral image acquisition unit. Item 5. The display image generator according to item 5.
前記抽出対象物と前記ユーザとの相対的な位置関係を取得する位置関係取得部を備え、
前記表示画像生成部は、前記抽出対象物が前記対象範囲内に存在すると前記存否判定部により判定された場合に、前記ユーザの位置又は前記ユーザの近傍の位置に設定される基準位置を基準として前記抽出対象物の位置の方向及び距離を含む前記位置関係を表示する前記表示態様で前記抽出対象物情報を示した前記表示画像を生成する
ことを特徴とする請求項5又は6に記載の表示画像生成装置。
A positional relationship acquisition unit for acquiring the relative positional relationship between the extraction target and the user is provided.
When the presence / absence determination unit determines that the extraction target is within the target range, the display image generation unit uses a reference position set at the user's position or a position in the vicinity of the user as a reference. The display according to claim 5 or 6, wherein the display image showing the extraction target information is generated in the display mode for displaying the positional relationship including the direction and distance of the position of the extraction target. Image generator.
前記抽出対象物は地図上の位置に関連づけられたランドマークであるPOI(Points of Interest)であり、
前記抽出対象物の位置に関する情報を少なくとも含む前記POIのPOI情報を記憶するPOI情報記憶部を備え、
前記存否判定部は、前記POI情報記憶部により記憶された前記POI情報に基づいて、前記抽出対象物が前記対象範囲内に存在するか否かを判定する
ことを特徴とする請求項5から7までのいずれか一項に記載の表示画像生成装置。
The extraction target is a POI (Points of Interest), which is a landmark associated with a position on a map.
A POI information storage unit for storing POI information of the POI including at least information on the position of the extraction target is provided.
Claims 5 to 7 are characterized in that the presence / absence determination unit determines whether or not the extraction target is within the target range based on the POI information stored by the POI information storage unit. The display image generator according to any one of the items up to.
前記発言主体は人であり、
前記発言データは、人により前記ユーザに発せられた前記発言の発言信号データである
ことを特徴とする請求項1から8までのいずれか一項に記載の表示画像生成装置。
The subject of the statement is a person
The display image generation device according to any one of claims 1 to 8, wherein the speech data is speech signal data of the speech issued to the user by a person.
前記発言主体は、前記ユーザに対して前記発言を発する発言装置であり、
前記発言データは、前記発言として出力される出力文の内容を示す出力文データである
ことを特徴とする請求項1から8までのいずれか一項に記載の画像生成装置。
The speaking subject is a speaking device that makes the speaking to the user.
The image generation device according to any one of claims 1 to 8, wherein the remark data is output sentence data indicating the content of the output sentence output as the remark.
前記対象物判定部は、前記抽出対象物が前記視野画像に含まれるか否かの判定結果の情報を前記発言主体に出力する
ことを特徴とする請求項1から10までのいずれか一項に記載の画像生成装置。
The object determination unit according to any one of claims 1 to 10, wherein the object determination unit outputs information on the determination result of whether or not the extraction object is included in the visual field image to the speaking subject. The image generator described.
前記発言データ取得部は、前記ユーザに対して前記発言を発した前記発言主体を特定する情報を取得し、
前記表示画像生成部は、前記発言データ取得部により取得された前記発言主体を特定する前記情報を含む前記表示画像を生成する
ことを特徴とする請求項1から11までのいずれか一項に記載の表示画像生成装置。
The remark data acquisition unit acquires information that identifies the remark subject who made the remark to the user, and obtains information.
The display image generation unit is described in any one of claims 1 to 11, wherein the display image generation unit generates the display image including the information that identifies the speech subject acquired by the speech data acquisition unit. Display image generator.
前記視野画像を含む前記ユーザの周辺の領域である周辺画像を取得して、取得した前記周辺画像を記憶する周辺画像取得部と、
前記ユーザの視線を認識する視線認識部と、を備え、
前記視野画像取得部は、前記周辺画像取得部により取得された現在の前記周辺画像と前記視線認識部により認識された前記ユーザの現在の前記視線とに基づいて前記視野画像を取得する
ことを特徴とする請求項1から12までのいずれか一項に記載の表示画像生成装置。
A peripheral image acquisition unit that acquires a peripheral image that is a peripheral area of the user including the visual field image and stores the acquired peripheral image.
A line-of-sight recognition unit that recognizes the user's line of sight is provided.
The visual field image acquisition unit acquires the visual field image based on the current peripheral image acquired by the peripheral image acquisition unit and the current line of sight of the user recognized by the line-of-sight recognition unit. The display image generation device according to any one of claims 1 to 12.
発言主体により発せられた発言に含まれる対象物を抽出対象物として特定し、当該抽出対象物に関する表示画像を生成する表示画像生成装置による表示画像生成方法であって、
前記発言主体によりユーザに対して発せられた発言の発言データを取得する発言データ取得ステップと、
予め記憶された複数の対象物データと取得された前記発言データとを対比して、前記発言データのうち前記対象物データと一致するデータを前記抽出対象物として抽出する対象物抽出ステップと、
前記ユーザの視野に対応する視野画像を取得する視野画像取得ステップと、
抽出された前記抽出対象物が前記視野画像に含まれるか否かを判定する対象物判定ステップと、
前記抽出対象物の位置に関する情報である抽出対象物情報を取得し、前記視野画像とは異なる当該抽出対象物情報を含む前記表示画像を生成する表示画像生成ステップと、を含み、
前記表示画像生成ステップにおいては、前記対象物判定ステップにおける前記抽出対象物が前記視野画像に含まれるか否かの判定結果に基づいて、前記抽出対象物に関する前記表示画像の表示態様を決定する
ことを特徴とする表示画像生成方法。
It is a display image generation method by a display image generation device that specifies an object included in a statement made by a speaker as an extraction object and generates a display image related to the extraction object.
The remark data acquisition step of acquiring the remark data of the remark made to the user by the remark subject, and
An object extraction step of comparing a plurality of object data stored in advance with the acquired remark data and extracting data that matches the object data among the remark data as the extraction target.
A field image acquisition step of acquiring a field image corresponding to the user's field of view, and
An object determination step for determining whether or not the extracted object to be extracted is included in the visual field image, and an object determination step.
The display image generation step of acquiring the extraction target information which is the information about the position of the extraction target and generating the display image including the extraction target information different from the field image is included.
In the display image generation step, the display mode of the display image relating to the extraction target is determined based on the determination result of whether or not the extraction target is included in the visual field image in the object determination step. A display image generation method characterized by.
JP2019210845A 2019-11-21 2019-11-21 Display image generation device and display image generation method Active JP7418189B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019210845A JP7418189B2 (en) 2019-11-21 2019-11-21 Display image generation device and display image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019210845A JP7418189B2 (en) 2019-11-21 2019-11-21 Display image generation device and display image generation method

Publications (2)

Publication Number Publication Date
JP2021081372A true JP2021081372A (en) 2021-05-27
JP7418189B2 JP7418189B2 (en) 2024-01-19

Family

ID=75964915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019210845A Active JP7418189B2 (en) 2019-11-21 2019-11-21 Display image generation device and display image generation method

Country Status (1)

Country Link
JP (1) JP7418189B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113989103A (en) * 2021-10-25 2022-01-28 北京字节跳动网络技术有限公司 Model training method, image processing method, device, electronic device and medium
CN113989103B (en) * 2021-10-25 2024-04-26 北京字节跳动网络技术有限公司 Model training method, image processing device, electronic equipment and medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041197A (en) * 2013-08-21 2015-03-02 三菱電機株式会社 Display control device
WO2018235409A1 (en) * 2017-06-22 2018-12-27 三菱電機株式会社 Risk information collection device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041197A (en) * 2013-08-21 2015-03-02 三菱電機株式会社 Display control device
WO2018235409A1 (en) * 2017-06-22 2018-12-27 三菱電機株式会社 Risk information collection device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113989103A (en) * 2021-10-25 2022-01-28 北京字节跳动网络技术有限公司 Model training method, image processing method, device, electronic device and medium
CN113989103B (en) * 2021-10-25 2024-04-26 北京字节跳动网络技术有限公司 Model training method, image processing device, electronic equipment and medium

Also Published As

Publication number Publication date
JP7418189B2 (en) 2024-01-19

Similar Documents

Publication Publication Date Title
JP6763448B2 (en) Visually enhanced navigation
US20240127496A1 (en) Ar display apparatus and ar display method
CN111598974B (en) Method and system for presenting digital information related to a real object
US20160054795A1 (en) Information display device
US7751970B2 (en) Information providing apparatus, information providing method, and computer product
JP7345683B2 (en) A system for performing scene recognition dialogue
JP6016732B2 (en) Display control device
US11734898B2 (en) Program, information processing method, and information processing terminal
CN111681455B (en) Control method of electronic device, and recording medium
JP2007263835A (en) Car navigation apparatus
WO2016199248A1 (en) Information presentation system and information presentation method
JP2010061265A (en) Person retrieval and registration system
JP2005037181A (en) Navigation device, server, navigation system, and navigation method
JP2014181927A (en) Information provision device, and information provision program
CN109730910A (en) Vision-aided system and its ancillary equipment, method, the readable storage medium storing program for executing of trip
KR20180017775A (en) Multi function Smart Helmet
US20230314156A1 (en) Information presentation method, information presentation system, and computer-readable medium
US20130135348A1 (en) Communication device, communication system, communication method, and communication program
JP6500139B1 (en) Visual support device
US20230298340A1 (en) Information processing apparatus, mobile object, control method thereof, and storage medium
JP7418189B2 (en) Display image generation device and display image generation method
WO2019054086A1 (en) Information processing device, information processing method, and program
JP6623657B2 (en) Information providing apparatus, information providing system, and information providing method
JP2015161632A (en) Image display system, head-up display device, image display method, and program
JP6449504B1 (en) Information processing apparatus, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240109

R150 Certificate of patent or registration of utility model

Ref document number: 7418189

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150