JP7418189B2 - Display image generation device and display image generation method - Google Patents

Display image generation device and display image generation method Download PDF

Info

Publication number
JP7418189B2
JP7418189B2 JP2019210845A JP2019210845A JP7418189B2 JP 7418189 B2 JP7418189 B2 JP 7418189B2 JP 2019210845 A JP2019210845 A JP 2019210845A JP 2019210845 A JP2019210845 A JP 2019210845A JP 7418189 B2 JP7418189 B2 JP 7418189B2
Authority
JP
Japan
Prior art keywords
display image
user
visual field
extraction target
image generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019210845A
Other languages
Japanese (ja)
Other versions
JP2021081372A (en
Inventor
裕史 井上
乘 西山
雄宇 志小田
剛仁 寺口
翔太 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2019210845A priority Critical patent/JP7418189B2/en
Publication of JP2021081372A publication Critical patent/JP2021081372A/en
Application granted granted Critical
Publication of JP7418189B2 publication Critical patent/JP7418189B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、表示画像生成装置及び表示画像生成方法に関する。 The present disclosure relates to a display image generation device and a display image generation method.

認識されている車外対象物の位置に関する情報を生成する技術が知られている。例えば特許文献1には、車両乗員が注目している車外対象物を視線検出及び音声認識により特定し、特定された対象物の車両に対する相対位置を示す表示画像を生成する技術が開示されている。 2. Description of the Related Art Techniques for generating information regarding the position of a recognized object outside the vehicle are known. For example, Patent Document 1 discloses a technology that identifies an object outside the vehicle that a vehicle occupant is paying attention to using line of sight detection and voice recognition, and generates a display image that shows the relative position of the identified object with respect to the vehicle. .

特開2006-90790号公報Japanese Patent Application Publication No. 2006-90790

しかし、上述した従来の技術は、対象物が存在する方向をユーザが見ていることを前提としており、当該対象物がユーザの視野内に含まれているか否かにかかわらず当該対象物の位置に関する情報を生成し得るものではない。また、上述した従来の技術は、ユーザ自身により認識されている対象物の位置に関する情報を生成しようとするものであって、そのユーザ以外の主体により認識されている対象物の位置に関する情報をユーザのために生成することについては考慮されていない。 However, the above-mentioned conventional technology assumes that the user is looking in the direction in which the object exists, and the position of the object is determined regardless of whether the object is within the user's field of vision. It is not possible to generate information about Furthermore, the above-mentioned conventional technology attempts to generate information regarding the position of an object recognized by the user himself/herself, and the user generates information regarding the position of the object recognized by an entity other than the user. There is no consideration given to generation for this purpose.

本開示は、このような事情に鑑みてなされてものであって、ユーザ以外の主体により認識されている抽出対象物がユーザの視野内に含まれているか否かにかかわらず、当該抽出対象物の位置に関する情報を適切に生成する表示画像生成装置及び表示画像生成方法を提供することを目的とする。 The present disclosure has been made in view of such circumstances, and regardless of whether or not the extraction target recognized by an entity other than the user is included in the user's visual field, the extraction target An object of the present invention is to provide a display image generation device and a display image generation method that appropriately generate information regarding the position of a person.

本開示に係る表示画像生成装置は、発言主体により発せられた発言に含まれる対象物を抽出対象物として特定し、当該抽出対象物に関する表示画像を生成する表示画像生成装置である。本開示に係る表示画像生成装置は、発言データ取得部と、対象物抽出部と、視野画像取得部と、対象物判定部と、表示画像生成部と、を備える。発言データ取得部は、発言主体によりユーザに対して発せられた発言の発言データを取得する。対象物抽出部は、予め複数の対象物データを記憶し、複数の対象物データと発言データ取得部により取得された発言データとを対比して、発言データのうち対象物データと一致するデータを抽出対象物として抽出する。視野画像取得部は、ユーザの視野に対応する視野画像を少なくとも含む画像を取得する。対象物判定部は、対象物抽出部により抽出された抽出対象物が視野画像に含まれるか否かを判定する。表示画像生成部は、抽出対象物の位置に関する情報である対象物情報を取得し、視野画像とは異なる出対象物情報を含む表示画像を生成する。表示画像生成部は、対象物判定部による抽出対象物が視野画像に含まれるか否かの判定結果に基づいて、抽出対象物に関する表示画像の表示態様を決定し、抽出対象物が視野画像に含まれる場合と含まれない場合とで異なる表示態様を決定する。 A display image generation device according to the present disclosure is a display image generation device that identifies a target object included in a statement uttered by a speaker as an extraction target object, and generates a display image related to the extraction target object. A display image generation device according to the present disclosure includes a statement data acquisition section, a target object extraction section, a visual field image acquisition section, a target object determination section, and a display image generation section. The utterance data acquisition unit acquires utterance data of a utterance uttered to a user by a utterer. The target object extraction unit stores a plurality of target object data in advance, compares the plurality of target object data with the statement data acquired by the statement data acquisition unit, and extracts data that matches the target object data from among the statement data. Extract as an extraction target. The visual field image acquisition unit acquires an image including at least a visual field image corresponding to the user's visual field. The target object determining unit determines whether the extraction target extracted by the target object extracting unit is included in the visual field image. The display image generation unit acquires object information that is information regarding the position of the extraction object, and generates a display image that includes extracted object information different from the visual field image. The display image generation unit determines the display mode of the display image regarding the extraction target based on the determination result of the target object determination unit as to whether or not the extraction target is included in the visual field image , and determines whether the extraction target is included in the visual field image. Decide on different display modes depending on whether it is included or not.

本開示によれば、ユーザ以外の主体により認識されている対象物がユーザの視野内に含まれているか否かにかかわらず、当該対象物の位置に関する情報を適切に生成することが可能となる。 According to the present disclosure, it is possible to appropriately generate information regarding the position of an object recognized by a subject other than the user, regardless of whether the object is included in the user's visual field. .

第1実施形態に係る表示画像生成装置を示すブロック図である。FIG. 1 is a block diagram showing a display image generation device according to a first embodiment. 端末を装着して車両に同乗しているユーザ及び同乗者を示す図である。FIG. 2 is a diagram showing a user and a fellow passenger wearing a terminal and riding together in a vehicle. 車両の上方から見たときのユーザの視野を説明するための平面図である。FIG. 2 is a plan view for explaining a user's visual field when viewed from above the vehicle. 表示画像が第1表示態様で重畳して表示されたユーザXの視野に対応する周辺状況を示す図である。FIG. 3 is a diagram illustrating a surrounding situation corresponding to the visual field of user X in which display images are displayed in a superimposed manner in a first display mode. 第1表示画像が表示された表示画像表示装置を示す図である。FIG. 3 is a diagram showing a display image display device on which a first display image is displayed. 表示画像が第2表示態様で重畳して表示されたユーザXの視野に対応する周辺状況を示す図である。FIG. 6 is a diagram illustrating a surrounding situation corresponding to the visual field of user X in which display images are displayed in a superimposed manner in a second display mode. 第2表示画像が表示された表示画像表示装置を示す図である。It is a figure which shows the display image display apparatus on which the 2nd display image was displayed. 表示画像が第3表示態様で重畳して表示されたユーザXの視野に対応する周辺状況を示す図である。FIG. 6 is a diagram showing a surrounding situation corresponding to the visual field of user X in which display images are displayed in a superimposed manner in a third display mode. 第3表示画像が表示された表示画像表示装置を示す図である。FIG. 6 is a diagram showing a display image display device on which a third display image is displayed. 第1実施形態に係る表示画像生成処理を示すフローチャートである。7 is a flowchart showing display image generation processing according to the first embodiment. 第2実施形態に係る表示画像生成装置を示すブロック図である。FIG. 2 is a block diagram showing a display image generation device according to a second embodiment. 第2実施形態に係る表示画像生成処理を示すフローチャートである。7 is a flowchart showing display image generation processing according to the second embodiment. 第3実施形態に係る表示画像生成装置を示すブロック図である。FIG. 3 is a block diagram showing a display image generation device according to a third embodiment. 第3実施形態に係る表示画像生成処理を示すフローチャートである。It is a flowchart which shows display image generation processing concerning a 3rd embodiment.

以下、図面を参照して、本開示の例示的な実施形態について説明する。なお、以下の説明において、同一又は相当部分には同一符号を付し、重複する説明は省略する。
[第1実施形態]
Hereinafter, exemplary embodiments of the present disclosure will be described with reference to the drawings. In the following description, the same or equivalent parts are given the same reference numerals, and redundant description will be omitted.
[First embodiment]

図1は、第1実施形態に係る表示画像生成装置1Aを示すブロック図である。図2は、端末を装着して車両2Aに同乗しているユーザX及びユーザYを示す図である。図3は、車両2Aの上方から見たときのユーザXの視野Exを説明するための平面図である。図4Aと図5Aと図6Aは、表示画像が各表示態様で重畳して表示されたユーザXの視野Exに対応する周辺状況を示す図である。図4Bと図5Bと図6Bは、各表示画像が表示された表示画像表示装置を示す図である。図1~図6に示されるように、表示画像生成装置1Aは、発言主体により発せられた発言に含まれる(すなわち、発言主体により発せられた発言において言及されている)対象物Tを抽出対象物Teとして特定し、当該抽出対象物Teに関する表示画像Pを生成する装置である。 FIG. 1 is a block diagram showing a display image generation device 1A according to the first embodiment. FIG. 2 is a diagram showing a user X and a user Y who are wearing terminals and riding together in a vehicle 2A. FIG. 3 is a plan view for explaining the visual field Ex of the user X when viewed from above the vehicle 2A. FIG. 4A, FIG. 5A, and FIG. 6A are diagrams showing the surrounding situation corresponding to the visual field Ex of the user X in which display images are displayed in a superimposed manner in each display mode. FIG. 4B, FIG. 5B, and FIG. 6B are diagrams showing a display image display device on which each display image is displayed. As shown in FIGS. 1 to 6, the display image generation device 1A extracts an object T included in the utterance uttered by the utterer (that is, mentioned in the utterance uttered by the utterer). This is a device that identifies an object Te and generates a display image P regarding the extraction target object Te.

より詳細には、表示画像生成装置1Aは、ユーザXの視野Exに対応する周辺状況に重畳して表示される表示画像Pを生成する装置である。ユーザXは、人であるユーザ(発言主体)Yと車両2Aに乗車しており、例えば車外の景色を視認している。ユーザXは、ユーザ用端末3Aを装着している。ユーザYは、発言主体用端末4を装着している(図2参照)。本実施形態では、ユーザYがユーザXに対して話しかける状況を例示して、表示画像生成装置1Aについて説明する。 More specifically, the display image generation device 1A is a device that generates a display image P that is displayed superimposed on the surrounding situation corresponding to the user's X visual field Ex. User X is riding in a vehicle 2A with user Y (the speaker), who is a person, and is visually observing, for example, the scenery outside the vehicle. User X is wearing the user terminal 3A. User Y is wearing the speaker terminal 4 (see FIG. 2). In this embodiment, the display image generation device 1A will be described by exemplifying a situation in which user Y talks to user X.

ここで、「ユーザXの視野Ex」とは、ユーザXにより視認可能な視認可能領域を意味する。「視認可能領域」は、ヒトが眼を使い、生理的視野中心付近に固視点(注視点)を設けている際に外界から有効に情報を得られる範囲という有効視野である。例えば、ユーザXの視野Exは、ユーザXの視野Exの中心軸を中心として視認可能な上下左右の全ての領域に設定されてもよい。図3は、車両2Aの上方から見たとき、ユーザXの水平方向の視認可能領域を示している。ユーザXの視野Exは車両2Aの移動により変化する。例えば、図3では、現在のユーザXの位置を現在位置X1により示し、現在地から移動した後のユーザXの位置を移動位置X2により示す。以下の説明では、ユーザXの視野Exは、後述するユーザ用端末3Aを装着したユーザXが所定の方向を向いている状態で、ユーザ用端末3Aの透過型ディスプレイを介してユーザXが視認可能な上下左右の全ての領域に設定されているものとする。なお、ユーザYの視野Eyは、ユーザXの視野Exと同様に、ユーザYにより視認可能な視認可能領域を意味する(図2参照)。 Here, "user X's visual field Ex" means a visible area that is visible to user X. The "visible area" is an effective field of view that is a range in which information can be effectively obtained from the outside world when a human uses the eyes to set a fixation point (fixation point) near the center of the physiological visual field. For example, the visual field Ex of the user X may be set to all visible areas above, below, left and right about the central axis of the visual field Ex of the user X. FIG. 3 shows the visible area of the user X in the horizontal direction when viewed from above the vehicle 2A. The field of view Ex of the user X changes as the vehicle 2A moves. For example, in FIG. 3, the current location of the user X is indicated by the current location X1, and the location of the user X after moving from the current location is indicated by the moved location X2. In the following explanation, the field of view Ex of the user X is that the user X can see through the transparent display of the user terminal 3A when the user X wearing the user terminal 3A, which will be described later, is facing a predetermined direction. It is assumed that all areas above, below, left and right are set. Note that the visual field Ey of the user Y means a visible area that can be visually recognized by the user Y, similarly to the visual field Ex of the user X (see FIG. 2).

「周辺状況」は、ユーザXの周辺の領域であってユーザXが視認可能な現実の車外の景色(外景)を意味する。周辺状況は、例えばユーザXの現在位置を中心として水平方向の360度にわたる領域であって、ユーザXの上方や下方までを含めた領域の車外の景色(外景)である。「ユーザXの視野Exに対応する周辺状況」とは、ユーザXの視野Exに含まれる車外の景色(外景)を意味する。言い換えると、周辺状況は、ユーザXの視野Ex内の車外の景色である。図3に示されるように、車両2Aの移動により、ユーザXの視野Exに対応する周辺状況が変わる。 The "surrounding situation" means the actual scenery outside the vehicle (outside scenery) that is a region around the user X and is visible to the user X. The surrounding situation is, for example, a region spanning 360 degrees in the horizontal direction centering on the current position of the user X, and is the scenery outside the vehicle (external scenery) of the region including above and below the user X. The "surrounding situation corresponding to user X's visual field Ex" means the scenery outside the vehicle (external scenery) included in user X's visual field Ex. In other words, the surrounding situation is the scenery outside the vehicle within the user's X's visual field Ex. As shown in FIG. 3, as the vehicle 2A moves, the surrounding situation corresponding to the user's X's visual field Ex changes.

「表示画像を生成する」とは、ディスプレイ等に表示される画像情報を生成することを意味する。表示画像生成装置1Aにより生成された画像情報が有線通信又は無線通信によりディスプレイ等に送信されると、送信された画像情報に係る表示画像Pが当該ディスプレイに表示可能となる。なお、「表示画像P」とは、抽出対象物Teに関する情報等を表示する画像であり、より具体的には、対象物Tの位置に関する情報を表示する画像である。ここでは、表示画像Pは、ユーザXの視野Exに対応する周辺状況に重畳して表示される。表示画像Pとしては、例えば、抽出対象物Teが視野画像に含まれるか否かを示す文字を含む画像であってもよく、視野画像に含まれる特定の抽出対象物Teが枠囲みされて見えるように表示される矩形枠線の画像であってもよい。なお、詳しくは後述する。ここで、「視野画像」とは、ユーザXの視野Exに対応する画像である。つまり、視野画像は、ユーザXの視野Exに対応する周辺状況を撮像した画像である。本実施形態において、ユーザXの視野Exに対応する周辺状況とは現実の車外の景色であり、視野画像とは当該ユーザXの視野Exに対応する周辺状況が撮像装置(視野画像取得装置32)により撮像された画像である。 "Generating a display image" means generating image information to be displayed on a display or the like. When the image information generated by the display image generation device 1A is transmitted to a display or the like by wired communication or wireless communication, the display image P related to the transmitted image information can be displayed on the display. Note that the "display image P" is an image that displays information regarding the extraction target Te, and more specifically, an image that displays information regarding the position of the target object T. Here, the display image P is displayed superimposed on the surrounding situation corresponding to the user's X visual field Ex. The display image P may be, for example, an image containing characters indicating whether or not the extraction target Te is included in the visual field image, and a specific extraction target Te included in the visual field image appears surrounded by a frame. It may be an image of a rectangular frame displayed as shown in FIG. Note that details will be described later. Here, the "visual field image" is an image corresponding to the user's X's visual field Ex. In other words, the visual field image is an image of the surrounding situation corresponding to the user's X visual field Ex. In this embodiment, the surrounding situation corresponding to the visual field Ex of the user X is the actual scenery outside the vehicle, and the visual field image is the surrounding situation corresponding to the visual field Ex of the user This is an image taken by.

表示画像生成装置1Aは、例えばサーバとして構成されており、プロセッサ(処理装置)及びメモリ(記憶装置)等を含んでいる。 The display image generation device 1A is configured as a server, for example, and includes a processor (processing device), a memory (storage device), and the like.

プロセッサは、例えばCPU(Central Processing Unit)又はMPU(Micro-Processing Unit)により構成されていてもよい。メモリは、半導体記憶装置、磁気記憶装置、及び光学記憶装置の少なくともいずれかを備えていてもよい。また、メモリは、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)又はRAM(Random Access Memory)等を含んでいてもよい。 The processor may be configured by, for example, a CPU (Central Processing Unit) or an MPU (Micro-Processing Unit). The memory may include at least one of a semiconductor storage device, a magnetic storage device, and an optical storage device. Further, the memory may include a register, a cache memory, a ROM (Read Only Memory) used as a main storage device, a RAM (Random Access Memory), or the like.

表示画像生成装置1A、車両2A、ユーザ用端末3A、及び発言主体用端末4は、相互に有線又は無線により通信(送受信)可能に接続されている。なお、表示画像生成装置1Aの機能的な構成については後述する。 The display image generation device 1A, the vehicle 2A, the user terminal 3A, and the speaker terminal 4 are connected to each other so that they can communicate (transmit and receive) by wire or wirelessly. Note that the functional configuration of the display image generation device 1A will be described later.

車両2Aは、ユーザX及びユーザYが乗車している乗用車等である。車両2Aは、手動運転と自動運転の両方が切り替えにより可能であってもよいし、どちらか一方のみの運転が可能であってもよい。車両2Aは、ナビゲーション装置21及び周辺撮像装置22を備えている。ナビゲーション装置21は、例えば、GPS(Global Positioning System)等により検出された車両2Aの位置情報、及び、地図情報に基づいて、設定された目的地までの車両2Aの走行経路を設定し、当該走行経路に沿って車両2Aを案内する装置である。ナビゲーション装置21は、車両2Aの位置(例えば、GPSにより検出された位置座標)の履歴を時系列で記憶(保持)する。ナビゲーション装置21は、記憶した車両2Aの位置の履歴に基づいて車両2Aの進行方向を取得してもよい。 The vehicle 2A is a passenger car or the like in which the user X and the user Y ride. The vehicle 2A may be capable of both manual operation and automatic operation by switching, or may be capable of operating only one of them. The vehicle 2A includes a navigation device 21 and a surrounding imaging device 22. The navigation device 21 sets a travel route for the vehicle 2A to a set destination based on, for example, location information of the vehicle 2A detected by GPS (Global Positioning System) or the like and map information, and This is a device that guides the vehicle 2A along a route. The navigation device 21 stores (holds) a history of the position of the vehicle 2A (for example, position coordinates detected by GPS) in chronological order. The navigation device 21 may acquire the traveling direction of the vehicle 2A based on the stored history of the position of the vehicle 2A.

周辺撮像装置22は、ユーザXの周辺状況を撮像して、周辺画像を取得する装置である。「周辺画像」とは、ユーザXの視野Ex(すなわち視野画像)を含むユーザXの周辺の領域であってユーザXの視野Exを含む領域の画像である。ユーザXの周辺画像は、例えばユーザXを中心として水平方向の360度にわたる領域が撮像された画像であってもよく、更にユーザXの上方まで含めた領域が撮像された画像であってもよい。あるいは、ユーザXの周辺画像は、ユーザXの周辺の領域のうち、ユーザXにより視認されにくい領域(一例として、車両2Aの座席に着座した状態のユーザXの後方の領域等)を除く領域であってもよい。あるいは、ユーザXの視野Exに対応する領域と同一の領域であってもよい。「ユーザXの視野Exを含む領域」とは、ユーザXの視野Exを含む領域であれば、その範囲は特に限定されない。 The surrounding imaging device 22 is a device that images the surrounding situation of the user X and obtains a surrounding image. The "peripheral image" is an image of a region around the user X that includes the user's X's visual field Ex (that is, a visual field image) and includes the user's X's visual field Ex. The surrounding image of user X may be, for example, an image in which an area spanning 360 degrees in the horizontal direction centering on user X is imaged, or may be an image in which an area including above user X is imaged. . Alternatively, the peripheral image of user There may be. Alternatively, it may be the same area as the area corresponding to the user's X visual field Ex. The range of the "area including user X's visual field Ex" is not particularly limited as long as it is an area including user X's visual field Ex.

周辺撮像装置22は、例えば1又は複数のカメラによって構成されている。周辺撮像装置22のカメラは、例えば車両2Aの屋根上等の車室外に設けられていてもよく、フロントガラス裏等の車室内に設けられていてもよい。車両2Aは、周辺撮像装置22により撮像されたユーザXの周辺画像を表示画像生成装置1Aに送信する。なお、「画像を送信する」とは、画像の画像データを送信することを意味する。 The surrounding imaging device 22 includes, for example, one or more cameras. The camera of the peripheral imaging device 22 may be provided outside the vehicle interior, such as on the roof of the vehicle 2A, or may be provided inside the vehicle interior, such as behind the windshield. The vehicle 2A transmits the surrounding image of the user X captured by the surrounding imaging device 22 to the display image generation device 1A. Note that "sending an image" means transmitting image data of an image.

ユーザ用端末3Aは、ユーザXの頭部に装着される装置であり、表示画像表示装置31A及び視野画像取得装置32を備えている。表示画像表示装置31Aは、表示画像生成装置1Aにより生成された表示画像Pを表示可能なディスプレイを有している。表示画像表示装置31Aのディスプレイは、例えば眼鏡型又はゴーグル型のような透過型ディスプレイであり、ユーザXによりユーザ用端末3Aが装着された状態でユーザXの目の直前に位置する。したがって、ユーザXは表示画像表示装置31Aを介してユーザXの視野Exに対応する周辺状況を視認可能となる。また、表示画像表示装置31Aに表示画像Pが表示されると、ユーザXから見て、表示画像P(図4B,図5B,図6B参照)がユーザXの視野Exに対応する周辺状況に重畳して表示されることとなる。つまり、表示画像表示装置31Aは、いわゆるAR(Augmented Reality)の技術において用いられるHMD(Head Mounted Display)としての機能を備えている。 The user terminal 3A is a device worn on the head of the user X, and includes a display image display device 31A and a visual field image acquisition device 32. The display image display device 31A has a display capable of displaying the display image P generated by the display image generation device 1A. The display of the display image display device 31A is, for example, a transmissive display such as a glasses type or a goggle type, and is located right in front of the eyes of the user X when the user terminal 3A is worn by the user X. Therefore, the user X can visually recognize the surrounding situation corresponding to the visual field Ex of the user X via the display image display device 31A. Further, when the display image P is displayed on the display image display device 31A, the display image P (see FIGS. 4B, 5B, and 6B) is superimposed on the surrounding situation corresponding to the user X's visual field Ex, as seen from the user X. will be displayed. In other words, the display image display device 31A has a function as an HMD (Head Mounted Display) used in so-called AR (Augmented Reality) technology.

視野画像取得装置32は、ユーザXの視野Exに対応する周辺状況を撮像して、視野画像を取得する撮像装置である。視野画像取得装置32は、ユーザXによりユーザ用端末3Aが装着された状態でユーザXの視線方向を撮像可能な向きとなるように、ユーザ用端末3Aに設けられている。視野画像取得装置32は、例えば表示画像表示装置31Aの側部に設けられている。ユーザ用端末3Aは、視野画像取得装置32により撮像された視野画像を表示画像生成装置1Aに送信する。なお、「視野画像を送信する」とは、視野画像の画像データを送信することを意味する。さらに、視野画像取得装置32は、ユーザXの視線方向を検出するセンサを備え(不図示)、センサから検出されたユーザXの視線方向の情報を視野画像の画像データと共に送信してもよい。 The visual field image acquisition device 32 is an imaging device that images the surrounding situation corresponding to the visual field Ex of the user X and acquires a visual field image. The visual field image acquisition device 32 is provided in the user terminal 3A so as to be oriented so that it can capture an image of the line of sight of the user X when the user terminal 3A is worn by the user X. The visual field image acquisition device 32 is provided, for example, on the side of the display image display device 31A. The user terminal 3A transmits the visual field image captured by the visual field image acquisition device 32 to the display image generation device 1A. Note that "transmitting a visual field image" means transmitting image data of a visual field image. Further, the visual field image acquisition device 32 may include a sensor (not shown) that detects the visual line direction of the user X, and may transmit information on the visual line direction of the user X detected from the sensor together with the image data of the visual field image.

発言主体用端末4は、ユーザYの頭部に装着される装置であり、発言データ取得装置41を備えている。発言データ取得装置41は、ユーザYによりユーザXに対して発せられた発言を発言データとして取得する装置である。発言データ取得装置41は、例えばマイクロフォンによって構成されている。ここでは、発言データ取得装置41は、発言主体用端末4はヘッドセットであり、発言データ取得装置41はヘッドセットに設けられたマイクロフォンである。なお、発言データ取得装置41は、車内マイクロフォン又はイヤホーンであってもよい。また、発言主体用端末4は、ユーザ用端末3Aと同様の表示画像表示装置31A及び視野画像取得装置32を更に備えていてもよい。「発言データ」とは、発言の内容についての情報を有するデータであり、ここでは、発言データは、発言の発言信号データである。「発言信号データ」とは、発言の音声信号を意味する。なお、発言データには、ユーザYが何も発していないデータも含まれる。 The speaker terminal 4 is a device worn on the head of the user Y, and includes a statement data acquisition device 41 . The utterance data acquisition device 41 is a device that acquires utterances uttered by user Y to user X as utterance data. The speech data acquisition device 41 includes, for example, a microphone. Here, the speech data acquisition device 41 is a headset, and the speech subject terminal 4 is a headset, and the speech data acquisition device 41 is a microphone provided in the headset. Note that the speech data acquisition device 41 may be an in-vehicle microphone or an earphone. Moreover, the speaker terminal 4 may further include a display image display device 31A and a visual field image acquisition device 32 similar to the user terminal 3A. "Speech data" is data having information about the content of a statement, and here, the statement data is speech signal data of a statement. "Speech signal data" means an audio signal of a speech. Note that the speech data also includes data in which user Y has not uttered anything.

発言主体用端末4は、発言データ取得装置41により取得された発言を表示画像生成装置1Aに送信する。このとき、発言主体用端末4は、当該発言主体用端末4がユーザYにより装着されていることを特定する情報(ユーザYを特定する情報)を、表示画像生成装置1Aへ更に送信する。「発言主体用端末4がユーザYにより装着されていることを特定する情報」とは、ユーザYに紐付けられた情報であり、例えば、ユーザYと紐付けられた発言主体用端末4のID(Identification)番号であってもよい。なお、「発言を送信する」とは、発言の発言信号データ(詳しくは後述)を送信することを意味する。 The speaker terminal 4 transmits the statement acquired by the statement data acquisition device 41 to the display image generation device 1A. At this time, the speaker terminal 4 further transmits information specifying that the speaker terminal 4 is worn by user Y (information specifying user Y) to the display image generation device 1A. "Information identifying that the speaker terminal 4 is worn by user Y" is information linked to user Y, such as the ID of the speaker terminal 4 linked to user Y. (Identification) number may be used. Note that "sending a comment" means transmitting comment signal data (details will be described later) of the comment.

次に、表示画像生成装置1Aの機能的な構成について説明する。表示画像生成装置1Aは、周辺画像取得部11、発言データ取得部12、対象物抽出部13、視野画像取得部14A、対象物判定部15A、存否判定部16A、位置関係取得部17A、及び表示画像生成部18Aを有している。 Next, the functional configuration of the display image generation device 1A will be explained. The display image generation device 1A includes a peripheral image acquisition unit 11, a statement data acquisition unit 12, a target object extraction unit 13, a visual field image acquisition unit 14A, a target object determination unit 15A, an existence determination unit 16A, a positional relationship acquisition unit 17A, and a display It has an image generation section 18A.

周辺画像取得部11は、車両2Aから送信される周辺画像を取得して記憶する。周辺画像取得部11は、ユーザXの周辺画像を取得して時系列で記憶する。より具体的には、周辺画像取得部11は、車両2Aの周辺撮像装置22により撮像されたユーザXの周辺画像を車両2Aから受信することで、ユーザXの周辺画像を取得する。周辺画像取得部11は、取得したユーザXの周辺画像を時系列で記憶する。つまり、周辺画像取得部11は、ユーザXの現在の周辺画像を取得するとともに、取得された周辺画像を過去の周辺画像として記憶(蓄積)していく。周辺画像取得部11は、予め設定されたタイミングで、記憶している過去の周辺画像の情報を消去してもよい。 The peripheral image acquisition unit 11 acquires and stores peripheral images transmitted from the vehicle 2A. The peripheral image acquisition unit 11 acquires peripheral images of the user X and stores them in chronological order. More specifically, the peripheral image acquisition unit 11 acquires the peripheral image of the user X by receiving the peripheral image of the user X captured by the peripheral imaging device 22 of the vehicle 2A from the vehicle 2A. The surrounding image acquisition unit 11 stores the acquired surrounding images of the user X in chronological order. That is, the peripheral image acquisition unit 11 acquires the current peripheral image of the user X, and also stores (accumulates) the acquired peripheral image as a past peripheral image. The surrounding image acquisition unit 11 may delete the stored information on past surrounding images at a preset timing.

発言データ取得部12は、ユーザYによりユーザXに対して発せられた発言の発言データを取得する。より具体的には、発言データ取得部12は、発言主体用端末4の発言データ取得装置41により取得されたユーザYの発言の発言信号データを発言主体用端末4から受信することで、ユーザYによりユーザXに対して発せられた発言の発言データを取得する。なお、発言データ取得部12は、発言データにユーザYの発言が含まれるか否かを判定する。即ち、ユーザYが発言していない場合には、発言データにユーザYの発言が含まれないと判定する。 The utterance data acquisition unit 12 acquires utterance data of a utterance uttered by user Y to user X. More specifically, the utterance data acquisition unit 12 receives from the utterance terminal 4 the utterance signal data of user Y's utterance acquired by the utterance data acquisition device 41 of the utterance terminal 4, utterance data of the utterance uttered to user X is obtained. Note that the utterance data acquisition unit 12 determines whether or not the utterance data includes the utterance of user Y. That is, if user Y has not made a statement, it is determined that the statement data does not include user Y's statement.

また、発言データ取得部12は、ユーザXに対して発言を発したユーザYを特定する情報を取得する。例えば、発言データ取得部12は、ユーザYを特定する情報を発言主体用端末4から受信する。 The statement data acquisition unit 12 also obtains information that identifies the user Y who made the statement to the user X. For example, the statement data acquisition unit 12 receives information identifying user Y from the speaker terminal 4.

対象物抽出部13は、発言データ取得部12により取得された発言データに基づいて、当該発言データに係る発言に含まれる予め記憶された対象物Tを表す文字列を抽出する。詳述すると、対象物抽出部13は、予め複数の対象物Tを表す文字列(対象物データ)を記憶しており、複数の対象物Tを表す文字列と発言データを変換した文字列(発言データの一種)を対比して、発言データを変換した文字列のうち対象物Tを表す文字列と一致する文字列(データ)を抽出対象物Teとして抽出する。「対象物T」とは、現実に存在している物体である。物体としては、例えば、一般名詞で表現される物体の種別(自転車、街灯、建物等)であってもよく、固有名詞で表現される物体の名称(富士山、国会議事堂等)であってもよい。また、物体は、その属性、特徴等について限定されていてもよい(例えば、青い自転車、富士山の頂上等)。対象物抽出部13は、記憶部を有し、対象物Tを表す一般名詞、固有名詞、属性、または特徴を予め記憶している。対象物抽出部13は、発言データ取得部12により取得された発言データから予め記憶された対象物Tを表す一般名詞、固有名詞、属性、または特徴を抽出する。 Based on the statement data acquired by the statement data acquisition unit 12, the target object extraction unit 13 extracts a character string representing a pre-stored target object T included in the statement related to the statement data. To be more specific, the object extraction unit 13 stores character strings (object data) representing a plurality of objects T in advance, and converts character strings representing the plurality of objects T and speech data ( A type of comment data) is compared, and a character string (data) that matches the character string representing the target object T from among the character strings obtained by converting the comment data is extracted as an extraction target Te. “Target T” is an object that actually exists. The object may be, for example, the type of object expressed as a common noun (bicycle, streetlight, building, etc.), or the name of an object expressed as a proper noun (Mt. Fuji, the National Diet Building, etc.). . Furthermore, the object may be limited in terms of its attributes, characteristics, etc. (for example, a blue bicycle, the top of Mt. Fuji, etc.). The object extraction unit 13 has a storage unit, and stores general nouns, proper nouns, attributes, or features representing the object T in advance. The object extraction unit 13 extracts a common noun, proper noun, attribute, or feature representing the object T stored in advance from the comment data acquired by the comment data acquisition unit 12.

一例として、ユーザYによりユーザXに対して「向こうに自転車があるね。」との発言が発せられた場合を説明する。この場合、発言データ取得部12によりユーザYが発せられた発言の発言データに基づいて、対象物抽出部13は、ユーザYにより発せられた発言から抽出対象物Teを抽出する。ここでは、対象物抽出部13は、「自転車」との言葉が対象物T(自転車)の種別を表すことを予め記憶しているものとする。対象物抽出部13は、ユーザYにより発せられた発言から「自転車」という抽出対象物Teを抽出する。なお、ユーザYの発言内容から、抽出対象物Teを抽出できない場合もある。 As an example, a case will be described in which user Y says to user X, "There's a bicycle over there." In this case, based on the utterance data of the utterances uttered by the user Y by the utterance data acquisition unit 12, the object extraction unit 13 extracts the extraction target Te from the utterances uttered by the user Y. Here, it is assumed that the object extraction unit 13 has previously stored that the word "bicycle" represents the type of object T (bicycle). The object extracting unit 13 extracts an extraction object Te called "bicycle" from the utterance uttered by the user Y. Note that the extraction target Te may not be extracted from the content of user Y's statement.

対象物抽出部13は、例えば発言認識(音声認識)により、発言データに係る発言において言及されている予め記憶された複数の対象物Tを表す文字列を抽出する。ここで、「発言認識」としては、公知の発言認識技術が適用可能である。例えば、対象物抽出部13は、発言認識により、発言データに基づいて発言音声信号を文字列として認識し、認識された文字列と複数の対象物Tを表す文字列から抽出対象物Teを抽出する。 The object extraction unit 13 extracts character strings representing a plurality of pre-stored objects T mentioned in the utterance related to the utterance data, for example, by utterance recognition (speech recognition). Here, a known speech recognition technique can be applied to the "utterance recognition". For example, the object extraction unit 13 uses speech recognition to recognize the speech audio signal as a character string based on the speech data, and extracts the extraction object Te from the recognized character string and character strings representing the plurality of objects T. do.

視野画像取得部14Aは、ユーザXの視野Exに対応する画像である視野画像を少なくとも含む画像を取得する。「視野画像を少なくとも含む画像」とは、視野画像と同一範囲の画像であってもよく、視野画像よりも広い範囲の画像であってもよい。視野画像取得部14Aは、ユーザ用端末3Aの視野画像取得装置32により撮像された視野画像を視野画像取得装置32から受信することで、当該視野画像を取得する。また、視野画像取得部14Aは、視野画像取得装置32からユーザXの視線方向の情報を取得してもよい。 The visual field image acquisition unit 14A acquires an image that includes at least a visual field image that is an image corresponding to the user's X visual field Ex. The "image including at least the visual field image" may be an image in the same range as the visual field image, or may be an image in a wider range than the visual field image. The visual field image acquisition unit 14A receives the visual field image captured by the visual field image acquisition device 32 of the user terminal 3A from the visual field image acquisition device 32, and thereby acquires the visual field image. Further, the visual field image acquisition unit 14A may acquire information on the user's X line of sight direction from the visual field image acquisition device 32.

対象物判定部15Aは、抽出対象物Teが視野画像取得部14Aにより取得されたユーザXの視野Exの視野画像に含まれるか否かを判定する。「抽出対象物Te」とは、上述した通り、対象物抽出部13が記憶している複数の対象物Tの中からその発言データと一致するものである。ここでは、対象物抽出部13により「自転車(bicycle)」という抽出対象物Teが抽出されている。 The target object determining unit 15A determines whether the extraction target Te is included in the visual field image of the visual field Ex of the user X acquired by the visual field image acquiring unit 14A. As described above, the "extraction object Te" is one that matches the statement data from among the plurality of objects T stored in the object extraction unit 13. Here, the object extraction unit 13 has extracted an extraction object Te called "bicycle."

対象物判定部15Aは、例えば画像認識により、抽出対象物Teが視野画像に含まれるか否かを判定する。ここで、「画像認識」としては、公知の画像認識技術が適用可能である。例えば、対象物判定部15Aは、画像認識として、画像上に含まれる物体の名称、種別、形状、色、方向等の識別情報を検出できる機械学習モデル、深層学習モデル、及びOpenCV(Open Source Computer Vision Library)を用いた画像処理アルゴリズムが適用されてもよい。 The target object determination unit 15A determines whether the extraction target Te is included in the visual field image, for example, by image recognition. Here, as the "image recognition", a known image recognition technique can be applied. For example, the object determination unit 15A uses a machine learning model, a deep learning model, and an OpenCV (Open Source Computer An image processing algorithm using the Vision Library) may be applied.

例えば、対象物判定部15Aは、視野画像に含まれる複数の物体の識別情報を検出し、対象物抽出部13により取得された抽出対象物Teを表現するデータ(物体の種別等)と、視野画像に含まれる複数の物体の検出された識別情報と、を比較する。その後、対象物判定部15Aは、種別及び名称の少なくともいずれかにおいて、抽出対象物Teを表現するデータと、視野画像に含まれる複数の物体と、が一致するか否かに基づいて、視野画像に抽出対象物Teが含まれるか否かを判定する。また、対象物判定部15Aは、画像認識として、OCR(Optical Character Recognition)を用いて、視野画像に含まれる看板の文字内容を認識し、対象物抽出部13が取得された抽出対象物Teの名称を表現されるデータと認識された看板の内容と比較し、抽出対象物Teの名称と視野画像に含まれる看板の中に少なくとも1つの看板の内容の一部と一致するか否かに基づいて、視野画像に抽出対象物Teが含まれるか否かを判定してもよい。 For example, the target object determining unit 15A detects identification information of a plurality of objects included in the visual field image, and extracts data representing the extraction target Te acquired by the target object extracting unit 13 (object type, etc.) and the visual field image. Detected identification information of multiple objects included in the image is compared. Thereafter, the target object determination unit 15A determines whether or not the data expressing the extracted target object Te matches the plurality of objects included in the visual field image in at least one of the type and name. It is determined whether or not the extraction target Te is included. In addition, the target object determining unit 15A uses OCR (Optical Character Recognition) as image recognition to recognize the character content of the signboard included in the visual field image, and the target object extracting unit 13 recognizes the acquired extraction target Te. The name is compared with the data representing the name and the content of the recognized signboard, and based on whether the name of the extraction target Te matches a part of the content of at least one signboard included in the field of view image. Then, it may be determined whether or not the field of view image includes the extraction target Te.

対象物判定部15Aは、抽出対象物Teが視野画像に含まれるか否かの判定結果の情報をユーザXの表示画像表示装置31Aに出力する。「視野画像に含まれるか否かの判定結果」とは、抽出対象物TeがユーザXにより視認可能である(ユーザXの視野Ex内)か否かの判定結果の情報を意味する。ここでは、対象物判定部15Aは、ユーザXのユーザ用端末3Aに判定結果の情報を出力する。なお、発言主体であるユーザYの発言主体用端末4にも判定結果の情報を出力する。 The target object determining unit 15A outputs information on the determination result as to whether or not the extraction target Te is included in the visual field image to the user X's display image display device 31A. The “determination result as to whether or not it is included in the visual field image” means information on the determination result as to whether or not the extraction target Te is visible to the user X (within the visual field Ex of the user X). Here, the target object determination unit 15A outputs information on the determination result to the user terminal 3A of the user X. Note that information on the determination result is also output to the speaker terminal 4 of user Y, who is the speaker.

存否判定部16Aは、抽出対象物Teが視野画像に含まれないと対象物判定部15Aにより判定された場合に、抽出対象物Teが予め設定された対象範囲内に存在するか否かを判定する。具体的には、存否判定部16Aは、周辺画像取得部11により取得された現在又は過去の周辺画像に基づいて、抽出対象物Teが対象範囲内に存在するか否かを判定する。「対象範囲」とは、ユーザXまたは車両2Aの位置を中心として予め設定された所定の範囲である。例えば、対象範囲は、ユーザXまたは車両2Aの位置を中心としてユーザXが視認可能な所定の範囲であってもよい(図3に二点鎖線で示した範囲)。当該範囲は、ユーザXまたは車両2Aから例えば50キロメートルの円形の範囲であってもよく、円形以外の任意の形状の範囲であってもよい。対象範囲は、抽出対象物Teの大きさに応じて、ユーザXが、抽出対象物Teが視認可能な範囲でもよく、例えば、抽出対象物Teが富士山であれば、対象範囲をユーザXまたは車両2Aの位置(中心)から300キロメートルまでの範囲に設定すればよい。この例では、対象範囲は、中心から半径300キロメートルの範囲とする。 The presence/absence determining unit 16A determines whether the extraction target Te exists within a preset target range when the target object determining unit 15A determines that the extraction target Te is not included in the visual field image. do. Specifically, the presence/absence determination unit 16A determines whether or not the extraction target Te exists within the target range based on the current or past peripheral images acquired by the peripheral image acquisition unit 11. The "target range" is a predetermined range that is set in advance around the position of the user X or the vehicle 2A. For example, the target range may be a predetermined range that is visible to the user X and centered on the position of the user X or the vehicle 2A (the range shown by the two-dot chain line in FIG. 3). The range may be a circular range of, for example, 50 kilometers from the user X or the vehicle 2A, or may be a range of any shape other than a circle. Depending on the size of the extraction target Te, the target range may be a range in which the extraction target Te can be visually recognized by the user X. For example, if the extraction target Te is Mt. It is sufficient to set the range up to 300 kilometers from the position (center) of 2A. In this example, the target range is a radius of 300 kilometers from the center.

まず、存否判定部16Aは、周辺画像取得部11により取得されて時系列で記憶されたユーザXの現在の周辺画像及び過去の周辺画像に抽出対象物Teが含まれているか否かを判定する。より詳細には、存否判定部16Aは、周辺画像取得部11により記憶されている現在の周辺画像及び過去の周辺画像を取得し、取得された現在の周辺画像及び過去の周辺画像に抽出対象物Teが含まれているか否かを判定する。存否判定部16Aは、例えば画像認識により、当該判定を実行してもよい。存否判定部16Aは、周辺画像取得部11により取得され記憶された現在の周辺画像及び過去の周辺画像に含まれる複数の画像の画像認識の処理を対象物判定部15Aに実行させて、その実行結果に基づいて、当該判定を実行してもよい。 First, the presence/absence determination unit 16A determines whether or not the extraction target Te is included in the current and past peripheral images of the user X acquired by the peripheral image acquisition unit 11 and stored in chronological order. . More specifically, the presence/absence determination unit 16A acquires the current peripheral image and past peripheral images stored by the peripheral image acquisition unit 11, and adds the extraction target to the acquired current peripheral image and past peripheral image. It is determined whether Te is included. The presence/absence determining unit 16A may perform this determination by, for example, image recognition. The presence/absence determining unit 16A causes the object determining unit 15A to perform image recognition processing for a plurality of images included in the current peripheral image and past peripheral images acquired and stored by the peripheral image acquiring unit 11, and performs the image recognition process. The determination may be made based on the results.

また、存否判定部16Aは、周辺画像取得部11により記憶されている現在の周辺画像及び過去の周辺画像に含まれる複数の画像内の様々な物体を検出して、物体の名称、種別、形状、色、及び方向等の識別情報を検出し、検出された識別情報に1つ以上の画像タグを割り当ててタグ付き画像を生成し記憶する。その後、存否判定部16Aは、対象物抽出部13により取得された抽出対象物Teを表現する発言データと、複数の画像タグのうち物体の名称及び種別の少なくともいずれかと一致する周辺画像が存在するか否かに基づいて、取得された現在の周辺画像及び過去の周辺画像に抽出対象物Teが含まれているか否かを判定する。 In addition, the presence/absence determination unit 16A detects various objects in a plurality of images included in the current peripheral image and past peripheral images stored by the peripheral image acquisition unit 11, and determines the name, type, and shape of the object. , color, and orientation, and assigns one or more image tags to the detected identification information to generate and store a tagged image. Thereafter, the presence/absence determination unit 16A determines whether there is a surrounding image that matches the statement data expressing the extraction target Te acquired by the target object extraction unit 13 and at least one of the name and type of the object among the plurality of image tags. Based on whether or not, it is determined whether or not the extraction target Te is included in the acquired current surrounding image and past surrounding image.

また、存否判定部16Aは、取得された現在の周辺画像及び過去の周辺画像に抽出対象物Teが含まれていないと判定された場合には、抽出対象物Teが予め設定された対象範囲内に存在しないと判定する。 In addition, when it is determined that the extraction target Te is not included in the acquired current peripheral image and past peripheral images, the presence/absence determining unit 16A determines that the extraction target Te is within a preset target range. It is judged that it does not exist.

次に、存否判定部16Aは、取得された現在の周辺画像及び過去の周辺画像に抽出対象物Teが含まれていると判定された場合に、抽出対象物Teが存在する位置が対象範囲内であるか否かを判定する。存否判定部16Aは、抽出対象物Teが現在の周辺画像に含まれる場合に、ユーザX又は車両2Aから抽出対象物Teまでの方向及び距離を公知の手法により取得することができる。例えば、存否判定部16Aは、周辺画像取得部11により取得されたユーザXの現在の周辺画像に基づいて、ユーザX又は車両2Aから抽出対象物Teまでの方向及び距離を推定し、抽出対象物Teが存在する位置が対象範囲内であるか否かを判定してもよい。あるいは、存否判定部16Aは、車両2Aに設けられたRADAR(Radio Detection and Ranging)又はLIDAR(Light Detection and Ranging)等を用いて(不図示)、ユーザX又は車両2Aから抽出対象物Teまでの方向及び距離を計測し、抽出対象物Teが存在する位置が対象範囲内であるか否かを判定してもよい。 Next, when it is determined that the extraction target Te is included in the acquired current peripheral image and past peripheral images, the presence/absence determining unit 16A determines that the position where the extraction target Te exists is within the target range. Determine whether or not. When the extraction target Te is included in the current surrounding image, the presence/absence determining unit 16A can obtain the direction and distance from the user X or the vehicle 2A to the extraction target Te using a known method. For example, the presence/absence determination unit 16A estimates the direction and distance from the user X or the vehicle 2A to the extraction target Te based on the current surrounding image of the user X acquired by the surrounding image acquisition unit 11, and It may be determined whether the position where Te exists is within the target range. Alternatively, the presence/absence determination unit 16A uses RADAR (Radio Detection and Ranging) or LIDAR (Light Detection and Ranging) provided in the vehicle 2A (not shown) to detect the distance from the user X or the vehicle 2A to the extraction target Te. The direction and distance may be measured to determine whether the position where the extraction target Te exists is within the target range.

なお、存否判定部16Aは、抽出対象物Teが現在の周辺画像に含まれない場合に、周辺画像取得部11から時間順で抽出対象物Teが含まれる最後の周辺画像を取得する。次に、存否判定部16Aは、ナビゲーション装置21から取得した実車両位置履歴により現在のユーザX又は車両2Aと撮像した時点でのユーザX又は車両2Aとの相対方向及び距離を算出する。次に、存否判定部16Aは、その相対方向及び距離と、ユーザX又は車両2Aから抽出対象物Teとの相対方向及び距離に基づいて、ユーザX又は車両2Aから抽出対象物Teまでの方向及び距離を推定する。続いて、存否判定部16Aは、ユーザX又は車両2Aから抽出対象物Teまでの距離が対象範囲内であるか否かを判定してもよい。 Note that, when the extraction target Te is not included in the current peripheral image, the presence/absence determination unit 16A acquires the last peripheral image that includes the extraction target Te in time order from the peripheral image acquisition unit 11. Next, the presence/absence determining unit 16A calculates the relative direction and distance between the current user X or the vehicle 2A and the user X or the vehicle 2A at the time of image capture based on the actual vehicle position history acquired from the navigation device 21. Next, the presence/absence determining unit 16A determines the direction and distance from the user X or the vehicle 2A to the extraction target Te based on the relative direction and distance and the relative direction and distance from the user X or the vehicle 2A to the extraction target Te. Estimate distance. Subsequently, the presence/absence determination unit 16A may determine whether the distance from the user X or the vehicle 2A to the extraction target Te is within the target range.

位置関係取得部17Aは、抽出対象物TeとユーザXとの相対的な位置関係を取得する。「位置関係」は、ユーザXの位置又はユーザXの近傍の位置に設定される基準位置(例えば車両2Aの中心位置)を基準として、抽出対象物Teの位置の方向及び距離により表されてもよいし、抽出対象物Teが予め設定された対象範囲内に存在しない情報を表されてもよい。位置関係取得部17Aは、ユーザX又は車両2Aから抽出対象物Teまでの方向及び距離を存否判定部16Aから取得してもよい。また、位置関係取得部17Aは、周辺画像取得部11により取得された現在または過去の周辺画像に基づいて、ユーザX又は車両2Aから抽出対象物Teまでの方向及び距離を推定してもよい。また、位置関係取得部17Aは、車両2Aに設けられたレーダ又はライダー等によりユーザX又は車両2Aから抽出対象物Teまでの方向及び距離を推定してもよい。また、位置関係取得部17Aは、存否判定部16Aから、抽出対象物Teが予め設定された対象範囲内に存在しない情報を取得してもよい。 The positional relationship acquisition unit 17A acquires the relative positional relationship between the extraction target Te and the user X. The "positional relationship" may be expressed by the direction and distance of the position of the extraction target Te with respect to the reference position (for example, the center position of the vehicle 2A) set at the position of the user X or a position near the user X. Alternatively, information may be expressed that the extraction target Te does not exist within a preset target range. The positional relationship acquisition unit 17A may acquire the direction and distance from the user X or the vehicle 2A to the extraction target Te from the existence determination unit 16A. Further, the positional relationship acquisition unit 17A may estimate the direction and distance from the user X or the vehicle 2A to the extraction target Te based on the current or past surrounding images acquired by the surrounding image acquisition unit 11. Further, the positional relationship acquisition unit 17A may estimate the direction and distance from the user X or the vehicle 2A to the extraction target Te using a radar, a lidar, or the like provided in the vehicle 2A. Further, the positional relationship acquisition unit 17A may acquire information that the extraction target Te does not exist within a preset target range from the presence/absence determination unit 16A.

位置関係取得部17Aは、ユーザXの視線方向に対する抽出対象物Teの方向を算出する。位置関係取得部17Aは、視野画像取得部14Aから取得されたユーザXの視野画像と周辺画像取得部11から取得されたユーザXの周辺画像に基づいてユーザの視線方向を推定してもよい。また、位置関係取得部17Aは、視野画像取得部14AからユーザXの視線方向を取得してもよい。位置関係取得部17Aは、算出されたユーザX又は車両2Aから抽出対象物Teまでの方向とユーザXの視線方向に基づいて、ユーザXの視線方向に対する抽出対象物Te方向を推定する。また、上記ユーザXの視線方向に対する抽出対象物Teの方向は、視線方向の左後方、視線方向の右後方の2種類であってもよい。 The positional relationship acquisition unit 17A calculates the direction of the extraction target Te with respect to the direction of the user's X line of sight. The positional relationship acquisition unit 17A may estimate the user's gaze direction based on the visual field image of the user X acquired from the visual field image acquisition unit 14A and the peripheral image of the user X acquired from the peripheral image acquisition unit 11. Further, the positional relationship acquisition unit 17A may acquire the user X's line of sight direction from the visual field image acquisition unit 14A. The positional relationship acquisition unit 17A estimates the direction of the extraction target Te with respect to the user X's line-of-sight direction based on the calculated direction from the user X or vehicle 2A to the extraction target Te and the user's X line-of-sight direction. Moreover, the direction of the extraction target Te with respect to the line-of-sight direction of the user X may be one of two types: rear left in the line-of-sight direction and rear right in the line-of-sight direction.

表示画像生成部18Aは、抽出対象物情報を取得し、当該抽出対象物情報を含む表示画像Pを生成する。「抽出対象物情報」とは、抽出対象物Teの位置に関する情報を意味する。抽出対象物情報は、抽出対象物Teの位置そのものを示す情報であってもよく、抽出対象物Teが存在する方向又は距離を示す情報であってもよく、抽出対象物Teが所定エリア内に存在するか否かを示す情報であってもよい。 The display image generation unit 18A acquires the extraction object information and generates a display image P including the extraction object information. "Extraction target object information" means information regarding the position of the extraction target Te. The extraction target object information may be information indicating the position of the extraction target Te itself, or may be information indicating the direction or distance in which the extraction target Te exists, and may be information indicating the direction or distance in which the extraction target Te is located within a predetermined area. It may be information indicating whether or not it exists.

表示画像生成部18Aは、対象物判定部15Aの判定結果に基づいて、抽出対象物Teの表示画像Pの表示態様を決定する。「表示態様」とは、抽出対象物情報を示す画像の表示態様である。表示態様は、抽出対象物Teの位置そのものを示す画像であってもよく、ユーザから見た抽出対象物Teの距離及び方向を示す画像であってもよく、抽出対象物Teが所定エリア内に存在するか否かを示す画像であってもよい。 The display image generation unit 18A determines the display mode of the display image P of the extraction target Te based on the determination result of the target object determination unit 15A. The "display mode" is a display mode of an image showing extraction target object information. The display mode may be an image that shows the position of the extraction target Te itself, or an image that shows the distance and direction of the extraction target Te as seen from the user, and may be an image that shows the extraction target Te within a predetermined area. It may also be an image indicating whether or not it exists.

対象物判定部15Aにより抽出対象物Teが視野画像に含まれると判定された場合には、表示画像生成部18Aは、視野画像取得部14Aから視野Exの視野画像を取得し、視野画像から抽出対象物Teを画像認識し、抽出対象物Teに重畳して表示される抽出対象物Teそのものを強調する表示態様で抽出対象物情報を示した第1表示画像P1を生成する。「抽出対象物そのものを強調する表示態様」とは、例えば、抽出対象物Teを四角又は丸等で囲うような表示態様であってもよく、抽出対象物Teを矢印で直接指し示す表示態様であってもよい(図4参照)。 When the target object determination unit 15A determines that the extraction target Te is included in the visual field image, the display image generation unit 18A acquires the visual field image of the visual field Ex from the visual field image acquisition unit 14A, and extracts it from the visual field image. The target object Te is image-recognized, and a first display image P1 is generated that shows the extraction target object information in a display mode that emphasizes the extraction target object Te itself, which is displayed superimposed on the extraction target object Te. The "display mode that emphasizes the extraction object itself" may be, for example, a display mode in which the extraction object Te is surrounded by a square or a circle, or a display mode in which the extraction object Te is directly pointed with an arrow. (See Figure 4).

また、表示画像生成部18Aは、対象物判定部15Aにより抽出対象物Teが視野画像に含まれないと判定された場合には、抽出対象物Teが対象範囲内に存在すると存否判定部16Aにより判定されたか否かに基づいて、抽出対象物情報の表示態様を決定する。より詳細には、表示画像生成部18Aは、抽出対象物Teが対象範囲内に存在すると存否判定部16Aにより判定された場合に、基準位置を基準として抽出対象物Teの位置の方向及び距離を含む位置関係を表示する表示態様で抽出対象物情報を示した第2表示画像P2を生成する(図5参照)。「位置関係を表示する表示態様」とは、基準位置を基準として抽出対象物Teの位置の方向及び距離を示した画像の表示態様である。表示画像生成部18Aは、位置関係取得部17Aにより基準位置を基準として抽出対象物Teの位置の方向及び距離を含む位置関係情報を取得し、取得された基準位置を基準として抽出対象物Teの位置の方向及び距離を含む位置関係を表示する第2表示画像P2を生成する。例えば、抽出対象物TeがユーザXの視野Exの後方左に位置する場合、図5に示されるように、ユーザXの視野Exの後方左を示す記号画像と距離を示す画像を生成して視野画像の左に表示する。 In addition, when the target object determination unit 15A determines that the extraction target Te is not included in the visual field image, the display image generation unit 18A determines that the extraction target Te exists within the target range by the presence/absence determination unit 16A. Based on whether or not the determination has been made, the display mode of the extraction target object information is determined. More specifically, when the presence/absence determination unit 16A determines that the extraction target Te exists within the target range, the display image generation unit 18A calculates the direction and distance of the extraction target Te with reference to the reference position. A second display image P2 is generated that shows the extraction target object information in a display mode that displays the positional relationship including the extracted object information (see FIG. 5). The "display mode for displaying the positional relationship" is a display mode for an image showing the direction and distance of the position of the extraction target Te with reference to the reference position. The display image generation unit 18A acquires positional relationship information including the direction and distance of the position of the extraction target Te with the reference position as a reference by the positional relationship acquisition unit 17A, and calculates the position of the extraction target Te with the acquired reference position as a reference. A second display image P2 is generated that displays the positional relationship including the direction and distance of the positions. For example, if the extraction target Te is located at the rear left of the user X's visual field Ex, as shown in FIG. Display to the left of the image.

また、表示画像生成部18Aは、抽出対象物Teが対象範囲内に存在しないと存否判定部16Aにより判定された場合に、抽出対象物Teが予め設定された対象範囲内に存在しない情報を示す第3表示画像P3を生成する(図6参照)。 In addition, when the presence/absence determination unit 16A determines that the extraction target Te does not exist within the target range, the display image generation unit 18A indicates information that the extraction target Te does not exist within the preset target range. A third display image P3 is generated (see FIG. 6).

表示画像生成部18Aは、発言データ取得部12により取得された発言主体を特定する情報を含む表示画像Pを生成する。例えば、表示画像生成部18Aは、発言データ取得部12により取得された発言主体がユーザYである場合には、「Mentioned by Y.」という第1表示画像P1~第3表示画像P3を生成してもよい(図4~図6参照)。 The display image generation unit 18A generates a display image P that includes information that identifies the person who made the statement, which was acquired by the statement data acquisition unit 12. For example, if the person who made the statement acquired by the statement data acquisition unit 12 is the user Y, the display image generation unit 18A generates the first to third display images P1 to P3 that say “Mentioned by Y.” (See Figures 4 to 6).

表示画像生成部18Aは、対象物判定部15Aによる抽出対象物Teが視野画像に含まれるか否かの判定結果に基づいて、抽出対象物TeがユーザXにより視認可能であるか否かを示す情報を含む表示画像Pを生成する(図4~図6参照)。より詳細には、表示画像生成部18Aは、抽出対象物Teが視野画像に含まれると対象物判定部15Aにより判定された場合に、抽出対象物TeがユーザXにより視認可能であることを示す情報を含む第1表示画像P1を生成し、抽出対象物Teが視野画像に含まれないと対象物判定部15Aにより判定された場合に、抽出対象物TeがユーザXにより視認可能でないことを示す情報を含む第2表示画像P2,第3表示画像P3を生成する。例えば、表示画像生成部18Aは、抽出対象物Teが視野画像に含まれると対象物判定部15Aにより判定された場合には、「Bicycle is visible now.」という第1表示画像P1を生成してもよい(図4参照)。一方、表示画像生成部18Aは、抽出対象物Teが視野画像に含まれないと対象物判定部15Aにより判定された場合には、「Bicycle is invisible now.」という第2表示画像P2,第3表示画像P3を生成してもよい(図5と図6参照)。 The display image generation unit 18A indicates whether or not the extraction target Te is visible to the user A display image P containing information is generated (see FIGS. 4 to 6). More specifically, the display image generation unit 18A indicates that the extraction target Te is visible to the user X when the target object determination unit 15A determines that the extraction target Te is included in the visual field image. Generates a first display image P1 including information, and indicates that the extraction target Te is not visible to the user X when the target object determination unit 15A determines that the extraction target Te is not included in the visual field image. A second display image P2 and a third display image P3 containing information are generated. For example, when the object determination unit 15A determines that the extraction target Te is included in the visual field image, the display image generation unit 18A generates the first display image P1 that reads “Bicycle is visible now.” (See Figure 4). On the other hand, when the object determining unit 15A determines that the extraction target Te is not included in the visual field image, the display image generating unit 18A generates a second display image P2 that reads “Bicycle is invisible now.” A display image P3 may be generated (see FIGS. 5 and 6).

続いて、表示画像生成装置1Aにより実行される画像生成処理について説明する。図7は、表示画像生成処理を示すフローチャートである。図7のフローチャートは、例えば表示画像生成装置1Aによる表示画像生成処理は、車両2Aが起動されたときに開始される。 Next, the image generation process executed by the display image generation device 1A will be described. FIG. 7 is a flowchart showing display image generation processing. In the flowchart of FIG. 7, for example, the display image generation process by the display image generation device 1A is started when the vehicle 2A is started.

図7に示されるように、ステップS101において、表示画像生成装置1Aは、周辺画像取得部11により、ユーザXの周辺画像を取得する。周辺画像取得部11は、車両2Aの周辺撮像装置22が撮像した周辺画像を取得する。その後、表示画像生成装置1Aは、ステップS102に進む。 As shown in FIG. 7, in step S101, the display image generation device 1A acquires a peripheral image of the user X using the peripheral image acquisition unit 11. The surrounding image acquisition unit 11 obtains a surrounding image captured by the surrounding imaging device 22 of the vehicle 2A. After that, the display image generation device 1A proceeds to step S102.

ステップS102において、表示画像生成装置1Aは、発言データ取得部12により、ユーザ(発言主体)YによりユーザXに対して発せられた発言の発言データを取得する。発言データ取得部12は、発言主体用端末4の発言データ取得装置41から取得されたユーザYによりユーザXに対して発せられた発言の発言データを取得する。なお、上述したとおり、発言データには、ユーザYが何も発していないデータも含まれる。さらに、発言データ取得部12は、同乗者Yを特定する情報を取得し、表示画像生成装置1Aに送信する。その後、ステップS103に進む。 In step S<b>102 , the display image generation device 1</b>A uses the statement data acquisition unit 12 to obtain statement data of the statement uttered by the user (the subject of the statement) Y to the user X. The utterance data acquisition unit 12 acquires utterance data of the utterance uttered by the user Y to the user X, which is acquired from the utterance data acquisition device 41 of the utterance subject terminal 4. Note that, as described above, the speech data includes data in which user Y has not uttered anything. Further, the statement data acquisition unit 12 acquires information identifying the fellow passenger Y, and transmits it to the display image generation device 1A. After that, the process advances to step S103.

ステップS103において、表示画像生成装置1Aは、発言データ取得部12により、発言データにユーザ(発言主体)Yの発言が含まれるか否かを判定する。ユーザYの発言が含まれると判定された場合には、ステップS104に進む。ユーザYの発言が含まれないと判定された場合には、エンドに進む。 In step S103, the display image generation device 1A uses the statement data acquisition unit 12 to determine whether or not the statement data includes a statement by the user (the subject of the statement) Y. If it is determined that the statement by user Y is included, the process advances to step S104. If it is determined that the statement of user Y is not included, the process advances to the end.

ステップS104において、表示画像生成装置1Aは、対象物抽出部13により、発言データのうち対象物Tと一致する抽出対象物Teを抽出できるか否かを判定する。抽出対象物Teを抽出できると判定された場合には、ステップS105に進む。抽出対象物Teを抽出できないと判定された場合には、エンドに進む。 In step S104, the display image generation device 1A determines whether the object extraction unit 13 can extract an extraction object Te that matches the object T from the statement data. If it is determined that the extraction target Te can be extracted, the process advances to step S105. If it is determined that the extraction target Te cannot be extracted, the process proceeds to the end.

ステップS105において、表示画像生成装置1Aは、視野画像取得部14Aにより、ユーザXの視野画像を取得する。視野画像取得部14Aは、ユーザXが装着しているユーザ用端末3Aの視野画像取得装置32からユーザXの視野画像を取得する。その後、ステップS106に進む。 In step S105, the display image generation device 1A acquires the visual field image of the user X using the visual field image acquisition unit 14A. The visual field image acquisition unit 14A acquires the visual field image of the user X from the visual field image acquisition device 32 of the user terminal 3A worn by the user X. After that, the process advances to step S106.

ステップS106において、表示画像生成装置1Aは、対象物判定部15Aにより、対象物抽出部13から抽出された抽出対象物Teが視野画像取得部14Aから取得したユーザXの視野画像に含まれるか否かを判定する。抽出対象物TeがユーザXの視野画像に含まれると判定された場合には、ステップS107に進む。抽出対象物TeがユーザXの視野画像に含まれないと判定された場合には、ステップS108に進む。 In step S106, the display image generation device 1A determines whether the extraction target Te extracted from the target object extraction unit 13 is included in the visual field image of the user X acquired from the visual field image acquisition unit 14A. Determine whether If it is determined that the extraction target Te is included in the visual field image of the user X, the process advances to step S107. If it is determined that the extraction target Te is not included in the visual field image of the user X, the process advances to step S108.

抽出対象物TeがユーザXの視野画像に含まれると判定された場合には、ステップS107において、表示画像生成装置1Aは、表示画像生成部18Aにより、抽出対象物Teそのものを強調する第1表示画像P1を生成する。表示画像生成部18Aは、視野画像取得部14Aから視野Exの視野画像を取得し、視野画像から抽出対象物Teを画像認識し、視野画像に重畳して表示される抽出対象物Teそのものを強調する第1表示態様で抽出対象物情報を示した第1表示画像P1を生成する(図4参照)。なお、表示画像生成部18Aは、視野画像から抽出対象物TeがユーザXにより視認可能であることを示す情報(図4の「Bicycle is visible now.」)及び発言データ取得部12により取得された発言主体を特定する情報(図4の「Mentioned by Y.」)をさらに含む第1表示画像P1を生成してもよい。表示画像生成部18Aは、生成した第1表示画像P1をユーザ用端末3Aの表示画像表示装置31Aに送信する。 If it is determined that the extraction target Te is included in the visual field image of the user Generate image P1. The display image generation unit 18A acquires the visual field image of the visual field Ex from the visual field image acquisition unit 14A, performs image recognition of the extraction target Te from the visual field image, and emphasizes the extraction target Te itself displayed superimposed on the visual field image. A first display image P1 showing extraction target object information in a first display mode is generated (see FIG. 4). Note that the display image generation unit 18A generates information indicating that the extraction target Te is visible to the user The first display image P1 may be generated that further includes information identifying the speaker ("Mentioned by Y." in FIG. 4). The display image generation unit 18A transmits the generated first display image P1 to the display image display device 31A of the user terminal 3A.

抽出対象物TeがユーザXの視野画像に含まれないと判定された場合には、ステップS108において、表示画像生成装置1Aは、存否判定部16Aにより、周辺画像取得部11により取得された現在または過去の周辺画像に基づいて、抽出対象物Teが対象範囲内に存在するか否かを判定する。存否判定部16Aは、抽出対象物Teが対象範囲内に存在しないと判定した場合には、スッテプS111に進む。存否判定部16Aは、抽出対象物Teが対象範囲内に存在すると判定した場合には、スッテプS109に進む。 If it is determined that the extraction target Te is not included in the visual field image of the user X, in step S108, the display image generation device 1A uses the current or Based on past surrounding images, it is determined whether the extraction target Te exists within the target range. When the presence/absence determining unit 16A determines that the extraction target Te does not exist within the target range, the process proceeds to step S111. When the presence/absence determining unit 16A determines that the extraction target Te exists within the target range, the process proceeds to step S109.

抽出対象物Teが存在する位置が対象範囲内であると判定された場合には、ステップS109において、表示画像生成装置1Aは、位置関係取得部17Aにより、抽出対象物TeとユーザXとの位置関係を取得する。位置関係取得部17Aは、周辺画像取得部11から取得された現在または過去のユーザXの周辺画像に基づいて、抽出対象物TeからユーザX又は車両2Aまでの距離とユーザXの視野Exに対する方向を推定する。また、位置関係取得部17Aは、存否判定部16Aより抽出対象物TeからユーザX又は車両2Aまでの距離を取得してもよい。その後、ステップS110に進む。 If it is determined that the position where the extraction target Te exists is within the target range, in step S109, the display image generation device 1A uses the positional relationship acquisition unit 17A to determine the position of the extraction target Te and the user X. Get relationships. The positional relationship acquisition unit 17A determines the distance from the extraction target Te to the user X or the vehicle 2A and the direction with respect to the visual field Ex of the user X, based on the current or past surrounding images of the user X acquired from the surrounding image acquisition unit 11. Estimate. Further, the positional relationship acquisition unit 17A may acquire the distance from the extraction target Te to the user X or the vehicle 2A from the presence/absence determination unit 16A. After that, the process advances to step S110.

ステップS110において、表示画像生成装置1Aは、表示画像生成部18Aにより、位置関係取得部17Aから取得された基準位置を基準として抽出対象物Teの位置の方向及び距離を含む位置関係を表示する第2表示画像P2を生成する。表示画像生成部18Aは、位置関係取得部17Aから取得されたユーザXの視野Exに対する方向を示す記号画像(図5の矢印)と距離(図5の「20m」)を表示する第2表示態様で抽出対象物情報を示した第2表示画像P2を生成する。なお、表示画像生成部18Aは、視野画像から抽出対象物TeがユーザXにより視認不可能であることを示す情報(図5の「Bicycle is invisible now.」)及び発言データ取得部12により取得された発言主体を特定する情報(図5の「Mentioned by Y.」)を含む第2表示画像P2を生成してもよい。表示画像生成部18Aは、生成した第2表示画像P2をユーザ用端末3Aの表示画像表示装置31Aに送信する。 In step S110, the display image generation device 1A causes the display image generation unit 18A to display the positional relationship including the direction and distance of the extraction target Te with reference to the reference position acquired from the positional relationship acquisition unit 17A. 2 display image P2 is generated. The display image generation unit 18A displays a symbol image (arrow in FIG. 5) indicating the direction with respect to the visual field Ex of the user X acquired from the positional relationship acquisition unit 17A and a distance (“20 m” in FIG. 5) in a second display mode. A second display image P2 showing extraction target object information is generated. Note that the display image generation unit 18A generates information indicating that the extracted object Te is not visible to the user A second display image P2 may be generated that includes information identifying the person who made the statement (“Mentioned by Y.” in FIG. 5). The display image generation unit 18A transmits the generated second display image P2 to the display image display device 31A of the user terminal 3A.

抽出対象物Teが存在する位置が対象範囲内ではないと判定された場合には、ステップS111において、表示画像生成装置1Aは、位置関係取得部17Aにより、抽出対象物TeとユーザXとの位置関係を取得する。具体的には、位置関係取得部17Aは、存否判定部16Aから抽出対象物Teが予め設定された対象範囲内に存在しない位置関係情報を取得する。その後、ステップS112に進む。 If it is determined that the position where the extraction target Te exists is not within the target range, in step S111, the display image generation device 1A uses the positional relationship acquisition unit 17A to determine the position of the extraction target Te and the user X. Get relationships. Specifically, the positional relationship acquisition unit 17A acquires positional relationship information in which the extraction target Te does not exist within a preset target range from the presence/absence determination unit 16A. After that, the process advances to step S112.

ステップS112において、表示画像生成装置1Aは、位置関係取得部17Aから取得された抽出対象物Teが予め設定された対象範囲内に存在しないという抽出対象物TeとユーザXとの位置関係を表示する第3表示画像P3を生成する。表示画像生成部18Aは、視野画像から抽出対象物TeがユーザXにより視認不可能であることを示す情報(図6の「Bicycle is invisible now.」)及び発言データ取得部12により取得された発言主体を特定する情報(図6の「Mentioned by Y.」)を含む第3表示画像P3を生成する。なお、抽出対象物Teの位置の方向及び距離を含む位置関係(第2表示態様に係る位置関係)は表示されない。表示画像生成部18Aは、生成した第3表示画像P3をユーザ用端末3Aの表示画像表示装置31Aに送信する。 In step S112, the display image generation device 1A displays the positional relationship between the extraction target Te and the user X, which indicates that the extraction target Te acquired from the positional relationship acquisition unit 17A does not exist within the preset target range. A third display image P3 is generated. The display image generation unit 18A generates information indicating that the extracted object Te is invisible to the user X from the visual field image (“Bicycle is invisible now.” in FIG. 6) and the statement acquired by the statement data acquisition unit 12. A third display image P3 including information identifying the subject ("Mentioned by Y." in FIG. 6) is generated. Note that the positional relationship including the direction and distance of the extraction target object Te (positional relationship according to the second display mode) is not displayed. The display image generation unit 18A transmits the generated third display image P3 to the display image display device 31A of the user terminal 3A.

表示画像生成装置1Aは、表示画像生成部18Aの上述した処理が終了すると、今回の処理を終了して、再びステップS101から表示画像生成処理を繰り返す。 When the display image generation unit 18A completes the above-described processing, the display image generation device 1A ends the current processing and repeats the display image generation processing from step S101 again.

上記のとおり、本実施形態では、発言主体により発せられた発言に含まれる対象物Tを抽出対象物Teとして特定し、当該抽出対象物Teに関する表示画像Pを生成する表示画像生成装置1Aを開示する。表示画像生成装置1Aは、発言データ取得部12と、対象物抽出部13と、視野画像取得部14Aと、対象物判定部15Aと、表示画像生成部18Aと、を備える。発言データ取得部12は、発言主体であるユーザYによりユーザXに対して発せられた発言の発言データを取得する。対象物抽出部13は、予め複数の対象物データ(文字列)を記憶し、複数の対象物データと発言データ取得部12により取得された発言データ(文字列)とを対比して、発言データのうち対象物データと一致するデータを抽出対象物Teとして抽出する。視野画像取得部14Aは、ユーザXの視野画像を少なくとも含む画像を取得する。対象物判定部15Aは、対象物抽出部13により抽出された抽出対象物Teが視野画像に含まれるか否かを判定する。表示画像生成部18Aは、抽出対象物Teの位置に関する情報である抽出対象物情報を取得し、視野画像とは異なる当該抽出対象物情報を含む表示画像Pを生成する。更に、表示画像生成部18Aは、対象物判定部15Aによる抽出対象物Teが視野画像に含まれるか否かの判定結果に基づいて、抽出対象物Teに関する表示画像Pの表示態様を決定する。 As described above, this embodiment discloses a display image generation device 1A that identifies an object T included in a statement uttered by a speaker as an extraction object Te, and generates a display image P regarding the extraction object Te. do. The display image generation device 1A includes a statement data acquisition section 12, a target object extraction section 13, a visual field image acquisition section 14A, a target object determination section 15A, and a display image generation section 18A. The utterance data acquisition unit 12 acquires utterance data of a utterance uttered to user X by user Y, who is the main speaker. The object extraction unit 13 stores a plurality of object data (character strings) in advance, compares the plurality of object data with the utterance data (character string) acquired by the utterance data acquisition unit 12, and extracts the utterance data. Among them, data that matches the target object data is extracted as the extracted target object Te. The visual field image acquisition unit 14A acquires an image that includes at least the visual field image of the user X. The target object determining unit 15A determines whether the extraction target Te extracted by the target object extracting unit 13 is included in the visual field image. The display image generation unit 18A acquires extraction target information that is information regarding the position of the extraction target Te, and generates a display image P that includes the extraction target information that is different from the visual field image. Further, the display image generation unit 18A determines the display mode of the display image P regarding the extraction target Te based on the determination result of the target object determination unit 15A as to whether the extraction target Te is included in the visual field image.

この結果、表示画像生成装置1Aは、発言データ取得部12と対象物抽出部13によりユーザX以外の主体(ユーザY)により認識されている抽出対象物Teを特定することができる。表示画像生成装置1Aは、視野画像取得部14Aと対象物判定部15Aにより、抽出対象物Teが視野画像に含まれるか否かの判定結果を得ることができる。そして、表示画像生成部18Aは、対象物判定部15Aの判定結果に基づいて、抽出対象物Teに関する表示画像Pの表示態様を決定する。これにより、表示画像生成装置1Aは、ユーザX以外の主体によって認識されている抽出対象物TeがユーザXの視野Ex内に含まれているか否かにかかわらず、当該抽出対象物Teの位置に関する情報を適切に生成することができる(図4~図6)。 As a result, the display image generation device 1A can specify the extraction target Te recognized by a subject other than the user X (user Y) using the statement data acquisition unit 12 and the target object extraction unit 13. The display image generation device 1A can obtain a determination result as to whether the extraction target Te is included in the visual field image using the visual field image acquisition unit 14A and the target object determining unit 15A. Then, the display image generation unit 18A determines the display mode of the display image P regarding the extraction target Te based on the determination result of the target object determination unit 15A. As a result, the display image generation device 1A can determine the position of the extraction target Te, regardless of whether the extraction target Te recognized by a subject other than the user X is included in the user X's field of view Ex. Information can be appropriately generated (FIGS. 4 to 6).

また、上記した実施形態においては、表示画像生成部18Aは、抽出対象物Teが視野画像に含まれると対象物判定部15Aにより判定された場合に、抽出対象物Teそのものを強調する表示態様で抽出対象物情報を示した第1表示画像P1を生成する。この結果、表示画像生成装置1Aは、対象物判定部15Aにより抽出対象物TeがユーザXの視野画像に含まれると判定された場合には、ユーザXが抽出対象物Teを特定することができる(図7のS107)。 Further, in the embodiment described above, the display image generation unit 18A uses a display mode that emphasizes the extraction target Te itself when the target object determination unit 15A determines that the extraction target Te is included in the visual field image. A first display image P1 showing extraction target object information is generated. As a result, if the target object determination unit 15A determines that the extraction target Te is included in the visual field image of the user X, the display image generation device 1A allows the user X to specify the extraction target Te. (S107 in FIG. 7).

また、上記した実施形態においては、表示画像生成装置1Aは、抽出対象物TeとユーザXとの相対的な位置関係を取得する位置関係取得部17Aを備える。表示画像生成部18Aは、抽出対象物Teが視野画像に含まれないと対象物判定部15Aにより判定された場合に、位置関係を表示する表示態様で抽出対象物情報を示した第2表示画像P2を生成する。この結果、表示画像生成装置1Aは、対象物判定部15Aにより抽出対象物Teが視野画像に含まれないと判定された場合に、位置関係取得部17Aにより抽出対象物TeとユーザXとの相対的な位置関係を取得する。表示画像生成装置1Aは、取得された位置関係を表示する表示態様で抽出対象物情報を示した第2表示画像P2を生成する。これにより、表示画像生成装置1Aは、対象物TがユーザXの視野Ex内に含まれていないときでも、抽出対象物Teの位置に関する情報を適切に生成することができる。 Furthermore, in the embodiment described above, the display image generation device 1A includes a positional relationship acquisition unit 17A that acquires the relative positional relationship between the extraction target Te and the user X. When the object determination section 15A determines that the extraction object Te is not included in the visual field image, the display image generation section 18A generates a second display image showing the extraction object information in a display mode that displays the positional relationship. Generate P2. As a result, when the display image generation device 1A determines that the extraction target Te is not included in the visual field image by the target object determination unit 15A, the positional relationship acquisition unit 17A determines the relative relationship between the extraction target Te and the user X. Get the positional relationship. The display image generation device 1A generates a second display image P2 showing extraction target object information in a display mode that displays the acquired positional relationship. Thereby, the display image generation device 1A can appropriately generate information regarding the position of the extraction target Te even when the target T is not included in the user's X visual field Ex.

また、上記した実施形態においては、表示画像生成部18Aは、対象物判定部15Aによる抽出対象物Teが視野画像に含まれるか否かの判定結果に基づいて、抽出対象物TeがユーザXにより視認可能であるか否かを示す情報を含む表示画像P(第1表示画像P1~第3表示画像P3)を生成する。この結果、表示画像生成装置1Aは、対象物判定部15Aの判定結果に基づいて、視野画像から抽出対象物TeがユーザXにより視認可能であるか否かを示す情報を含む表示画像Pを生成する。これにより、表示画像生成装置1Aは、ユーザXは抽出対象物Teが視認可能か否か情報を簡単に把握することができる。 Furthermore, in the embodiment described above, the display image generation unit 18A determines whether or not the extraction target Te is included in the visual field image by the target object determining unit 15A. A display image P (first display image P1 to third display image P3) including information indicating whether or not it is visible is generated. As a result, the display image generation device 1A generates a display image P including information indicating whether or not the target object Te extracted from the visual field image is visible to the user X based on the determination result of the target object determination unit 15A. do. Thereby, the display image generation device 1A allows the user X to easily grasp information as to whether the extraction target Te is visible or not.

また、上記した実施形態においては、表示画像生成装置1Aは、抽出対象物Teが視野画像に含まれないと対象物判定部15Aにより判定された場合に、抽出対象物Teが予め設定された対象範囲内に存在するか否かを判定する存否判定部16Aを備える。表示画像生成部18Aは、抽出対象物Teが対象範囲内に存在するか否かの判定結果に基づいて、抽出対象物情報の表示態様を決定する。この結果、表示画像生成装置1Aは、存否判定部16Aの判定結果に基づいて、抽出対象物情報の表示態様を決定することにより、抽出対象物TeがユーザXにより視認可能であるか否かを示す情報を含む表示画像P(第2表示画像P2,第3表示画像P3)を生成する。これより、表示画像生成装置1Aは、抽出対象物Teが対象範囲に存在するか否かにかかわらず、当該抽出対象物Teの位置に関する情報を適切に生成することができる。 In the above-described embodiment, the display image generation device 1A is configured such that when the object determination unit 15A determines that the extraction object Te is not included in the visual field image, the display image generation device 1A selects a It includes an existence/absence determining section 16A that determines whether or not it exists within the range. The display image generation unit 18A determines the display mode of the extraction target information based on the determination result of whether the extraction target Te exists within the target range. As a result, the display image generation device 1A determines whether or not the extraction target Te is visible to the user A display image P (second display image P2, third display image P3) including information shown is generated. From this, the display image generation device 1A can appropriately generate information regarding the position of the extraction target Te, regardless of whether or not the extraction target Te exists in the target range.

また、上記した実施形態においては、表示画像生成装置1Aは、周辺画像を取得して、取得した周辺画像を記憶する周辺画像取得部11を備える。存否判定部16Aは、周辺画像取得部11により取得された現在または過去の周辺画像に基づいて、抽出対象物Teが対象範囲内に存在するか否かを判定する。この結果、存否判定部16Aは、取得された現在または過去の周辺画像に基づいて、抽出対象物Teが対象範囲内に存在するか否かをより詳細に判定することができる。 Further, in the embodiment described above, the display image generation device 1A includes the peripheral image acquisition unit 11 that acquires peripheral images and stores the acquired peripheral images. The presence/absence determination unit 16A determines whether or not the extraction target Te exists within the target range based on the current or past peripheral images acquired by the peripheral image acquisition unit 11. As a result, the presence/absence determining unit 16A can determine in more detail whether or not the extraction target Te exists within the target range based on the acquired current or past surrounding images.

また、上記した実施形態においては、表示画像生成装置1Aは、抽出対象物TeとユーザXとの相対的な位置関係を取得する位置関係取得部17Aを備える。表示画像生成部18Aは、抽出対象物Teが対象範囲内に存在すると存否判定部16Aにより判定された場合に、基準位置を基準として抽出対象物Teの位置の方向及び距離を含む位置関係を表示する表示態様で抽出対象物情報を示した表示画像P(第2表示画像P2,第3表示画像P3)を生成する。この結果、表示画像生成装置1Aは、存否判定部16Aにより抽出対象物Teが対象範囲内に存在すると判定された場合に、位置関係取得部17Aにより基準位置を基準として抽出対象物Teの位置の方向及び距離を取得する。次に、表示画像生成装置1Aは、基準位置を基準として抽出対象物Teの位置の方向及び距離を含む位置関係情報を生成することができる。これにより、表示画像生成装置1Aは、存否判定部16Aにより抽出対象物Teが対象範囲内に存在すると判定された場合には、ユーザXは抽出対象物Teの位置関係を把握することができる。 Furthermore, in the embodiment described above, the display image generation device 1A includes a positional relationship acquisition unit 17A that acquires the relative positional relationship between the extraction target Te and the user X. When the presence/absence determination unit 16A determines that the extraction target Te exists within the target range, the display image generation unit 18A displays the positional relationship including the direction and distance of the extraction target Te with the reference position as a reference. A display image P (second display image P2, third display image P3) showing extraction target object information in a display mode is generated. As a result, when the presence/absence determination unit 16A determines that the extraction target Te exists within the target range, the display image generation device 1A uses the positional relationship acquisition unit 17A to determine the position of the extraction target Te based on the reference position. Get direction and distance. Next, the display image generation device 1A can generate positional relationship information including the direction and distance of the position of the extraction target Te with reference to the reference position. Thereby, in the display image generation device 1A, when the presence/absence determining unit 16A determines that the extraction target Te exists within the target range, the user X can grasp the positional relationship of the extraction target Te.

また、上記した実施形態においては、発言主体は人(ユーザY)であり、発言データは、発言の発言信号データである。この結果、表示画像生成装置1Aは、人である発信主体から発言の発言信号データを取得することができる。これにより、表示画像生成装置1Aは、発言主体が人であっても、ユーザX以外の主体によって認識されている抽出対象物TeがユーザXの視野内に含まれているか否かにかかわらず、当該抽出対象物Teの位置に関する情報を適切に生成することができる。 Furthermore, in the embodiment described above, the person who makes the statement is a person (user Y), and the statement data is statement signal data of the statement. As a result, the display image generation device 1A can acquire speech signal data of a statement from a person who is a sender. As a result, the display image generation device 1A, even if the speaking subject is a person, regardless of whether or not the extraction target Te recognized by a subject other than the user X is included in the field of view of the user X. Information regarding the position of the extraction target Te can be appropriately generated.

また、上記した実施形態においては、対象物判定部15Aは、抽出対象物TeがユーザXの視野画像に含まれるか否かの判定結果の情報を発言主体のユーザYに出力する。この結果、表示画像生成装置は、対象物判定部15により抽出対象物TeがユーザXの視野画像に含まれるか否かの判定結果を発言主体のユーザYに出力することにより、発言主体は、ユーザXが対象物を視認できるか否かの情報を取得することができ、ユーザXが対象物を視認できるか否かに応じて話題の進み方を決めることができる。 Further, in the embodiment described above, the target object determination unit 15A outputs information on the determination result as to whether or not the extraction target object Te is included in the visual field image of the user X to the user Y who is the main speaker. As a result, the display image generation device causes the object determining unit 15 to output the determination result of whether or not the extracted object Te is included in the visual field image of the user X to the user Y who is the main speaker, so that the main speaker can Information on whether or not user X can visually recognize the target object can be acquired, and it is possible to decide how to proceed with the topic depending on whether or not user X can visually recognize the target object.

また、上記した実施形態においては、発言データ取得部12は、ユーザXに対して発言を発したユーザYを特定する情報を取得する。表示画像生成部18Aは、発言データ取得部12により取得されたユーザYを特定する情報を含む表示画像P(第1表示画像P1~第3表示画像P3)を生成する。この結果、表示画像生成装置1Aは、発言データ取得部12によりユーザYを特定する情報を取得し、表示画像生成部18AによりユーザYを特定する情報を含む表示画像Pを生成することができる。これにより、ユーザXがユーザYを把握することができる。 Furthermore, in the embodiment described above, the comment data acquisition unit 12 acquires information that identifies the user Y who made the comment to the user X. The display image generation unit 18A generates a display image P (first display image P1 to third display image P3) including information identifying the user Y acquired by the comment data acquisition unit 12. As a result, the display image generation device 1A can acquire information that specifies user Y using the comment data acquisition section 12, and can generate a display image P that includes information that specifies user Y using the display image generation section 18A. This allows user X to understand user Y.

また、上記した実施形態においては、表示画像生成装置1Aは、発言主体により発せられた発言に含まれる抽出対象物Teを特定し、当該抽出対象物Teに関する表示画像Pを生成する表示画像生成方法を開示する。表示画像生成装置1Aは、発言データ取得ステップと、対象物抽出ステップと、視野画像取得ステップと、対象物判定ステップと、表示画像生成ステップと、を実行する。発言データ取得ステップは、発言主体であるユーザYによりユーザXに対して発せられた発言の発言データを取得する(図7のS103)。対象物抽出ステップは、予め記憶された複数の対象物データ(文字列)と取得された発言データ(文字列)とを対比して、発言データのうち対象物データと一致するデータを抽出対象物Teとして抽出する(図7のS104)。視野画像取得ステップは、ユーザXの視野画像を取得する(図7のS105)対象物判定ステップは、抽出された抽出対象物Teが視野画像に含まれるか否かを判定する(図7のS106)。表示画像生成ステップは、抽出対象物Teの位置に関する情報である抽出対象物情報を取得し、視野画像とは異なる当該抽出対象物情報を含む表示画像Pを生成する(図7のS107,S110,S112)。更に、表示画像生成ステップにおいては、対象物判定ステップにおける抽出対象物Teが視野画像に含まれるか否かの判定結果に基づいて、抽出対象物Teに関する表示画像Pの表示態様を決定する(図7のS107,S110,S112)。 Furthermore, in the embodiment described above, the display image generation device 1A includes a display image generation method in which the display image generation device 1A identifies the extraction target Te included in the utterance uttered by the speaker and generates the display image P regarding the extraction target Te. Disclose. The display image generation device 1A executes a statement data acquisition step, a target object extraction step, a visual field image acquisition step, a target object determination step, and a display image generation step. The utterance data acquisition step acquires utterance data of a utterance uttered to user X by user Y, who is the main speaker (S103 in FIG. 7). The target object extraction step compares a plurality of pre-stored target object data (character strings) with the acquired utterance data (character string), and extracts data that matches the target object data from among the utterance data. It is extracted as Te (S104 in FIG. 7). The visual field image acquisition step acquires the visual field image of the user ). The display image generation step acquires extraction target information that is information regarding the position of the extraction target Te, and generates a display image P that includes the extraction target information that is different from the visual field image (S107, S110 in FIG. 7, S112). Furthermore, in the display image generation step, the display mode of the display image P regarding the extraction target Te is determined based on the determination result of whether the extraction target Te is included in the visual field image in the target object determination step (see FIG. 7 S107, S110, S112).

この結果、表示画像生成装置1Aは、発言データ取得ステップ対象物抽出ステップにより、ユーザX以外の主体(ユーザY)により認識されている抽出対象物Teを特定することができる。表示画像生成装置1Aは、視野画像取得ステップと対象物判定ステップにより、抽出対象物Teが視野画像に含まれるか否かの判定結果を得ることができる。そして、表示画像生成ステップにおいて、対象物判定ステップの判定結果に基づいて、抽出対象物Teに関する表示画像Pの表示態様を決定する。これにより、表示画像生成装置1Aは、ユーザX以外の主体によって認識されている抽出対象物TeがユーザXの視野Ex内に含まれているか否かにかかわらず、当該抽出対象物Teの位置に関する情報を適切に生成することができる(図4~図6)。
[第2実施形態]
As a result, the display image generation device 1A can specify the extraction target Te recognized by a subject other than the user X (user Y) through the statement data acquisition step and the target object extraction step. The display image generation device 1A can obtain a determination result as to whether or not the extraction target Te is included in the visual field image through the visual field image acquisition step and the target object determination step. Then, in the display image generation step, the display mode of the display image P regarding the extraction target Te is determined based on the determination result of the target object determination step. As a result, the display image generation device 1A can determine the position of the extraction target Te, regardless of whether the extraction target Te recognized by a subject other than the user X is included in the user X's field of view Ex. Information can be appropriately generated (FIGS. 4 to 6).
[Second embodiment]

図8は、第2実施形態に係る表示画像生成装置1Bを示すブロック図である。本実施形態では、POI(Point of Interest)情報を用いて表示画像生成処理を実行可能な表示画像生成装置1Bについて説明する。ここで、「POI」とは、POI情報記憶部19に名称、位置情報(緯度経度)が登録されている地図上の店舗、施設、興味ある名所などの特定な場所を意味する。また、第1実施形態の一例とした、ユーザYによりユーザXに対して発せられた発言「向こうに自転車があるね。」を、第2実施形態では一例として「向こうにコンビニエンスストアがあるね。」とする。そして、対象物抽出部13は、ユーザYにより発せられた発言から「コンビニエンスストア」という抽出対象物Teを抽出するものとする。なお、第2実施形態において、第1実施形態と同様の説明は省略又は簡略化する。 FIG. 8 is a block diagram showing a display image generation device 1B according to the second embodiment. In this embodiment, a display image generation device 1B that can perform display image generation processing using POI (Point of Interest) information will be described. Here, "POI" means a specific place on a map, such as a store, facility, or interesting place, whose name and location information (latitude and longitude) are registered in the POI information storage unit 19. Furthermore, the statement ``There's a bicycle over there'' by user Y to user X, which is an example of the first embodiment, is uttered as an example in the second embodiment, ``There's a convenience store over there.'' ”. It is assumed that the object extracting unit 13 extracts the extraction object Te "convenience store" from the utterance uttered by the user Y. Note that in the second embodiment, descriptions similar to those in the first embodiment will be omitted or simplified.

図8において、表示画像生成装置1Bは、第1実施形態に係る表示画像生成装置1Aと比較して、周辺画像取得部11を備えていない点、視野画像取得部14Aに代えて視野画像取得部14Bを備えている点、対象物判定部15Aに代えて対象物判定部15Bを備えている点、存否判定部16Aに代えて存否判定部16Bを備えている点、位置関係取得部17Aに代えて位置関係取得部17Bを備えている点、表示画像生成部18Aに代えて表示画像生成部18Bを備えている点、及び、POI情報記憶部19を更に備えている点で相違しており、その他の点で同一である。 In FIG. 8, the display image generation device 1B is different from the display image generation device 1A according to the first embodiment in that it does not include the peripheral image acquisition unit 11, and in place of the visual field image acquisition unit 14A, a visual field image acquisition unit 14B, a target object determination section 15B is provided in place of the target object determination section 15A, a presence/absence determination section 16B is provided in place of the presence/absence determination section 16A, and a positional relationship acquisition section 17A is provided in place of the positional relationship acquisition section 17A. They are different in that they include a positional relationship acquisition section 17B, a display image generation section 18B instead of the display image generation section 18A, and a POI information storage section 19. are otherwise identical.

表示画像生成装置1B、車両2B、ユーザ用端末3B、及び発言主体用端末4は、相互に有線又は無線により通信(送受信)可能に接続されている。 The display image generation device 1B, the vehicle 2B, the user terminal 3B, and the speaker terminal 4 are connected to each other so that they can communicate (transmit and receive) by wire or wirelessly.

車両2Bは、第1実施形態に係る車両2Aと比較して、周辺撮像装置22を備えていない点で相違しており、その他の点で同一である。 The vehicle 2B is different from the vehicle 2A according to the first embodiment in that it does not include the peripheral imaging device 22, and is otherwise the same.

ユーザ用端末3Bは、第1実施形態に係るユーザ用端末3Aと比較して、表示画像表示装置31Aに代えて表示画像表示装置31Bを備えている点で相違しており、その他の点で同一である。 The user terminal 3B is different from the user terminal 3A according to the first embodiment in that it includes a display image display device 31B instead of the display image display device 31A, and is otherwise the same. It is.

発言主体用端末4は、第1実施形態に係る発言主体用端末4と同一である。 The speaker terminal 4 is the same as the speaker terminal 4 according to the first embodiment.

POI情報記憶部19は、地図情報に含まれる対象物Tの位置に関する情報を少なくとも含むPOI情報を記憶する。この「POI情報」は、少なくともPOIであるランドマークの名称、ランドマークの用途分類、ランドマークの特徴情報、ランドマークの画像、ランドマークの位置情報を含まれている。なお、ランドマークとは、建物や公園や商業施設や小売業の店舗(コンビニエンスストア等)等である。POI情報記憶部19は、POI情報を車両2Bの外部から通信により取得してもよく、ナビゲーション装置21に記憶されたランドマーク情報を当該ナビゲーション装置21から取得してもよい。POI情報記憶部19は、取得した車両2Bの位置に応じて、車両2Bが位置する区域のPOI情報をリアルタイムに更新してもよい。また、ナビゲーション装置21によって経路探索が行われた場合、POI情報記憶部19は、ナビゲーション装置21によりダウンロードされた経路上のPOI情報を取得してもよい。 The POI information storage unit 19 stores POI information including at least information regarding the position of the target object T included in the map information. This "POI information" includes at least the name of the landmark that is the POI, the usage classification of the landmark, the characteristic information of the landmark, the image of the landmark, and the position information of the landmark. Note that landmarks include buildings, parks, commercial facilities, retail stores (convenience stores, etc.), and the like. The POI information storage unit 19 may acquire POI information from outside the vehicle 2B through communication, or may acquire landmark information stored in the navigation device 21 from the navigation device 21. The POI information storage unit 19 may update the POI information of the area where the vehicle 2B is located in real time according to the acquired position of the vehicle 2B. Furthermore, when the navigation device 21 performs a route search, the POI information storage unit 19 may acquire POI information on the route downloaded by the navigation device 21.

視野画像取得部14Bは、第1実施形態に係る対象物判定部15Aと同一である。 The visual field image acquisition section 14B is the same as the object determination section 15A according to the first embodiment.

対象物判定部15Bは、第1実施形態に係る対象物判定部15Aとは以下の点で異なるが、その他は同一である。対象物判定部15Bは、POI情報記憶部19からPOI情報を取得し、対象物抽出部13により取得された抽出対象物TeがPOIである否かを判定する。そして、抽出対象物Teの画像が視野画像取得部14Bにより取得された視野画像に含まれるか否かを判定する。なお、抽出対象物TeがPOIではない場合、又は、抽出対象物Teが視野画像に含まれない場合には、対象物判定部15Bは、抽出対象物Teの画像が視野画像に含まれないと判定する。 The target object determining section 15B differs from the target object determining section 15A according to the first embodiment in the following points, but is otherwise the same. The target object determination unit 15B acquires POI information from the POI information storage unit 19, and determines whether the extraction target Te acquired by the target object extraction unit 13 is a POI. Then, it is determined whether the image of the extraction target Te is included in the visual field image acquired by the visual field image acquisition unit 14B. Note that when the extraction target Te is not a POI or when the extraction target Te is not included in the visual field image, the target object determination unit 15B determines that the image of the extraction target Te is not included in the visual field image. judge.

存否判定部16Bは、第1実施形態に係る対象物判定部15Aとは以下の点(POI情報を用いる点)で異なるが、その他は同一である。存否判定部16Bは、抽出対象物Teが視野画像に含まれないと対象物判定部15Bにより判定された場合に、抽出対象物Teが予め設定された対象範囲内に存在するか否かを判定する。具体的には、存否判定部16Bは、POI情報に基づいて、抽出対象物Teが対象範囲内に存在するか否かを判定する。 The presence/absence determination section 16B differs from the object determination section 15A according to the first embodiment in the following points (use of POI information), but is otherwise the same. The presence/absence determination unit 16B determines whether or not the extraction target Te exists within a preset target range when the target determination unit 15B determines that the extraction target Te is not included in the visual field image. do. Specifically, the presence/absence determination unit 16B determines whether or not the extraction target Te exists within the target range based on the POI information.

まず、存否判定部16Bは、抽出対象物TeがPOI情報記憶部19により取得されたPOI情報に含まれるか否かを判定する。より詳細には、存否判定部16Bは、POI情報記憶部19により取得されたPOI情報を取得し、取得されたPOI情報に対象物抽出部13により取得された抽出対象物Teが含まれているか否かを判定する。 First, the presence/absence determination unit 16B determines whether or not the extraction target Te is included in the POI information acquired by the POI information storage unit 19. More specifically, the presence/absence determination unit 16B acquires the POI information acquired by the POI information storage unit 19, and determines whether the acquired POI information includes the extraction target Te acquired by the target object extraction unit 13. Determine whether or not.

また、存否判定部16Bは、取得されたPOI情報に抽出対象物Teが含まれていないと判定された場合には、抽出対象物Teが予め設定された対象範囲内に存在しないと判定する。 Further, when it is determined that the extraction target Te is not included in the acquired POI information, the presence/absence determining unit 16B determines that the extraction target Te does not exist within the preset target range.

次に、存否判定部16Bは、取得されたPOI情報に抽出対象物Te(ここでは例えばコンビニエンスストア)が含まれていると判定された場合に、取得されたPOI情報に基づいて、抽出対象物Teが存在する位置が対象範囲内であるか否かを判定する。存否判定部16Bは、抽出対象物TeがPOI情報に含まれる場合に、ナビゲーション装置21から取得された車両2Bの位置情報とPOI情報記憶部19に記憶されたPOI情報に含まれる抽出対象物Teの位置情報を用いて、車両2Bから抽出対象物Teまでの距離を算出する。また、存否判定部16Bは、算出した距離に基づいて抽出対象物Teが予め設定された対象範囲内であるか否かを判定する。 Next, when it is determined that the acquired POI information includes the extraction target Te (here, for example, a convenience store), the presence/absence determination unit 16B determines the extraction target Te (here, for example, a convenience store) based on the acquired POI information. It is determined whether the position where Te exists is within the target range. When the extraction target Te is included in the POI information, the presence/absence determining unit 16B determines whether the extraction target Te included in the position information of the vehicle 2B acquired from the navigation device 21 and the POI information stored in the POI information storage unit 19 The distance from the vehicle 2B to the extraction target Te is calculated using the position information. Furthermore, the presence/absence determination unit 16B determines whether or not the extraction target Te is within a preset target range based on the calculated distance.

位置関係取得部17Bは、抽出対象物TeとユーザXとの相対的な位置関係を取得する。位置関係取得部17Bは、POI情報記憶部19により抽出対象物Teの位置情報を取得し、ナビゲーション装置21から車両2Bの位置を取得し、取得された抽出対象物Teの位置情報と車両2Bの位置情報に基づいて、車両2Bから抽出対象物Teまでの方向及び距離を算出してもよい。 The positional relationship acquisition unit 17B acquires the relative positional relationship between the extraction target Te and the user X. The positional relationship acquisition unit 17B acquires the position information of the extraction target Te from the POI information storage unit 19, acquires the position of the vehicle 2B from the navigation device 21, and combines the acquired position information of the extraction target Te with the position of the vehicle 2B. The direction and distance from the vehicle 2B to the extraction target Te may be calculated based on the position information.

表示画像生成部18Bは、抽出対象物情報を取得し、当該抽出対象物情報を含む表示画像Pを生成する。 The display image generation unit 18B acquires the extraction object information and generates a display image P including the extraction object information.

表示画像生成部18Bは、対象物判定部15Bの判定結果に基づいて、抽出対象物Teの表示画像Pの表示態様を決定する。なお、「抽出対象物情報」等の用語の意味は第1実施形態と同様である。また、図4~図6に表示されている「Bicycle」を、第2実施形態では「Convenience store」とする。対象物判定部15Bにより、抽出対象物TeがPOIであり、かつ、抽出対象物Teが視野画像に含まれると判定された場合には、表示画像生成部18Bは、第1表示画像P1を生成する。この場合、表示画像生成部18Bは、視野画像取得部14Bから視野Exの視野画像を取得し、視野画像から抽出対象物Teを画像認識し、抽出対象物Teに重畳して表示される抽出対象物Teそのものを強調する表示態様で抽出対象物情報を示した第1表示画像P1を生成する(図4参照)。なお、対象物判定部15Bにより抽出対象物TeがPOIではないと判定された場合、又は、抽出対象物Teが視野画像に含まれないと判定された場合には、第2実施形態において第1表示画像P1は生成されない。 The display image generation unit 18B determines the display mode of the display image P of the extraction target Te based on the determination result of the target object determination unit 15B. Note that the meanings of terms such as "extraction target object information" are the same as in the first embodiment. Furthermore, "Bicycle" displayed in FIGS. 4 to 6 is referred to as "Convenience store" in the second embodiment. When the target object determination unit 15B determines that the extraction target Te is a POI and that the extraction target Te is included in the visual field image, the display image generation unit 18B generates the first display image P1. do. In this case, the display image generation unit 18B acquires the visual field image of the visual field Ex from the visual field image acquisition unit 14B, performs image recognition on the extraction target Te from the visual field image, and performs image recognition on the extraction target Te to be displayed superimposed on the extraction target Te. A first display image P1 is generated that shows the extraction target object information in a display mode that emphasizes the object Te itself (see FIG. 4). Note that if the target object determining unit 15B determines that the extraction target Te is not a POI, or if it is determined that the extraction target Te is not included in the visual field image, the first Display image P1 is not generated.

また、表示画像生成部18Bは、対象物判定部15Bにより抽出対象物Teが視野画像に含まれないと判定された場合には、POI情報に抽出対象物Teが含まれている、かつ、抽出対象物Teが対象範囲内に存在すると存否判定部16Bにより判定されたか否かに基づいて、抽出対象物情報の表示態様を決定する。より詳細には、表示画像生成部18Bは、POI情報に抽出対象物Teが含まれており、かつ、抽出対象物Teが対象範囲内に存在すると存否判定部16Bにより判定された場合に、取得された抽出対象物Teの位置情報と車両2Bの位置情報に基づいて、抽出対象物Teが基準位置に対する方向及び距離を含む位置関係を表示する表示態様で抽出対象物情報を示した第2表示画像P2を生成する。表示画像生成部18Bは、位置関係取得部17Bにより抽出対象物Teが基準位置に対する方向及び距離を含む位置関係情報を取得し、取得された抽出対象物Teが基準位置に対する方向及び距離を含む位置関係を表示する第2表示画像P2を生成する(図5参照)。 In addition, when the target object determination unit 15B determines that the extraction target Te is not included in the visual field image, the display image generation unit 18B determines that the extraction target Te is included in the POI information and that the extraction target Te is not included in the visual field image. The display mode of the extracted target object information is determined based on whether the existence determining unit 16B determines that the target object Te exists within the target range. More specifically, when the POI information includes the extraction target Te and the presence/absence determination unit 16B determines that the extraction target Te exists within the target range, the display image generation unit 18B performs the acquisition. A second display that shows the extraction object information in a display mode that displays the positional relationship of the extraction object Te including the direction and distance with respect to the reference position, based on the position information of the extraction object Te and the position information of the vehicle 2B. Generate image P2. The display image generation unit 18B acquires positional relationship information including the direction and distance of the extraction target Te to the reference position by the positional relationship acquisition unit 17B, and determines the position of the extracted target Te including the direction and distance to the reference position. A second display image P2 that displays the relationship is generated (see FIG. 5).

また、表示画像生成部18Bは、POI情報に抽出対象物Teが含まれていない、又は、抽出対象物Teが対象範囲内に存在しないと存否判定部16Bにより判定された場合に、抽出対象物Teが予め設定された対象範囲内に存在しない情報を示す第3表示画像P3を生成する(図6参照)。 In addition, when the presence/absence determination unit 16B determines that the extraction target Te is not included in the POI information or that the extraction target Te does not exist within the target range, the display image generation unit 18B generates an extraction target Te. A third display image P3 is generated that indicates information that Te does not exist within a preset target range (see FIG. 6).

また、表示画像生成部18Bは、発言データ取得部12により取得された発言主体を特定する情報を含む表示画像P(第1表示画像P1~第3表示画像P3)を生成してもよい(図4~図6参照)。 Further, the display image generation unit 18B may generate a display image P (first display image P1 to third display image P3) including information identifying the speaking subject acquired by the statement data acquisition unit 12 (Fig. 4 to Figure 6).

また、表示画像生成部18Bは、対象物判定部15Bによる抽出対象物Teが視野画像に含まれるか否かの判定結果に基づいて、抽出対象物TeがユーザXにより視認可能であるか否かを示す情報を含む表示画像P(第1表示画像P1~第3表示画像P3)を生成する(図4~図6参照)。 In addition, the display image generation unit 18B determines whether the extraction target Te is visible to the user A display image P (first display image P1 to third display image P3) including information indicating the information is generated (see FIGS. 4 to 6).

続いて、表示画像生成装置1Bにより実行される画像生成処理について説明する。図9は、表示画像生成処理を示すフローチャートである。図9のフローチャートは、例えば表示画像生成装置1Bによる表示画像生成処理は、車両2Bが起動されたときに開始される。 Next, the image generation process executed by the display image generation device 1B will be described. FIG. 9 is a flowchart showing display image generation processing. In the flowchart of FIG. 9, for example, the display image generation process by the display image generation device 1B is started when the vehicle 2B is started.

図9に示されるように、ステップS201において、POI情報記憶部19は、外部又は車両2BからPOI情報を取得して記憶する。その後、表示画像生成装置1Bは、ステップS202に進む。 As shown in FIG. 9, in step S201, the POI information storage unit 19 acquires and stores POI information from the outside or the vehicle 2B. After that, the display image generation device 1B proceeds to step S202.

ステップS202において、表示画像生成装置1Bは、発言データ取得部12により、ユーザ(発言主体)YによりユーザXに対して発せられた音声の発言データを取得する。発言データ取得部12は、発言主体用端末4の発言データ取得装置41から取得されたユーザYによりユーザXに対して発せられた音声の発言データを取得する。なお、上述したとおり、発言データには、ユーザYが何も発していないデータも含まれる。さらに、発言データ取得部12は、ユーザYを特定する情報を取得し、表示画像生成装置1Bに送信する。その後、ステップS203に進む。 In step S202, the display image generation device 1B uses the utterance data acquisition unit 12 to acquire utterance data of the voice uttered by the user (the utterer) Y to the user X. The utterance data acquisition unit 12 acquires the utterance data of the voice uttered to the user X by the user Y, which is acquired from the utterance data acquisition device 41 of the utterance main terminal 4. Note that, as described above, the speech data includes data in which user Y has not uttered anything. Furthermore, the statement data acquisition unit 12 acquires information that identifies the user Y, and transmits it to the display image generation device 1B. After that, the process advances to step S203.

ステップS203において、表示画像生成装置1Bは、発言データ取得部12により、発言データにユーザ(発言主体)Yの発言が含まれるか否かを判定する。ユーザYの発言が含まれると判定された場合には、ステップS204に進む。ユーザYの発言が含まれないと判定された場合には、エンドに進む。 In step S203, the display image generation device 1B uses the statement data acquisition unit 12 to determine whether or not the statement data includes a statement by the user (the subject of the statement) Y. If it is determined that the statement by user Y is included, the process advances to step S204. If it is determined that the statement of user Y is not included, the process advances to the end.

ステップS204において、表示画像生成装置1Bは、対象物抽出部13により、発言データのうち対象物Tと一致する抽出対象物Teを抽出できるか否かを判定する。抽出対象物Teを抽出できると判定された場合には、ステップS205に進む。抽出対象物Teを抽出できないと判定された場合には、エンドに進む。 In step S204, the display image generation device 1B determines whether the object extraction unit 13 can extract the extraction object Te that matches the object T from the statement data. If it is determined that the extraction target Te can be extracted, the process advances to step S205. If it is determined that the extraction target Te cannot be extracted, the process proceeds to the end.

ステップS205において、表示画像生成装置1Bは、視野画像取得部14Bにより、ユーザXの視野画像を取得する。視野画像取得部14Bは、ユーザXが装着しているユーザ用端末3Bの視野画像取得装置32からユーザXの視野画像を取得する。その後、ステップS206に進む。 In step S205, the display image generation device 1B acquires the visual field image of the user X using the visual field image acquisition unit 14B. The visual field image acquisition unit 14B acquires the visual field image of the user X from the visual field image acquisition device 32 of the user terminal 3B worn by the user X. After that, the process advances to step S206.

ステップS206において、表示画像生成装置1Bは、対象物判定部15Bにより、抽出対象物TeがPOIである否かを判定する。更に、表示画像生成装置1Bは、対象物判定部15Bにより、対象物抽出部13から抽出された抽出対象物Teが視野画像取得部14Bから取得したユーザXの視野画像に含まれるか否かを判定する。抽出対象物TeがPOIではないと判定された場合、又は、抽出対象物TeがユーザXの視野画像に含まれないと判定された場合には、ステップS208に進む。抽出対象物TeがPOIであると判定され、かつ、抽出対象物TeがユーザXの視野画像に含まれると判定された場合には、ステップS207に進む。ここで、例えば、抽出対象物Teがコンビニエンスストアであり、当該コンビニエンスストアがPOI情報としてPOI情報記憶部19に記憶されていれば、抽出対象物TeがPOIであると判定される。また、例えば、抽出対象物Teが走行中の自転車であれば、POI情報としてPOI情報記憶部19に記憶されていないので、抽出対象物TeがPOIではないと判定される。 In step S206, the display image generation device 1B uses the target object determination unit 15B to determine whether the extraction target Te is a POI. Furthermore, the display image generation device 1B uses the object determination unit 15B to determine whether or not the extraction target Te extracted from the target object extraction unit 13 is included in the visual field image of the user X acquired from the visual field image acquisition unit 14B. judge. If it is determined that the extraction target Te is not a POI, or if it is determined that the extraction target Te is not included in the visual field image of the user X, the process advances to step S208. If it is determined that the extraction target Te is a POI and it is determined that the extraction target Te is included in the visual field image of the user X, the process advances to step S207. Here, for example, if the extraction target Te is a convenience store and the convenience store is stored as POI information in the POI information storage unit 19, it is determined that the extraction target Te is a POI. Further, for example, if the extraction target Te is a running bicycle, it is determined that the extraction target Te is not a POI because it is not stored in the POI information storage unit 19 as POI information.

抽出対象物TeがPOIであると判定され、かつ、抽出対象物TeがユーザXの視野画像に含まれると判定された場合には、ステップS207において、表示画像生成装置1Bは、表示画像生成部18Bにより、抽出対象物Teそのものを強調する第1表示画像P1を生成する。表示画像生成部18Bは、視野画像取得部14Bから視野Exの視野画像を取得し、視野画像から抽出対象物Teを画像認識し、視野画像に重畳して表示される抽出対象物Teそのものを強調する第1表示態様で抽出対象物情報を示した第1表示画像P1を生成する。なお、表示画像生成部18Bは、視野画像から抽出対象物TeがユーザXにより視認可能であることを示す情報及び発言データ取得部12により取得された発言主体を特定する情報をさらに含む第1表示画像P1を生成してもよい。表示画像生成部18Bは、生成した第1表示画像P1をユーザ用端末3Bの表示画像表示装置31Bに送信する。 If it is determined that the extraction target Te is a POI and it is determined that the extraction target Te is included in the visual field image of the user X, in step S207, the display image generation device 1B 18B, a first display image P1 that emphasizes the extraction target Te itself is generated. The display image generation unit 18B acquires the visual field image of the visual field Ex from the visual field image acquisition unit 14B, performs image recognition of the extraction target Te from the visual field image, and emphasizes the extraction target Te itself displayed superimposed on the visual field image. A first display image P1 showing extraction target object information in a first display mode is generated. Note that the display image generation unit 18B generates a first display that further includes information indicating that the extraction target Te from the visual field image is visible to the user X and information identifying the speaker acquired by the statement data acquisition unit 12. An image P1 may be generated. The display image generation unit 18B transmits the generated first display image P1 to the display image display device 31B of the user terminal 3B.

抽出対象物TeがPOIではないと判定された場合、又は、抽出対象物TeがユーザXの視野画像に含まれないと判定された場合には、ステップS208において、まず、表示画像生成装置1Bは、存否判定部16Bにより、POI情報記憶部19により記憶されたPOI情報に基づいて、POI情報に抽出対象物Teが含まれているか否かを判定する。更に、POI情報に抽出対象物Teが含まれていると判定した場合には、表示画像生成装置1Bは、存否判定部16Bにより、POI情報記憶部19により記憶されたPOI情報に基づいて、抽出対象物Teが対象範囲内に存在するか否かを判定する。POI情報に抽出対象物Teが含まれていないと判定された場合、又は、抽出対象物Teが対象範囲内に存在しないと判定された場合には、ステップS211に進む。POI情報に抽出対象物Teが含まれていると判定され、かつ、抽出対象物Teが対象範囲内に存在すると判定された場合には、スッテプS209に進む。ここで、例えば、抽出対象物Teがコンビニエンスストアであり、当該コンビニエンスストアがPOI情報としてPOI情報記憶部19に記憶されていれば、POI情報に抽出対象物Teが含まれていると判定される。また、例えば、抽出対象物Teが走行中の自転車であれば、POI情報としてPOI情報記憶部19に記憶されていないので、POI情報に抽出対象物Teが含まれていないと判定される。 If it is determined that the extraction target Te is not a POI, or if it is determined that the extraction target Te is not included in the visual field image of the user X, in step S208, the display image generation device 1B first Based on the POI information stored in the POI information storage section 19, the presence/absence determination section 16B determines whether or not the extraction target Te is included in the POI information. Further, when it is determined that the extraction target Te is included in the POI information, the display image generation device 1B causes the presence/absence determination unit 16B to perform extraction based on the POI information stored in the POI information storage unit 19. It is determined whether the target object Te exists within the target range. If it is determined that the extraction target Te is not included in the POI information, or if it is determined that the extraction target Te does not exist within the target range, the process advances to step S211. If it is determined that the extraction target Te is included in the POI information and it is determined that the extraction target Te is present within the target range, the process advances to step S209. Here, for example, if the extraction target Te is a convenience store and the convenience store is stored in the POI information storage unit 19 as POI information, it is determined that the extraction target Te is included in the POI information. . Further, for example, if the extraction target Te is a running bicycle, it is not stored in the POI information storage unit 19 as POI information, and therefore it is determined that the extraction target Te is not included in the POI information.

POI情報に抽出対象物Teが含まれていると判定され、かつ、抽出対象物Teが存在する位置が対象範囲内であると判定された場合には、ステップS209において、表示画像生成装置1Bは、位置関係取得部17Bにより、抽出対象物TeとユーザXとの位置関係を取得する。位置関係取得部17Bは、取得された抽出対象物Teの位置情報と車両2Bの位置情報に基づいて、抽出対象物TeからユーザX又は車両2Bまでの方向と距離を算出により推定する。その後、ステップS210に進む。 If it is determined that the extraction target Te is included in the POI information, and if it is determined that the position where the extraction target Te exists is within the target range, in step S209, the display image generation device 1B , the positional relationship between the extraction target Te and the user X is acquired by the positional relationship acquisition unit 17B. The positional relationship acquisition unit 17B calculates and estimates the direction and distance from the extraction target Te to the user X or the vehicle 2B based on the acquired position information of the extraction target Te and the position information of the vehicle 2B. After that, the process advances to step S210.

ステップS210において、表示画像生成装置1Bは、表示画像生成部18Bにより、位置関係取得部17Bから取得された抽出対象物Teの位置情報と車両2Bの位置情報に基づいて、車両2Bから抽出対象物Teまでの方向及び距離を含む位置関係を表示する第2表示画像P2を生成する。表示画像生成部18Bは、位置関係取得部17Bから取得されたユーザXの視野Exに対する方向を示す記号画像と距離を表示する第2表示態様で抽出対象物情報を示した第2表示画像P2を生成する。なお、表示画像生成部18Bは、ユーザXから抽出対象物Teが視認不可能であることを示す情報及び発言データ取得部12により取得された発言主体を特定する情報を含む第2表示画像P2を生成してもよい。表示画像生成部18Bは、生成した第2表示画像P2をユーザ用端末3Bの表示画像表示装置31Bに送信する。 In step S210, the display image generation device 1B uses the display image generation unit 18B to extract the extraction target from the vehicle 2B based on the position information of the extraction target Te acquired from the positional relationship acquisition unit 17B and the position information of the vehicle 2B. A second display image P2 is generated that displays the positional relationship including the direction and distance to Te. The display image generation unit 18B generates a second display image P2 that shows the extraction object information in a second display mode that displays the distance and a symbol image indicating the direction with respect to the visual field Ex of the user X acquired from the positional relationship acquisition unit 17B. generate. Note that the display image generation unit 18B generates a second display image P2 that includes information indicating that the extraction target Te is not visible to the user X and information identifying the speaker acquired by the statement data acquisition unit 12. May be generated. The display image generation unit 18B transmits the generated second display image P2 to the display image display device 31B of the user terminal 3B.

POI情報に抽出対象物Teが含まれていないと判定した場合、又は、抽出対象物Teが存在する位置が対象範囲内ではないと判定された場合には、ステップS211において、表示画像生成装置1Bは、位置関係取得部17Bにより、抽出対象物TeとユーザXとの位置関係を取得する。具体的には、位置関係取得部17Bは、存否判定部16Bから抽出対象物Teが予め設定された対象範囲内に存在しない位置関係情報を取得する。その後、ステップS212に進む。 If it is determined that the extraction target Te is not included in the POI information, or if it is determined that the position where the extraction target Te exists is not within the target range, in step S211, the display image generation device 1B acquires the positional relationship between the extraction target Te and the user X by the positional relationship acquisition unit 17B. Specifically, the positional relationship acquisition unit 17B acquires positional relationship information in which the extraction target Te does not exist within a preset target range from the presence/absence determination unit 16B. After that, the process advances to step S212.

ステップS212において、表示画像生成装置1Bは、位置関係取得部17Bから取得された抽出対象物Teが予め設定された対象範囲内に存在しないという抽出対象物TeとユーザXとの位置関係を表示する第3表示画像P3を生成する。表示画像生成部18Bは、視野画像から抽出対象物TeがユーザXにより視認不可能であることを示す情報及び発言データ取得部12により取得された発言主体を特定する情報を含む第3表示画像P3を生成する。なお、抽出対象物Teの位置の方向及び距離を含む位置関係(第2表示態様に係る位置関係)は表示されない。表示画像生成部18Bは、生成した第3表示画像P3をユーザ用端末3Bの表示画像表示装置31Bに送信する。 In step S212, the display image generation device 1B displays the positional relationship between the extraction target Te and the user X, which indicates that the extraction target Te acquired from the positional relationship acquisition unit 17B does not exist within the preset target range. A third display image P3 is generated. The display image generation unit 18B generates a third display image P3 that includes information indicating that the extracted object Te is not visible to the user X from the visual field image and information identifying the subject of the statement acquired by the statement data acquisition unit 12. generate. Note that the positional relationship including the direction and distance of the extraction target object Te (positional relationship according to the second display mode) is not displayed. The display image generation unit 18B transmits the generated third display image P3 to the display image display device 31B of the user terminal 3B.

表示画像生成装置1Bは、表示画像生成部18Bの上述した処理が終了すると、今回の処理を終了して、再びステップS201から表示画像生成処理を繰り返す。 When the display image generation unit 18B completes the above-described processing, the display image generation device 1B ends the current processing and repeats the display image generation processing from step S201 again.

上記のとおり、本実施形態では、抽出対象物Teの位置に関する情報を少なくとも含むPOI情報を記憶するPOI情報記憶部19を備える。存否判定部16Bは、POI情報記憶部19により記憶されたPOI情報に基づいて、抽出対象物Teが対象範囲内に存在するか否かを判定する。この結果、存否判定部16Bは、POI情報記憶部19に記憶されたPOI情報に基づいて、抽出対象物Teが対象範囲内に存在するか否かを確実に判定することができる。
[第3実施形態]
As described above, this embodiment includes the POI information storage unit 19 that stores POI information including at least information regarding the position of the extraction target Te. The presence/absence determination unit 16B determines whether or not the extraction target Te exists within the target range based on the POI information stored by the POI information storage unit 19. As a result, the presence/absence determining unit 16B can reliably determine whether or not the extraction target Te exists within the target range based on the POI information stored in the POI information storage unit 19.
[Third embodiment]

図10は、第3実施形態に係る表示画像生成装置1Cを示すブロック図である。本実施形態では、車両2Cに設置された表示装置であるユーザ用端末3Cを用いて表示画像生成処理を実行可能な表示画像生成装置1Cについて説明する。なお、第2実施形態において、第1実施形態と同様の説明は省略又は簡略化する。 FIG. 10 is a block diagram showing a display image generation device 1C according to the third embodiment. In this embodiment, a display image generation device 1C that can perform display image generation processing using a user terminal 3C, which is a display device installed in a vehicle 2C, will be described. Note that in the second embodiment, descriptions similar to those in the first embodiment will be omitted or simplified.

図10において、表示画像生成装置1Cは、第1実施形態に係る表示画像生成装置1Aと比較して、視野画像取得部14Aに代えて視野画像取得部14Cを備えている点、対象物判定部15Aに代えて対象物判定部15Cを備えている点、存否判定部16Aに代えて存否判定部16Cを備えている点、位置関係取得部17Aに代えて位置関係取得部17Cを備えている点、表示画像生成部18Aに代えて表示画像生成部18Cを備えている点、及び、視線認識部20を備えている点で相違しており、その他の点で同一である。 In FIG. 10, the display image generation device 1C is different from the display image generation device 1A according to the first embodiment in that it includes a visual field image acquisition unit 14C instead of the visual field image acquisition unit 14A, and a target object determination unit. 15A, a presence/absence judgment section 16C is provided instead of the presence/absence judgment section 16A, and a positional relationship acquisition section 17C is provided instead of the positional relationship acquisition section 17A. , is different in that it includes a display image generation section 18C instead of the display image generation section 18A, and that it includes a line of sight recognition section 20, and is the same in other respects.

表示画像生成装置1C、車両2C、ユーザ用端末3C、及び発言主体用端末4は、相互に有線又は無線により通信(送受信)可能に接続されている。 The display image generation device 1C, the vehicle 2C, the user terminal 3C, and the speaker terminal 4 are connected to each other so that they can communicate (transmit and receive) by wire or wirelessly.

車両2Cは、第1実施形態に係る車両2Aと比較して、姿勢取得装置23を備えている点で相違しており、その他の点で同一である。 The vehicle 2C is different from the vehicle 2A according to the first embodiment in that it includes an attitude acquisition device 23, and is the same in other respects.

ユーザ用端末3Bは、第1実施形態に係るユーザ用端末3Aと比較して、視野画像取得装置32を備えていない点、表示画像表示装置31Aに代えて表示画像表示装置31Cを備えている点で相違しており、その他の点で同一である。 The user terminal 3B is different from the user terminal 3A according to the first embodiment in that it does not include the visual field image acquisition device 32 and includes a display image display device 31C in place of the display image display device 31A. They are different in some respects and are the same in other respects.

発言主体用端末4は、第1実施形態に係る発言主体用端末4と同一である。 The speaker terminal 4 is the same as the speaker terminal 4 according to the first embodiment.

姿勢取得装置23は、ユーザXの顔画像を含む画像情報を取得する。姿勢取得装置23は、車両2Cに設置された車内カメラからユーザXの顔画像を含む画像を撮像する。 The posture acquisition device 23 acquires image information including the user's X face image. The posture acquisition device 23 captures an image including a face image of the user X from an in-vehicle camera installed in the vehicle 2C.

視線認識部20は、ユーザXの視線を認識する。「視線」とは、ユーザXの両目の中心を通り、ユーザXの顔向きを示す視線方向である。視線認識部20は、姿勢取得装置23からユーザXの顔画像を含む画像情報を取得し、ユーザXの視線方向を認識する。 The line of sight recognition unit 20 recognizes the line of sight of the user X. The "line of sight" is a line of sight direction that passes through the center of both eyes of user X and indicates the direction of user's X's face. The line of sight recognition unit 20 acquires image information including the face image of the user X from the posture acquisition device 23, and recognizes the direction of the user's X line of sight.

視野画像取得部14Cは、周辺画像取得部11により取得されたリアルタイムの周辺画像と視線認識部20により認識されたユーザXの視線とに基づいて視野画像を取得する。より詳細には、視野画像取得部14Cは、視線認識部20からユーザXの視線方向を取得し、ユーザXの視野Exを推定する。視野画像取得部14Cは、周辺画像取得部11からリアルタイムの車両周辺の画像を取得し、車両周辺の画像から推定されたユーザXの視野Exに対応する領域を切り出し、視野画像を取得する。ここで、「推定されたユーザXの視野Exに対応する領域」とは、例えば、眼を動かさない状態で、垂直視野の上側60度・下側70度、水平視野で左右それぞれ100度、の領域とする。 The visual field image acquisition unit 14C acquires a visual field image based on the real-time peripheral image acquired by the peripheral image acquisition unit 11 and the line of sight of the user X recognized by the line of sight recognition unit 20. More specifically, the visual field image acquisition unit 14C acquires the visual line direction of the user X from the visual line recognition unit 20, and estimates the visual field Ex of the user X. The visual field image acquisition unit 14C acquires a real-time image around the vehicle from the peripheral image acquisition unit 11, cuts out an area corresponding to the visual field Ex of the user X estimated from the image around the vehicle, and acquires a visual field image. Here, the "area corresponding to the estimated visual field Ex of user area.

対象物判定部15Cは、抽出対象物Teが視野画像取得部14Cにより取得されたユーザXの視野Exの視野画像に抽出対象物Teが含まれるか否かを判定する。対象物判定部15Cは、第1実施形態に係る対象物判定部15Aと同一の方法で判定すればよい。 The target object determining unit 15C determines whether the extraction target Te is included in the visual field image of the visual field Ex of the user X acquired by the visual field image acquiring unit 14C. The target object determining section 15C may perform determination using the same method as the target object determining section 15A according to the first embodiment.

存否判定部16Cは、抽出対象物Teが視野画像に含まれないと対象物判定部15Cにより判定された場合に、抽出対象物Teが予め設定された対象範囲内に存在するか否かを判定する。存否判定部16Cは、第1実施形態に係る存否判定部16Aと同一の方法で判定すればよい。 The presence/absence determining unit 16C determines whether the extraction target Te exists within a preset target range when the target object determining unit 15C determines that the extraction target Te is not included in the visual field image. do. The presence/absence determining section 16C may perform the determination using the same method as the presence/absence determining section 16A according to the first embodiment.

位置関係取得部17Cは、抽出対象物TeとユーザXとの相対的な位置関係を取得する。位置関係取得部17Cは、第1実施形態に係る位置関係取得部17Aと同一の方法で、ユーザX又は車両2Cから抽出対象物Teまでの方向及び距離を推定すればよい。また、位置関係取得部17Cは、第1実施形態に係る位置関係取得部17Aと同一の方法で、存否判定部16Cから、抽出対象物Teが予め設定された対象範囲内に存在しない情報を取得してもよい。 The positional relationship acquisition unit 17C acquires the relative positional relationship between the extraction target Te and the user X. The positional relationship acquisition unit 17C may estimate the direction and distance from the user X or the vehicle 2C to the extraction target Te using the same method as the positional relationship acquisition unit 17A according to the first embodiment. Further, the positional relationship acquisition unit 17C acquires information that the extraction target Te does not exist within a preset target range from the presence/absence determination unit 16C using the same method as the positional relationship acquisition unit 17A according to the first embodiment. You may.

表示画像生成部18Cは、抽出対象物情報を取得し、当該抽出対象物情報を含む表示画像Pを生成する。 The display image generation unit 18C acquires the extraction object information and generates a display image P including the extraction object information.

表示画像生成部18Cは、対象物判定部15Cの判定結果に基づいて、第1実施形態と同様に抽出対象物Teの表示画像Pの表示態様を決定する。なお、「抽出対象物情報」等の用語の意味は第1実施形態と同様である。対象物判定部15Cにより抽出対象物Teが視野画像に含まれると判定された場合には、表示画像生成部18Cは、視野画像取得部14Cから視野Exの視野画像を取得し、視野画像から抽出対象物Teを画像認識し、抽出対象物Teに重畳して表示される抽出対象物Teそのものを強調する表示態様で抽出対象物情報を示した第1表示画像P1を生成する(図4参照)。 The display image generation unit 18C determines the display mode of the display image P of the extraction target Te, based on the determination result of the target object determination unit 15C, similarly to the first embodiment. Note that the meanings of terms such as "extraction target object information" are the same as in the first embodiment. When the target object determination unit 15C determines that the extraction target Te is included in the visual field image, the display image generation unit 18C acquires the visual field image of the visual field Ex from the visual field image acquisition unit 14C, and extracts it from the visual field image. Image recognition is performed on the target object Te, and a first display image P1 is generated that shows the extraction target information in a display mode that emphasizes the extraction target Te itself, which is displayed superimposed on the extraction target Te (see FIG. 4). .

また、表示画像生成部18Cは、対象物判定部15Cにより抽出対象物Teが視野画像に含まれないと判定された場合には、抽出対象物Teが対象範囲内に存在すると存否判定部16Cにより判定されたか否かに基づいて、第1実施形態と同様に抽出対象物情報の表示態様を決定する。より詳細には、表示画像生成部18Cは、抽出対象物Teが対象範囲内に存在すると存否判定部16Cにより判定された場合に、基準位置を基準として抽出対象物Teの位置の方向及び距離を含む位置関係を表示する表示態様で抽出対象物情報を示した第2表示画像P2を生成する(図5参照)。表示画像生成部18Cは、位置関係取得部17Cにより基準位置を基準として抽出対象物Teの位置の方向及び距離を含む位置関係情報を取得し、取得された基準位置を基準として抽出対象物Teの位置の方向及び距離を含む位置関係を表示する第2表示画像P2を生成する。 Further, when the target object determining unit 15C determines that the extraction target Te is not included in the visual field image, the display image generating unit 18C determines that the extraction target Te exists within the target range by the presence/absence determining unit 16C. Based on whether the determination has been made or not, the display mode of the extraction target object information is determined in the same manner as in the first embodiment. More specifically, when the presence/absence determination unit 16C determines that the extraction target Te exists within the target range, the display image generation unit 18C determines the direction and distance of the extraction target Te with reference to the reference position. A second display image P2 is generated that shows the extraction target object information in a display mode that displays the positional relationship including the extracted object information (see FIG. 5). The display image generation unit 18C acquires positional relationship information including the direction and distance of the position of the extraction target Te with the reference position as a reference by the positional relationship acquisition unit 17C, and calculates the position of the extraction target Te with the acquired reference position as a reference. A second display image P2 is generated that displays the positional relationship including the direction and distance of the positions.

また、表示画像生成部18Cは、抽出対象物Teが対象範囲内に存在しないと存否判定部16Cにより判定された場合に、抽出対象物Teが予め設定された対象範囲内に存在しない情報を示す第3表示画像P3を生成する(図6参照)。 Furthermore, when the presence/absence determination unit 16C determines that the extraction target Te does not exist within the target range, the display image generation unit 18C indicates information that the extraction target Te does not exist within the preset target range. A third display image P3 is generated (see FIG. 6).

また、表示画像生成部18Cは、第1実施形態と同様に発言データ取得部12により取得された発言主体を特定する情報を含む表示画像P(第1表示画像P1~第3表示画像P3)を生成する(図4~図6参照)。 In addition, the display image generation unit 18C generates a display image P (first display image P1 to third display image P3) that includes information for specifying the speaking subject acquired by the statement data acquisition unit 12, as in the first embodiment. (See Figures 4 to 6).

また、表示画像生成部18Cは、対象物判定部15Cによる抽出対象物Teが視野画像に含まれるか否かの判定結果に基づいて、抽出対象物TeがユーザXにより視認可能であるか否かを示す情報を含む表示画像P(第1表示画像P1~第3表示画像P3)を生成する(図4~図6参照)。 In addition, the display image generation unit 18C determines whether the extraction target Te is visible to the user A display image P (first display image P1 to third display image P3) including information indicating the information is generated (see FIGS. 4 to 6).

続いて、表示画像生成装置1Cにより実行される画像生成処理について説明する。図11は、表示画像生成処理を示すフローチャートである。図11のフローチャートは、例えば表示画像生成装置1Cによる表示画像生成処理は、車両2Cが起動されたときに開始される。 Next, the image generation process executed by the display image generation device 1C will be described. FIG. 11 is a flowchart showing display image generation processing. In the flowchart of FIG. 11, for example, display image generation processing by the display image generation device 1C is started when the vehicle 2C is started.

図11に示されるように、ステップS301において、表示画像生成装置1Cは、周辺画像取得部11により、ユーザXの周辺画像を取得する。周辺画像取得部11は、車両2Cの周辺撮像装置22が撮像した周辺画像を取得する。その後、表示画像生成装置1Cは、ステップS302に進む。 As shown in FIG. 11, in step S301, the display image generation device 1C acquires a peripheral image of the user X using the peripheral image acquisition unit 11. The surrounding image acquisition unit 11 obtains a surrounding image captured by the surrounding imaging device 22 of the vehicle 2C. After that, the display image generation device 1C proceeds to step S302.

ステップS302において、表示画像生成装置1Cは、発言データ取得部12により、ユーザ(発言主体)YによりユーザXに対して発せられた音声の発言データを取得する。発言データ取得部12は、発言主体用端末4の発言データ取得装置41から取得されたユーザYによりユーザXに対して発せられた音声の発言データを取得する。なお、上述したとおり、発言データには、ユーザYが何も発していないデータも含まれる。さらに、発言データ取得部12は、ユーザYを特定する情報を取得し、表示画像生成装置1Cに送信する。その後、ステップS303に進む。 In step S302, the display image generation device 1C uses the utterance data acquisition unit 12 to acquire utterance data of the voice uttered by the user (the utterer) Y to the user X. The utterance data acquisition unit 12 acquires the utterance data of the voice uttered to the user X by the user Y, which is acquired from the utterance data acquisition device 41 of the utterance main terminal 4. Note that, as described above, the speech data includes data in which user Y has not uttered anything. Furthermore, the statement data acquisition unit 12 acquires information that identifies the user Y, and transmits it to the display image generation device 1C. After that, the process advances to step S303.

ステップS303において、表示画像生成装置1Cは、発言データ取得部12により、発言データにユーザ(発言主体)Yの発言が含まれるか否かを判定する。ユーザYの発言が含まれると判定された場合には、ステップS304に進む。ユーザYの発言が含まれないと判定された場合には、エンドに進む。 In step S303, the display image generation device 1C uses the statement data acquisition unit 12 to determine whether or not the statement data includes a statement by the user (the subject of the statement) Y. If it is determined that the statement by user Y is included, the process advances to step S304. If it is determined that the statement of user Y is not included, the process advances to the end.

ステップS304において、表示画像生成装置1Cは、対象物抽出部13により、発言データのうち対象物Tと一致する抽出対象物Teを抽出できるか否かを判定する。抽出対象物Teを抽出できると判定された場合には、ステップS305に進む。抽出対象物Teを抽出できないと判定された場合には、エンドに進む。 In step S304, the display image generation device 1C determines whether the object extraction unit 13 can extract the extraction object Te that matches the object T from the statement data. If it is determined that the extraction target Te can be extracted, the process advances to step S305. If it is determined that the extraction target Te cannot be extracted, the process proceeds to the end.

ステップS305において、表示画像生成装置1Cは、視線認識部20により、ユーザXの視線を認識する。視線認識部20は、姿勢取得装置23からユーザXの顔画像を含む画像情報を取得し、取得された画像情報に基づいてユーザXの視線方向を認識する。その後、ステップS306に進む。 In step S305, the display image generation device 1C recognizes the line of sight of the user X using the line of sight recognition unit 20. The line of sight recognition unit 20 acquires image information including the face image of the user X from the posture acquisition device 23, and recognizes the direction of the line of sight of the user X based on the acquired image information. After that, the process advances to step S306.

ステップS306において、表示画像生成装置1Cは、視野画像取得部14Cにより、ユーザXの視野画像を取得する。視野画像取得部14Cは、視線認識部20からユーザXの視線方向を取得し、ユーザXの視野Exを推定する。視野画像取得部14Cは、周辺画像取得部11からリアルタイムの車両周辺の画像を取得し、車両周辺の画像から推定されたユーザXの視野Exに対する領域を切り出し、視野画像を取得する。その後、ステップS307に進む。 In step S306, the display image generation device 1C acquires the visual field image of the user X using the visual field image acquisition unit 14C. The visual field image acquisition unit 14C acquires the visual line direction of the user X from the visual line recognition unit 20, and estimates the visual field Ex of the user X. The visual field image acquisition unit 14C acquires a real-time image around the vehicle from the peripheral image acquisition unit 11, cuts out an area for the visual field Ex of the user X estimated from the image around the vehicle, and acquires a visual field image. After that, the process advances to step S307.

ステップS307において、表示画像生成装置1Cは、対象物判定部15Cにより、対象物抽出部13から抽出された抽出対象物Teが視野画像取得部14Cから取得したユーザXの視野画像に含まれるか否かを判定する。抽出対象物TeがユーザXの視野画像に含まれると判定された場合には、ステップS308に進む。抽出対象物TeがユーザXの視野画像に含まれないと判定された場合には、ステップS309に進む。 In step S307, the display image generation device 1C determines whether the extraction target Te extracted from the target object extraction unit 13 is included in the visual field image of the user X acquired from the visual field image acquisition unit 14C. Determine whether If it is determined that the extraction target Te is included in the visual field image of the user X, the process advances to step S308. If it is determined that the extraction target Te is not included in the visual field image of the user X, the process advances to step S309.

抽出対象物TeがユーザXの視野画像に含まれると判定された場合には、ステップS308において、表示画像生成装置1Cは、表示画像生成部18Cにより、抽出対象物Teそのものを強調する第1表示画像P1を生成する。表示画像生成部18Cは、視野画像取得部14Cから視野Exの視野画像を取得し、視野画像から抽出対象物Teを画像認識し、視野画像に重畳して表示される抽出対象物Teそのものを強調する第1表示態様で抽出対象物情報を示した第1表示画像P1を生成する。なお、表示画像生成部18Cは、視野画像から抽出対象物TeがユーザXにより視認可能であることを示す情報及び発言データ取得部12により取得された発言主体を特定する情報をさらに含む第1表示画像P1を生成してもよい。表示画像生成部18Cは、生成した第1表示画像P1をユーザ用端末3Cの表示画像表示装置31Cに送信する。 If it is determined that the extraction target Te is included in the visual field image of the user Generate image P1. The display image generation unit 18C acquires the visual field image of the visual field Ex from the visual field image acquisition unit 14C, performs image recognition of the extraction target Te from the visual field image, and emphasizes the extraction target Te itself displayed superimposed on the visual field image. A first display image P1 showing extraction target object information in a first display mode is generated. Note that the display image generation unit 18C generates a first display that further includes information indicating that the extracted object Te is visible by the user X from the visual field image and information identifying the subject of the statement acquired by the statement data acquisition unit 12. An image P1 may be generated. The display image generation unit 18C transmits the generated first display image P1 to the display image display device 31C of the user terminal 3C.

抽出対象物TeがユーザXの視野画像に含まれないと判定された場合には、ステップS309において、表示画像生成装置1Cは、存否判定部16Cにより、周辺画像取得部11により取得された現在または過去の周辺画像に基づいて、抽出対象物Teが対象範囲内に存在するか否かを判定する。存否判定部16Cは、抽出対象物Teが対象範囲内に存在しないと判定した場合には、スッテプS312に進む。存否判定部16Cは、抽出対象物Teが対象範囲内に存在すると判定した場合には、スッテプS310に進む。 If it is determined that the extraction target Te is not included in the visual field image of the user X, in step S309, the display image generation device 1C uses the current or Based on past surrounding images, it is determined whether the extraction target Te exists within the target range. If the presence/absence determination unit 16C determines that the extraction target Te does not exist within the target range, the process proceeds to step S312. When the presence/absence determination unit 16C determines that the extraction target Te exists within the target range, the process proceeds to step S310.

抽出対象物Teが存在する位置が対象範囲内であると判定された場合には、ステップS310において、表示画像生成装置1Cは、位置関係取得部17Cにより、抽出対象物TeとユーザXとの位置関係を取得する。位置関係取得部17Cは、周辺画像取得部11から取得された現在または過去のユーザXの周辺画像に基づいて、抽出対象物TeからユーザX又は車両2Cまでの距離とユーザXの視野Exに対する方向を推定する。また、位置関係取得部17Cは、存否判定部16Cより抽出対象物TeからユーザX又は車両2Cまでの距離を取得してもよい。その後、ステップS311に進む。 If it is determined that the position where the extraction target Te exists is within the target range, in step S310, the display image generation device 1C uses the positional relationship acquisition unit 17C to determine the position of the extraction target Te and the user X. Get relationships. The positional relationship acquisition unit 17C obtains the distance from the extraction target Te to the user X or the vehicle 2C and the direction with respect to the visual field Ex of the user X, based on the current or past surrounding images of the user X acquired from the surrounding image acquisition unit 11. Estimate. Further, the positional relationship acquisition unit 17C may acquire the distance from the extraction target Te to the user X or the vehicle 2C from the presence/absence determination unit 16C. After that, the process advances to step S311.

ステップS311において、表示画像生成装置1Cは、表示画像生成部18Cにより、位置関係取得部17Cから取得された基準位置を基準として抽出対象物Teの位置の方向及び距離を含む位置関係を表示する第2表示画像P2を生成する。表示画像生成部18Cは、位置関係取得部17Cから取得されたユーザXの視野Exに対する方向を示す記号画像と距離を表示する第2表示態様で抽出対象物情報を示した第2表示画像P2を生成する。なお、表示画像生成部18Cは、ユーザXから抽出対象物Teが視認不可能であることを示す情報及び発言データ取得部12により取得された発言主体を特定する情報を含む第2表示画像P2を生成してもよい。表示画像生成部18Cは、生成した第2表示画像P2をユーザ用端末3Cの表示画像表示装置31Cに送信する。 In step S311, the display image generation device 1C causes the display image generation unit 18C to display a positional relationship including the direction and distance of the position of the extraction target Te using the reference position acquired from the positional relationship acquisition unit 17C as a reference. 2 display image P2 is generated. The display image generation unit 18C generates a second display image P2 that shows the extraction object information in a second display mode that displays the distance and a symbol image indicating the direction with respect to the visual field Ex of the user X acquired from the positional relationship acquisition unit 17C. generate. Note that the display image generation unit 18C generates a second display image P2 that includes information indicating that the extraction target Te is not visible to the user X and information identifying the subject of the statement acquired by the statement data acquisition unit 12. May be generated. The display image generation unit 18C transmits the generated second display image P2 to the display image display device 31C of the user terminal 3C.

抽出対象物Teが存在する位置が対象範囲内ではないと判定された場合には、ステップS312において、表示画像生成装置1Cは、位置関係取得部17Cにより、抽出対象物TeとユーザXとの位置関係を取得する。具体的には、位置関係取得部17Cは、存否判定部16Cから抽出対象物Teが予め設定された対象範囲内に存在しない位置関係情報を取得する。その後、ステップS313に進む。 If it is determined that the position where the extraction target Te exists is not within the target range, in step S312, the display image generation device 1C uses the positional relationship acquisition unit 17C to determine the position of the extraction target Te and the user X. Get relationships. Specifically, the positional relationship acquisition unit 17C acquires positional relationship information in which the extraction target Te does not exist within a preset target range from the presence/absence determination unit 16C. After that, the process advances to step S313.

ステップS313において、表示画像生成装置1Cは、位置関係取得部17Cから取得された抽出対象物Teが予め設定された対象範囲内に存在しないという抽出対象物TeとユーザXとの位置関係を表示する第3表示画像P3を生成する。表示画像生成部18Cは、視野画像から抽出対象物TeがユーザXにより視認不可能であることを示す情報及び発言データ取得部12により取得された発言主体を特定する情報を含む第3表示画像P3を生成する。なお、抽出対象物Teの位置の方向及び距離を含む位置関係(第2表示態様に係る位置関係)は表示されない。表示画像生成部18Cは、生成した第3表示画像P3をユーザ用端末3Cの表示画像表示装置31Cに送信する。 In step S313, the display image generation device 1C displays the positional relationship between the extraction target Te and the user X, which indicates that the extraction target Te acquired from the positional relationship acquisition unit 17C does not exist within the preset target range. A third display image P3 is generated. The display image generation unit 18C generates a third display image P3 that includes information indicating that the extracted object Te is not visible to the user X from the visual field image and information identifying the subject of the statement acquired by the statement data acquisition unit 12. generate. Note that the positional relationship including the direction and distance of the extraction target object Te (positional relationship according to the second display mode) is not displayed. The display image generation unit 18C transmits the generated third display image P3 to the display image display device 31C of the user terminal 3C.

表示画像生成装置1Cは、表示画像生成部18Cの上述した処理が終了すると、今回の処理を終了して、再びステップS301から表示画像生成処理を繰り返す。 When the display image generation unit 18C completes the above-described processing, the display image generation device 1C ends the current processing and repeats the display image generation processing from step S301 again.

上記のとおり、本実施形態では、表示画像生成装置1Cは、周辺画像を取得して記憶する周辺画像取得部11と、ユーザXの視線を認識する視線認識部20と、を備える。視野画像取得部14Cは、周辺画像取得部11により取得された現在の周辺画像と視線認識部20により認識されたユーザXの現在の視線とに基づいて視野画像を取得する。この結果、表示画像生成装置1Cは、周辺画像取得部11によりユーザXの視野Exを含む領域の画像である周辺画像を取得し、視線認識部20によりユーザXの視線を認識し、取得された周辺画像が含まれたユーザXの視線に応じる視野画像を取得することができる。これにより、ユーザ用端末3Cに視野画像取得装置32が無くても、視線認識部20によりユーザXの視野画像を取得することができる。 As described above, in this embodiment, the display image generation device 1C includes the peripheral image acquisition unit 11 that acquires and stores peripheral images, and the line-of-sight recognition unit 20 that recognizes the user's X line of sight. The visual field image acquisition unit 14C acquires a visual field image based on the current peripheral image acquired by the peripheral image acquisition unit 11 and the current line of sight of the user X recognized by the line of sight recognition unit 20. As a result, the display image generation device 1C uses the peripheral image acquisition unit 11 to acquire a peripheral image that is an image of the area including the visual field Ex of the user X, and the line of sight recognition unit 20 recognizes the line of sight of the user X. A visual field image corresponding to the line of sight of user X that includes peripheral images can be acquired. Thereby, even if the user terminal 3C does not have the visual field image acquisition device 32, the visual field image of the user X can be acquired by the visual line recognition unit 20.

以上、本開示の表示画像生成装置及び表示画像生成方法を上述した各実施形態に基づき説明してきたが、具体的な構成については、これらの各実施形態に限られるものではなく、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や追加等は許容される。 The display image generation device and display image generation method of the present disclosure have been described above based on the above-mentioned embodiments, but the specific configuration is not limited to these embodiments, and the scope of the claims Changes and additions to the design are permitted as long as they do not depart from the gist of the invention claimed in each claim.

各実施形態において、ユーザXとユーザYの両方とも、車両に乗車している例を示したが、これに限られない。例えば、ユーザX、及び、発言主体であるユーザYの一方又は両方が、車両2A~Cの車外(すなわち、車両2A~Cから離間した場所)に存在(位置)してもよい。この場合、ユーザXのユーザ用端末又はユーザXのユーザ用端末が接続可能なサーバは、発言データ取得部と、対象物抽出部と、対象物判定部と、表示画像生成部と、の構成を少なくとも有する必要がある。なお、視野画像取得部は、例えば、ユーザ用端末が有する視野画像取得装置に含める。そして、周辺撮像装置により得られる周辺画像を、ユーザXの視野Exに対応する視野画像としてもよいし、ユーザXが周辺撮像装置を有しておりユーザ用端末に送信してもよい。更に、ユーザXが車外にいる場合、姿勢取得装置23はユーザ用端末3CまたはユーザXの周辺に設置し、ユーザXの顔画像またはセンサによりユーザXの顔向き情報を取得する。そして、視線認識部20は、姿勢取得装置23により取得したユーザXの顔画像または顔向き情報によりユーザXの視線方向を認識する。視野画像取得部は、周辺撮像装置22が撮像した周辺画像と視線認識部20が認識したユーザXの視線方向に基づいて、ユーザXの視野画像を生成する。なお、ユーザXが車外にいる場合、視線認識部20は、ユーザXのユーザ用端末又はユーザXのユーザ用端末が接続可能なサーバが有するものとする。そして、ユーザXが車外に存在する場合でも、ユーザ用端末は、発言主体により発せられた発言に含まれる抽出対象物Teに関する表示画像Pが生成される。そして、表示画像表示装置に表示画像Pが表示される。 In each embodiment, an example has been shown in which both user X and user Y are riding in a vehicle, but the present invention is not limited to this. For example, one or both of the user X and the user Y who is the main speaker may exist (position) outside the vehicles 2A to 2C (that is, in a place separated from the vehicles 2A to 2C). In this case, the user terminal of user X or the server to which the user terminal of user Must have at least one. Note that the visual field image acquisition unit is included in, for example, a visual field image acquisition device included in the user terminal. Then, the peripheral image obtained by the peripheral imaging device may be a visual field image corresponding to the visual field Ex of the user X, or the peripheral image obtained by the peripheral imaging device may be transmitted to the user terminal if the user X has the peripheral imaging device. Further, when the user X is outside the vehicle, the posture acquisition device 23 is installed on the user terminal 3C or around the user X, and acquires the facial orientation information of the user X using the user X's facial image or sensor. The line-of-sight recognition unit 20 then recognizes the line-of-sight direction of the user X based on the face image or face orientation information of the user X acquired by the posture acquisition device 23. The visual field image acquisition unit generates a visual field image of the user X based on the peripheral image captured by the peripheral imaging device 22 and the visual line direction of the user X recognized by the visual line recognition unit 20. Note that when the user X is outside the vehicle, the line of sight recognition unit 20 is included in the user terminal of the user X or a server to which the user terminal of the user X can be connected. Even when the user X is outside the vehicle, the user terminal generates a display image P regarding the extraction target Te included in the statement uttered by the speaker. Then, the display image P is displayed on the display image display device.

各実施形態において、対象物判定部は、抽出対象物TeがユーザXの視野画像に含まれるか否かの判定結果の情報を発言主体であるユーザYの発言主体用端末4へ出力する例を示したが、これに限られない。例えば、ユーザYへ出力する情報としては、ユーザXの視野画像や表示画像Pや周辺画像などを出力しても良い。また、ユーザYが特に車外に存在する場合には、ユーザYの発言主体用端末4やVR(Virtual Reality、画像表示装置)などに画像を表示する。このように、発言主体であるユーザYに画像を表示することにより、ユーザYはユーザXの視認可能領域や視線方向の情報をえることができるので、ユーザXとユーザYとの話題の進み方をより決めやすくなる。 In each embodiment, the object determination unit outputs information on the determination result as to whether or not the extraction target Te is included in the visual field image of the user X to the speaker terminal 4 of the user Y who is the speaker. shown, but is not limited to this. For example, as the information to be output to the user Y, a visual field image, a display image P, a peripheral image, etc. of the user X may be output. Furthermore, when user Y is particularly present outside the vehicle, an image is displayed on user Y's speaking terminal 4, VR (Virtual Reality, image display device), or the like. In this way, by displaying the image to user Y, who is the main speaker, user Y can obtain information about user It becomes easier to decide.

また、周辺撮像装置22により撮像された周辺画像は上記の各実施形態において説明したものに限定されず、例えばユーザXの視野Exに対応する視野画像としてもよい。ここで、例えば、発言主体であるユーザYが車両2Aの車外に存在する場合には、発言主体用端末4には、周辺撮像装置22により撮像された周辺画像の一部またはすべての画像が表示されてもよい。これにより、ユーザXとユーザYとの話題の進み方を決めることができる。 Further, the peripheral image captured by the peripheral imaging device 22 is not limited to those described in each of the above embodiments, and may be a visual field image corresponding to the visual field Ex of the user X, for example. Here, for example, if the user Y who is the main speaker is present outside the vehicle 2A, the terminal 4 for the main speaker displays part or all of the peripheral images captured by the peripheral imaging device 22. may be done. Thereby, it is possible to decide how the topic between user X and user Y will proceed.

また、ユーザ用端末3A~3Cの表示画像表示装置31A~31Cは、透過型ディスプレイとする例を示したが、車両2A~2Cに設置されたヘッドアップディスプレイでもよい。例えば、ヘッドアップディスプレイは、車両2A~2Cのフロントウィンドウの下部位置に設定され、灯光器でウィンドシールドに画像を表示する。この場合、画像は、表示画像生成部18A~18Cが生成したユーザXのExの視野に対応する表示画像Pを表示する。 Furthermore, although the display image display devices 31A to 31C of the user terminals 3A to 3C are shown as transmissive displays, they may be head-up displays installed in the vehicles 2A to 2C. For example, the head-up display is set at the lower part of the front window of the vehicles 2A to 2C, and displays an image on the windshield using a lamp. In this case, the image is a display image P generated by the display image generation units 18A to 18C that corresponds to the user's X's Ex field of view.

また、発言主体は、人ではなく、ユーザXに対して発言を発する発言装置でもよい。発言装置の場合、発言データは出力文データである。出力文データは、発言装置が出力文(文字列)を音声として出力する音声データであってもよいし、出力文(文字列)であってもよい。このため、表示画像生成装置1A~1Cは、発言データ取得装置によりユーザXに対して発言を発する発言装置から出力文データを取得することができる。また、この場合、「発言主体により発せられた発言」は、「発言装置により発せられた(出力された)音声」である。また、表示画像生成部18A~18CがユーザXに対する音声を発する発言装置を特定する情報を取得し、例えば「Mentioned by Speech output device.」という表示画像Pを生成してもよい。この結果、発言装置の発言に含まれる抽出対象物TeをユーザXに対する適切な表示態様で抽出対象物情報を表示させることができる。具体的には、発言装置は、ユーザXと音声対話可能な、いわゆる対話型エージェント装置であってもよい。 Furthermore, the speaking subject may be a speaking device that makes a comment to user X instead of a person. In the case of a comment device, the comment data is output sentence data. The output sentence data may be audio data in which the speaking device outputs an output sentence (character string) as voice, or may be an output sentence (character string). Therefore, the display image generation devices 1A to 1C can acquire output sentence data from the comment device that makes a comment to the user X using the comment data acquisition device. Furthermore, in this case, the "utterance uttered by the speaking subject" is the "voice uttered (outputted) by the speaking device." Further, the display image generation units 18A to 18C may obtain information specifying a speech device that emits a voice to the user X, and generate a display image P that reads, for example, "Mentioned by Speech output device." As a result, it is possible to display extraction target object information for the extraction target Te included in the utterance of the speaking device in an appropriate display manner for the user X. Specifically, the speaking device may be a so-called interactive agent device capable of voice interaction with user X.

また、上記では、発言主体は、1人のユーザYのみ又は1つの発言装置のみであったが、発言主体の対象としては複数であってもよい。例えば、発言主体の対象として、2人以上の同乗者(ユーザ)であってもよいし、1人の同乗者(ユーザ)と1つの発言装置であってもよい。この場合、発言データ取得部12は、ユーザXに対して発言を発した発言主体を特定する情報を取得する。次に、表示画像生成部18A~18Cは、発言データ取得部12により取得された発言主体を特定する情報を含む表示画像Pを生成する。この結果、表示画像生成装置1A~1Cは、発言データ取得部12により発言主体を特定する情報を取得し、表示画像生成部18A~18Cにより発言主体を特定する情報を含む表示画像Pを生成することができる。これにより、発言主体の対象が複数であるとき、ユーザXが発言主体を明確に把握することができる。 Furthermore, in the above description, only one user Y or one speaking device was the subject of the statement, but there may be a plurality of subject subjects. For example, the subject of the speech may be two or more fellow passengers (users), or may be one fellow passenger (user) and one speech device. In this case, the utterance data acquisition unit 12 acquires information that identifies the utterer who made the utterance to user X. Next, the display image generation units 18A to 18C generate a display image P that includes information that specifies the person who made the statement, which was acquired by the statement data acquisition unit 12. As a result, the display image generation devices 1A to 1C acquire information specifying the speaker using the comment data acquisition unit 12, and generate display images P including information specifying the speaker using the display image generating units 18A to 18C. be able to. Thereby, when there are multiple targets of the speaker, the user X can clearly understand the speaker.

上記では、発言データ取得部12と発言データ取得装置41を有する例を示したが、発言データ取得部12が発言データ取得装置41の機能を備えていれば、発言データ取得装置41を備えていなくてもよい。また、視野画像取得部14A,14Bと視野画像取得装置32を有する例を示したが、視野画像取得部14A,14Bが視野画像取得装置32の機能を備えていれば、視野画像取得装置32を備えなくても良い。更に、視線認識部20と姿勢取得装置23を有する例を示したが、視線認識部20が姿勢取得装置23の機能を備えていれば、姿勢取得装置23を備えなくても良い。更にまた、周辺画像取得部11と周辺撮像装置22を有する例を示したが、周辺画像取得部11が周辺撮像装置22の機能を備えていれば、周辺撮像装置22を備えていなくても良い。 In the above example, the comment data acquisition section 12 and the comment data acquisition device 41 are provided. However, if the comment data acquisition section 12 has the function of the comment data acquisition device 41, the comment data acquisition device 41 can be omitted. You can. Further, although an example is shown in which the visual field image acquisition units 14A, 14B and the visual field image acquisition device 32 are provided, if the visual field image acquisition units 14A, 14B have the function of the visual field image acquisition device 32, the visual field image acquisition device 32 can be used. You don't have to prepare. Further, although an example is shown in which the line-of-sight recognition unit 20 and the posture acquisition device 23 are provided, the posture acquisition device 23 may not be provided as long as the line-of-sight recognition unit 20 has the function of the posture acquisition device 23. Furthermore, although an example is shown in which the peripheral image acquisition unit 11 and the peripheral imaging device 22 are provided, the peripheral imaging device 22 may not be provided as long as the peripheral image acquisition unit 11 has the function of the peripheral imaging device 22. .

第2実施形態では、対象物判定部15Bは、抽出対象物TeがPOIである否かを判定すると共に、抽出対象物Teの画像が視野画像取得部14Bにより取得された視野画像に含まれるか否かを判定する例を示したが、これに限定されない。例えば、対象物判定部は、抽出対象物がPOIである否かを判定せず、抽出対象物の画像が視野画像取得部により取得された視野画像に含まれるか否かのみを判定しても良い。このように判定する場合、抽出対象物がPOIでなくても、視野画像に含まれていると判定されれば、第1表示画像が生成される。 In the second embodiment, the target object determination unit 15B determines whether the extraction target Te is a POI or not, and determines whether the image of the extraction target Te is included in the visual field image acquired by the visual field image acquisition unit 14B. Although an example of determining whether or not is shown has been shown, the present invention is not limited to this. For example, the target object determination unit may not determine whether the extraction target is a POI, but only determine whether the image of the extraction target is included in the visual field image acquired by the visual field image acquisition unit. good. In this case, even if the extraction target is not a POI, if it is determined that it is included in the visual field image, the first display image is generated.

1A,1B,1C 表示画像生成装置
11 周辺画像取得部
12 発言データ取得部
13 対象物抽出部
14A,14B,14C 視野画像取得部
15A,15B,15C 対象物判定部
16A,16B,16C 存否判定部
17A,17B,17C 位置関係取得部
18A,18B,18C 表示画像生成部
19 POI情報記憶部
20 視線認識部
2A,2B,2C 車両
21 ナビゲーション装置
22 周辺撮像装置
23 姿勢取得装置
3A,3B,3C ユーザ用端末
31A,31B,31C 表示画像表示装置
32 視野画像取得装置
4 発言主体用端末
41 発言データ取得装置
1A, 1B, 1C Display image generation device 11 Surrounding image acquisition unit 12 Speech data acquisition unit 13 Object extraction unit 14A, 14B, 14C Visual field image acquisition unit 15A, 15B, 15C Object determination unit 16A, 16B, 16C Existence determination unit 17A, 17B, 17C Positional relationship acquisition unit 18A, 18B, 18C Display image generation unit 19 POI information storage unit 20 Line of sight recognition unit 2A, 2B, 2C Vehicle 21 Navigation device 22 Peripheral imaging device 23 Attitude acquisition device 3A, 3B, 3C User terminals 31A, 31B, 31C display image display device 32 visual field image acquisition device 4 speaker terminal 41 speech data acquisition device

Claims (14)

発言主体により発せられた発言に含まれる対象物を抽出対象物として特定し、当該抽出対象物に関する表示画像を生成する表示画像生成装置であって、
前記発言主体によりユーザに対して発せられた前記発言の発言データを取得する発言データ取得部と、
予め複数の対象物データを記憶し、複数の前記対象物データと前記発言データ取得部により取得された前記発言データとを対比して、前記発言データのうち前記対象物データと一致するデータを前記抽出対象物として抽出する対象物抽出部と、
前記ユーザの視野に対応する視野画像を少なくとも含む画像を取得する視野画像取得部と、
前記対象物抽出部により抽出された前記抽出対象物が前記視野画像に含まれるか否かを判定する対象物判定部と、
前記抽出対象物の位置に関する情報である抽出対象物情報を取得し、前記視野画像とは異なる当該抽出対象物情報を含む前記表示画像を生成する表示画像生成部と、を備え、
前記表示画像生成部は、前記対象物判定部による前記抽出対象物が前記視野画像に含まれるか否かの判定結果に基づいて、前記抽出対象物に関する前記表示画像の表示態様を決定し、前記抽出対象物が前記視野画像に含まれる場合と含まれない場合とで異なる前記表示態様を決定する
ことを特徴とする表示画像生成装置。
A display image generation device that identifies an object included in a statement uttered by a speaker as an extraction object, and generates a display image regarding the extraction object,
a utterance data acquisition unit that acquires utterance data of the utterance uttered to the user by the utterer;
A plurality of object data are stored in advance, and the plurality of object data and the statement data acquired by the statement data acquisition section are compared, and among the statement data, data that matches the target object data is selected from the statement data. an object extraction unit that extracts an object as an extraction object;
a visual field image acquisition unit that acquires an image including at least a visual field image corresponding to the visual field of the user;
a target object determination unit that determines whether the extraction target object extracted by the target object extraction unit is included in the visual field image;
a display image generation unit that acquires extraction target information that is information regarding the position of the extraction target and generates the display image that includes the extraction target information that is different from the visual field image;
The display image generation unit determines a display mode of the display image regarding the extraction target based on a determination result by the target object determination unit as to whether the extraction target is included in the visual field image, and determining the display mode that is different depending on whether or not the extraction target is included in the visual field image;
A display image generation device characterized by:
前記表示画像生成部は、前記抽出対象物が前記視野画像に含まれると前記対象物判定部により判定された場合に、前記抽出対象物そのものを強調する前記表示態様で前記抽出対象物情報を示した前記表示画像を生成する
ことを特徴とする請求項1に記載の表示画像生成装置。
The display image generation unit displays the extraction target information in the display mode that emphasizes the extraction target itself when the target object determining unit determines that the extraction target is included in the visual field image. The display image generation device according to claim 1, wherein the display image generation device generates the display image according to the present invention.
前記抽出対象物と前記ユーザとの相対的な位置関係を取得する位置関係取得部を備え、
前記表示画像生成部は、前記抽出対象物が前記視野画像に含まれないと前記対象物判定部により判定された場合に、前記位置関係を表示する前記表示態様で前記抽出対象物情報を示した前記表示画像を生成する
ことを特徴とする請求項1又は2に記載の表示画像生成装置。
comprising a positional relationship acquisition unit that acquires a relative positional relationship between the extraction target and the user;
The display image generation unit displays the extraction target information in the display mode that displays the positional relationship when the target object determination unit determines that the extraction target is not included in the visual field image. The display image generation device according to claim 1 or 2, wherein the display image generation device generates the display image.
前記表示画像生成部は、前記対象物判定部による前記抽出対象物が前記視野画像に含まれるか否かの判定結果に基づいて、前記視野画像から前記抽出対象物が前記ユーザにより視認可能であるか否かを示す情報を含む前記表示画像を生成する
ことを特徴とする請求項1から3までのいずれか一項に記載の表示画像生成装置。
The display image generation unit is configured to make the extraction target visible to the user from the visual field image based on a determination result of the target object determination unit as to whether the extraction target is included in the visual field image. The display image generation device according to any one of claims 1 to 3, wherein the display image is generated including information indicating whether or not.
前記抽出対象物が前記視野画像に含まれないと前記対象物判定部により判定された場合に、前記抽出対象物が予め設定された対象範囲内に存在するか否かを判定する存否判定部を備え、
前記表示画像生成部は、前記存否判定部による前記抽出対象物が前記対象範囲内に存在するか否かの判定結果に基づいて、前記抽出対象物情報の前記表示態様を決定する
ことを特徴とする請求項1から4までのいずれか一項に記載の表示画像生成装置。
an existence/nonexistence determination unit that determines whether or not the extraction target exists within a preset target range when the target object determination unit determines that the extraction target is not included in the visual field image; Prepare,
The display image generation unit determines the display mode of the extraction target information based on a determination result of the presence/absence determining unit as to whether or not the extraction target exists within the target range. The display image generation device according to any one of claims 1 to 4.
前記視野画像を含む前記ユーザの周辺の領域である周辺画像を取得して、取得した前記周辺画像を記憶する周辺画像取得部を備え、
前記存否判定部は、前記周辺画像取得部により取得された現在又は過去の前記周辺画像に基づいて、前記抽出対象物が前記対象範囲内に存在するか否かを判定する
ことを特徴とする請求項5に記載の表示画像生成装置。
comprising a peripheral image acquisition unit that acquires a peripheral image that is an area around the user including the visual field image, and stores the acquired peripheral image;
A claim characterized in that the presence/absence determination unit determines whether or not the extraction target exists within the target range based on the current or past peripheral images acquired by the peripheral image acquisition unit. Item 5. The display image generation device according to item 5.
前記抽出対象物と前記ユーザとの相対的な位置関係を取得する位置関係取得部を備え、
前記表示画像生成部は、前記抽出対象物が前記対象範囲内に存在すると前記存否判定部により判定された場合に、前記ユーザの位置又は前記ユーザの近傍の位置に設定される基準位置を基準として前記抽出対象物の位置の方向及び距離を含む前記位置関係を表示する前記表示態様で前記抽出対象物情報を示した前記表示画像を生成する
ことを特徴とする請求項5又は6に記載の表示画像生成装置。
comprising a positional relationship acquisition unit that acquires a relative positional relationship between the extraction target and the user;
The display image generation unit is configured to use a reference position set at the user's position or a position in the vicinity of the user as a reference when the presence/absence determining unit determines that the extraction target exists within the target range. The display according to claim 5 or 6, wherein the display image is generated that shows the extraction target information in the display mode that displays the positional relationship including the direction and distance of the position of the extraction target. Image generation device.
前記抽出対象物は地図上の位置に関連づけられたランドマークであるPOI(Points of Interest)であり、
前記抽出対象物の位置に関する情報を少なくとも含む前記POIのPOI情報を記憶するPOI情報記憶部を備え、
前記存否判定部は、前記POI情報記憶部により記憶された前記POI情報に基づいて、前記抽出対象物が前記対象範囲内に存在するか否かを判定する
ことを特徴とする請求項5から7までのいずれか一項に記載の表示画像生成装置。
The extraction target is a POI (Points of Interest) that is a landmark associated with a position on a map,
comprising a POI information storage unit that stores POI information of the POI including at least information regarding the location of the extraction target;
Claims 5 to 7, wherein the presence/absence determination unit determines whether or not the extraction target exists within the target range based on the POI information stored by the POI information storage unit. The display image generation device according to any one of the preceding items.
前記発言主体は人であり、
前記発言データは、人により前記ユーザに発せられた前記発言の発言信号データである
ことを特徴とする請求項1から8までのいずれか一項に記載の表示画像生成装置。
The subject of the statement is a person,
The display image generation device according to any one of claims 1 to 8, wherein the statement data is statement signal data of the statement made by a person to the user.
前記発言主体は、前記ユーザに対して前記発言を発する発言装置であり、
前記発言データは、前記発言として出力される出力文の内容を示す出力文データである
ことを特徴とする請求項1から8までのいずれか一項に記載の画像生成装置。
The utterance subject is a utterance device that utters the utterance to the user,
The image generation device according to any one of claims 1 to 8, wherein the comment data is output sentence data indicating the content of an output sentence output as the comment.
前記対象物判定部は、前記抽出対象物が前記視野画像に含まれるか否かの判定結果の情報を前記発言主体に出力する
ことを特徴とする請求項1から10までのいずれか一項に記載の画像生成装置。
11. The object determining unit outputs information on a determination result as to whether or not the extracted object is included in the visual field image to the speaker. The image generation device described.
前記発言データ取得部は、前記ユーザに対して前記発言を発した前記発言主体を特定する情報を取得し、
前記表示画像生成部は、前記発言データ取得部により取得された前記発言主体を特定する前記情報を含む前記表示画像を生成する
ことを特徴とする請求項1から11までのいずれか一項に記載の表示画像生成装置。
The utterance data acquisition unit acquires information specifying the utterance subject who uttered the utterance to the user,
The display image generating unit generates the display image including the information identifying the speaking subject acquired by the statement data acquisition unit, according to any one of claims 1 to 11. display image generation device.
前記視野画像を含む前記ユーザの周辺の領域である周辺画像を取得して、取得した前記周辺画像を記憶する周辺画像取得部と、
前記ユーザの視線を認識する視線認識部と、を備え、
前記視野画像取得部は、前記周辺画像取得部により取得された現在の前記周辺画像と前記視線認識部により認識された前記ユーザの現在の前記視線とに基づいて前記視野画像を取得する
ことを特徴とする請求項1から12までのいずれか一項に記載の表示画像生成装置。
a peripheral image acquisition unit that acquires a peripheral image that is an area around the user including the visual field image, and stores the acquired peripheral image;
a line of sight recognition unit that recognizes the line of sight of the user;
The visual field image acquisition unit acquires the visual field image based on the current peripheral image acquired by the peripheral image acquisition unit and the current line of sight of the user recognized by the line of sight recognition unit. The display image generation device according to any one of claims 1 to 12.
発言主体により発せられた発言に含まれる対象物を抽出対象物として特定し、当該抽出対象物に関する表示画像を生成する表示画像生成装置による表示画像生成方法であって、
前記発言主体によりユーザに対して発せられた発言の発言データを取得する発言データ取得ステップと、
予め記憶された複数の対象物データと取得された前記発言データとを対比して、前記発言データのうち前記対象物データと一致するデータを前記抽出対象物として抽出する対象物抽出ステップと、
前記ユーザの視野に対応する視野画像を取得する視野画像取得ステップと、
抽出された前記抽出対象物が前記視野画像に含まれるか否かを判定する対象物判定ステップと、
前記抽出対象物の位置に関する情報である抽出対象物情報を取得し、前記視野画像とは異なる当該抽出対象物情報を含む前記表示画像を生成する表示画像生成ステップと、を含み、
前記表示画像生成ステップにおいては、前記対象物判定ステップにおける前記抽出対象物が前記視野画像に含まれるか否かの判定結果に基づいて、前記抽出対象物に関する前記表示画像の表示態様を決定し、前記抽出対象物が前記視野画像に含まれる場合と含まれない場合とで異なる前記表示態様を決定する
ことを特徴とする表示画像生成方法。
A display image generation method using a display image generation device that identifies a target object included in a statement uttered by a speaker as an extraction target object, and generates a display image related to the extraction target object, the method comprising:
a utterance data acquisition step of acquiring utterance data of utterances uttered to the user by the utterer;
a target object extraction step of comparing a plurality of pre-stored target object data and the acquired utterance data, and extracting data that matches the target object data from among the utterance data as the extraction target;
a visual field image acquisition step of acquiring a visual field image corresponding to the user's visual field;
a target object determination step of determining whether the extracted extraction target object is included in the visual field image;
a display image generation step of acquiring extraction target information that is information regarding the position of the extraction target and generating the display image including the extraction target information different from the visual field image;
In the display image generation step, a display mode of the display image regarding the extraction target is determined based on a determination result of whether the extraction target is included in the visual field image in the target object determination step , determining the display mode that is different depending on whether or not the extraction target is included in the visual field image;
A display image generation method characterized by:
JP2019210845A 2019-11-21 2019-11-21 Display image generation device and display image generation method Active JP7418189B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019210845A JP7418189B2 (en) 2019-11-21 2019-11-21 Display image generation device and display image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019210845A JP7418189B2 (en) 2019-11-21 2019-11-21 Display image generation device and display image generation method

Publications (2)

Publication Number Publication Date
JP2021081372A JP2021081372A (en) 2021-05-27
JP7418189B2 true JP7418189B2 (en) 2024-01-19

Family

ID=75964915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019210845A Active JP7418189B2 (en) 2019-11-21 2019-11-21 Display image generation device and display image generation method

Country Status (1)

Country Link
JP (1) JP7418189B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113989103B (en) * 2021-10-25 2024-04-26 北京字节跳动网络技术有限公司 Model training method, image processing device, electronic equipment and medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041197A (en) 2013-08-21 2015-03-02 三菱電機株式会社 Display control device
WO2018235409A1 (en) 2017-06-22 2018-12-27 三菱電機株式会社 Risk information collection device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041197A (en) 2013-08-21 2015-03-02 三菱電機株式会社 Display control device
WO2018235409A1 (en) 2017-06-22 2018-12-27 三菱電機株式会社 Risk information collection device

Also Published As

Publication number Publication date
JP2021081372A (en) 2021-05-27

Similar Documents

Publication Publication Date Title
JP6763448B2 (en) Visually enhanced navigation
KR102019124B1 (en) Head mounted display and method for controlling the same
US20160054795A1 (en) Information display device
EP2596746A1 (en) Pupil detection device and pupil detection method
CN111681455B (en) Control method of electronic device, and recording medium
CN107015638A (en) Method and apparatus for being alarmed to head mounted display user
JP2005037181A (en) Navigation device, server, navigation system, and navigation method
US11734898B2 (en) Program, information processing method, and information processing terminal
CN110741424B (en) Dangerous information collecting device
WO2016199248A1 (en) Information presentation system and information presentation method
JP2020126166A (en) Agent system, information processing apparatus, information processing method, and program
US20230314156A1 (en) Information presentation method, information presentation system, and computer-readable medium
US20130135348A1 (en) Communication device, communication system, communication method, and communication program
KR20200101186A (en) Electronic apparatus and controlling method thereof
JP7418189B2 (en) Display image generation device and display image generation method
JP2001318594A (en) Walk support system for visually handicapped person and information recording medium
US10627898B2 (en) Control method, control device, system and motor vehicle comprising such a control device
KR20150125774A (en) Apparatus and method for voice guidance of the navigation system
US11643085B2 (en) Drive assist apparatus and data collection system
US20180293796A1 (en) Method and device for guiding a user to a virtual object
JP6623657B2 (en) Information providing apparatus, information providing system, and information providing method
JP2015161632A (en) Image display system, head-up display device, image display method, and program
WO2019221070A1 (en) Information processing device, information processing method, and information processing program
CN113129334A (en) Object tracking method and device, storage medium and wearable electronic equipment
JP7239013B2 (en) GUIDING DEVICE, GUIDING METHOD, PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240109

R150 Certificate of patent or registration of utility model

Ref document number: 7418189

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150