JP2022106885A - Image generation device - Google Patents

Image generation device Download PDF

Info

Publication number
JP2022106885A
JP2022106885A JP2022074956A JP2022074956A JP2022106885A JP 2022106885 A JP2022106885 A JP 2022106885A JP 2022074956 A JP2022074956 A JP 2022074956A JP 2022074956 A JP2022074956 A JP 2022074956A JP 2022106885 A JP2022106885 A JP 2022106885A
Authority
JP
Japan
Prior art keywords
image
point cloud
vehicle
cloud information
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022074956A
Other languages
Japanese (ja)
Other versions
JP7333445B2 (en
Inventor
真武 下平
Masatake Shimodaira
貴 菊地
Takashi Kikuchi
英記 永田
Hideki Nagata
拡昌 橋本
Hiromasa Hashimoto
純 住田
Jun Sumida
伸一郎 ▲高▼▲浜▼
Shinichiro Takahama
智也 大石
Tomoya Oishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017249681A external-priority patent/JP2019117434A/en
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2022074956A priority Critical patent/JP7333445B2/en
Publication of JP2022106885A publication Critical patent/JP2022106885A/en
Application granted granted Critical
Publication of JP7333445B2 publication Critical patent/JP7333445B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image generation device capable of improving entertainment by using so-called point cloud information.
SOLUTION: In an information processing device 1, a processing unit 12 acquires point cloud information from an own vehicle Ca and other vehicle Cb1, Cb2, or a road side device 5 and a traffic signal 6, and generates a three-dimensional map image around the own vehicle Ca based on the acquired point cloud information to display a three-dimensional map image on a display unit 14.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2022,JPO&INPIT

Description

特許法第30条第2項適用申請有り 平成29年10月25日東京国際展示場において開催された第45回東京モーターショー2017で発表Patent Law Article 30, Paragraph 2 Application Applicable Announced at the 45th Tokyo Motor Show 2017 held at the Tokyo International Exhibition Center on October 25, 2017

本発明は、物体の外観画像を生成する生成部を備えた画像生成装置に関する。 The present invention relates to an image generator including a generator that generates an external image of an object.

従来、レーザレーダを用いて、車両の前方等の検出領域(すなわち、物体を検出するための対象となる領域)に存在する物体上の複数の点に対して3次元空間上の位置を取得し、その物体を認識する技術が提案されている。例えば、特許文献1には、前記位置が取得された点をクラスタリングしてクラスタ点群を取得し、そのクラスタ点群に係る測定量の時間的変動に基づき、クラスタ点群に対応する物体を識別することとしている。 Conventionally, a laser radar is used to acquire positions in three-dimensional space with respect to a plurality of points on an object existing in a detection area such as the front of a vehicle (that is, a target area for detecting an object). , A technique for recognizing the object has been proposed. For example, in Patent Document 1, the points from which the positions have been acquired are clustered to acquire a cluster point cloud, and an object corresponding to the cluster point cloud is identified based on the temporal variation of the measured amount related to the cluster point cloud. I'm supposed to do it.

特開2017-151043号公報Japanese Unexamined Patent Publication No. 2017-151043

上述したように、レーザレーダ(以下、LiDAR(Light Detection And Ranging)とも称する)は、移動体としての車両等の周辺に存在する物体の認識に用いられている。しかしながら、レーザレーダによって取得された情報(所謂点群情報)は、このような物体の認識以外に利用されてはいない。 As described above, the laser radar (hereinafter, also referred to as LiDAR (Light Detection And Ranging)) is used for recognizing an object existing in the vicinity of a vehicle or the like as a moving body. However, the information acquired by the laser radar (so-called point cloud information) is not used for anything other than recognition of such an object.

一方で、今後自動運転機能を搭載した車両において、自動運転中の移動時間におけるエンタテインメント性の向上が期待されている。しかし、レーザレーダによって取得された情報を、エンタテインメント性の向上に利用するという思想は、従来は存在していなかった。 On the other hand, in the future, vehicles equipped with an automatic driving function are expected to improve entertainment during travel time during automatic driving. However, the idea of using the information acquired by the laser radar to improve entertainment has not existed in the past.

本発明が解決しようとする課題としては、所謂点群情報を利用して、エンタテインメント性を向上させることが一例として挙げられる。 As an example of the problem to be solved by the present invention, it is possible to improve the entertainment property by using the so-called point cloud information.

上記課題を解決するために、請求項1に記載の発明は、移動体が有する表示部に表示される画像を生成する生成部を備える画像生成装置であって、前記画像生成装置が配置された前記移動体の外部にある外部装置を含む複数の装置から、当該複数の装置のそれぞれの周囲の物体を複数の点により表した点群情報を取得する取得部と、前記取得部によって取得された前記点群情報に基づき、少なくとも前記移動体の周辺を含む三次元空間を示す三次元空間画像を生成する生成部と、を備えることを特徴としている。 In order to solve the above problem, the invention according to claim 1 is an image generation device including a generation unit that generates an image displayed on a display unit of a moving body, and the image generation device is arranged. An acquisition unit that acquires point group information representing an object around each of the plurality of devices from a plurality of devices including an external device outside the moving body by a plurality of points, and an acquisition unit acquired by the acquisition unit. It is characterized by including a generation unit that generates a three-dimensional space image showing a three-dimensional space including at least the periphery of the moving body based on the point group information.

請求項8に記載の発明は、移動体が有する表示部に表示される画像を生成する画像生成装置で実行される画像生成方法であって、前記画像生成装置が配置された前記移動体の外部にある外部装置を含む複数の装置から、当該複数の装置のそれぞれの周囲の物体を複数の点により表した点群情報を取得する取得工程と、前記取得工程において取得された前記点群情報に基づき、少なくとも前記移動体の周辺を含む三次元空間を示す前記移動体周辺の三次元空間画像を生成する生成工程と、を含むことを特徴としている。 The invention according to claim 8 is an image generation method executed by an image generation device that generates an image displayed on a display unit of the moving body, and is outside the moving body in which the image generating device is arranged. In the acquisition step of acquiring the point group information in which the objects around each of the plurality of devices are represented by a plurality of points from the plurality of devices including the external device in the above, and the point group information acquired in the acquisition step. Based on this, it is characterized by including, at least, a generation step of generating a three-dimensional space image around the moving body showing a three-dimensional space including the periphery of the moving body.

請求項9に記載の発明は、請求項8に記載の画像生成方法を、コンピュータにより実行させることを特徴としている。 The invention according to claim 9 is characterized in that the image generation method according to claim 8 is executed by a computer.

本発明の第1の実施例にかかる情報処理装置が搭載された車両及び路側機の概略構成図である。It is a schematic block diagram of the vehicle and the roadside machine equipped with the information processing apparatus which concerns on 1st Embodiment of this invention. 図1に示された情報処理装置のブロック構成図ある。It is a block block diagram of the information processing apparatus shown in FIG. 図1に示された情報処理装置における三次元モデルの生成と表示の動作のフローチャートである。It is a flowchart of the operation of the generation and display of the 3D model in the information processing apparatus shown in FIG. 本実施例における三次元モデル画像の表示の具体例の前提となる状況の説明図である。It is explanatory drawing of the situation which is the premise of the concrete example of the display of the three-dimensional model image in this embodiment. 図4の時刻t1における三次元モデル画像の表示の具体例である。This is a specific example of displaying a three-dimensional model image at time t1 in FIG. 図4の時刻t2における三次元モデル画像の表示の具体例である。This is a specific example of displaying a three-dimensional model image at time t2 in FIG. 図4の時刻t3における三次元モデル画像の表示の具体例である。This is a specific example of displaying a three-dimensional model image at time t3 in FIG. 本発明の第2の実施例にかかる情報処理装置における三次元モデルの生成と表示の動作のフローチャートである。It is a flowchart of the operation of the generation and display of the 3D model in the information processing apparatus which concerns on 2nd Embodiment of this invention. 本実施例における三次元地図画像の表示の具体例の前提となる状況の説明図である。It is explanatory drawing of the situation which is the premise of the concrete example of the display of the three-dimensional map image in this embodiment. 図9のアングルA1における三次元地図画像の表示の具体例である。This is a specific example of displaying a three-dimensional map image at the angle A1 of FIG. 図9のアングルA2における三次元地図画像の表示の具体例である。This is a specific example of displaying a three-dimensional map image at the angle A2 of FIG. 図9のアングルA3における三次元地図画像の表示の具体例である。This is a specific example of displaying a three-dimensional map image at the angle A3 of FIG. サーバ装置を利用した場合の構成例である。This is a configuration example when a server device is used.

以下、本発明の一実施形態にかかる画像生成装置を説明する。本発明の一実施形態にかかる画像生成装置は、取得部が画像生成装置が配置された移動体の外部にある外部装置から、当該外部装置の周囲の物体を複数の点により表した点群情報を取得し、生成部が取得部によって取得された点群情報に基づいて外観画像を生成する。このようにすることにより、自身が取得した点群情報によらない、他の移動体等が取得した点群情報に基づいた車両や地物等の外観の画像を生成することができる。このような画像は、移動体の搭乗者からは本来見えない情報を含むものであり、あたかも外から移動体の方向を見ているような表示、演出が可能となる。したがって、点群情報を利用して、エンタテインメント性を向上させることができる。 Hereinafter, an image generator according to an embodiment of the present invention will be described. In the image generation device according to the embodiment of the present invention, point group information in which an acquisition unit represents an object around the external device by a plurality of points from an external device outside the moving body in which the image generation device is arranged. Is acquired, and the generation unit generates an appearance image based on the point group information acquired by the acquisition unit. By doing so, it is possible to generate an image of the appearance of a vehicle, a feature, or the like based on the point cloud information acquired by another moving body or the like, which does not depend on the point cloud information acquired by itself. Such an image includes information that is originally invisible to the passengers of the moving body, and can be displayed and produced as if the direction of the moving body is being viewed from the outside. Therefore, the point cloud information can be used to improve the entertainment property.

また、周囲の物体には、移動体を含み、生成部は、少なくとも移動体を示す移動体画像を含んだ外観画像を生成してもよい。このようにすることにより、移動体の搭乗者からは通常視認することができない、例えば、移動体が現在走行している状態を示す画像を外観画像として生成することができる。 Further, the surrounding object may include a moving body, and the generation unit may generate an appearance image including at least a moving body image showing the moving body. By doing so, it is possible to generate an image showing a state in which the moving body is currently traveling, which is normally invisible to the passengers of the moving body, as an external appearance image.

また、外部装置は、移動体とは異なる他の移動体に搭載され、取得部は、他の移動体から点群情報を取得してもよい。このようにすることにより、移動体の周囲を走行している他の移動体が取得した点群情報に基づいて外観画像を生成することができる。 Further, the external device may be mounted on another moving body different from the moving body, and the acquisition unit may acquire the point cloud information from the other moving body. By doing so, it is possible to generate an appearance image based on the point cloud information acquired by another moving body traveling around the moving body.

また、外部装置は、移動体の走行路に設置された路側機に搭載され、取得部は、路側機から点群情報を取得してもよい。このようにすることにより、他の移動体が少ない場合であっても、路側機が取得した点群情報に基づいて外観画像を生成することができる。 Further, the external device may be mounted on the roadside machine installed on the traveling path of the moving body, and the acquisition unit may acquire the point cloud information from the roadside machine. By doing so, it is possible to generate an appearance image based on the point cloud information acquired by the roadside machine even when there are few other moving objects.

また、生成部は、生成対象とする物体の外観画像の生成の度合いが所定値以上となった場合は、点群情報の取得を停止してもよい。このようにすることにより、外観画像としてある程度完成した場合は、点群情報の取得を停止して外部機器との通信量及び自装置の処理負荷を削減することができる。 In addition, the generation unit may stop the acquisition of the point cloud information when the degree of generation of the appearance image of the object to be generated exceeds a predetermined value. By doing so, when the appearance image is completed to some extent, it is possible to stop the acquisition of the point cloud information and reduce the amount of communication with the external device and the processing load of the own device.

また、外観画像のアングルを調整操作可能な操作部を備え、表示部は、操作部によるアングル調整に応じて外観画像のアングルを変化させて表示するようにしてもよい。このようにすることにより、例えば移動体の外観画像を様々なアングルから視認するように表示をさせることが可能となる。したがって、搭乗者等の好みに合わせてアングルを変化させることができるので、飽きさせない表示をすることができる。 Further, an operation unit capable of adjusting the angle of the appearance image may be provided, and the display unit may display the appearance image by changing the angle according to the angle adjustment by the operation unit. By doing so, for example, it is possible to display the appearance image of the moving body so as to be visually recognized from various angles. Therefore, since the angle can be changed according to the preference of the passenger or the like, the display can be displayed without getting bored.

また、本発明の一実施形態にかかる画像生成方法は、取得工程で画像生成装置が配置された移動体の外部にある外部装置から、当該外部装置の周囲の物体を複数の点により表した点群情報を取得し、生成工程で取得部によって取得された点群情報に基づいて外観画像を生成する。このようにすることにより、自身が取得した点群情報によらない、他の移動体等が取得した点群情報に基づいた車両や地物等の外観の画像を生成することができる。このような画像は、移動体の搭乗者からは本来見えない情報を含むものであり、あたかも外から移動体の方向を見ているような表示、演出が可能となる。したがって、点群情報を利用して、エンタテインメント性を向上させることができる。 Further, the image generation method according to the embodiment of the present invention is a point in which an object around the external device is represented by a plurality of points from an external device outside the moving body in which the image generation device is arranged in the acquisition step. Group information is acquired, and an appearance image is generated based on the point group information acquired by the acquisition unit in the generation process. By doing so, it is possible to generate an image of the appearance of a vehicle, a feature, or the like based on the point cloud information acquired by another moving body or the like, which does not depend on the point cloud information acquired by itself. Such an image includes information that is originally invisible to the passengers of the moving body, and can be displayed and produced as if the direction of the moving body is being viewed from the outside. Therefore, the point cloud information can be used to improve the entertainment property.

また、上述した画像生成方法をコンピュータにより実行させる画像生成プログラムとしてもよい。このようにすることにより、コンピュータを利用して自身が取得した点群情報によらない、他の移動体等が取得した点群情報に基づいた車両や地物等の外観の画像を生成することができる。このような画像は、移動体の搭乗者からは本来見えない情報を含むものであり、あたかも外から移動体の方向を見ているような表示、演出が可能となる。したがって、点群情報を利用して、エンタテインメント性を向上させることができる。 Further, it may be an image generation program in which the above-mentioned image generation method is executed by a computer. By doing so, it is possible to generate an image of the appearance of a vehicle, a feature, etc. based on the point cloud information acquired by another moving body, etc., without relying on the point cloud information acquired by itself using a computer. Can be done. Such an image includes information that is originally invisible to the passengers of the moving body, and can be displayed and produced as if the direction of the moving body is being viewed from the outside. Therefore, the point cloud information can be used to improve the entertainment property.

本発明の第1の実施例にかかる画像生成装置としての情報処理装置1を図1~図7を参照して説明する。情報処理装置1は、図1に示したように、移動体としての車両C(Ca、Cb)に搭載されている。なお、本実施例において、車両Cは、常時自律的に走行可能な車両(自動運転車両)又は、自動運転と手動運転とを切り替え可能な車両として説明する。また、図1において、車両Caは以後の説明では必要に応じて自車両(自車)として扱い、車両Cbは他車両(他車)として扱う。 The information processing device 1 as the image generation device according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 7. As shown in FIG. 1, the information processing device 1 is mounted on a vehicle C (Ca, Cb) as a moving body. In this embodiment, the vehicle C will be described as a vehicle that can always travel autonomously (automated driving vehicle) or a vehicle that can switch between automatic driving and manual driving. Further, in FIG. 1, the vehicle Ca is treated as a own vehicle (own vehicle) as necessary in the following description, and the vehicle Cb is treated as another vehicle (other vehicle).

また、車両Cには、ライダ2が搭載されている。ライダ2は、当該ライダ2が搭載された周囲に存在する物体を認識するためのセンサであり、LiDAR(Light Detection And Ranging)とも表記される。ライダ2は、レーザ光等の光を照射してその光の反射光により、外界に存在する物体までの距離を離散的に測定し、当該物体の位置や形状等を三次元の点群として認識する公知のセンサである。したがって、ライダ2で取得された点群は車両Cが移動する周囲に存在する建物や道路等の構造物を含む地物を複数の点により三次元状に表した情報(点群情報)となる。尚、ライダ2は、自車が走行している道路上の標識や道路に沿って存在する建築物や街路樹等の地物以外にも、自車の周辺に存在する歩行者や他車等を認識してもよい。 Further, the rider 2 is mounted on the vehicle C. The lidar 2 is a sensor for recognizing an object existing around the lidar 2 mounted on the lidar 2, and is also referred to as LiDAR (Light Detection And Ranging). The rider 2 irradiates light such as laser light, measures the distance to an object existing in the outside world discretely by the reflected light of the light, and recognizes the position and shape of the object as a three-dimensional point group. It is a known sensor. Therefore, the point cloud acquired by the rider 2 is information (point cloud information) in which features including structures such as buildings and roads existing around the vehicle C move are represented three-dimensionally by a plurality of points. .. In addition to the signs on the road on which the vehicle is traveling and features such as buildings and roadside trees that exist along the road, the rider 2 includes pedestrians and other vehicles that exist in the vicinity of the vehicle. May be recognized.

図1では主に車両Cの前方の物体を検出するライダ2a、主に車両Cの後方の物体を検出するライダ2b、主に車両Cの左側方の物体を検出するライダ2c、主に車両Cの右側方の物体を検出するライダ2dが記載されている。ライダ2の搭載位置や数は図1に限らず他の配置や数であってもよい。 In FIG. 1, a rider 2a that mainly detects an object in front of the vehicle C, a rider 2b that mainly detects an object behind the vehicle C, a rider 2c that mainly detects an object on the left side of the vehicle C, and mainly a vehicle C. A rider 2d that detects an object on the right side of is described. The mounting position and number of riders 2 are not limited to FIG. 1, and may be other arrangements and numbers.

また、本実施例では、ライダは車両C以外に路側機5としても設置されている。路側機5として設置されるのは、例えば信号機や高速道路等における合流地点や、各種道路標識や看板等が挙げられる。図1の場合、路側機5は、上下線それぞれに路側機5a、路側機5bとして設置されている。 Further, in this embodiment, the rider is installed as a roadside machine 5 in addition to the vehicle C. Examples of the roadside unit 5 installed include a confluence point in a traffic light, an expressway, or the like, various road signs, signs, and the like. In the case of FIG. 1, the roadside machine 5 is installed as a roadside machine 5a and a roadside machine 5b on the upper and lower lines, respectively.

図2に本実施例にかかる情報処理装置1の機能構成図を示す。情報処理装置1は、通信部11と、処理部12と、記憶部13と、表示部14と、操作部15と、I/F16と、を備えている。 FIG. 2 shows a functional configuration diagram of the information processing apparatus 1 according to the present embodiment. The information processing device 1 includes a communication unit 11, a processing unit 12, a storage unit 13, a display unit 14, an operation unit 15, and an I / F 16.

通信部11は、他車両である車両Cbや路側機5から点群情報等を受信する。通信部11は、例えば車車間通信や路車間通信により点群情報を受信することができる。或いは、Bluetooth(登録商標)やWi-Fi(登録商標)等の既存の無線通信により点群情報を受信してもよい。 The communication unit 11 receives point cloud information and the like from the vehicle Cb, which is another vehicle, and the roadside unit 5. The communication unit 11 can receive the point cloud information by, for example, vehicle-to-vehicle communication or road-to-vehicle communication. Alternatively, the point cloud information may be received by existing wireless communication such as Bluetooth (registered trademark) or Wi-Fi (registered trademark).

処理部12は、例えばCPU(Central Processing Unit)とメモリ等を有するマイクロコントローラ等により構成されている。処理部12は、通信部11が受信した点群情報と、GPS受信機3で検出した車両Caの現在位置と、記憶部13に記憶されている地図情報と、に基づいて、受信した点群情報から自車である車両Caにかかる部分を抜き出して、その抜き出した点群情報に基づいて車両Caの外観画像としての三次元モデル画像を生成する。即ち、処理部12は、物体の外観画像を生成する生成部として機能する。車両Caの三次元モデル画像を生成についての詳細は後述する。 The processing unit 12 is composed of, for example, a CPU (Central Processing Unit), a microcontroller having a memory, and the like. The processing unit 12 receives the point group information based on the point group information received by the communication unit 11, the current position of the vehicle Ca detected by the GPS receiver 3, and the map information stored in the storage unit 13. A portion related to the vehicle Ca, which is the own vehicle, is extracted from the information, and a three-dimensional model image as an external image of the vehicle Ca is generated based on the extracted point group information. That is, the processing unit 12 functions as a generation unit that generates an appearance image of the object. Details of generating a three-dimensional model image of the vehicle Ca will be described later.

記憶部13は、ハードディスクドライブやSSD(Solid State Drive)等により構成される大容量記憶装置である。記憶部13は、車両Cが自律的に走行可能な程度の詳細な情報を含む地図データが記憶されている。そして、この地図データは、三次元の地図データであり、地図データに含まれる地物等には、絶対的な位置情報(緯度経度情報)が含まれている。 The storage unit 13 is a large-capacity storage device composed of a hard disk drive, an SSD (Solid State Drive), or the like. The storage unit 13 stores map data including detailed information to the extent that the vehicle C can autonomously travel. The map data is three-dimensional map data, and the features and the like included in the map data include absolute position information (latitude and longitude information).

表示部14は、例えばセンターコンソールに設置されるディスプレイ装置やHUD(Head-Up Display)等で構成されている。表示部14は、処理部12で生成された車両Caの三次元モデル画像等を表示する。なお、以下の説明では、出力部が表示部14に出力することとして説明するが、通信部11を出力部として機能させ、通信部11が自車Caの搭乗者が所持する端末機器等に処理部12で生成された車両Caの三次元モデル画像等を無線により出力するようにしてもよい。この場合は、搭乗者が所持する端末機器等が移動体内に配置された表示部となる。また、表示部14は、車両Caのフロントガラスやドアガラス、サンルーフガラス等の、車両Caが有するガラス部であっても良い。このように、表示部4は、車両内に固定されている表示装置や投影等により表示可能な部位に限らず、車内に持ち込まれている端末等でもよく、つまりは車両が有していればよい。 The display unit 14 is composed of, for example, a display device installed on a center console, a HUD (Head-Up Display), or the like. The display unit 14 displays a three-dimensional model image or the like of the vehicle Ca generated by the processing unit 12. In the following description, it is assumed that the output unit outputs to the display unit 14, but the communication unit 11 functions as the output unit, and the communication unit 11 processes the terminal equipment or the like possessed by the passenger of the own vehicle Ca. The three-dimensional model image of the vehicle Ca generated by the unit 12 may be output wirelessly. In this case, the terminal device or the like possessed by the passenger becomes a display unit arranged in the moving body. Further, the display unit 14 may be a glass portion of the vehicle Ca, such as a windshield, a door glass, a sunroof glass, etc. of the vehicle Ca. In this way, the display unit 4 is not limited to a display device fixed in the vehicle or a part that can be displayed by projection or the like, or may be a terminal or the like brought into the vehicle, that is, if the vehicle has it. good.

操作部15は、例えばタッチパネルや押しボタン等で構成されている。操作部15は、表示部14に表示された車両Caの三次元モデル画像等のアングルを調整等の操作をすることができる。 The operation unit 15 is composed of, for example, a touch panel, a push button, or the like. The operation unit 15 can perform operations such as adjusting the angle of the three-dimensional model image of the vehicle Ca displayed on the display unit 14.

I/F16は、車両Cに設置されているライダ2、GPS(Global Positioning System)受信機3、その他のセンサ類4との接続インターフェース(I/F)である。I/F16は、ライダ2、GPS受信機3等から出力された信号、データ等を処理部12へ出力するデータ形式や信号レベルに変換する。 The I / F 16 is a connection interface (I / F) with a rider 2, a GPS (Global Positioning System) receiver 3, and other sensors 4 installed in the vehicle C. The I / F 16 converts signals, data, and the like output from the rider 2, GPS receiver 3, and the like into a data format and signal level to be output to the processing unit 12.

GPS受信機3は、周知のように複数のGPS衛星から受信した電波により現在位置を表す緯度及び経度の位置情報を検出する。 As is well known, the GPS receiver 3 detects the position information of latitude and longitude representing the current position by radio waves received from a plurality of GPS satellites.

その他のセンサ類4としては、車両の姿勢(向きなど)を認識して他のセンサの取得データを補正するための慣性計測装置(IMU:Inertial Measurement Unit)やジャイロセンサ、車両Cの外界の状況を表す色付きの画像を生成する車載カメラ、車両Cの加速度を検出する加速度センサ、車両Cの速度を検出する速度センサ、などが挙げられる。 Other sensors 4 include an inertial measurement unit (IMU) for recognizing the posture (orientation, etc.) of the vehicle and correcting the acquired data of other sensors, a gyro sensor, and the external situation of the vehicle C. Examples thereof include an in-vehicle camera that generates a colored image representing the above, an acceleration sensor that detects the acceleration of the vehicle C, a speed sensor that detects the speed of the vehicle C, and the like.

次に、上述した構成の情報処理装置1における三次元モデルの生成と表示の動作(画像生成方法)について図3のフローチャートを参照して説明する。図3のフローチャートは、例えば処理部12で実行されるコンピュータプログラムとして構成されている。 Next, the operation of generating and displaying the three-dimensional model (image generation method) in the information processing apparatus 1 having the above-described configuration will be described with reference to the flowchart of FIG. The flowchart of FIG. 3 is configured as, for example, a computer program executed by the processing unit 12.

まず、ステップS11において、処理部12は、他車Cbや路側機5a、5bから点群情報を通信部11を介して取得する。即ち、処理部12は、情報処理装置1を備える自車Ca(移動体)の外部にある他車Cb等(外部装置)から当該他車Cb等(外部装置)の周囲の物体を複数の点により表した点群情報を取得する取得部として機能する。この点群情報は、例えは外部装置が有するライダによって取得される点群情報である。この点群情報の取得は、例えば他車Cbや路側機5a、5bが点群情報をブロードキャストで送信して、そのブロードキャストで送信された点群情報を通信部11が受信して取得する。他車Cb等が送信する点群情報には、点群の情報(距離、方向等)だけでなく送信元の識別情報や送信元の位置情報も含まれている。 First, in step S11, the processing unit 12 acquires point cloud information from the other vehicle Cb and the roadside machines 5a and 5b via the communication unit 11. That is, the processing unit 12 points a plurality of objects around the other vehicle Cb or the like (external device) from the other vehicle Cb or the like (external device) outside the own vehicle Ca (moving body) provided with the information processing device 1. It functions as an acquisition unit that acquires the point group information represented by. This point cloud information is, for example, point cloud information acquired by a rider possessed by an external device. The point cloud information is acquired, for example, by another vehicle Cb or roadside units 5a and 5b transmitting the point cloud information by broadcasting, and the communication unit 11 receiving and acquiring the point cloud information transmitted by the broadcast. The point cloud information transmitted by the other vehicle Cb or the like includes not only the point cloud information (distance, direction, etc.) but also the source identification information and the source position information.

次に、ステップS12において、処理部12は、自車Caの位置情報をGPS受信機3からI/F16を介して取得する。 Next, in step S12, the processing unit 12 acquires the position information of the own vehicle Ca from the GPS receiver 3 via the I / F 16.

次に、ステップS13において、処理部12が三次元モデル画像を生成する。三次元モデル画像の生成は、まず、受信した点群情報から自車Caの部分にかかる点群を抜き出す。これは、ステップS11で取得した点群情報に含まれる送信元の位置情報とステップS12で取得した自車Caの位置情報から送信元から自車Caへの方位と距離が分かる。点群情報には、本来距離と方向の情報が各点に含まれるため、自車Caの方位と距離に合致する点群を抜き出せばよい。また、この処理は複数の送信元がある場合はそれぞれの送信元の点群情報について行われる。そして、抜き出した点群に対して周知の方法によりポリゴン等によりモデリングをして三次元モデル画像を生成する。複数の送信元がある場合は、点群を合成あるいはモデリングの際に合成して三次元モデル画像を生成してもよい。また、当該処理においては、少なくとも自車Caの部分にかかる点群を抜き出せばよく、例えば自車Ca及びその周囲に存在する地物等を含む背景にかかる点群を抜き出すようにしてもよい。 Next, in step S13, the processing unit 12 generates a three-dimensional model image. In the generation of the three-dimensional model image, first, the point cloud related to the portion of the own vehicle Ca is extracted from the received point cloud information. From the position information of the transmission source included in the point cloud information acquired in step S11 and the position information of the own vehicle Ca acquired in step S12, the direction and distance from the transmission source to the own vehicle Ca can be known. Since the point cloud information originally includes information on the distance and direction at each point, it is sufficient to extract the point cloud that matches the direction and distance of the own vehicle Ca. Further, when there are a plurality of sources, this process is performed for the point cloud information of each source. Then, the extracted point cloud is modeled by a polygon or the like by a well-known method to generate a three-dimensional model image. When there are a plurality of sources, the point cloud may be combined at the time of compositing or modeling to generate a three-dimensional model image. Further, in the process, at least the point cloud related to the portion of the own vehicle Ca may be extracted, and for example, the point cloud related to the background including the own vehicle Ca and the features existing around it may be extracted.

次に、ステップS14において、処理部12は、ステップS13で生成した三次元モデル画像を表示部14に出力して表示させる。即ち、処理部12は、三次元モデル画像(外観画像)を自車Ca(移動体)内に配置された表示部14へ出力する出力部として機能する。 Next, in step S14, the processing unit 12 outputs the three-dimensional model image generated in step S13 to the display unit 14 and displays it. That is, the processing unit 12 functions as an output unit that outputs a three-dimensional model image (appearance image) to the display unit 14 arranged in the own vehicle Ca (moving body).

そして、図3のフローチャートは逐次繰り返して実行することで、表示部14に表示する三次元モデル画像が略リアルタイムに更新され、例えば自車Caが町中を走行するような演出や表示をすることができる。 Then, by executing the flowchart of FIG. 3 sequentially and repeatedly, the three-dimensional model image displayed on the display unit 14 is updated in substantially real time, and for example, an effect or display such that the own vehicle Ca runs in the town is performed. Can be done.

上述した説明から明らかなように、ステップS11が取得工程、ステップS13が生成工程、ステップS14が出力工程として機能する。 As is clear from the above description, step S11 functions as an acquisition step, step S13 functions as a generation step, and step S14 functions as an output step.

次に、上述した三次元モデル画像の表示の具体例を図4~図7を参照して説明する。図4は、具体例の状況を説明した図である。図4において、左側の車線を自車Caが走行し、右側の車線を他車Cbが走行している。また、他車Cbのライダ2の検出範囲をAとする。このとき、自車Caが他車Cbを追い抜いた場合における各時刻t1~t3の三次元モデル画像を図5~図7に示す。図5~図7に例示された三次元モデル画像は、それぞれ異なるアングル(視点)から、自車Caを見たような画像を示している。 Next, a specific example of displaying the above-mentioned three-dimensional model image will be described with reference to FIGS. 4 to 7. FIG. 4 is a diagram illustrating a situation of a specific example. In FIG. 4, the own vehicle Ca is traveling in the left lane, and the other vehicle Cb is traveling in the right lane. Further, the detection range of the rider 2 of the other vehicle Cb is set to A. At this time, FIGS. 5 to 7 show three-dimensional model images of each time t1 to t3 when the own vehicle Ca overtakes the other vehicle Cb. The three-dimensional model images illustrated in FIGS. 5 to 7 show images as if the vehicle Ca was viewed from different angles (viewpoints).

時刻t1は、他車Cbから見て左後方に自車Caが走行している。そのため図5のように、点群情報として、自車Caの右斜め前方方向からの点群が取得されるため、自車Caを右斜め前方から見たような三次元モデル画像となる。 At time t1, the own vehicle Ca is traveling to the left rear of the other vehicle Cb. Therefore, as shown in FIG. 5, since the point cloud from the diagonally right front direction of the own vehicle Ca is acquired as the point cloud information, the three-dimensional model image is obtained as if the own vehicle Ca was viewed from the diagonally right front.

時刻t2は、他車Cbから見て左側に自車Caが走行している。そのため図6のように、点群情報として、自車Caの右方向からの点群が取得されるため、自車Caを右から見たような三次元モデル画像となる。なお、時刻t2において、前の時刻である時刻t1で取得した点群情報も参照して三次元モデル画像を生成してもよい。 At time t2, the own vehicle Ca is traveling on the left side when viewed from the other vehicle Cb. Therefore, as shown in FIG. 6, since the point cloud from the right direction of the own vehicle Ca is acquired as the point cloud information, the three-dimensional model image as if the own vehicle Ca is viewed from the right is obtained. At time t2, a three-dimensional model image may be generated with reference to the point cloud information acquired at time t1, which is the previous time.

時刻t3は、他車Cbから見て左前方に自車Caが走行している。そのため図5のように、点群情報として、自車Caの右斜め前方方向からの点群が取得されるため、自車Caを右斜め後方から見たような三次元モデル画像となる。なお、時刻t3においても、前の時刻である時刻t1、t2で取得した点群情報も参照して三次元モデル画像を生成してもよい。 At time t3, the own vehicle Ca is traveling to the left front when viewed from the other vehicle Cb. Therefore, as shown in FIG. 5, since the point cloud from the diagonally right front direction of the own vehicle Ca is acquired as the point cloud information, the three-dimensional model image as if the own vehicle Ca is viewed from the diagonally right rear direction is obtained. At time t3, the three-dimensional model image may be generated by referring to the point cloud information acquired at the previous times t1 and t2.

なお、本実施例では、図5~図7に示したように外観画像としては、自車Caを点群情報からモデリングした三次元モデル画像としているが、点群をそのまま自車Caの形状となるような表示をした画像であってもよいし、ワイヤーフレーム等であってもよい。つまり、本実施例における外観画像とは、対象物の外観形状が識別可能である画像であればよい。 In this embodiment, as shown in FIGS. 5 to 7, the external image is a three-dimensional model image in which the own vehicle Ca is modeled from the point cloud information, but the point cloud is used as it is as the shape of the own vehicle Ca. It may be an image in which the image is displayed, or it may be a wire frame or the like. That is, the appearance image in this embodiment may be an image in which the appearance shape of the object can be identified.

また、図5~図7において、自車Ca以外の背景部分は、各時刻で取得した点群情報のうち自車Caとして抜き出した部分以外から生成してもよいし、取得した位置情報に基づいて記憶部13に記憶されている地図データから該当する建物等の地物を抜き出して表示してもよい。また、背景部分は、車両Caのようにモデリングした三次元の画像に限らず、点群をそのまま表示したような画像であってもよいし、ワイヤーフレーム等であってもよい。 Further, in FIGS. 5 to 7, the background portion other than the own vehicle Ca may be generated from a portion other than the portion extracted as the own vehicle Ca from the point cloud information acquired at each time, or is based on the acquired position information. The feature such as the corresponding building may be extracted from the map data stored in the storage unit 13 and displayed. Further, the background portion is not limited to a three-dimensional image modeled like the vehicle Ca, and may be an image in which a point cloud is displayed as it is, or may be a wire frame or the like.

そして、利用者は、操作部15による操作によって、表示される三次元モデル画像のアングルを変更することができる。例えば、表示部14は、操作部15が利用者から受け付けたアングルに関する情報に基づき、図5から図7に示す三次元モデル画像を切り換えて表示する。即ち、表示部14は、利用者が操作部15を操作することによって指定するアングルに対応する三次元モデル画像を表示するように制御される。したがって、自車Caの搭乗者の好みに合わせて表示される画像のアングルを変化させることができるので、飽きさせない表示をすることができる。なお、表示部14が表示する画像のアングルについては、上述した操作部15による操作以外によって決定されてもよい。例えば、車両Caがライダを備えた外部装置(例えば路側器)に近づいた場合(当該外部装置から所定の範囲内に車両Caが進入した場合)に、表示部14に表示される画像のアングルが自動的に当該外部装置からのアングル(外部装置視点の画像)に切り替わるようにしてもよい。 Then, the user can change the angle of the displayed three-dimensional model image by the operation by the operation unit 15. For example, the display unit 14 switches and displays the three-dimensional model images shown in FIGS. 5 to 7 based on the information regarding the angle received from the user by the operation unit 15. That is, the display unit 14 is controlled to display the three-dimensional model image corresponding to the angle designated by the user by operating the operation unit 15. Therefore, since the angle of the displayed image can be changed according to the preference of the passenger of the own vehicle Ca, it is possible to display the image without getting bored. The angle of the image displayed by the display unit 14 may be determined by an operation other than the operation by the operation unit 15 described above. For example, when the vehicle Ca approaches an external device (for example, a roadside device) equipped with a rider (when the vehicle Ca enters within a predetermined range from the external device), the angle of the image displayed on the display unit 14 is The angle from the external device (image from the viewpoint of the external device) may be automatically switched.

本実施例によれば、通信部11が他車Cbから点群情報を取得し、処理部12が取得した点群情報に基づき自車Caの三次元モデル画像を生成して、表示部14が三次元モデル画像を表示する。このようにすることにより、自車Ca自身が取得した点群情報によらない、他車Cbが取得した点群情報に基づいた車両や地物等の外観の画像を生成することができる。このような画像は、自車Caの搭乗者からは本来見えない情報を含むものであり、あたかも外から自車Caの方向を見ているような表示、演出が可能となる。例えば、自車Caが現在走行している状態を示す画像を三次元モデル画像として生成して自車Caの内部に表示することができる。したがって、ライダによって取得された点群情報を利用して、エンタテインメント性を向上させることができる。また、当該点群情報には、ライダの周辺に存在する物体を示す情報が含まれており、例えば利用者であるドライバーが注意すべき歩行者や、他車両を示す情報が含まれている。したがって、当該点群情報を利用してエンタテインメント性をもった三次元モデル画像を表示させることで、ドライバーは当該画像を楽しみつつ、注意すべき物体等を監視することができる。これに伴い、ドライバーがもつ安心感を向上させることができることとなる。 According to this embodiment, the communication unit 11 acquires the point cloud information from the other vehicle Cb, the processing unit 12 generates a three-dimensional model image of the own vehicle Ca based on the acquired point cloud information, and the display unit 14 displays the point cloud information. Display a 3D model image. By doing so, it is possible to generate an image of the appearance of a vehicle, a feature, or the like based on the point cloud information acquired by the other vehicle Cb, which does not depend on the point cloud information acquired by the own vehicle Ca itself. Such an image includes information that is originally invisible to the passengers of the own vehicle Ca, and can be displayed and produced as if the direction of the own vehicle Ca is being viewed from the outside. For example, an image showing the state in which the own vehicle Ca is currently traveling can be generated as a three-dimensional model image and displayed inside the own vehicle Ca. Therefore, the point cloud information acquired by the rider can be used to improve the entertainment property. In addition, the point cloud information includes information indicating an object existing around the rider, and includes information indicating, for example, a pedestrian or another vehicle that the driver who is a user should pay attention to. Therefore, by displaying an entertaining three-dimensional model image using the point cloud information, the driver can monitor an object or the like to be noted while enjoying the image. Along with this, the sense of security that the driver has can be improved.

また、処理部12は、自車Caの走行路に設置された路側機5から通信部11を介して点群情報を取得するようにしてもよい。このようにすることにより、他車Cbが少ない場合であっても、路側機5が取得した点群情報に基づいて三次元モデル画像を生成することができる。なお、路側機5が取得した点群情報に基づいて三次元モデル画像を生成する場合、例えば図1に示した自車Caが走行している車線に対応する路側機5aに限らず、反対車線に対応する路側機5bが取得した点群情報も利用してもよい。これは路側機5bの設置位置や画角によっては、自車Caが走行している車線を走行する車両の点群情報を取得することも可能だからである。 Further, the processing unit 12 may acquire point cloud information from the roadside unit 5 installed on the traveling path of the own vehicle Ca via the communication unit 11. By doing so, it is possible to generate a three-dimensional model image based on the point cloud information acquired by the roadside machine 5 even when the number of other vehicles Cb is small. When generating a three-dimensional model image based on the point cloud information acquired by the roadside machine 5, for example, the vehicle is not limited to the roadside machine 5a corresponding to the lane in which the own vehicle Ca shown in FIG. 1 is traveling, but is in the opposite lane. The point cloud information acquired by the roadside machine 5b corresponding to the above may also be used. This is because it is possible to acquire the point cloud information of the vehicle traveling in the lane in which the own vehicle Ca is traveling, depending on the installation position and the angle of view of the roadside machine 5b.

なお、上述した実施例では、取得可能な場合は常に点群情報を取得していたが、例えば、自車Caの三次元モデルがある程度の完成度で生成された場合は、これ以上の点群情報の取得は不要として通信部11に点群情報の取得を停止させてもよい。即ち、外観画像の生成の度合いが所定値以上となった場合は点群情報の取得を停止してもよい。この完成度は、例えば、前後左右の全ての方角からの点群情報を取得することができた場合等である。このようにすることにより、三次元モデル画像としてある程度完成した場合は、点群情報の取得を停止して外部機器との通信量及び自装置の処理負荷を削減することができる。 In the above-described embodiment, the point cloud information is always acquired when it can be acquired. However, for example, when the three-dimensional model of the own vehicle Ca is generated with a certain degree of perfection, the point cloud is further acquired. The communication unit 11 may stop the acquisition of the point cloud information because the acquisition of the information is unnecessary. That is, when the degree of generation of the appearance image exceeds a predetermined value, the acquisition of the point cloud information may be stopped. This degree of perfection is, for example, a case where point cloud information can be acquired from all directions of front, back, left, and right. By doing so, when the three-dimensional model image is completed to some extent, it is possible to stop the acquisition of the point cloud information and reduce the amount of communication with the external device and the processing load of the own device.

次に、本発明の第2の実施例にかかる画像生成装置としての情報処理装置1を図8~図13を参照して説明する。なお、前述した第1の実施例と同一部分には、同一符号を付して説明を省略する。 Next, the information processing device 1 as the image generation device according to the second embodiment of the present invention will be described with reference to FIGS. 8 to 13. The same parts as those in the first embodiment described above are designated by the same reference numerals, and the description thereof will be omitted.

本実施例では、情報処理装置1の構成は図2と同様である。本実施例では、特定の対象物の三次元モデルを生成して表示するだけでなく、自車も含めた複数の車両や路側機等の点群を取得する装置(ライダ)から取得した点群に基づいて、少なくとも自車の走行路周辺の三次元空間を再現した画像である三次元地図画像を生成する。 In this embodiment, the configuration of the information processing device 1 is the same as that in FIG. In this embodiment, a point cloud acquired from a device (rider) that not only generates and displays a three-dimensional model of a specific object but also acquires a point cloud of a plurality of vehicles including the own vehicle and a roadside machine. Based on the above, a three-dimensional map image which is an image reproducing at least the three-dimensional space around the traveling path of the own vehicle is generated.

本実施例にかかる情報処理装置1における三次元地図画像の生成と表示の動作(画像生成方法)について図8のフローチャートを参照して説明する。図8のフローチャートは、例えば処理部12で実行されるコンピュータプログラムとして構成されている。 The operation of generating and displaying a three-dimensional map image (image generation method) in the information processing apparatus 1 according to this embodiment will be described with reference to the flowchart of FIG. The flowchart of FIG. 8 is configured as, for example, a computer program executed by the processing unit 12.

まず、ステップS21において、処理部12は、自車Caのライダ2が取得した点群情報をI/Fを介して取得し、他車Cb1、Cb2や路側機5等から点群情報を通信部11を介して取得する。 First, in step S21, the processing unit 12 acquires the point cloud information acquired by the rider 2 of the own vehicle Ca via the I / F, and communicates the point cloud information from the other vehicles Cb1, Cb2, the roadside machine 5, and the like. Obtained via 11.

次に、ステップS22において、処理部12が三次元地図画像を生成する。三次元地図画像の生成は、各機器から受信した点群情報に基づいて、その検出範囲における三次元地図画像を生成し、それらを合成して全体の三次元地図画を生成する。或いは、各機器から受信した点群情報を合成し、その合成点群情報から全体の三次元地図画像を生成してもよい。なお、この際生成される三次元地図画像は、建物等の地物の外観が再現されているレベルでなくてもよく、点群やワイヤーフレーム等の状態で形状が再現されたものでもよい。また、このステップS22で生成される三次元地図画像には、各ライダで取得された車両や歩行者等も含まれる。即ち、処理部12は、取得した点群情報に基づき、少なくとも自車Ca(移動体)の周辺を含む三次元空間を示す三次元地図画像(三次元空間画像)を生成する生成部として機能する。また、処理部12は、外部機器から受信した点群情報と、自車Caのライダ2が取得した点群情報とを組み合わせて(言い換えれば、合成して)、当該三次元地図画像の生成するようにしてもよい。 Next, in step S22, the processing unit 12 generates a three-dimensional map image. In the generation of the three-dimensional map image, the three-dimensional map image in the detection range is generated based on the point cloud information received from each device, and they are combined to generate the entire three-dimensional map image. Alternatively, the point cloud information received from each device may be combined, and the entire three-dimensional map image may be generated from the combined point cloud information. The three-dimensional map image generated at this time does not have to be at a level where the appearance of a feature such as a building is reproduced, and the shape may be reproduced in a state such as a point cloud or a wire frame. Further, the three-dimensional map image generated in step S22 also includes vehicles, pedestrians, and the like acquired by each rider. That is, the processing unit 12 functions as a generation unit that generates a three-dimensional map image (three-dimensional space image) showing a three-dimensional space including at least the periphery of the own vehicle Ca (moving body) based on the acquired point cloud information. .. Further, the processing unit 12 combines (in other words, synthesizes) the point cloud information received from the external device and the point cloud information acquired by the rider 2 of the own vehicle Ca to generate the three-dimensional map image. You may do so.

次に、ステップS23において、処理部12が、ステップS22で生成した三次元地図画像を表示部14に表示させる。即ち、処理部12は、三次元地図画像(三次元空間画像)を自車Ca(移動体)内に配置された表示部14へ出力する出力部として機能する。 Next, in step S23, the processing unit 12 causes the display unit 14 to display the three-dimensional map image generated in step S22. That is, the processing unit 12 functions as an output unit that outputs a three-dimensional map image (three-dimensional space image) to the display unit 14 arranged in the own vehicle Ca (moving body).

上述した説明から明らかなように、ステップS21が取得工程、ステップS22が生成工程、ステップS23が出力工程として機能する。 As is clear from the above description, step S21 functions as an acquisition step, step S22 functions as a generation step, and step S23 functions as an output step.

次に、本実施例における三次元地図画像の表示の具体例を図9~図12を参照して説明する。図9は、具体例の状況を説明した図である。図9においては、自車Caは道路R1を走行している。この自車Caのライダ2の検出範囲をL1とする。また、他車Cb1は道路R1を走行している。この他車Cb1のライダ2の検出範囲をL2とする。また、他車Cb2は道路R2を走行している。この他車Cb2のライダ2の検出範囲をL3とする。 Next, a specific example of displaying the three-dimensional map image in this embodiment will be described with reference to FIGS. 9 to 12. FIG. 9 is a diagram illustrating a situation of a specific example. In FIG. 9, the own vehicle Ca is traveling on the road R1. The detection range of the rider 2 of the own vehicle Ca is L1. In addition, the other vehicle Cb1 is traveling on the road R1. In addition, the detection range of the rider 2 of the other vehicle Cb1 is L2. In addition, the other vehicle Cb2 is traveling on the road R2. In addition, the detection range of the rider 2 of the other vehicle Cb2 is L3.

路側機5は、道路R2沿いに設置されている。路側機5(ライダ)の検出範囲をL4とする。信号機6は、道路R1と道路R2の交差点に設置されている。信号機6にもライダが設けられ、このライダの検出範囲をL5とする。 The roadside machine 5 is installed along the road R2. The detection range of the roadside machine 5 (rider) is L4. The traffic light 6 is installed at an intersection of road R1 and road R2. A rider is also provided in the traffic light 6, and the detection range of this rider is set to L5.

また、道路R2沿いには所定の建物等の地物である地物BL1、地物BL2があり、道路R1沿いには所定の建物等の地物である地物BL3がある。 Further, along the road R2, there is a feature BL1 and a feature BL2 which are features such as a predetermined building, and along the road R1 there is a feature BL3 which is a feature such as a predetermined building.

図9の場合において、各ライダの検出範囲から図9に示した道路R1、R2に沿った地物の情報を得ることが可能であるので、各ライダで検出された点群情報に基づいて生成された三次元地図情報を合成して道路R1、R2の三次元地図画像を生成する。 In the case of FIG. 9, since it is possible to obtain information on the features along the roads R1 and R2 shown in FIG. 9 from the detection range of each rider, it is generated based on the point group information detected by each rider. The generated three-dimensional map information is combined to generate a three-dimensional map image of roads R1 and R2.

このようにして生成された三次元地図画像には建物等の地物BL1~BL3が含まれるに限らず、例えば他車Cb1のライダ2の検出範囲L2にある自車Caも含まれる。また、図示しないが、各検出範囲L1~L5で検出された歩行者を含めてよい。また、この三次元地図画像は逐次更新されるので、各車両が移動すれば三次元地図画像内で移動する。例えば、自車Caが他車Cb1、Cb2等から点群情報を受信し続ければ、他車Cb1、Cb2が検出した物体が略リアルタイムに三次元地図画像に反映される。したがって、本実施例の三次元地図画像は、静止画ではなく動画像とすることができる。 The three-dimensional map image generated in this way does not only include features BL1 to BL3 such as buildings, but also includes own vehicle Ca in the detection range L2 of the rider 2 of the other vehicle Cb1. Further, although not shown, pedestrians detected in each detection range L1 to L5 may be included. Moreover, since this three-dimensional map image is updated sequentially, if each vehicle moves, it moves in the three-dimensional map image. For example, if the own vehicle Ca continues to receive point cloud information from other vehicles Cb1, Cb2, etc., the objects detected by the other vehicles Cb1 and Cb2 are reflected in the three-dimensional map image in substantially real time. Therefore, the three-dimensional map image of this embodiment can be a moving image instead of a still image.

また、三次元地図画像は、例えば自車Caの搭乗者の操作に応じて任意の視点からみた視界で表示することができる。例えば、図9の視界A1は、自車Caから前方の視点から見た視界であり、例えば、図10のように表示部14に表示される。 Further, the three-dimensional map image can be displayed in a field of view viewed from an arbitrary viewpoint according to the operation of the passenger of the own vehicle Ca, for example. For example, the field of view A1 in FIG. 9 is a field of view seen from the front viewpoint from the own vehicle Ca, and is displayed on the display unit 14 as shown in FIG. 10, for example.

また、図9の視界A2は、自車Caの右方の視点からみた視界であり、例えば、図11のように表示部14に表示される。また、図9の視界A3は、自車Caの右後方の視点からみた視界であり、例えば、図12のように表示部14に表示される。 Further, the field of view A2 in FIG. 9 is a field of view seen from the right viewpoint of the own vehicle Ca, and is displayed on the display unit 14 as shown in FIG. 11, for example. Further, the field of view A3 in FIG. 9 is a field of view seen from the right rear viewpoint of the own vehicle Ca, and is displayed on the display unit 14 as shown in FIG. 12, for example.

なお、三次元地図画像は、車両Cに搭載された情報処理装置1で生成するに限らず、例えば外部のサーバ装置等で生成して車両Cに配信するようにしてもよい。構成例を図13に示す。 The three-dimensional map image is not limited to being generated by the information processing device 1 mounted on the vehicle C, and may be generated by, for example, an external server device or the like and distributed to the vehicle C. A configuration example is shown in FIG.

図13において、サーバ装置10は、インターネット等のネットワークNと接続されている。そして、サーバ装置10は、自車Caや他車Cb、路側機5及び信号機6から点群情報を取得して、図8のフローチャートのように三次元地図画像を生成する。 In FIG. 13, the server device 10 is connected to a network N such as the Internet. Then, the server device 10 acquires the point cloud information from the own vehicle Ca, the other vehicle Cb, the roadside unit 5, and the signal 6, and generates a three-dimensional map image as shown in the flowchart of FIG.

そして、自車Caの情報処理装置1からの要求に応じて三次元地図画像を配信し、その三次元地図画像が情報処理装置1の表示部14に表示される。 Then, the three-dimensional map image is distributed in response to the request from the information processing device 1 of the own vehicle Ca, and the three-dimensional map image is displayed on the display unit 14 of the information processing device 1.

なお、図13の場合でも視点の変更は自在であるが、情報処理装置1の処理能力が高くない場合は、視点の情報をサーバ装置10に送信し、その視点に応じた画像を生成して情報処理装置1へ配信するようにしてもよい。 Although the viewpoint can be freely changed even in the case of FIG. 13, if the processing capacity of the information processing device 1 is not high, the information of the viewpoint is transmitted to the server device 10 and an image corresponding to the viewpoint is generated. It may be delivered to the information processing device 1.

本実施例によれば、情報処理装置1は、処理部12が、自車Caや他車Cb1、Cb2或いは路側機5、信号機6から点群情報を取得し、その取得した点群情報に基づき、少なくとも自車Ca周辺の三次元地図画像を生成して、表示部14に三次元地図画像を表示する。このようにすることにより、複数の装置から取得した点群情報に基づいて、例えば、自車Ca周辺の三次元空間を再現した他車Cb1、Cb2や歩行者等も含む街並みの地図画像を生成することができる。そして、その再現した三次元空間を自車Caが走行するような表示や演出をすることができる。 According to this embodiment, in the information processing device 1, the processing unit 12 acquires point cloud information from the own vehicle Ca, other vehicles Cb1, Cb2, the roadside unit 5, and the signal 6, and based on the acquired point cloud information. , At least a three-dimensional map image around the own vehicle Ca is generated, and the three-dimensional map image is displayed on the display unit 14. By doing so, based on the point cloud information acquired from a plurality of devices, for example, a map image of the cityscape including other vehicles Cb1, Cb2, pedestrians, etc. that reproduces the three-dimensional space around the own vehicle Ca is generated. can do. Then, it is possible to display and produce such that the own vehicle Ca travels in the reproduced three-dimensional space.

また、処理部12は逐次点群情報を取得し、その逐次取得された点群情報に基づいて三次元地図画像を更新するようにしている。このようにすることにより、三次元地図画像をリアルタイムに更新することができ、現実の走行状態に沿った表示や演出をすることができる。また、三次元地図画像を動画像とすることで、よりリアルな表示や演出をすることができる。 Further, the processing unit 12 acquires the sequentially acquired point cloud information and updates the three-dimensional map image based on the sequentially acquired point cloud information. By doing so, the three-dimensional map image can be updated in real time, and it is possible to display and produce the image according to the actual running state. In addition, by using a three-dimensional map image as a moving image, more realistic display and production can be performed.

また、処理部12は、自車Caの外部にある他車Cb1、Cb2や路側機5、信号機6から点群情報と、自車Caに配置されたライダ2が取得した点群情報と、に基づいて三次元地図画像を生成している。このようにすることにより、自身に設置されているセンサ等の検出範囲外の点群情報を取得することができる。したがって、より広範囲の三次元地図画像を生成することができる。 Further, the processing unit 12 obtains point cloud information from other vehicles Cb1 and Cb2, roadside units 5, and signal 6 outside the own vehicle Ca, and point cloud information acquired by the rider 2 arranged in the own vehicle Ca. A three-dimensional map image is generated based on this. By doing so, it is possible to acquire point cloud information outside the detection range of the sensor or the like installed in the sensor. Therefore, a wider range of 3D map images can be generated.

また、三次元地図画像の視点の位置を調整操作可能な操作部15を備え、表示部14は、操作部15による視点の位置の調整に応じて三次元地図画像の視点の位置を変化させて表示してもよい。このようにすることにより、例えば三次元地図で表された空間内の様々な視点からみた画像を表示させることが可能となる。したがって、搭乗者等の好みに合わせて視点を変化させることができるので、飽きさせない表示をすることができる。 Further, the operation unit 15 capable of adjusting the position of the viewpoint of the three-dimensional map image is provided, and the display unit 14 changes the position of the viewpoint of the three-dimensional map image according to the adjustment of the position of the viewpoint by the operation unit 15. It may be displayed. By doing so, it is possible to display images viewed from various viewpoints in the space represented by, for example, a three-dimensional map. Therefore, since the viewpoint can be changed according to the preference of the passenger or the like, the display can be displayed without getting bored.

また、本発明は上記実施例に限定されるものではない。即ち、当業者は、従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の画像生成装置の構成を具備する限り、勿論、本発明の範疇に含まれるものである。 Further, the present invention is not limited to the above examples. That is, those skilled in the art can carry out various modifications according to conventionally known knowledge within a range that does not deviate from the gist of the present invention. Of course, such a modification is included in the category of the present invention as long as it still has the configuration of the image generating apparatus of the present invention.

1 情報処理装置(画像生成装置)
2 ライダ
3 GPS受信機
4 その他のセンサ類
5 路側機(外部装置)
6 信号機(外部装置)
11 通信部
12 処理部(取得部、生成部、出力部)
13 記憶部
14 表示部
15 操作部
16 I/F
1 Information processing device (image generator)
2 Rider 3 GPS receiver 4 Other sensors 5 Roadside unit (external device)
6 Traffic light (external device)
11 Communication unit 12 Processing unit (acquisition unit, generation unit, output unit)
13 Storage unit 14 Display unit 15 Operation unit 16 I / F

Claims (9)

移動体が有する表示部に表示される画像を生成する生成部を備える画像生成装置であって、
前記画像生成装置が配置された前記移動体の外部にある外部装置を含む複数の装置から、当該複数の装置のそれぞれの周囲の物体を複数の点により表した点群情報を取得する取得部と、
前記取得部によって取得された前記点群情報に基づき、少なくとも前記移動体の周辺を含む三次元空間を示す三次元空間画像を生成する生成部と、
を備えることを特徴とする画像生成装置。
An image generation device including a generation unit that generates an image displayed on a display unit of a moving body.
An acquisition unit that acquires point cloud information representing an object around each of the plurality of devices by a plurality of points from a plurality of devices including an external device outside the moving body in which the image generation device is arranged. ,
Based on the point cloud information acquired by the acquisition unit, a generation unit that generates a three-dimensional space image showing a three-dimensional space including at least the periphery of the moving body, and a generation unit.
An image generator characterized by comprising.
前記取得部は逐次前記点群情報を取得し、
前記生成部は、逐次取得された前記点群情報に基づいて前記三次元空間画像を更新することを特徴とする請求項1に記載の画像生成装置。
The acquisition unit sequentially acquires the point cloud information and obtains the point cloud information.
The image generation device according to claim 1, wherein the generation unit updates the three-dimensional spatial image based on the point cloud information acquired sequentially.
前記生成部は、前記三次元空間画像を動画像として生成することを特徴とする請求項2に記載の画像生成装置。 The image generation device according to claim 2, wherein the generation unit generates the three-dimensional space image as a moving image. 前記生成部は、前記外部装置から取得した前記点群情報と、前記移動体に配置されたセンサが取得した点群情報と、に基づいて前記三次元空間画像を生成することを特徴とする請求項1から3のうちいずれか一項に記載の画像生成装置。 The generation unit generates the three-dimensional spatial image based on the point cloud information acquired from the external device and the point cloud information acquired by the sensor arranged on the moving body. The image generator according to any one of items 1 to 3. 前記外部装置には、他の移動体に搭載された前記点群情報を取得する装置が含まれ、
前記取得部は、前記他の移動体から前記点群情報を取得することを特徴とする請求項4に記載の画像生成装置。
The external device includes a device for acquiring the point cloud information mounted on another moving body.
The image generation device according to claim 4, wherein the acquisition unit acquires the point cloud information from the other moving body.
前記外部装置には、走行路に設置された路側機が含まれ、
前記取得部は、前記路側機から前記点群情報を取得することを特徴とする請求項4または5に記載の画像生成装置。
The external device includes a roadside machine installed on the road.
The image generation device according to claim 4 or 5, wherein the acquisition unit acquires the point cloud information from the roadside machine.
前記三次元空間画像の視点の位置を調整操作可能な操作部を備え、
前記生成部は、前記操作部による視点の位置の調整に応じて視点の位置を変化させた前記三次元空間画像を生成することを特徴とする請求項1から6のうちいずれか一項に記載の画像生成装置。
It is equipped with an operation unit that can adjust the position of the viewpoint of the three-dimensional space image.
The method according to any one of claims 1 to 6, wherein the generation unit generates the three-dimensional spatial image in which the position of the viewpoint is changed according to the adjustment of the position of the viewpoint by the operation unit. Image generator.
移動体が有する表示部に表示される画像を生成する画像生成装置で実行される画像生成方法であって、
前記画像生成装置が配置された前記移動体の外部にある外部装置を含む複数の装置から、当該複数の装置のそれぞれの周囲の物体を複数の点により表した点群情報を取得する取得工程と、
前記取得工程において取得された前記点群情報に基づき、少なくとも前記移動体の周辺を含む三次元空間を示す前記移動体周辺の三次元空間画像を生成する生成工程と、
を含むことを特徴とする画像生成方法。
It is an image generation method executed by an image generation device that generates an image displayed on a display unit of a moving body.
An acquisition step of acquiring point cloud information representing an object around each of the plurality of devices by a plurality of points from a plurality of devices including an external device outside the moving body in which the image generation device is arranged. ,
Based on the point cloud information acquired in the acquisition step, a generation step of generating a three-dimensional space image around the moving body showing at least the three-dimensional space including the periphery of the moving body, and a generation step.
An image generation method comprising.
請求項8に記載の画像生成方法を、コンピュータにより実行させることを特徴とする画像生成プログラム。 An image generation program characterized in that the image generation method according to claim 8 is executed by a computer.
JP2022074956A 2017-12-26 2022-04-28 image generator Active JP7333445B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022074956A JP7333445B2 (en) 2017-12-26 2022-04-28 image generator

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017249681A JP2019117434A (en) 2017-12-26 2017-12-26 Image generation device
JP2022074956A JP7333445B2 (en) 2017-12-26 2022-04-28 image generator

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017249681A Division JP2019117434A (en) 2017-12-26 2017-12-26 Image generation device

Publications (2)

Publication Number Publication Date
JP2022106885A true JP2022106885A (en) 2022-07-20
JP7333445B2 JP7333445B2 (en) 2023-08-24

Family

ID=87577044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022074956A Active JP7333445B2 (en) 2017-12-26 2022-04-28 image generator

Country Status (1)

Country Link
JP (1) JP7333445B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015043488A (en) * 2013-08-26 2015-03-05 清水建設株式会社 Remote controller and remote construction method using the same
WO2016185637A1 (en) * 2015-05-20 2016-11-24 三菱電機株式会社 Point-cloud-image generation device and display system
JP2017010327A (en) * 2015-06-23 2017-01-12 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2017097783A (en) * 2015-11-27 2017-06-01 株式会社東芝 Vehicle type determination device and vehicle type determination method
JP2017129508A (en) * 2016-01-22 2017-07-27 三菱電機株式会社 Self-location estimation system, self-location estimation method, mobile terminal, server and self-location estimation program
JP2017166846A (en) * 2016-03-14 2017-09-21 株式会社デンソー Object recognition device
WO2017199333A1 (en) * 2016-05-17 2017-11-23 パイオニア株式会社 Information output device, terminal device, control method, program, and storage medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015043488A (en) * 2013-08-26 2015-03-05 清水建設株式会社 Remote controller and remote construction method using the same
WO2016185637A1 (en) * 2015-05-20 2016-11-24 三菱電機株式会社 Point-cloud-image generation device and display system
JP2017010327A (en) * 2015-06-23 2017-01-12 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2017097783A (en) * 2015-11-27 2017-06-01 株式会社東芝 Vehicle type determination device and vehicle type determination method
JP2017129508A (en) * 2016-01-22 2017-07-27 三菱電機株式会社 Self-location estimation system, self-location estimation method, mobile terminal, server and self-location estimation program
JP2017166846A (en) * 2016-03-14 2017-09-21 株式会社デンソー Object recognition device
WO2017199333A1 (en) * 2016-05-17 2017-11-23 パイオニア株式会社 Information output device, terminal device, control method, program, and storage medium

Also Published As

Publication number Publication date
JP7333445B2 (en) 2023-08-24

Similar Documents

Publication Publication Date Title
US11676346B2 (en) Augmented reality vehicle interfacing
US10647331B2 (en) Presentation control device and presentation control method
US11900815B2 (en) Augmented reality wayfinding in rideshare applications
JP2019505034A (en) Automatic prediction and altruistic response of vehicle lane interruptions
JP2019095213A (en) Superimposed image display device and computer program
CN103028243A (en) Front- and rear- seat augmented reality vehicle game system to entertain & educate passengers
WO2012090325A1 (en) Navigation apparatus
US10922976B2 (en) Display control device configured to control projection device, display control method for controlling projection device, and vehicle
US11699235B2 (en) Way to generate tight 2D bounding boxes for autonomous driving labeling
KR20190077482A (en) Method and system for adjusting the orientation of a virtual camera while the vehicle is turning
US11703577B2 (en) Recalibration determination system for autonomous driving vehicles with multiple LiDAR sensors
JP2020032866A (en) Vehicular virtual reality providing device, method and computer program
KR20150051671A (en) A display control device using vehicles and user motion recognition and its method of operation
WO2018180756A1 (en) Drive assistance system
JP2019117435A (en) Image generation device
US11276139B2 (en) Way to generate images with distortion for fisheye lens
JP7333445B2 (en) image generator
EP4290185A1 (en) Mixed reality-based display device and route guide system
JP2019117434A (en) Image generation device
JP2023085254A (en) Display control device
WO2022004448A1 (en) Information processing device, information processing method, information processing system, and program
JP2019117214A (en) Object data structure
JP7361486B2 (en) Information presentation device, information presentation method, and program
US20200371532A1 (en) Information processing device, autonomous vehicle, information processing method and program
US11645038B1 (en) Augmented reality head-up display for audio event awareness

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230814

R150 Certificate of patent or registration of utility model

Ref document number: 7333445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150