JP2019117214A - Object data structure - Google Patents

Object data structure Download PDF

Info

Publication number
JP2019117214A
JP2019117214A JP2017249678A JP2017249678A JP2019117214A JP 2019117214 A JP2019117214 A JP 2019117214A JP 2017249678 A JP2017249678 A JP 2017249678A JP 2017249678 A JP2017249678 A JP 2017249678A JP 2019117214 A JP2019117214 A JP 2019117214A
Authority
JP
Japan
Prior art keywords
feature
point cloud
display control
information
feature data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017249678A
Other languages
Japanese (ja)
Inventor
真武 下平
Masatake Shimodaira
真武 下平
貴 菊地
Takashi Kikuchi
貴 菊地
英記 永田
Hideki Nagata
英記 永田
拡昌 橋本
Hiromasa Hashimoto
拡昌 橋本
純 住田
Jun Sumida
純 住田
伸一郎 ▲高▼▲浜▼
伸一郎 ▲高▼▲浜▼
Shinichiro Takahama
智也 大石
Tomoya Oishi
智也 大石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2017249678A priority Critical patent/JP2019117214A/en
Publication of JP2019117214A publication Critical patent/JP2019117214A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an object data structure which allows for enhancing entertainability using point cloud information.SOLUTION: Object data 5a contains display styles 5a4 that are used when displaying an image according to point cloud information comprising a plurality of points representing objects around a vehicle, each display style corresponding to an object included in the image.SELECTED DRAWING: Figure 2

Description

本発明は、地物を示す地物データ構造に関する。   The present invention relates to a feature data structure indicating features.

従来、レーザレーダを用いて、車両の前方等の検出領域(すなわち、物体を検出するための対象となる領域)に存在する物体上の複数の点に対して3次元空間上の位置を取得し、その物体を認識する技術が提案されている。例えば、特許文献1には、前記位置が取得された点をクラスタリングしてクラスタ点群を取得し、そのクラスタ点群に係る測定量の時間的変動に基づき、クラスタ点群に対応する物体を識別することとしている。   Conventionally, a laser radar is used to obtain positions in a three-dimensional space with respect to a plurality of points on an object present in a detection area such as the front of a vehicle (that is, an area to be an object for detecting an object). , The technology which recognizes the object is proposed. For example, according to Patent Document 1, cluster points are obtained by clustering the points at which the position is acquired, and a cluster point group is acquired, and an object corresponding to the cluster point group is identified based on temporal variation of the measurement amount of the cluster point group It is supposed to be done.

特開2017−151043号公報Unexamined-Japanese-Patent No. 2017-151043

上述したように、レーザレーダ(以下、LiDAR(Light Detection And Ranging)とも称する)は、移動体としての車両等の周辺に存在する物体の認識に用いられている。しかしながら、レーザレーダによって取得された情報(所謂点群情報)は、このような物体の認識以外に利用されてはいない。   As described above, laser radar (hereinafter also referred to as LiDAR (Light Detection And Ranging)) is used to recognize an object present in the vicinity of a vehicle or the like as a moving body. However, information acquired by laser radar (so-called point cloud information) is not used except for recognition of such an object.

一方で、今後自動運転機能を搭載した車両において、自動運転中の移動時間におけるエンタテインメント性の向上が期待されている。しかし、レーザレーダによって取得された情報を、エンタテインメント性の向上に利用するという思想は、従来は存在していなかった。   On the other hand, in vehicles equipped with an automatic driving function in the future, it is expected to improve entertainment in the traveling time during automatic driving. However, the idea of utilizing the information acquired by the laser radar for the improvement of entertainment has not existed conventionally.

本発明が解決しようとする課題としては、所謂点群情報を利用して、エンタテインメント性を向上させることが一例として挙げられる。   One of the problems to be solved by the present invention is to improve entertainment by using so-called point cloud information.

上記課題を解決するために、請求項1に記載の発明は、移動体の周囲の地物を複数の点により表した点群情報に基づく画像を表示させる際に用いられる情報を含む地物データ構造であって、前記画像を表示させる際に用いられる情報として、当該画像に含まれる地物に対応する部分の表示態様を示す情報を含むことを特徴としている。   In order to solve the above problems, the invention according to claim 1 includes feature data including information used when displaying an image based on point cloud information in which a feature around a moving object is represented by a plurality of points. The structure is characterized in that the information used when displaying the image includes information indicating a display mode of a portion corresponding to the feature included in the image.

請求項3に記載の発明は、移動体の周囲の地物を複数の点により表した点群情報に基づく画像を表示させる際に用いられる情報を含む地物データを記憶する記憶装置であって、前記地物データには、前記画像を表示させる際に用いられる情報として、当該画像に含まれる地物に対応する部分の表示態様を示す情報を含むことを特徴としている。   The invention according to claim 3 is a storage device for storing feature data including information used when displaying an image based on point cloud information in which a feature around the moving body is represented by a plurality of points, The feature data includes, as information used when displaying the image, information indicating a display mode of a portion corresponding to the feature included in the image.

本発明の第1の実施例にかかる表示制御装置のブロック構成図である。FIG. 1 is a block diagram of a display control apparatus according to a first embodiment of the present invention. 図1に示された表示制御装置が記憶する地物データ構造の例を示した表である。It is the table which showed the example of the feature data structure which the display control shown in Drawing 1 memorizes. 図1に示された表示制御装置の表示動作のフローチャートである。It is a flowchart of the display operation of the display control apparatus shown by FIG. 図1に示された表示制御装置の表示態様の例である。It is an example of the display mode of the display control apparatus shown by FIG. 本発明の第2の実施例にかかる表示制御装置と記憶装置とからなるシステムの概略構成図である。It is a schematic block diagram of the system which consists of the display control apparatus concerning 2nd Example of this invention, and a memory | storage device. 図5に示されたサーバ装置の機能構成図である。It is a functional block diagram of the server apparatus shown by FIG. 図5に示された表示制御装置のブロック構成図である。It is a block block diagram of the display control apparatus shown by FIG. 本発明の第3の実施例にかかる表示制御装置のブロック構成図である。It is a block block diagram of the display control apparatus concerning the 3rd Example of this invention. 図8に示された表示制御装置における距離ごとの色の設定例である。It is an example of a setting of the color for every distance in the display control apparatus shown by FIG. 図8に示された表示制御装置における高さごとの色の設定例である。It is an example of a setting of the color for every height in the display control apparatus shown by FIG. 図7に示された表示制御装置の表示動作のフローチャートである。It is a flowchart of the display operation of the display control apparatus shown by FIG. 本発明の変形例のブロック構成図である。It is a block block diagram of the modification of this invention.

以下、本発明の一実施形態にかかる地物データ構造を説明する。本発明の一実施形態にかかる地物データ構造は、移動体の周囲の地物を複数の点により表した点群情報に基づく画像を表示させる際に用いられる情報を含む地物データ構造であって、画像を表示させる際に用いられる情報として、当該画像に含まれる地物に対応する部分の表示態様を示す情報を含んでいる。このようにすることにより、この地物データ構造を参照することで、点群情報に基づく画像を表示させる際の地物の表示態様の決定を容易にすることができる。したがって、点群情報に含まれる地物に応じて表示態様を変化させることができ、点群情報を利用して、エンタテインメント性を向上させることができる。   Hereinafter, a feature data structure according to an embodiment of the present invention will be described. A feature data structure according to an embodiment of the present invention is a feature data structure including information used when displaying an image based on point cloud information in which a feature around a moving object is represented by a plurality of points. The information used when displaying the image includes information indicating the display mode of the portion corresponding to the feature included in the image. In this way, by referring to the feature data structure, it is possible to easily determine the display mode of the feature when displaying the image based on the point cloud information. Therefore, the display mode can be changed according to the feature included in the point cloud information, and the entertainment property can be improved using the point cloud information.

また、地物データ構造には、地物の属性情報を更に含んでもよい。このようにすることにより、地物の属性に基づいて表示態様を定めることができる。   Also, the feature data structure may further include feature attribute information. By doing this, the display mode can be determined based on the attribute of the feature.

また、本発明の一実施形態にかかる記憶装置は、移動体の周囲の地物を複数の点により表した点群情報に基づく画像を表示させる際に用いられる情報を含む地物データを記憶する記憶装置であって、地物データには、画像を表示させる際に用いられる情報として、当該画像に含まれる地物に対応する部分の表示態様を示す情報を含んでいる。このようにすることにより、この記憶装置に記憶されている地物データを参照することで点群情報に基づく画像を表示させる際の地物の表示態様の決定を容易にすることができる。したがって、点群情報に含まれる地物に応じて表示態様を変化させることができ、点群情報を利用して、エンタテインメント性を向上させることができる。   In addition, the storage device according to the embodiment of the present invention stores feature data including information used when displaying an image based on point cloud information in which a feature around the moving object is represented by a plurality of points. It is a storage device, and the feature data includes, as information used when displaying an image, information indicating a display mode of a portion corresponding to the feature included in the image. By doing this, it is possible to easily determine the display mode of the feature when displaying the image based on the point cloud information by referring to the feature data stored in the storage device. Therefore, the display mode can be changed according to the feature included in the point cloud information, and the entertainment property can be improved using the point cloud information.

また、移動体に設けられた端末装置に地物データを出力する出力部を備えてもよい。このようにすることにより、例えば自動運転車両等の移動体に対して地物データを配信することができる。したがって、自動運転車両等は、地物データを全て有する必要が無く、自動運転車両等が有する記憶装置の容量を削減することができる。また、地物データの更新も容易に行うことができる。   Moreover, you may provide the output part which outputs feature data to the terminal device provided in the mobile body. By doing so, feature data can be distributed to a mobile object such as an autonomous driving vehicle, for example. Therefore, there is no need for the autonomous driving vehicle etc. to have all the feature data, and the capacity of the storage device possessed by the autonomous driving vehicle etc can be reduced. In addition, feature data can be easily updated.

本発明の第1の実施例にかかる表示制御装置を図1〜図4を参照して説明する。表示制御装置1は、図1に示したように、ライダ2と、表示制御部3と、表示部4と、記憶部5と、を備えている。また、図1に示した表示制御装置1は、移動体の例として自動車等の車両に搭載されているものとする。また、本実施例で説明する車両は、常時自律的に走行可能な自動運転車両又は自動運転と手動運転を切り替え可能な車両とする(本実施例では、これらを総称して自動運転車両と呼ぶ)。   A display control apparatus according to a first embodiment of the present invention will be described with reference to FIGS. As shown in FIG. 1, the display control device 1 includes a lidar 2, a display control unit 3, a display unit 4, and a storage unit 5. Moreover, the display control apparatus 1 shown in FIG. 1 shall be mounted in vehicles, such as a motor vehicle, as an example of a mobile body. Further, the vehicle described in the present embodiment is an autonomous driving vehicle capable of always traveling autonomously or a vehicle capable of switching between automatic driving and manual driving (in the present embodiment, these are generically referred to as an autonomous driving vehicle ).

点群情報取得部としてのライダ2は、車両の周囲に存在する物体を認識するためのセンサであり、LiDAR(Light Detection And Ranging)とも表記される。ライダ2は、レーザ光等の光を照射してその光の反射光により、外界に存在する物体までの距離を離散的に測定し、当該物体の位置や形状等を三次元の点群として認識する公知のセンサである。したがって、ライダ2で取得された点群は、車両の周囲に存在する建物や道路等の構造物を含む地物を複数の点により三次元状に表した情報(点群情報)となる。尚、ライダ2は、車両が走行している道路上の標識や道路に沿って存在する建築物や街路樹等の地物以外にも、車両の周辺に存在する人物や他車両等を認識してもよい。   The lidar 2 as a point cloud information acquisition unit is a sensor for recognizing an object present around the vehicle, and is also described as LiDAR (Light Detection And Ranging). The lidar 2 irradiates light such as laser light and discretely measures the distance to an object present in the outside by reflected light of the light, and recognizes the position and shape of the object as a three-dimensional point group Known sensors. Therefore, the point cloud acquired by the rider 2 is information (point cloud information) in which a feature including a structure such as a building or a road existing around the vehicle is three-dimensionally represented by a plurality of points. In addition to the landmarks on the road on which the vehicle is traveling and buildings and road features such as road trees, the rider 2 recognizes people and other vehicles existing around the vehicle. May be

表示制御部3は、ライダ2が取得した点群情報を、ライダ2が点群情報を取得した状態の座標系(車両座標系)から点群情報を表示させる表示部4に表示するための座標系(表示座標系)に変換する。車両座標系とは車両(ライダ2)を基準とした座標系である。表示座標系とは、表示部4上に定義されている二次元の座標系である。表示制御部3は、この点群情報における三次元の車両座標系から二次元の表示座標系へ変換する。この座標変換はいわゆるビュー座標系からスクリーン座標系への変換等の周知の座標変換方法を用いることができる。   The display control unit 3 is a coordinate for displaying the point cloud information acquired by the lidar 2 on the display unit 4 that causes the point cloud information to be displayed from the coordinate system (vehicle coordinate system) in a state where the lidar 2 acquires the point cloud information. Convert to a system (display coordinate system). The vehicle coordinate system is a coordinate system based on the vehicle (lider 2). The display coordinate system is a two-dimensional coordinate system defined on the display unit 4. The display control unit 3 converts the three-dimensional vehicle coordinate system in the point group information into a two-dimensional display coordinate system. As this coordinate conversion, a known coordinate conversion method such as conversion from a so-called view coordinate system to a screen coordinate system can be used.

また、表示制御部3は、上記座標系が変換された画像に含まれる地物の属性を判定し、判定された地物の属性に応じた表示態様となるように加工を施して表示部4に出力する。   In addition, the display control unit 3 determines the attribute of the feature included in the image in which the coordinate system has been converted, and performs processing so that the display mode corresponds to the determined attribute of the feature. Output to

表示部4は、表示制御部3で加工された点群情報に基づく画像を表示する。表示部4は、例えば車両内のセンターコンソール等に設置されているモニタ画面やHUD(Head-Up Display)等で構成することができる。また、表示部4は、車両内に設置されているものに限らず、例えば搭乗者が所有する携帯端末等に表示させるようにしてもよい。また、表示部4は、表示制御装置1が設けられた車両のフロントガラスやドアガラス、サンルーフガラス等の車両が有するガラス部であってもよい。このように、表示部4は、車両内に固定されている表示装置や投影等により表示可能な部位に限らず、車内に持ち込まれている端末等でもよく、つまりは車両に配置されていればよい。   The display unit 4 displays an image based on the point cloud information processed by the display control unit 3. The display unit 4 can be configured by, for example, a monitor screen installed on a center console or the like in a vehicle, a HUD (Head-Up Display), or the like. Further, the display unit 4 is not limited to one installed in the vehicle, and may be displayed on a portable terminal or the like owned by a passenger, for example. In addition, the display unit 4 may be a glass portion of a vehicle such as a windshield, a door glass, or a sun roof glass of a vehicle provided with the display control device 1. As described above, the display unit 4 is not limited to the display device fixed in the vehicle or a portion that can be displayed by projection or the like, and may be a terminal or the like brought in the vehicle, that is, as long as it is disposed in the vehicle Good.

記憶装置としての記憶部5は、表示制御装置1が搭載されている車両が自律的に走行可能な程度の詳細な情報が含まれる地図データ及び地物データ5aが記憶されている。地物データ5a(地物データ構造)の例を図2に示す。   The storage unit 5 as a storage device stores map data and feature data 5a including detailed information to the extent that the vehicle on which the display control device 1 is mounted can autonomously travel. An example of the feature data 5a (feature data structure) is shown in FIG.

図2に示した表には、地物ID5a1、位置5a2、名称5a3、表示態様5a4が地物毎に設定されている。地物ID5a1は地物毎に設定される固有の番号である。位置5a2は当該地物の位置を緯度経度で示している。名称5a3はビル名、街路樹、電柱、白線、ガードレール、縁石等のその地物の固有の名称や一般名称を示している。表示態様5a4は各地物毎の表示態様を示している。ここで、地物ID5a1、位置5a2、名称5a3は地物の属性となる。   In the table shown in FIG. 2, a feature ID 5a1, a position 5a2, a name 5a3, and a display mode 5a4 are set for each feature. The feature ID 5a1 is a unique number set for each feature. The position 5a2 indicates the position of the feature in terms of latitude and longitude. The name 5a3 indicates a unique name or a general name of the feature such as a building name, a street tree, a telephone pole, a white line, a guardrail, a curb or the like. The display mode 5a4 shows the display mode for each feature. Here, the feature ID 5a1, the position 5a2, and the name 5a3 are attributes of the feature.

次に、上述した構成の表示制御装置1における動作(表示制御方法)について、図3のフローチャートを参照して説明する。図3に示したフローチャートは表示制御部3で実行される。したがって、表示制御部3をCPU等を有するマイクロコンピュータ等で構成することで、表示制御方法を実行する表示制御プログラムとすることができる。   Next, the operation (display control method) in the display control apparatus 1 having the above-described configuration will be described with reference to the flowchart in FIG. The flowchart shown in FIG. 3 is executed by the display control unit 3. Therefore, by configuring the display control unit 3 with a microcomputer or the like having a CPU or the like, it is possible to provide a display control program that executes the display control method.

まず、ステップS11において、表示制御装置1が搭載されている車両が自動運転中であるか否かを判定し、自動運転中である場合はステップS12に進み、自動運転中でない場合は本フローチャートを終了する。つまり、本フローチャートは、自動運転中に実行されるものとする。但し、センターコンソールに設けた表示部等、運転に支障がない部位に表示する場合は、手動運転中であってもステップS12以降を実行してよい。   First, in step S11, it is determined whether or not the vehicle on which the display control device 1 is mounted is in automatic driving. If automatic driving is in progress, the process proceeds to step S12. finish. That is, this flowchart is assumed to be executed during automatic operation. However, when displaying on a portion such as a display unit provided on the center console or the like that does not interfere with operation, steps S12 and after may be performed even during manual operation.

次に、表示制御部3は、ライダ2が検出した点群情報を取得し(ステップS12)、記憶部5に記憶された地物データ5aに基づいて、点群情報に含まれる地物の属性を判定する(ステップS13)。属性の判定は、例えば記憶部5に記憶されている地図データとステップS12で取得した点群情報とをマッチングし、点群情報に対する地物を特定する。そして、特定された地物に対して、地図データに含まれる当該地物の位置や名称と地物データ5aに含まれる当該地物の位置や名称を比較することで、当該地物の属性を判定する。   Next, the display control unit 3 acquires point cloud information detected by the rider 2 (step S12), and based on the feature data 5a stored in the storage unit 5, attributes of features included in the point cloud information Is determined (step S13). For the determination of the attribute, for example, the map data stored in the storage unit 5 is matched with the point cloud information acquired in step S12, and the feature for the point cloud information is specified. Then, with respect to the specified feature, by comparing the position or name of the feature included in the map data with the position or name of the feature included in the feature data 5a, the attribute of the feature is obtained. judge.

次に、表示制御部3は、図2に示した地物データ5aに基づいて、ステップS13で判定した各地物の属性に応じた表示態様を決定する(ステップS14)。そして、表示制御部3は、点群情報に基づく画像を、当該画像における地物に対して、ステップS14で決定された表示態様で表示部4に表示させる(ステップS15)。即ち、点群情報に含まれる所定の地物に対して予め定められた属性に基づいて、点群情報に基づく画像のうち当該地物に対応する部分の表示態様を変更している。また、図2に示した地物データ5aに設定された表示態様5a4が、点群情報に基づく画像を表示させる際に用いられる情報として、当該画像に含まれる地物に対応する部分の表示態様を示す情報となっている。   Next, the display control unit 3 determines a display mode according to the attribute of each feature determined in step S13 based on the feature data 5a shown in FIG. 2 (step S14). Then, the display control unit 3 causes the display unit 4 to display the image based on the point cloud information on the feature in the image in the display mode determined in step S14 (step S15). That is, the display mode of the part corresponding to the said feature is changed among the images based on point cloud information based on the attribute defined beforehand with respect to the predetermined | prescribed feature contained in point cloud information. In addition, as the information used when displaying the image based on the point cloud information, the display mode of the portion corresponding to the feature included in the image is the display mode 5a4 set in the feature data 5a shown in FIG. It is information that indicates

以上の説明から明らかなように、ステップS12が点群情報取得工程、ステップS13、S14が表示制御工程となる。   As is clear from the above description, step S12 is a point cloud information acquisition step, and steps S13 and S14 are display control steps.

ここで、上述した構成の表示制御装置1における表示態様の例を図4を参照して説明する。図4上段は、ライダ2が車両前方について取得した点群情報の例である。図4上段について、地物T1として縁石が車線に沿って設けられている。また、車線沿いには地物T2として街路樹(樹木)が設けられている。更に、進行方向の奥には地物T3、T4としてビルがある。このビルは所定の高さ以上であるものとする。   Here, an example of a display mode in the display control device 1 having the above-described configuration will be described with reference to FIG. The upper part of FIG. 4 is an example of point cloud information acquired by the rider 2 about the front of the vehicle. In the upper part of FIG. 4, a curb is provided along the lane as a feature T1. In addition, a roadside tree (tree) is provided along the lane as a feature T2. Furthermore, there are buildings as features T3 and T4 at the back of the traveling direction. This building shall be more than a predetermined height.

図4下段は、図4上段内で検出された地物等の表示態様を変更した例である。図4下段について、図4上段で縁石である地物T1の部分は、所定の色彩または色彩や光を表現した図形が道路の進行方向に沿って移動(矢印AR)するような表示態様P1となる。また、樹木である地物T2の部分は、凸形状や矩形等の図形を高さ方向に並べて、樹木をデフォルメした形状の表示態様P2となる。また、ビルである地物T3、T4の部分は、その縁部において、高さ方向に色彩または色彩や光を表現した図形が移動するような表示態様P3となる。   The lower part of FIG. 4 is an example in which the display mode of the feature detected in the upper part of FIG. 4 is changed. In the lower part of FIG. 4, the portion of the feature T1 which is a curb in the upper part of FIG. 4 is such a display mode P1 that a predetermined color or a figure expressing a color or light moves along the traveling direction of the road (arrow AR). Become. In addition, a portion of the feature T2 which is a tree is a display mode P2 of a shape in which a tree is deformed by arranging figures such as a convex shape or a rectangle in the height direction. In addition, portions of the features T3 and T4 that are buildings become display modes P3 in which color or a figure representing color or light moves in the height direction at the edge portion.

なお、道路に沿って設けられているものとしては、縁石に限らず、ガードレール、白線であってもよい。また、図2の地物データ5aには、縁石や白線といった区別をつけずに「道路に沿って設けられているもの」という名称を付与してもよい。また、所定の高さ以上であるものとしては、ビル等の建築物に限らず、樹木、電柱であってもよい。また、建築物、樹木といった区別をつけずに「所定の高さ以上であるもの」という名称を付与してもよい。この所定の高さは適宜定めればよい。   In addition, as what is provided along the road, not only a curb but a guardrail and a white line may be sufficient. Further, the feature data 5a of FIG. 2 may be given a name of "provided along a road" without distinction such as curb or white line. Moreover, as what is more than predetermined height, not only buildings, such as a building, but a tree and a telephone pole may be sufficient. Moreover, you may give the name "what is more than predetermined height", without making a distinction, such as a building and a tree. The predetermined height may be determined as appropriate.

本実施例によれば、表示制御装置1は、ライダ2が点群情報を取得し、表示制御部3が点群情報に基づく画像を表示部4に表示させる際に、点群情報に含まれる地物に対して予め定められた属性に基づいて点群情報に基づく画像のうち地物に対応する部分の表示態様を変更する。このようにすることにより、点群情報に含まれる地物に応じて表示態様を変化させることができる。したがって、点群情報を利用して、エンタテインメント性を向上させることができる。   According to the present embodiment, the display control device 1 includes point cloud information when the lidar 2 acquires point cloud information and the display control unit 3 causes the display unit 4 to display an image based on the point cloud information. The display mode of the portion corresponding to the feature is changed in the image based on the point cloud information based on the attribute predetermined for the feature. By doing this, the display mode can be changed according to the feature included in the point cloud information. Therefore, the entertainment property can be improved by using the point cloud information.

また、表示制御部3は、属性が縁石等の道路に沿って設けられているものと判定した場合、地物に対応する部分を、進行方向に沿って色彩の移動または色彩や光等を表現した図形が移動するように表示される表示態様としている。このようにすることにより、道路に沿って設けられているものについて、走行状態をイメージした、または、奥行き感をイメージした表示態様とすることができる。   In addition, when the display control unit 3 determines that the attribute is provided along a road such as a curb or the like, the portion corresponding to the feature represents movement of color, color, light, or the like along the traveling direction. It is assumed that the displayed figure is displayed so as to move. By doing this, it is possible to provide a display mode in which a traveling state is imaged or a sense of depth is imaged in regard to what is provided along the road.

また、表示制御部3は、属性がビル等の所定以上の高さを有するものと判定した場合は、地物に対応する部分を、当該地物の高さ方向に沿って色彩が変化または色彩や光等を表現した図形が移動するように表示される表示態様としてもよい。このようにすることにより、高層ビル等の所定以上の高さがある地物については、その高さを生かした表示態様とすることができる。   In addition, when the display control unit 3 determines that the attribute has a predetermined height or more, such as a building, the color corresponding to the feature changes along the height direction of the feature or the color The display mode may be such that a graphic representing light or light is displayed to move. By doing this, it is possible to set a display mode that makes use of the height of a feature having a predetermined height or more such as a high-rise building.

また、地物データ5aは、車両の周囲の地物を複数の点により表した点群情報に基づく画像を表示させる際に、その画像に含まれる地物に対応する部分の表示態様5a4を含んでいる。このようにすることにより、この地物データ5aを参照することで、点群情報に基づく画像を表示させる際の地物の表示態様の決定を容易にすることができる。したがって、点群情報に含まれる地物に応じて表示態様を変化させることができ、点群情報を利用して、エンタテインメント性を向上させることができる。   The feature data 5a also includes a display mode 5a4 of a portion corresponding to the feature included in the image when displaying an image based on point cloud information in which the feature around the vehicle is represented by a plurality of points. It is. In this way, by referring to the feature data 5a, it is possible to easily determine the display mode of the feature when displaying the image based on the point cloud information. Therefore, the display mode can be changed according to the feature included in the point cloud information, and the entertainment property can be improved using the point cloud information.

また、地物データ5aには、地物の名称5a3を更に含んでもよい。このようにすることにより、地物の名称に基づいて表示態様を定めることができる。   The feature data 5a may further include the feature name 5a3. By doing this, the display mode can be determined based on the name of the feature.

なお、上記した実施例では地物の属性として、道路に沿って設けられているもの(白線、縁石、ガードレール等)や所定以上の高さを有するもの(ビル、街路樹(樹木)、電柱)を挙げて説明したが、本発明はこれに限定されない。当該地物が静的地物か動的地物かという情報を属性として設定してもよい。静的地物としては、例えば白線や建築物等が挙げられる。動的地物としては周辺車両、人物等が挙げられる。静的地物と動的地物の識別は、地図データと点群情報とをマッチングした場合にマッチングした地物は地図上にあることから静的地物とし、マッチングしないものは動的地物として判定すればよい。   In the above-described embodiment, as attributes of features, those provided along roads (white lines, curbs, guardrails, etc.) or those having a predetermined height or more (buildings, street trees (trees), utility poles) However, the present invention is not limited thereto. Information indicating whether the feature is a static feature or a dynamic feature may be set as an attribute. As a static feature, a white line, a building, etc. are mentioned, for example. As a dynamic feature, a surrounding vehicle, a person, etc. are mentioned. In the identification of static features and dynamic features, the features matched when map data and point cloud information are matched are static features because they are on the map, and those that do not match are dynamic features It may be determined as

次に、本発明の第2の実施例にかかる表示制御装置を図5〜図7を参照して説明する。なお、前述した第1の実施例と同一部分には、同一符号を付して説明を省略する。   Next, a display control apparatus according to a second embodiment of the present invention will be described with reference to FIGS. The same parts as those of the first embodiment described above are designated by the same reference numerals and the description thereof will be omitted.

第1の実施例では、地物データ5aは、予め表示制御装置1の記憶部5に記憶されていたが、本実施例では、地物データがサーバ装置10から配信されるようになっている。図5に本実施例の概略構成図を示す。即ち、本実施例においてはサーバ装置10が記憶装置として機能する。   In the first embodiment, the feature data 5a is stored in advance in the storage unit 5 of the display control device 1. However, in the present embodiment, feature data is distributed from the server device 10. . FIG. 5 shows a schematic block diagram of this embodiment. That is, in the present embodiment, the server device 10 functions as a storage device.

本実施例にかかる記憶装置としてのサーバ装置10は、図5に示したように、インターネット等のネットワークNを介して自動運転車両である車両Cに搭載されている端末装置としての表示制御装置1Aと通信可能となっている。サーバ装置10の機能的構成を図6に示す。サーバ装置10は、制御部11と、通信部12と、記憶部13と、を備えている。   As shown in FIG. 5, the server device 10 as a storage device according to the present embodiment is a display control device 1A as a terminal device mounted on a vehicle C which is an automatic driving vehicle via a network N such as the Internet. It is possible to communicate with The functional configuration of the server device 10 is shown in FIG. The server device 10 includes a control unit 11, a communication unit 12, and a storage unit 13.

制御部11は、サーバ装置10のCPU(Central Processing Unit)が機能し、サーバ装置10の全体制御を司る。制御部11は、表示制御装置1Aからの要求に応じて、記憶部13に記憶されている地物データ13aから必要な領域の地物データを読み出して、通信部12を介して表示制御装置1Aに配信する。   The control unit 11 functions as a CPU (Central Processing Unit) of the server device 10 and controls the entire server device 10. Control unit 11 reads feature data of a necessary area from feature data 13a stored in storage unit 13 in response to a request from display control device 1A, and displays control device 1A via communication unit 12 Deliver to.

通信部12は、サーバ装置10のネットワークインターフェース等が機能し、表示制御装置1Aが出力した要求情報等を受信する。また、制御部11が地物データ13aから読み出した地物データを表示制御装置1Aに送信する。   The communication unit 12 functions as a network interface of the server device 10 and receives request information and the like output from the display control device 1A. The control unit 11 also transmits feature data read from the feature data 13a to the display control device 1A.

記憶部13は、サーバ装置10のハードディスク等の記憶装置が機能し、地物データ13aが記憶されている。なお、サーバ装置10は、地物データ13aの配信に限らず、自動運転に利用する地図データ有し、当該地図データを車両へ配信してもよい。   The storage unit 13 functions as a storage device such as a hard disk of the server device 10, and stores feature data 13a. The server device 10 may have map data used for automatic driving as well as distribution of the feature data 13a, and may distribute the map data to the vehicle.

図7に本実施例にかかる表示制御装置1Aのブロック構成を示す。図7に示したブロック構成は、図1に対して、通信部6が追加されており、表示制御部3が表示制御部3Aに変更されている点が異なる。   FIG. 7 shows a block configuration of the display control device 1A according to this embodiment. The block configuration shown in FIG. 7 is different from FIG. 1 in that the communication unit 6 is added and the display control unit 3 is changed to the display control unit 3A.

通信部6は、表示制御部3Aが出力した要求情報等をサーバ装置10に送信する。また、サーバ装置10から配信された地物データを受信する。   The communication unit 6 transmits, to the server device 10, request information and the like output by the display control unit 3A. Also, the feature data distributed from the server device 10 is received.

表示制御部3Aにおいて、座標変換、属性判定、表示態様の加工等の処理は、第1の実施例と同様である。表示制御部3Aはこれらに加えて、通信部6を介した地物データの要求及び通信部6が受信した地物データの記憶部5への格納を行う。地物データの要求は、例えば車両Cに搭載された不図示のGPS(Global Positioning System)受信機が取得した現在位置に基づいて行えばよい。   In the display control unit 3A, processes such as coordinate conversion, attribute determination, and processing of a display mode are the same as in the first embodiment. In addition to the above, the display control unit 3A performs a request for feature data via the communication unit 6 and storing feature data received by the communication unit 6 in the storage unit 5. The feature data request may be made based on, for example, the current position acquired by a GPS (Global Positioning System) receiver (not shown) mounted on the vehicle C.

本実施例によれば、サーバ装置10は、車両Cに設けられた表示制御装置1Aに、地物データを出力する通信部12を備えている。このようにすることにより、車両Cに対して地物データを配信することができる。したがって、車両Cは、地物データを予め有する必要が無く、車両Cが有する記憶装置の容量を削減することができる。また、地物データ5aの更新も容易に行うことができる。   According to the present embodiment, the server device 10 includes the communication control unit 12 that outputs feature data to the display control device 1A provided in the vehicle C. By doing this, feature data can be distributed to the vehicle C. Therefore, the vehicle C does not need to have feature data in advance, and the capacity of the storage device of the vehicle C can be reduced. In addition, the feature data 5a can be easily updated.

次に、本発明の第3の実施例にかかる表示制御装置を図8〜図11を参照して説明する。なお、前述した第1の実施例と同一部分には、同一符号を付して説明を省略する。   Next, a display control apparatus according to a third embodiment of the present invention will be described with reference to FIGS. The same parts as those of the first embodiment described above are designated by the same reference numerals and the description thereof will be omitted.

本実施例は、地物の属性等によらずに、ライダ2で検出した点群の距離と高さの情報に基づいて表示態様を変化させる。図8に本実施例にかかる表示制御装置1Bのブロック構成を示す。図8に示したブロック構成は、図1に対して、表示制御部3が表示制御部3Bに変更されている点が異なる。   In this embodiment, the display mode is changed based on the information of the distance and height of the point group detected by the lidar 2 regardless of the attribute of the feature. FIG. 8 shows a block configuration of the display control device 1B according to the present embodiment. The block configuration shown in FIG. 8 differs from FIG. 1 in that the display control unit 3 is changed to a display control unit 3B.

表示制御部3Bは、ライダ2が取得した点群情報のうち、距離情報と高さ情報に基づいて、点群の表示態様を変化させる。具体的には、ライダ2が取得した点群の距離や高さに応じて色等を変化させる。ライダ2は、上記したように、物体までの距離を測定することができるが、その時にレーザ光を照射した角度(水平角、垂直角)も取得することができる。したがって、距離と角度から物体(点群)の高さ(地上高)を求めることが可能である。   The display control unit 3B changes the display mode of the point cloud based on the distance information and the height information among the point cloud information acquired by the lidar 2. Specifically, the color or the like is changed according to the distance and the height of the point group acquired by the rider 2. The lidar 2 can measure the distance to the object as described above, but can also acquire the angle (horizontal angle, vertical angle) at which the laser light was irradiated at that time. Therefore, it is possible to determine the height (ground height) of the object (point group) from the distance and the angle.

図9に距離ごとの色の設定例を示す。図9の場合、自車から0m以上10m未満の範囲が色A、自車から10m以上30m未満の範囲が色B、自車から30m以上50m未満の範囲が色C、自車から50m以上の範囲が色Dとなっている。   FIG. 9 shows an example of setting a color for each distance. In the case of FIG. 9, the range from 0 to 10 m from the vehicle is color A, the range from 10 to 30 m from the vehicle is color B, the range from 30 to 50 m from the vehicle is color C, 50 m from the vehicle The range is color D.

図10に高さごとの色の設定例を示す。図10の場合、高さが地上0m以上10m未満の範囲が色A、地上10m以上50m未満の範囲が色B、地上50m以上100m未満の範囲が色C、地上100m以上の範囲が色Dとなっている。   FIG. 10 shows an example of setting the color for each height. In the case of FIG. 10, the height is in the range of 0 m to 10 m above ground color A, in the range of 10 m to 50 m below ground color B, in the range of 50 m to 100 m below ground C, and over 100 m above ground color D It has become.

なお、表示態様として色を変化させるに限らず、コントラストを変化させるようにしてもよい。また、距離と高さを組み合わせて色やコントラストを変化させてもよい。   The display mode is not limited to changing the color, and the contrast may be changed. Also, the color and the contrast may be changed by combining the distance and the height.

また、表示態様としては、点群の色やコントラストを変化させるに限らず、例えば図4下段のようなデフォルメを行った上で上記した距離や高さに応じて色やコントラストを変化させるようにしてもよい。さらには、色やコントラストではなく、距離や高さによってエフェクトの種類を変更するようにしてもよい。   Also, the display mode is not limited to changing the color and contrast of the point group, and for example, after performing deformation as shown in the lower part of FIG. 4, the color and contrast may be changed according to the above distance and height. May be Furthermore, the type of effect may be changed according to distance or height, not color or contrast.

図11に本実施例の表示制御装置1Bにおける動作(表示制御方法)を示す。図11に示したフローチャートは表示制御部3Bで実行される。したがって、表示制御部3BをCPU等を有するマイクロコンピュータ等で構成することで、表示制御方法を実行する表示制御プログラムとすることができる。   FIG. 11 shows an operation (display control method) in the display control device 1B of the present embodiment. The flowchart shown in FIG. 11 is executed by the display control unit 3B. Therefore, by configuring the display control unit 3B with a microcomputer or the like having a CPU or the like, it is possible to provide a display control program that executes the display control method.

図11のフローチャートにおいて、ステップS11、S12、S15は図3に示したフローチャートと同様である。図11のフローチャートは、図3に示したステップS13が省略され、ステップS14がステップS14Aに変更されている。   In the flowchart of FIG. 11, steps S11, S12 and S15 are the same as the flowchart shown in FIG. In the flowchart of FIG. 11, step S13 shown in FIG. 3 is omitted, and step S14 is changed to step S14A.

ステップS14Aは、上述したように、ライダ2が取得した点群情報のうち、距離情報と高さ情報に基づいて点群の表示態様を決定する。即ち、ステップS12が点群情報取得工程、ステップS14Aが表示制御工程となる。   Step S14A determines the display mode of the point group based on the distance information and the height information among the point group information acquired by the rider 2 as described above. That is, step S12 is a point cloud information acquisition process, and step S14A is a display control process.

本実施例によれば、表示制御装置1Bは、ライダ2が地物までの距離情報及び当該地物の高さ情報を含む点群情報を取得し、表示制御部3Bが距離情報及び高さ情報に基づいて点群情報に基づく画像の表示態様を変化させる。このようにすることにより、点群情報に含まれる距離等の情報に基づいて表示態様を変化させることが可能となる。例えば、距離に応じてエフェクトを変化させることができる。したがって、点群情報を利用して、エンタテインメント性を向上させることができる。   According to this embodiment, the display control device 1B acquires the point cloud information including the distance information to the feature and the height information of the feature, and the display control unit 3B obtains the distance information and the height information. The display mode of the image based on the point cloud information is changed based on. By doing this, it is possible to change the display mode based on the information such as the distance included in the point cloud information. For example, the effect can be changed according to the distance. Therefore, the entertainment property can be improved by using the point cloud information.

また、表示制御部3Bは、距離情報及び高さ情報に基づいて角度情報を求め、角度情報に基づいて点群情報に基づく画像の表示態様を変化させてもよい。このようにすることにより、点群情報に含まれる点群の角度に基づいてエフェクト等の表示態様を変化させることが可能となる。   Further, the display control unit 3B may obtain angle information based on the distance information and the height information, and change the display mode of the image based on the point cloud information based on the angle information. By doing this, it is possible to change the display mode such as the effect based on the angle of the point cloud included in the point cloud information.

また、表示態様の変化には、色の変化やコントラストの変化を含み、表示制御部は、点群情報に基づく画像の色やコントラストを変化させてもよい。このようにすることにより、距離や高さに応じて色やコントラストを変化させて表示することができる。   The change in display mode may include a change in color or a change in contrast, and the display control unit may change the color or contrast of the image based on the point cloud information. By doing this, color and contrast can be changed and displayed according to the distance and height.

また、上述した3つの実施例では、ライダ2で取得した点群情報をリアルタイムに表示制御部3等で処理していたが、図12に示すように、点群情報を点群情報5bとして記憶部5に予め記憶させ、表示制御部3Cが、現在位置推定部7で推定した現在位置に対応する点群情報を記憶部5から読み出して所定の加工を施すようにしてもよい。即ち、図12の場合は表示制御部3Cが点群情報取得部として機能する。図12の構成の場合、点群情報が予め記憶されていることから周辺車両等の動的地物は、現実の状況と異なるため、例えば静的地物のみを表示するようにしてもよい。   In the above-described three embodiments, the point cloud information acquired by the lidar 2 is processed in real time by the display control unit 3 or the like, but as shown in FIG. 12, the point cloud information is stored as point cloud information 5b. The display control unit 3C may store in advance the point cloud information corresponding to the current position estimated by the current position estimation unit 7 from the storage unit 5 and perform predetermined processing. That is, in the case of FIG. 12, the display control unit 3C functions as a point cloud information acquisition unit. In the case of the configuration of FIG. 12, since the point cloud information is stored in advance, the dynamic features such as the surrounding vehicles are different from the actual situation, and for example, only the static features may be displayed.

現在位置推定部7は、表示制御装置1Cが搭載される車両の現在位置を推定する。現在位置推定部7は、例えばGPS受信機により構成され、GPS衛星から受信した電波により現在位置を表す緯度及び経度の位置情報を推定すればよい。   The current position estimation unit 7 estimates the current position of the vehicle on which the display control device 1C is mounted. The current position estimation unit 7 is formed of, for example, a GPS receiver, and may estimate position information of latitude and longitude representing the current position from radio waves received from GPS satellites.

なお、図12では、表示制御装置1Cが記憶部5を備えているが、このような3Dデータはデータ量が多いので外部サーバ等に格納し、外部サーバと通信する通信装置を備えて、表示制御部3Cが、通信装置を介して点群情報を取得するようにしてもよい。   In FIG. 12, the display control device 1C includes the storage unit 5. However, since such 3D data has a large amount of data, it is stored in an external server or the like and includes a communication device for communicating with the external server. The control unit 3C may acquire point cloud information via the communication device.

また、ライダ2が取得した点群情報には、車両の周囲に存在する物体を示す情報、例えば利用者であるドライバーが注意すべき歩行者や、他車両を示す情報が含まれている。したがって、当該点群情報を利用してエンタテインメント性を持った画像を表示させることで、ドライバーは当該画像を楽しみつつ、注意すべき物体等を監視することができる。これに伴い、ドライバーが持つ安心感を向上させることができることとなる。   In addition, the point cloud information acquired by the rider 2 includes information indicating an object present around the vehicle, for example, information indicating a pedestrian to be noted by the driver who is the user, and other vehicles. Therefore, the driver can monitor an object or the like to be watched while enjoying the image by displaying the image having the entertainment property using the point cloud information. Along with this, it is possible to improve the sense of security the driver has.

また、本発明は上記実施例に限定されるものではない。即ち、当業者は、従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の表示制御装置の構成を具備する限り、勿論、本発明の範疇に含まれるものである。   Further, the present invention is not limited to the above embodiment. That is, those skilled in the art can carry out various modifications without departing from the gist of the present invention in accordance with conventionally known findings. As long as the configuration of the display control apparatus of the present invention is provided even by such a modification, it is of course included in the scope of the present invention.

1、1A、1B、1C 表示制御装置
2 ライダ(点群情報取得部)
3、3A、3B、3C 表示制御部
4 表示部
5 記憶部
5a 地物データ(地図データ構造)
10 サーバ装置
13a 地物データ(地図データ構造)
1, 1A, 1B, 1C Display control device 2 lidar (point cloud information acquisition unit)
3, 3A, 3B, 3C Display control unit 4 Display unit 5 Storage unit 5a Feature data (map data structure)
10 server device 13a feature data (map data structure)

Claims (4)

移動体の周囲の地物を複数の点により表した点群情報に基づく画像を表示させる際に用いられる情報を含む地物データ構造であって、
前記画像を表示させる際に用いられる情報として、当該画像に含まれる地物に対応する部分の表示態様を示す情報を含むことを特徴とする地物データ構造。
A feature data structure including information used when displaying an image based on point cloud information in which a feature around a moving object is represented by a plurality of points,
A feature data structure comprising information indicating a display mode of a portion corresponding to a feature included in the image as the information used when displaying the image.
前記地物の属性情報を更に含むことを特徴とする請求項1に記載の地物データ構造。   The feature data structure according to claim 1, further comprising attribute information of the feature. 移動体の周囲の地物を複数の点により表した点群情報に基づく画像を表示させる際に用いられる情報を含む地物データを記憶する記憶装置であって、
前記地物データには、前記画像を表示させる際に用いられる情報として、当該画像に含まれる地物に対応する部分の表示態様を示す情報を含むことを特徴とする記憶装置。
A storage device for storing feature data including information used when displaying an image based on point cloud information in which a feature around a moving object is represented by a plurality of points,
The storage device, wherein the feature data includes information indicating a display mode of a portion corresponding to the feature included in the image as the information used when displaying the image.
移動体に設けられた表示制御装置に前記地物データを出力する出力部を備えることを特徴とする請求項3に記載の記憶装置。   The storage device according to claim 3, further comprising an output unit configured to output the feature data to a display control device provided in the moving body.
JP2017249678A 2017-12-26 2017-12-26 Object data structure Pending JP2019117214A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017249678A JP2019117214A (en) 2017-12-26 2017-12-26 Object data structure

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017249678A JP2019117214A (en) 2017-12-26 2017-12-26 Object data structure

Publications (1)

Publication Number Publication Date
JP2019117214A true JP2019117214A (en) 2019-07-18

Family

ID=67305320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017249678A Pending JP2019117214A (en) 2017-12-26 2017-12-26 Object data structure

Country Status (1)

Country Link
JP (1) JP2019117214A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022069007A (en) * 2020-10-23 2022-05-11 株式会社アフェクション Information processing system and information processing method and information processing program
WO2023053485A1 (en) * 2021-09-30 2023-04-06 ソニーグループ株式会社 Information processing device, information processing method, and information processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022069007A (en) * 2020-10-23 2022-05-11 株式会社アフェクション Information processing system and information processing method and information processing program
WO2023053485A1 (en) * 2021-09-30 2023-04-06 ソニーグループ株式会社 Information processing device, information processing method, and information processing program

Similar Documents

Publication Publication Date Title
US11535155B2 (en) Superimposed-image display device and computer program
CN108572663B (en) Target tracking
KR102348127B1 (en) Electronic apparatus and control method thereof
JP5901779B2 (en) How to move data from image database map service into assist system
US11531354B2 (en) Image processing apparatus and image processing method
JP2020064068A (en) Visual reinforcement navigation
US11511627B2 (en) Display device and computer program
JP4909451B1 (en) Information display apparatus and control method
EP3147884B1 (en) Traffic-light recognition device and traffic-light recognition method
WO2018230492A1 (en) Information processing device, information processing method, and program
US11378413B1 (en) Augmented navigational control for autonomous vehicles
WO2011053335A1 (en) System and method of detecting, populating and/or verifying condition, attributions, and/or objects along a navigable street network
JP6792160B2 (en) Movement support system, movement support device, movement support terminal, movement support method, map creation system, map creation device, and information acquisition terminal
US11668573B2 (en) Map selection for vehicle pose system
KR20120079341A (en) Method, electronic device and recorded medium for updating map data
US20170120819A1 (en) Information display control system and method of controlling display of information
JP2020032866A (en) Vehicular virtual reality providing device, method and computer program
CN114750696A (en) Vehicle vision presenting method, vehicle-mounted equipment and vehicle
CN114765972A (en) Display method, computer program, controller and vehicle for representing a model of the surroundings of a vehicle
JP2019117214A (en) Object data structure
JP2023085254A (en) Display control device
JP2019117052A (en) Display control device
KR102406489B1 (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
JP2019117435A (en) Image generation device
KR20210061722A (en) Method, apparatus, computer program and computer readable recording medium for producing high definition map

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180116