JP6916438B2 - Flow line identification system, server device, terminal device, flow line identification method, and flow line identification program - Google Patents

Flow line identification system, server device, terminal device, flow line identification method, and flow line identification program Download PDF

Info

Publication number
JP6916438B2
JP6916438B2 JP2017090391A JP2017090391A JP6916438B2 JP 6916438 B2 JP6916438 B2 JP 6916438B2 JP 2017090391 A JP2017090391 A JP 2017090391A JP 2017090391 A JP2017090391 A JP 2017090391A JP 6916438 B2 JP6916438 B2 JP 6916438B2
Authority
JP
Japan
Prior art keywords
server device
position information
flow line
condition
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017090391A
Other languages
Japanese (ja)
Other versions
JP2018189436A (en
Inventor
孝司 島田
孝司 島田
清英 大宮
清英 大宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017090391A priority Critical patent/JP6916438B2/en
Publication of JP2018189436A publication Critical patent/JP2018189436A/en
Application granted granted Critical
Publication of JP6916438B2 publication Critical patent/JP6916438B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、動線特定システム、サーバ装置、端末装置、動線特定方法、及び動線特定プログラムに関する。 The present invention relates to a flow line identification system, a server device, a terminal device, a flow line identification method, and a flow line identification program.

自車が走行する道路の車線毎の情報を把握することは、車両の安全運行やサービスの面で重要である。
例えば、車線毎の道路の平坦性の情報があれば、夜行バスの運転者が平坦性の良い車線を選択して走行できるため、走行中の振動により睡眠中の乗客を起こさずに運行でき、安全運行やサービスの面で向上させることが可能となる。
It is important to grasp the information for each lane of the road on which the own vehicle travels in terms of safe operation and service of the vehicle.
For example, if there is information on the flatness of the road for each lane, the driver of the night bus can select a lane with good flatness and drive, so that the vehicle can operate without waking up sleeping passengers due to vibration during driving. It will be possible to improve in terms of safe operation and service.

車線毎に自車の位置を把握する技術としては、例えば、地図情報上における自車両の位置を算出するマップマッチング装置が提案されている(例えば、特許文献1等参照)。 As a technique for grasping the position of the own vehicle for each lane, for example, a map matching device for calculating the position of the own vehicle on map information has been proposed (see, for example, Patent Document 1 and the like).

特開2015−68665号公報JP 2015-68665

しかしながら、特許文献1に記載の技術では、自車の位置を地図情報上にマッチングする必要があり、例えば、道路が新設された場合には通行可能な車線数が変わり、地図情報を変更しないとマッチングが難しくなる。このため、地図情報に依存した形態で車線数を特定することが困難な場合があり、地図情報がないと機能しないという問題がある。 However, in the technique described in Patent Document 1, it is necessary to match the position of the own vehicle on the map information. For example, when a new road is constructed, the number of lanes that can be passed changes and the map information must be changed. Matching becomes difficult. Therefore, it may be difficult to specify the number of lanes in a form that depends on the map information, and there is a problem that it does not function without the map information.

一つの側面では、移動路の動線数を特定できる条件を導出できる動線特定システム、サーバ装置、端末装置、動線特定方法、及び動線特定プログラムを提供することを目的とする。 One aspect is to provide a flow line identification system, a server device, a terminal device, a flow line identification method, and a flow line identification program capable of deriving a condition capable of specifying the number of flow lines of a movement path.

一つの実施態様では、動線特定システムは、移動体に搭載され、前記移動体の位置情報と、前記位置情報に示される位置において所定の撮影範囲を撮影した画像とを送信する制御部を有する端末装置と、複数の前記移動体のそれぞれから受信した前記位置情報及び前記画像を用いて、地理的に隣り合う所定の範囲毎に移動路の動線数を特定するための第1の条件を導出し、前記所定の範囲毎の前記第1の条件を前記端末装置に送信する制御部を有するサーバ装置と、を有する。 In one embodiment, the movement line identification system is mounted on a moving body and has a control unit that transmits the position information of the moving body and an image of a predetermined shooting range taken at the position indicated by the position information. Using the terminal device and the position information and the image received from each of the plurality of mobile bodies, the first condition for specifying the number of movement lines of the movement path for each predetermined range geographically adjacent to each other is set. It has a server device having a control unit for deriving and transmitting the first condition for each predetermined range to the terminal device.

一つの側面では、移動路の動線数を特定できる条件を導出できる動線特定システム、サーバ装置、端末装置、動線特定方法、及び動線特定プログラムを提供することができる。 On one aspect, it is possible to provide a flow line identification system, a server device, a terminal device, a flow line identification method, and a flow line identification program capable of deriving a condition capable of specifying the number of flow lines of a movement path.

図1は、動線特定システムの一例を示す図である。FIG. 1 is a diagram showing an example of a flow line identification system. 図2は、サーバ装置のハードウェア構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the hardware configuration of the server device. 図3は、サーバ装置の機能構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the functional configuration of the server device. 図4は、走行履歴DBが記憶する走行履歴データの一例を示す図である。FIG. 4 is a diagram showing an example of travel history data stored in the travel history DB. 図5は、LA生成部が行うLA生成処理の一例を示す説明図である。FIG. 5 is an explanatory diagram showing an example of LA generation processing performed by the LA generation unit. 図6は、チューニング部が行うチューニング処理の一例を示す説明図である。FIG. 6 is an explanatory diagram showing an example of tuning processing performed by the tuning unit. 図7は、チューニング部が行うチューニング処理の他の一例を示す説明図である。FIG. 7 is an explanatory diagram showing another example of the tuning process performed by the tuning unit. 図8は、チューニング部が行うチューニング処理の他の一例を示す説明図である。FIG. 8 is an explanatory diagram showing another example of the tuning process performed by the tuning unit. 図9は、基準画像における撮影状態のバリエーションの一例を示す説明図である。FIG. 9 is an explanatory diagram showing an example of variations in the shooting state in the reference image. 図10は、基準画像における撮影状態のバリエーションの他の一例を示す説明図である。FIG. 10 is an explanatory diagram showing another example of variations in the shooting state in the reference image. 図11は、基準画像における撮影状態のバリエーションの他の一例を示す説明図である。FIG. 11 is an explanatory diagram showing another example of variations in the shooting state in the reference image. 図12は、車線数の情報を含む道路地図の一例を示す図である。FIG. 12 is a diagram showing an example of a road map including information on the number of lanes. 図13は、端末装置のハードウェア構成の一例を示すブロック図である。FIG. 13 is a block diagram showing an example of the hardware configuration of the terminal device. 図14は、端末装置の機能構成の一例を示す説明図である。FIG. 14 is an explanatory diagram showing an example of the functional configuration of the terminal device. 図15は、動線特定システムが行う処理の流れの一例を示すシーケンス図である。FIG. 15 is a sequence diagram showing an example of the flow of processing performed by the flow line identification system. 図16は、サーバ装置が行う処理の流れの一例を示すフローチャートである。FIG. 16 is a flowchart showing an example of the flow of processing performed by the server device. 図17は、端末装置が行う処理の流れの一例を示すフローチャートである。FIG. 17 is a flowchart showing an example of the flow of processing performed by the terminal device.

動線特定システムは、当該移動体が位置する移動路の動線数と当該移動体が位置する動線の位置を特定することができる。動線特定システムは、移動体が搭載する端末装置と、端末装置から位置情報及びその位置における周辺画像を受信するサーバ装置を有する。 The flow line identification system can specify the number of flow lines of the movement path on which the moving body is located and the position of the flow line on which the moving body is located. The flow line identification system includes a terminal device mounted on the mobile body and a server device that receives position information and a peripheral image at the position from the terminal device.

具体的には、端末装置は、移動体の位置情報と、位置情報に示される位置において所定の撮影範囲を撮影した画像とを送信する。端末装置は、移動体に搭載される。 Specifically, the terminal device transmits the position information of the moving body and the image obtained by capturing a predetermined shooting range at the position indicated by the position information. The terminal device is mounted on the mobile body.

ここで、移動体としては、例えば、車両、動物、水上移動体などが挙げられる。また、車両としては、例えば、自動車、自転車などが挙げられる。なお、動物には人も含まれる。
移動路とは、例えば、道路、水路などが挙げられる。また、道路としては、例えば、車道、歩道などが挙げられる。
動線とは、移動体が移動する経路を示す線であり、例えば、車線などが挙げられる。
移動体の位置情報とは、移動体の位置を特定できる情報であり、例えば、GPS(Grobal Positioning System)ユニットにより取得した経度緯度の情報などが挙げられる。
所定の撮影範囲を撮影した画像とは、例えば、移動体を中心に所定の撮影範囲を半径60mとし、デジタルビデオカメラなどを用いて撮影した当該移動体の周辺画像などが挙げられる。
Here, examples of the moving body include a vehicle, an animal, a water moving body, and the like. Examples of vehicles include automobiles and bicycles. Animals also include humans.
Examples of the moving route include roads and waterways. Further, examples of the road include a roadway and a sidewalk.
The flow line is a line indicating a route on which the moving body moves, and examples thereof include a lane.
The position information of the moving body is information that can specify the position of the moving body, and examples thereof include longitude and latitude information acquired by a GPS (Global Positioning System) unit.
Examples of the image obtained by capturing a predetermined shooting range include an image of the periphery of the moving body taken with a digital video camera or the like with a predetermined shooting range having a radius of 60 m centered on the moving body.

次に、サーバ装置は、複数の移動体のそれぞれから受信した位置情報と画像とを用いて、地理的に隣り合う所定の範囲毎に移動路の動線数を特定するための第1の条件を導出する。サーバ装置は、所定の範囲毎の第1の条件を端末装置に送信する。 Next, the server device uses the position information and the image received from each of the plurality of moving objects to specify the number of flow lines of the moving path for each predetermined range geographically adjacent to each other. Is derived. The server device transmits the first condition for each predetermined range to the terminal device.

ここで、地理的に隣り合う所定の範囲とは、例えば、移動路を走行方向に対して直交する方向に約100mごとに順次分割した領域である。サーバ装置は、所定の範囲毎に動線数を特定する。
なお、以下では所定の範囲を「LA(Local Area)」と称することもある。
Here, the geographically adjacent predetermined range is, for example, a region in which the moving path is sequentially divided at intervals of about 100 m in a direction orthogonal to the traveling direction. The server device specifies the number of flow lines for each predetermined range.
In the following, a predetermined range may be referred to as "LA (Local Area)".

動線数を特定するための第1の条件としては、動線数を特定できる条件であれば特に制限はなく、目的に応じて適宜選択することができる。
具体的には、第1の条件としては、人工知能を用いない場合、当該移動体周辺の移動路を撮影した画像から動線数を特定しやすい基準画像を選定し、選定した基準画像と動線数を特定すべき画像との類似度が所定の値以上という条件などとする。このようにすると、動線特定システムは、類似度が所定の値以上であれば、基準画像における既知の動線数を特定すべき画像の動線数であると特定することができる。あるいは、動線特定システムは、特定すべき画像と、既知の動線数が異なる画像との類似度をそれぞれ導出し、類似度が所定の値以上という条件を用いて、類似度が高い基準画像の動線数を特定すべき画像の動線数であると特定することができる。
The first condition for specifying the number of flow lines is not particularly limited as long as the number of flow lines can be specified, and can be appropriately selected depending on the purpose.
Specifically, as the first condition, when artificial intelligence is not used, a reference image in which the number of flow lines can be easily specified is selected from an image of a movement path around the moving body, and the selected reference image and motion are selected. The condition is that the degree of similarity with the image for which the number of lines should be specified is equal to or higher than a predetermined value. In this way, the flow line identification system can specify that the known number of flow lines in the reference image is the number of flow lines of the image to be specified if the similarity is equal to or higher than a predetermined value. Alternatively, the flow line identification system derives the similarity between the image to be specified and the image having a different number of known flow lines, and uses the condition that the similarity is equal to or higher than a predetermined value to obtain a reference image having a high degree of similarity. It can be specified that the number of flow lines of the image is the number of flow lines of the image to be specified.

また、第1の条件としては、人工知能を用いる場合、所定の撮影範囲を撮影した画像を教師画像データ群、当該画像を撮影した位置における所定の範囲の既知の動線数を教師正解データ群として人工知能が学習して導出した学習済み重みパラメータなどとする。このようにすると、動線特定システムは、導出した学習済み重みパラメータを用いて推論し、動線数を特定することができる。 Further, as the first condition, when artificial intelligence is used, the image obtained by capturing a predetermined shooting range is the teacher image data group, and the number of known movement lines in the predetermined range at the position where the image is captured is the teacher correct answer data group. Let it be a learned weight parameter etc. learned and derived by artificial intelligence. In this way, the flow line identification system can infer using the derived learned weight parameter and specify the number of flow lines.

これにより、動線特定システムは、複数の移動体のそれぞれから受信した位置情報と画像とを用いて、移動路の動線数を特定できる条件を導出することができ、更には、動線数を特定することができる。 As a result, the flow line identification system can derive a condition capable of specifying the number of flow lines of the movement path by using the position information and the image received from each of the plurality of moving bodies, and further, the number of flow lines. Can be identified.

次に、サーバ装置は、位置情報とその位置で撮影した画像とを送信した一の移動体が、当該位置情報により特定される所定の範囲において、いずれの動線に位置しているかを特定するための第2の条件を導出して端末装置に送信する。 Next, the server device specifies which flow line the one mobile body that transmitted the position information and the image taken at that position is located in the predetermined range specified by the position information. The second condition for this is derived and transmitted to the terminal device.

ここで、いずれの動線に位置しているかを特定するための第2の条件としては、いずれの動線に位置しているかを特定できる条件であれば特に制限はなく、目的に応じて適宜選択することができる。
なお、「いずれの動線に位置しているかを特定する」ことは、移動体が車両であれば「自車走行動線位置を特定する」ことを意味する。また、以下では「自車走行動線位置」を「動線位置」と称することもある。
Here, as the second condition for specifying which flow line is located, there is no particular limitation as long as it is possible to specify which flow line is located, and it is appropriate according to the purpose. You can choose.
It should be noted that "specifying which flow line the vehicle is located in" means "specifying the position of the own vehicle traveling flow line" if the moving body is a vehicle. Further, in the following, the "driving flow line position of the own vehicle" may be referred to as the "traffic line position".

具体的には、第2の条件としては、人工知能を用いない場合、所定の範囲毎に移動体の動線位置を特定しやすい基準画像を選定し、選定した基準画像と動線位置を特定すべき画像との類似度が所定の値以上という条件などとする。このようにすると、動線特定システムは、類似度が所定の値以上であれば、基準画像における既知の動線位置を特定すべき画像の動線位置であると特定することができる。あるいは、動線特定システムは、特定すべき画像と、既知の動線位置が異なる画像との類似度をそれぞれ導出し、類似度が所定の値以上という条件を用いて、類似度が高い基準画像の動線位置を特定すべき画像の動線位置であると特定することができる。 Specifically, as the second condition, when artificial intelligence is not used, a reference image that makes it easy to specify the flow line position of the moving body is selected for each predetermined range, and the selected reference image and the flow line position are specified. The condition is that the degree of similarity with the image to be used is equal to or higher than a predetermined value. In this way, the flow line identification system can identify the known flow line position in the reference image as the flow line position of the image to be specified if the similarity is equal to or higher than a predetermined value. Alternatively, the flow line identification system derives the similarity between the image to be specified and the image having a different known flow line position, and uses the condition that the similarity is equal to or higher than a predetermined value to obtain a reference image having a high degree of similarity. It is possible to specify the flow line position of the image to be specified.

また、第2の条件としては、人工知能を用いる場合、移動体が位置している動線が既知である画像を教師画像データ群、当該画像における移動体が位置している動線を教師正解データ群として人工知能が学習して得た学習済み重みパラメータなどとする。このようにすると、動線特定システムは、導出した学習済み重みパラメータを用いて推論し、動線位置を特定することができる。 As a second condition, when artificial intelligence is used, the image in which the moving body is located is the teacher image data group, and the moving line in the image is the correct answer by the teacher. As a data group, it is a learned weight parameter obtained by learning by artificial intelligence. In this way, the flow line identification system can infer using the derived learned weight parameter and specify the flow line position.

また、端末装置は、特定した結果である動線数の情報といずれの動線に位置しているかの情報とを、位置情報と、位置情報に示される位置において撮影された画像との対応を識別可能な状態でサーバ装置に送信する。
このように、動線数及び動線位置を特定した結果をサーバ装置にフィードバックすることにより、サーバ装置は、人工知能を用いる場合、特定した結果を教師正解データ群として用いて、学習済み重みパラメータを更新することができる。また、サーバ装置は、人工知能を用いない場合、特定した結果を、動線数と自車が位置している動線が既知である基準画像の候補として用いることができる。
In addition, the terminal device provides information on the number of flow lines, which is the specified result, and information on which flow line the terminal device is located in, and associates the position information with the image taken at the position indicated in the position information. Send to the server device in an identifiable state.
In this way, by feeding back the result of specifying the number of movement lines and the position of the movement line to the server device, the server device uses the specified result as the teacher correct answer data group when using artificial intelligence, and the learned weight parameter. Can be updated. Further, when artificial intelligence is not used, the server device can use the specified result as a candidate for a reference image in which the number of flow lines and the flow line in which the own vehicle is located are known.

以下、本発明の一実施例を説明するが、本発明は、この実施例に何ら限定されるものではない。 Hereinafter, an embodiment of the present invention will be described, but the present invention is not limited to this embodiment.

(第1の実施例)
(動線特定システム)
図1は、動線特定システム10の一例を示す図である。本実施例の動線特定システム10は、移動体としての車両が走行しているところの高速道路の車線数及び車線位置を特定するシステムである。
図1に示すように、動線特定システム10は、サーバ装置100と、車両A、B、C、・・・にそれぞれ搭載されている端末装置200a、200b、200c、・・・と、を有する。
サーバ装置100は、ネットワーク300を介して端末装置200a、200b、200c、・・・と通信可能に接続されている。
なお、端末装置200a、200b、200c、・・・は、装置の構成がそれぞれ同様であることから、以下では「端末装置200」と称してまとめて説明する。また、車両A、B、C、・・・は、区別する必要がないときは単に「車両」と称することもある。
(First Example)
(Flow line identification system)
FIG. 1 is a diagram showing an example of a flow line specifying system 10. The flow line identification system 10 of this embodiment is a system that specifies the number of lanes and the lane position of the expressway where the vehicle as a moving body is traveling.
As shown in FIG. 1, the flow line identification system 10 includes a server device 100 and terminal devices 200a, 200b, 200c, ... Mounted on vehicles A, B, C, ..., Respectively. ..
The server device 100 is communicably connected to the terminal devices 200a, 200b, 200c, ..., Through the network 300.
Since the terminal devices 200a, 200b, 200c, ... Have the same configuration, they will be collectively referred to as "terminal device 200" below. Further, vehicles A, B, C, ... May be simply referred to as "vehicles" when it is not necessary to distinguish them.

まず、サーバ装置100のハードウェア構成及び機能構成について説明する。 First, the hardware configuration and the functional configuration of the server device 100 will be described.

(サーバ装置)
<サーバ装置のハードウェア構成>
図2は、サーバ装置100のハードウェア構成の一例を示すブロック図である。
図2に示すように、サーバ装置100のハードウェア構成は以下の各装置を有する。各装置は、バス109を介してそれぞれ通信可能に接続されている。
(Server device)
<Hardware configuration of server device>
FIG. 2 is a block diagram showing an example of the hardware configuration of the server device 100.
As shown in FIG. 2, the hardware configuration of the server device 100 includes the following devices. Each device is communicably connected via a bus 109.

CPU(Central Processing Unit)101は、種々の制御や演算を行なう処理装置である。CPU101は、主記憶装置102などが記憶するOS(Operating System)やプログラムを実行することにより、種々の機能を実現する。すなわち、CPU101は、本実施例では、動線特定プログラムを実行することにより、後述する制御部140として機能する。
動線特定プログラムは、必ずしも最初から主記憶装置102、補助記憶装置105などに記憶されていなくともよい。また、インターネット、LAN、WANなどを介してサーバ装置100に接続される他の情報処理装置などに動線特定プログラムを記憶させ、サーバ装置100がこれらから動線特定プログラムを取得して実行するようにしてもよい。
The CPU (Central Processing Unit) 101 is a processing device that performs various controls and calculations. The CPU 101 realizes various functions by executing an OS (Operating System) or a program stored in the main storage device 102 or the like. That is, in this embodiment, the CPU 101 functions as a control unit 140, which will be described later, by executing the flow line specifying program.
The flow line specifying program does not necessarily have to be stored in the main storage device 102, the auxiliary storage device 105, or the like from the beginning. Further, the flow line identification program is stored in another information processing device or the like connected to the server device 100 via the Internet, LAN, WAN, or the like, and the server device 100 acquires and executes the flow line identification program from these. You may do it.

また、CPU101は、サーバ装置100全体の動作を制御する。なお、本実施例では、サーバ装置100全体の動作を制御する装置をCPU101としたが、これに限ることなく、例えば、FPGA(Field Programmable Gate Array)などとしてもよい。 Further, the CPU 101 controls the operation of the entire server device 100. In this embodiment, the device that controls the operation of the entire server device 100 is the CPU 101, but the device is not limited to this, and may be, for example, an FPGA (Field Programmable Gate Array).

主記憶装置102は、各種プログラムを記憶し、各種プログラムを実行するために必要なデータ等を記憶する。
主記憶装置102は、図示しない、ROM(Read Only Memory)と、RAM(Random Access Memory)と、を有する。
ROMは、BIOS(Basic Input/Output System)等の各種プログラムなどを記憶している。
RAMは、ROMに記憶された各種プログラムがCPU101により実行される際に展開される作業範囲として機能する。RAMとしては、特に制限はなく、目的に応じて適宜選択することができる。RAMとしては、例えば、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)などが挙げられる。
The main storage device 102 stores various programs and stores data and the like necessary for executing various programs.
The main storage device 102 has a ROM (Read Only Memory) and a RAM (Random Access Memory) (not shown).
The ROM stores various programs such as BIOS (Basic Input / Output System).
The RAM functions as a work range expanded when various programs stored in the ROM are executed by the CPU 101. The RAM is not particularly limited and can be appropriately selected depending on the purpose. Examples of the RAM include DRAM (Dynamic Random Access Memory) and SRAM (Static Random Access Memory).

GPU(Graphics Processing Unit)103は、グラフィック処理、並列的な数値演算処理などの必要な処理を実行する。 The GPU (Graphics Processing Unit) 103 executes necessary processing such as graphic processing and parallel numerical calculation processing.

VRAM(Video Random Access Memory)104は、ディスプレイ108に画像を表示するために必要なデータを保持するためのメモリ領域として機能する。 The VRAM (Video Random Access Memory) 104 functions as a memory area for holding data necessary for displaying an image on the display 108.

補助記憶装置105としては、各種情報を記憶できれば特に制限はなく、目的に応じて適宜選択することができ、例えば、ソリッドステートドライブ、ハードディスクドライブなどが挙げられる。また、補助記憶装置105は、CD(Compact Disc)ドライブ、DVD(Digital Versatile Disc)ドライブ、BD(Blu−ray(登録商標) Disc)ドライブなどの可搬記憶装置としてもよい。 The auxiliary storage device 105 is not particularly limited as long as it can store various types of information, and can be appropriately selected depending on the intended purpose. Examples thereof include a solid state drive and a hard disk drive. Further, the auxiliary storage device 105 may be a portable storage device such as a CD (Compact Disc) drive, a DVD (Digital Versailles Disc) drive, or a BD (Blu-ray (registered trademark) Disc) drive.

通信インターフェイス106は、特に制限はなく、適宜公知のものを用いることができ、例えば、無線又は有線を用いた通信デバイスなどが挙げられる。 The communication interface 106 is not particularly limited, and a known one can be used as appropriate. Examples thereof include a communication device using wireless or wired communication.

入力装置107は、サーバ装置100に対する各種要求を受け付けることができれば特に制限はなく、適宜公知のものを用いることができ、例えば、キーボード、マウス、タッチパネルなどが挙げられる。 The input device 107 is not particularly limited as long as it can accept various requests for the server device 100, and a known input device 107 can be used as appropriate. Examples thereof include a keyboard, a mouse, and a touch panel.

ディスプレイ108は、特に制限はなく、適宜公知のものを用いることができ、例えば、液晶ディスプレイ、有機ELディスプレイなどが挙げられる。 The display 108 is not particularly limited, and a known display 108 can be used as appropriate, and examples thereof include a liquid crystal display and an organic EL display.

なお、サーバ装置100は、ネットワーク上のコンピュータ群であるクラウドの一部であってもよい。 The server device 100 may be a part of a cloud, which is a group of computers on the network.

<サーバ装置の機能構成>
図3は、サーバ装置100の機能構成の一例を示すブロック図である。
図3に示すように、サーバ装置100の機能構成としては、通信部120と、記憶部130と、制御部140と、を有する。
<Functional configuration of server device>
FIG. 3 is a block diagram showing an example of the functional configuration of the server device 100.
As shown in FIG. 3, the functional configuration of the server device 100 includes a communication unit 120, a storage unit 130, and a control unit 140.

通信部120は、制御部140の指示に基づき、通信インターフェイス106を用いて車両の位置情報及び画像を含む走行履歴データを各端末装置200から受信する。
また、通信部120は、車線数を特定するための第1の条件、及び、車線位置を特定するための第2の条件を端末装置200に送信する。
Based on the instruction of the control unit 140, the communication unit 120 receives the travel history data including the vehicle position information and the image from each terminal device 200 using the communication interface 106.
Further, the communication unit 120 transmits the first condition for specifying the number of lanes and the second condition for specifying the lane position to the terminal device 200.

記憶部130は、補助記憶装置105に走行履歴データベース(以下、「走行履歴DB」と称することもある)121を有する。
走行履歴DB121は、通信部120が受信した走行履歴データを走行履歴データ群として記憶する。
The storage unit 130 has a travel history database (hereinafter, also referred to as “travel history DB”) 121 in the auxiliary storage device 105.
The travel history DB 121 stores the travel history data received by the communication unit 120 as a travel history data group.

図4は、走行DB121が記憶する走行履歴データの一例を示す図である。
図4に示すように、走行履歴データは、本実施例では「車両ID、取得日時、位置情報(経度、緯度)」の項目を含み、端末装置200により紐付けられた図示しない画像を含む。
FIG. 4 is a diagram showing an example of travel history data stored in the travel DB 121.
As shown in FIG. 4, the travel history data includes the items of "vehicle ID, acquisition date and time, position information (longitude, latitude)" in this embodiment, and includes an image (not shown) associated with the terminal device 200.

「車両ID」のデータ項目は、端末装置200が搭載されている当該車両を識別するためのデータであり、予め設定される。
「取得日時」及び「位置情報(経度、緯度)」のデータ項目は、端末装置200に搭載されているGPS(Global Positioning System)ユニットにより取得される。
なお、本実施例では、走行履歴データには、位置情報及びその位置における画像を含むとしたが、これに限ることなく、例えば、「車速、加速度、出発日時、出発地(経度、緯度)、到着日時、目的地(経度、緯度)」などのデータ項目をさらに含むようにしてもよい。
The data item of the "vehicle ID" is data for identifying the vehicle on which the terminal device 200 is mounted, and is set in advance.
The data items of "acquisition date and time" and "position information (longitude, latitude)" are acquired by a GPS (Global Positioning System) unit mounted on the terminal device 200.
In this embodiment, the travel history data includes position information and an image at that position, but the present invention is not limited to this, and for example, "vehicle speed, acceleration, departure date and time, departure place (longitude, latitude), etc." Data items such as "arrival date and time, destination (longitude, latitude)" may be further included.

<制御部>
制御部140は、本実施例では、サーバ装置100全体の動作を制御する機能を有すると共に、LA生成部141、チューニング部142、及び条件導出部143として機能する。
<Control unit>
In this embodiment, the control unit 140 has a function of controlling the operation of the entire server device 100, and also functions as an LA generation unit 141, a tuning unit 142, and a condition derivation unit 143.

図5は、LA生成部141が行うLA生成処理の一例を示す説明図である。ここで、図5を参照しながら、LA生成部141が行うLA生成処理について説明する。
まず、LA生成部141は、各車両の走行履歴データにおける取得日時情報及び位置情報に基づき、車両の進行方向を特定する。次に、LA生成部141は、図5中の矢印で示すような同一の進行方向の車両の走行履歴データが存在する箇所に基準点を設ける。そして、LA生成部141は、基準点から進行方向に100m進んだ地点近傍の走行履歴データを抽出し、抽出した走行履歴データの位置の重心をLAの中心点として算出する。
なお、データを取得する時間間隔が比較的長い走行履歴データが存在し、100m進んだ地点近傍に走行履歴データが存在しない場合には、図5中の「○」で示すように補完データを算出する。
FIG. 5 is an explanatory diagram showing an example of the LA generation process performed by the LA generation unit 141. Here, the LA generation process performed by the LA generation unit 141 will be described with reference to FIG.
First, the LA generation unit 141 specifies the traveling direction of the vehicle based on the acquisition date / time information and the position information in the travel history data of each vehicle. Next, the LA generation unit 141 sets a reference point at a place where the travel history data of the vehicle in the same traveling direction as shown by the arrow in FIG. 5 exists. Then, the LA generation unit 141 extracts the travel history data in the vicinity of the point 100 m ahead of the reference point in the traveling direction, and calculates the center of gravity of the position of the extracted travel history data as the center point of the LA.
If there is travel history data with a relatively long time interval for acquiring data and there is no travel history data in the vicinity of a point 100 m ahead, complementary data is calculated as shown by "○" in FIG. do.

図6〜図8は、チューニング部142が行うチューニング処理の一例を示す説明図である。ここで、図6〜図8を参照しながら、LAを生成した場合、道路が新設された場合に分けて、チューニング部142が行うチューニング処理について説明する。 6 to 8 are explanatory views showing an example of tuning processing performed by the tuning unit 142. Here, with reference to FIGS. 6 to 8, the tuning process performed by the tuning unit 142 will be described separately for the case where the LA is generated and the case where the road is newly constructed.

まず、LAを生成した場合のチューニング処理について説明する。
この場合には、チューニング部142は、生成したLAにおいて走行履歴データの取得地点毎の画像に基づいてそれぞれ車線数を導出し、取得地点毎で車線数が異なる場合があっても、当該LA内で「最も多い車線数」を当該LAの車線数と特定する。
具体的には、図6に示すように、車線数が「3」から「4」に増えるLAyにおいて、各取得地点で導出した車線数が「3」と「4」が混在している場合を考える。この場合、チューニング部142は、LAyにおいては車線数「3」よりも車線数「4」のほうが多いため、当該LAyの車線数を「4」と特定する。
First, the tuning process when LA is generated will be described.
In this case, the tuning unit 142 derives the number of lanes based on the image of each acquisition point of the travel history data in the generated LA, and even if the number of lanes differs for each acquisition point, the number of lanes is within the LA. The "largest number of lanes" is specified as the number of lanes in the LA.
Specifically, as shown in FIG. 6, in the LAy where the number of lanes increases from "3" to "4", the number of lanes derived at each acquisition point is a mixture of "3" and "4". think. In this case, the tuning unit 142 specifies the number of lanes of the LAy as "4" because the number of lanes "4" is larger than the number of lanes "3" in the LAy.

次に、道路が新設された場合のチューニング処理について説明する。
この場合には、チューニング部142は、当該LAにおいて導出前後の車線数を比較する。チューニング部142は、導出前後の車線数が一致していればチューニング処理は不要と判定し、導出前後の車線数が一致していなければチューニング処理を行うと判定する。
具体的には、車線数を導出する前に図7に示すような複数のLAにおいて、車線数を導出するときに図8に示すような道路が新設されていた場合を考える。この場合、LA2及びLA3では車線数が「4」から「5」に増えているため、チューニング部142は、チューニング処理を行い、道路が新設された場合であっても対応することができる。
Next, the tuning process when a new road is constructed will be described.
In this case, the tuning unit 142 compares the number of lanes before and after the derivation in the LA. The tuning unit 142 determines that the tuning process is unnecessary if the number of lanes before and after the derivation is the same, and determines that the tuning process is performed if the number of lanes before and after the derivation does not match.
Specifically, consider a case where a road as shown in FIG. 8 is newly constructed when the number of lanes is derived in a plurality of LAs as shown in FIG. 7 before the number of lanes is derived. In this case, since the number of lanes in LA2 and LA3 has increased from "4" to "5", the tuning unit 142 can perform tuning processing and respond even when a new road is constructed.

条件導出部143は、車線数を特定するための第1の条件、及び、車線位置を特定するための第2の条件を導出する。
条件導出部143は、本実施例では、図9〜図11に示すような状態で自車から撮影した画像のうち、路上の白線、周辺の他車との位置関係のバリエーションを持たせた基準画像を用いて、車線数及び車線位置を特定する類似度を導出する。
The condition derivation unit 143 derives a first condition for specifying the number of lanes and a second condition for specifying the lane position.
In this embodiment, the condition derivation unit 143 is a reference in which the white line on the road and the variation of the positional relationship with other vehicles in the vicinity are provided in the images taken from the own vehicle in the state shown in FIGS. 9 to 11. Using the image, the similarity that specifies the number of lanes and the lane position is derived.

なお、条件導出部143は、車両から受信した車線数の情報と車線位置の情報との少なくともいずれかの特定の誤りが一定のしきい値以上であるか否かを判定するようにしてもよい。条件導出部143は、一定のしきい値以上であると判定したときに、第1の条件、及び/又は、第2の条件を再度導出する。これにより、制御部140は、誤りの少ない車線数及び車線位置の情報を取得することができる。 The condition derivation unit 143 may determine whether or not at least one specific error between the information on the number of lanes received from the vehicle and the information on the lane position is equal to or higher than a certain threshold value. .. When the condition derivation unit 143 determines that the threshold value is equal to or higher than a certain threshold value, the condition derivation unit 143 derives the first condition and / or the second condition again. As a result, the control unit 140 can acquire information on the number of lanes and the lane position with few errors.

なお、制御部140は、第1の条件に基づいてLA毎に特定した車線数の情報を、図12に示すように、車線数の情報を含む道路地図として出力するようにしてもよい。これにより、道路の車線数を可視化することができる。 The control unit 140 may output the information on the number of lanes specified for each LA based on the first condition as a road map including the information on the number of lanes, as shown in FIG. This makes it possible to visualize the number of lanes on the road.

次に、端末装置200のハードウェア構成及び機能構成について説明する。 Next, the hardware configuration and the functional configuration of the terminal device 200 will be described.

(端末装置)
端末装置200は、本実施例では、トラックなどの商用車に搭載されているデジタルタコグラフであり、GPS(Global Positioning System)ユニットと、車両の周囲を撮影できるカメラと、を有する。端末装置200は、GPSユニット及びカメラにより、位置情報及びその位置における車両の周囲の画像を取得日時と紐付けて取得した走行履歴データを、サーバ装置100に1秒間毎にあるいは10秒間毎に順次送信する。
<端末装置のハードウェア構成>
図13は、端末装置200のハードウェア構成の一例を示すブロック図である。
図13に示すように、端末装置200のハードウェア構成は以下の各装置を有する。各装置は、バス211を介してそれぞれ通信可能に接続されている。
(Terminal device)
In this embodiment, the terminal device 200 is a digital tachograph mounted on a commercial vehicle such as a truck, and has a GPS (Global Positioning System) unit and a camera capable of photographing the surroundings of the vehicle. The terminal device 200 sequentially transmits the travel history data acquired by associating the position information and the image around the vehicle at that position with the acquisition date and time by the GPS unit and the camera to the server device 100 every 1 second or every 10 seconds. Send.
<Hardware configuration of terminal device>
FIG. 13 is a block diagram showing an example of the hardware configuration of the terminal device 200.
As shown in FIG. 13, the hardware configuration of the terminal device 200 includes the following devices. Each device is connected so as to be able to communicate with each other via the bus 211.

CPU201は、種々の制御や演算を行なう処理装置である。CPU201は、主記憶装置202などが記憶するOSやプログラムを実行することにより、種々の機能を実現する。すなわち、CPU201は、本実施例では、動線特定プログラムを実行することにより、後述する制御部240として機能する。
動線特定プログラムは、必ずしも最初から主記憶装置202、補助記憶装置205などに記憶されていなくともよい。また、インターネット、LAN、WANなどを介して端末装置200に接続される他の情報処理装置などに動線特定プログラムを記憶させ、端末装置200がこれらから動線特定プログラムを取得して実行するようにしてもよい。
The CPU 201 is a processing device that performs various controls and calculations. The CPU 201 realizes various functions by executing an OS or a program stored in the main storage device 202 or the like. That is, in this embodiment, the CPU 201 functions as the control unit 240, which will be described later, by executing the flow line specifying program.
The flow line specifying program does not necessarily have to be stored in the main storage device 202, the auxiliary storage device 205, or the like from the beginning. Further, the flow line identification program is stored in another information processing device or the like connected to the terminal device 200 via the Internet, LAN, WAN, or the like, and the terminal device 200 acquires and executes the flow line identification program from these. You may do it.

また、CPU201は、端末装置200全体の動作を制御する。なお、本実施例では、端末装置200全体の動作を制御する装置をCPU201としたが、これに限ることなく、例えば、FPGAなどとしてもよい。 Further, the CPU 201 controls the operation of the entire terminal device 200. In this embodiment, the device that controls the operation of the entire terminal device 200 is the CPU 201, but the device is not limited to this, and may be, for example, an FPGA.

主記憶装置202は、各種プログラムを記憶し、各種プログラムを実行するために必要なデータ等を記憶する。
主記憶装置202は、図示しない、ROMと、RAMと、を有する。
ROMは、BIOS等の各種プログラムなどを記憶している。
RAMは、ROMに記憶された各種プログラムがCPU201により実行される際に展開される作業範囲として機能する。RAMとしては、特に制限はなく、目的に応じて適宜選択することができる。RAMとしては、例えば、DRAM、SRAMなどが挙げられる。
The main storage device 202 stores various programs and stores data and the like necessary for executing various programs.
The main storage device 202 has a ROM and a RAM (not shown).
The ROM stores various programs such as BIOS.
The RAM functions as a work range expanded when various programs stored in the ROM are executed by the CPU 201. The RAM is not particularly limited and can be appropriately selected depending on the purpose. Examples of the RAM include DRAM and SRAM.

GPU203は、グラフィック処理、並列的な数値演算処理などの必要な処理を実行する。 The GPU 203 executes necessary processing such as graphic processing and parallel numerical calculation processing.

VRAM204は、ディスプレイ208に画像を表示するために必要なデータを保持するためのメモリ領域として機能する。 The VRAM 204 functions as a memory area for holding data necessary for displaying an image on the display 208.

補助記憶装置205としては、各種情報を記憶できれば特に制限はなく、目的に応じて適宜選択することができ、例えば、ソリッドステートドライブ、ハードディスクドライブなどが挙げられる。また、補助記憶装置205は、CDドライブ、DVDドライブ、BDドライブなどの可搬記憶装置としてもよい。 The auxiliary storage device 205 is not particularly limited as long as it can store various types of information, and can be appropriately selected depending on the intended purpose. Examples thereof include a solid state drive and a hard disk drive. Further, the auxiliary storage device 205 may be a portable storage device such as a CD drive, a DVD drive, or a BD drive.

通信インターフェイス206は、特に制限はなく、適宜公知のものを用いることができ、例えば、無線を用いた通信デバイスなどが挙げられる。 The communication interface 206 is not particularly limited, and a known one can be used as appropriate. Examples thereof include a wireless communication device.

入力装置207は、端末装置200に対する各種要求を受け付けることができれば特に制限はなく、適宜公知のものを用いることができ、例えば、キーボード、マウス、タッチパネルなどが挙げられる。 The input device 207 is not particularly limited as long as it can accept various requests for the terminal device 200, and a known input device 207 can be used as appropriate, and examples thereof include a keyboard, a mouse, and a touch panel.

ディスプレイ208は、特に制限はなく、適宜公知のものを用いることができ、例えば、液晶ディスプレイ、有機ELディスプレイなどが挙げられる。 The display 208 is not particularly limited, and a known display 208 can be used as appropriate, and examples thereof include a liquid crystal display and an organic EL display.

GPSユニット209は、位置情報としての緯度経度の情報、及び、取得日時として時刻の情報を取得する。 The GPS unit 209 acquires latitude and longitude information as position information and time information as acquisition date and time.

カメラ210は、例えば、デジタルビデオカメラなどであり、車両に設置され、かつ車両を中心に所定の撮影範囲を撮影する。カメラ210は、単数であっても複数であってもよい。 The camera 210 is, for example, a digital video camera, etc., which is installed in a vehicle and photographs a predetermined shooting range centered on the vehicle. The number of cameras 210 may be singular or plural.

<端末装置の機能構成>
図14は、端末装置200の機能構成の一例を示す説明図である。
図14に示すように、端末装置200の機能構成としては、通信部220と、記憶部230と、制御部240と、を有する。
<Functional configuration of terminal device>
FIG. 14 is an explanatory diagram showing an example of the functional configuration of the terminal device 200.
As shown in FIG. 14, the functional configuration of the terminal device 200 includes a communication unit 220, a storage unit 230, and a control unit 240.

通信部220は、制御部240の指示に基づき、通信インターフェイス206を用いて車両の位置情報及び画像を含む走行履歴データをサーバ装置100に送信する。
また、通信部220は、車線数を特定するための第1の条件、及び、車線位置を特定するための第2の条件をサーバ装置100から受信する。
Based on the instruction of the control unit 240, the communication unit 220 transmits the travel history data including the vehicle position information and the image to the server device 100 using the communication interface 206.
Further, the communication unit 220 receives the first condition for specifying the number of lanes and the second condition for specifying the lane position from the server device 100.

記憶部230は、サーバ装置100から受信した第1の条件及び第2の条件を補助記憶装置205に記憶する。 The storage unit 230 stores the first condition and the second condition received from the server device 100 in the auxiliary storage device 205.

<制御部>
制御部240は、本実施例では、端末装置200全体の動作を制御する機能を有すると共に、位置情報取得部241、画像取得部242、及び特定部243として機能する。
<Control unit>
In this embodiment, the control unit 240 has a function of controlling the operation of the entire terminal device 200, and also functions as a position information acquisition unit 241, an image acquisition unit 242, and a specific unit 243.

位置情報取得部241は、GPSユニット209を用いて位置情報としての緯度経度の情報、及び、取得日時として時刻の情報を取得する。 The position information acquisition unit 241 acquires latitude / longitude information as position information and time information as acquisition date / time using the GPS unit 209.

画像取得部242は、車両に設置されたカメラ210を用いて、道路上の白線や他車が映り込むように、当該車両を中心に所定の撮影範囲を撮影する。 The image acquisition unit 242 uses a camera 210 installed in the vehicle to take a picture of a predetermined shooting range centered on the vehicle so that a white line on the road or another vehicle is reflected.

特定部243は、当該端末装置200を搭載した車両が位置する、第1の条件に基づいて車線数を特定するとともに、第2の条件に基づいていずれの車線かを特定する。また、特定部243は、特定した結果である車線数及び車線位置の情報を、位置情報と、位置情報に示される位置において撮影された画像との対応を識別可能な状態でサーバ装置100に送信する。
このように、車線数及び車線位置を特定した結果をサーバ装置100にフィードバックすることにより、サーバ装置100は、人工知能を用いる場合、特定した結果を教師正解データ群として用いて、学習済み重みパラメータを更新することができる。また、サーバ装置は、人工知能を用いない場合、特定した結果を、車線数と自車が位置している車線が既知である基準画像の候補として用いることができる。
The identification unit 243 specifies the number of lanes based on the first condition in which the vehicle equipped with the terminal device 200 is located, and also specifies which lane is based on the second condition. Further, the specifying unit 243 transmits the specified result of the number of lanes and the lane position information to the server device 100 in a state in which the correspondence between the position information and the image taken at the position indicated by the position information can be identified. do.
By feeding back the result of specifying the number of lanes and the lane position to the server device 100 in this way, the server device 100 uses the specified result as the teacher correct answer data group when using artificial intelligence, and the learned weight parameter. Can be updated. Further, when artificial intelligence is not used, the server device can use the specified result as a candidate for a reference image in which the number of lanes and the lane in which the own vehicle is located are known.

制御部240は、LAにおける車線数の特定の誤りが一定のしきい値以上であると判定したときに、画像の所定の撮影範囲を変更するようにしてもよい。 The control unit 240 may change a predetermined shooting range of an image when it is determined that a specific error in the number of lanes in LA is equal to or higher than a certain threshold value.

なお、本実施例では、端末装置200はデジタルタコグラフとしたが、これに限ることなく、例えば、乗用車に搭載され、車両の周囲を撮影できるカメラを有するカーナビゲーションシステムの車載装置などが挙げられる。また、走行履歴データは、例えば、ETC(Electronic Toll Collection System)が取得する位置情報と、当該車両に搭載され、車両の周囲を撮影できるカメラにより撮影した画像と、により構成するようにしてもよい。 In this embodiment, the terminal device 200 is a digital tachograph, but the present invention is not limited to this, and examples thereof include an in-vehicle device of a car navigation system which is mounted on a passenger car and has a camera capable of photographing the surroundings of the vehicle. Further, the traveling history data may be composed of, for example, position information acquired by ETC (Electronic Toll Collection System) and an image taken by a camera mounted on the vehicle and capable of photographing the surroundings of the vehicle. ..

図15は、動線特定システム10が行う処理の流れの一例を示すシーケンス図である。
ここでは、図15のシーケンス図を参照しながら、端末装置200が、自車の位置情報及び画像をサーバ装置100に送信してから、車両数及び車線位置を特定するまでの処理について説明する。
FIG. 15 is a sequence diagram showing an example of the flow of processing performed by the flow line specifying system 10.
Here, with reference to the sequence diagram of FIG. 15, the process from when the terminal device 200 transmits the position information and the image of the own vehicle to the server device 100 to when the number of vehicles and the lane position are specified will be described.

ステップS101では、端末装置200は、端末装置200を搭載する移動体の走行履歴データ(位置情報及び画像)を取得してサーバ装置100に送信し、処理をS102に移行する。なお、本実施例では、端末装置200は、走行履歴データを1秒間毎に取得する。 In step S101, the terminal device 200 acquires the travel history data (position information and image) of the mobile body on which the terminal device 200 is mounted, transmits the data to the server device 100, and shifts the process to S102. In this embodiment, the terminal device 200 acquires travel history data every second.

ステップS102では、サーバ装置100は、受信した走行履歴データがどのLAの範囲内であるかについて推定するLA推定処理を行う。
また、サーバ装置100は、LA推定処理を行った結果、走行履歴データの取得地点が「LA未設定」であるか否かを判定する。サーバ装置100は、走行履歴データの取得地点が「LA未設定」であると判定すると処理をS103に移行し、「LA未設定」ではないと判定すると処理をS105に移行する。
In step S102, the server device 100 performs an LA estimation process for estimating which LA range the received travel history data is within.
Further, as a result of performing the LA estimation process, the server device 100 determines whether or not the acquisition point of the travel history data is "LA not set". When the server device 100 determines that the acquisition point of the travel history data is "LA not set", the server device 100 shifts the process to S103, and when it determines that the acquisition point is not "LA not set", the server device 100 shifts the process to S105.

ステップS103では、サーバ装置100は、LA未設定の領域で複数車両の走行履歴データを一定量取得した後、LAを新たに生成するLA生成処理を行い、処理をS104に移行する。 In step S103, the server device 100 acquires a certain amount of travel history data of a plurality of vehicles in an area where LA is not set, then performs an LA generation process for newly generating LA, and shifts the process to S104.

ステップS104では、サーバ装置100は、S103で生成したLAに対してチューニング処理を行い、当該LAにおける車両数を特定すると処理をS105に移行する。 In step S104, the server device 100 performs tuning processing on the LA generated in S103, and shifts the processing to S105 when the number of vehicles in the LA is specified.

ステップS105では、端末装置200は、車線数を特定するための第1の条件を満たしているか否かを判定することにより車線数を導出する車線数導出処理を行う。端末装置200は、導出した車線数の情報をサーバ装置100に送信し、処理をS106に移行する。 In step S105, the terminal device 200 performs a lane number derivation process for deriving the lane number by determining whether or not the first condition for specifying the lane number is satisfied. The terminal device 200 transmits the derived information on the number of lanes to the server device 100, and shifts the processing to S106.

ステップS106では、端末装置200は、車線位置を特定するための第2の条件を満たしているか否かを判定することにより車線位置を導出する車線位置導出処理を行う。端末装置200は、導出した車線位置の情報をサーバ装置100に送信する。
また、サーバ装置100は、受信した走行履歴データで、LAにおける走行履歴データの取得が終了したか否かを判定する。サーバ装置100は、受信した走行履歴データで、当該LAにおける走行履歴データの取得が終了したと判定すると処理をS107に移行する。また、サーバ装置100は、S104でチューニング処理を行っていれば、処理をS109に移行し、当該LAにおける走行履歴データの取得が終了していないと判定すると処理をS101に戻す。
In step S106, the terminal device 200 performs a lane position derivation process for deriving the lane position by determining whether or not the second condition for specifying the lane position is satisfied. The terminal device 200 transmits the derived lane position information to the server device 100.
Further, the server device 100 determines whether or not the acquisition of the travel history data in the LA is completed based on the received travel history data. When the server device 100 determines that the acquisition of the travel history data in the LA has been completed based on the received travel history data, the server device 100 shifts the process to S107. Further, if the tuning process is performed in S104, the server device 100 shifts the process to S109, and returns the process to S101 when it is determined that the acquisition of the travel history data in the LA has not been completed.

ステップS107では、サーバ装置100は、当該LAにおける車線数を導出する処理を行う。
また、サーバ装置100は、S107で導出した当該LAにおける車線数と、導出前の当該LAにおける車線数とを比較し、一致していれば処理をS101に戻し、一致していなければ処理をS108に移行する。
In step S107, the server device 100 performs a process of deriving the number of lanes in the LA.
Further, the server device 100 compares the number of lanes in the LA derived in S107 with the number of lanes in the LA before derivation, returns the process to S101 if they match, and performs the process in S108 if they do not match. Move to.

ステップS108では、サーバ装置100は、S104の処理と同様に、チューニング処理を行い、処理をS109に移行する。 In step S108, the server device 100 performs a tuning process in the same manner as the process of S104, and shifts the process to S109.

ステップS109では、サーバ装置100は、S104又はS108においてチューニング処理を行った場合、第1の条件及び第2の条件を導出して端末装置200に送信し、処理をS101に戻す。
なお、サーバ装置100は、車両から受信した車線数の情報といずれの車線に位置しているかの情報との少なくともいずれかの特定の誤りが一定のしきい値以上であると判定したときに、第1の条件、及び/又は、第2の条件を再度導出するようにしてもよい。
また、端末装置200は、所定の範囲における車線数の特定の誤りが一定のしきい値以上であると判定したときに、画像の所定の撮影範囲を変更するようにしてもよい。
In step S109, when the server device 100 performs the tuning process in S104 or S108, the server device 100 derives the first condition and the second condition and transmits them to the terminal device 200, and returns the process to S101.
When the server device 100 determines that at least one specific error between the information on the number of lanes received from the vehicle and the information on which lane is located is equal to or higher than a certain threshold value. The first condition and / or the second condition may be derived again.
Further, the terminal device 200 may change the predetermined shooting range of the image when it is determined that the specific error of the number of lanes in the predetermined range is equal to or more than a certain threshold value.

次に、サーバ装置100が行う処理について説明する。 Next, the processing performed by the server device 100 will be described.

図16は、サーバ装置100が行う処理の流れの一例を示すフローチャートである。
ここでは、図16に示すフローチャートを参照して、サーバ装置100が行う処理の流れについて説明する。
FIG. 16 is a flowchart showing an example of the flow of processing performed by the server device 100.
Here, the flow of processing performed by the server device 100 will be described with reference to the flowchart shown in FIG.

ステップS201では、サーバ装置100は、端末装置200が取得した走行履歴データを受信し、処理をS202に移行する。 In step S201, the server device 100 receives the travel history data acquired by the terminal device 200, and shifts the processing to S202.

ステップS202(S102に該当)では、サーバ装置100は、受信した走行履歴データがどのLAの範囲内であるかについて推定するLA推定処理を行い、処理をS203に移行する。 In step S202 (corresponding to S102), the server device 100 performs an LA estimation process for estimating which LA range the received travel history data is within, and shifts the process to S203.

ステップS203では、サーバ装置100は、LA推定処理を行った結果、走行履歴データの取得地点が「LA設定済み」であるか否かを判定する。サーバ装置100は、走行履歴データの取得地点が「LA設定済み」であると判定すると処理をS206に移行し、「LA設定済み」ではないと判定すると処理をS204に移行する。 In step S203, the server device 100 determines whether or not the acquisition point of the travel history data is "LA set" as a result of performing the LA estimation process. The server device 100 shifts the process to S206 when it determines that the acquisition point of the travel history data is "LA set", and shifts the process to S204 when it determines that the acquisition point is not "LA set".

ステップS204(S103に該当)では、サーバ装置100は、LA未設定の領域で複数車両の走行履歴データを一定量取得した後、LAを新たに生成するLA生成処理を行い、処理をS205に移行する。 In step S204 (corresponding to S103), the server device 100 acquires a certain amount of travel history data of a plurality of vehicles in an area where LA is not set, then performs an LA generation process for newly generating LA, and shifts the process to S205. do.

ステップS205(S104に該当)では、サーバ装置100は、S204で生成したLAに対してチューニング処理を行い、当該LAにおける車両数を特定すると処理をS206に移行する。 In step S205 (corresponding to S104), the server device 100 performs tuning processing on the LA generated in S204, and when the number of vehicles in the LA is specified, the processing shifts to S206.

ステップS206では、サーバ装置100は、端末装置200が導出した車線数のデータを受信し、処理をS207に移行する。 In step S206, the server device 100 receives the data of the number of lanes derived by the terminal device 200, and shifts the processing to S207.

ステップS207では、サーバ装置100は、端末装置200が導出した車線位置のデータを受信し、処理をS208に移行する。 In step S207, the server device 100 receives the lane position data derived from the terminal device 200, and shifts the process to S208.

ステップS208(S107に該当)では、サーバ装置100は、当該LAにおける車線数を導出する処理を行うと処理をS209に移行する。 In step S208 (corresponding to S107), when the server device 100 performs a process of deriving the number of lanes in the LA, the process shifts to S209.

ステップS209では、サーバ装置100は、S107で導出した当該LAにおける車線数と、導出前の当該LAにおける車線数とを比較し、一致していれば処理をS201に戻し、一致していなければ処理をS210に移行する。 In step S209, the server device 100 compares the number of lanes in the LA derived in S107 with the number of lanes in the LA before derivation, returns the process to S201 if they match, and processes if they do not match. To S210.

ステップS210(S108に該当)では、サーバ装置100は、S205の処理と同様に、チューニング処理を行い、処理をS211に移行する。 In step S210 (corresponding to S108), the server device 100 performs a tuning process in the same manner as the process of S205, and shifts the process to S211.

ステップS211(S109に該当)では、サーバ装置100は、第1の条件及び第2の条件を導出して端末装置200に送信し、処理をS201に戻す。 In step S211 (corresponding to S109), the server device 100 derives the first condition and the second condition, transmits them to the terminal device 200, and returns the process to S201.

ステップS212では、サーバ装置100は、S205でチューニング処理を行ったか否かを判定する。サーバ装置100は、S205でチューニング処理を行ったと判定すると処理をS211に移行させ、S205でチューニング処理を行っていないと判定すると処理をS201に戻す。 In step S212, the server device 100 determines whether or not the tuning process has been performed in S205. When it is determined that the tuning process has been performed in S205, the server device 100 shifts the process to S211 and returns the process to S201 when it determines that the tuning process has not been performed in S205.

次に、端末装置200が行う処理について説明する。 Next, the processing performed by the terminal device 200 will be described.

図17は、端末装置200が行う処理の流れの一例を示すフローチャートである。
ここでは、図17に示すフローチャートを参照して、端末装置200が行う処理のフローを説明する。
なお、端末装置200は、あらかじめサーバ装置100から第1の条件及び第2の条件を受信した状態とする。また、端末装置200は、サーバ装置100がチューニング処理を行った場合には、サーバ装置100から第1の条件及び第2の条件を受信する。
FIG. 17 is a flowchart showing an example of the flow of processing performed by the terminal device 200.
Here, the flow of processing performed by the terminal device 200 will be described with reference to the flowchart shown in FIG.
The terminal device 200 is in a state of receiving the first condition and the second condition from the server device 100 in advance. Further, when the server device 100 performs the tuning process, the terminal device 200 receives the first condition and the second condition from the server device 100.

ステップS301(S101に該当)では、端末装置200は、端末装置200を搭載する移動体の走行履歴データ(位置情報及び画像)を取得してサーバ装置100に送信し、処理をS302に移行する。 In step S301 (corresponding to S101), the terminal device 200 acquires the travel history data (position information and image) of the moving body on which the terminal device 200 is mounted, transmits the data to the server device 100, and shifts the process to S302.

ステップS302(S105に該当)では、端末装置200は、車線数を特定するための第1の条件を満たしているか否かを判定することにより車線数を導出する車線数導出処理を行う。端末装置200は、導出した車線数の情報をサーバ装置100に送信し、処理をS302に移行する。 In step S302 (corresponding to S105), the terminal device 200 performs a lane number derivation process for deriving the lane number by determining whether or not the first condition for specifying the lane number is satisfied. The terminal device 200 transmits the derived information on the number of lanes to the server device 100, and shifts the processing to S302.

ステップS303(S106に該当)では、端末装置200は、車線位置を特定するための第2の条件を満たしているか否かを判定することにより車線位置を導出する車線位置導出処理を行う。端末装置200は、導出した車線位置の情報をサーバ装置100に送信する。 In step S303 (corresponding to S106), the terminal device 200 performs a lane position derivation process for deriving the lane position by determining whether or not the second condition for specifying the lane position is satisfied. The terminal device 200 transmits the derived lane position information to the server device 100.

以上説明したように、動線特定システムは、車両の位置情報及びその位置の周辺画像を送信する端末装置と、複数の車両から受信した位置情報及び画像から、所定の範囲毎に車線数を特定するための条件を導出して端末装置に送信する装置とにより車線数を特定する。 As described above, the flow line identification system specifies the number of lanes for each predetermined range from the terminal device that transmits the position information of the vehicle and the peripheral image of the position and the position information and images received from a plurality of vehicles. The number of lanes is specified by a device that derives the conditions for the operation and transmits the conditions to the terminal device.

(第2の実施例)
第2の実施例では、第1の実施例と比較すると、車線数及び車線位置の導出方法が異なり、図3のサーバ装置100の条件導出部143、及び、図14の端末装置200の特定部243に、人工知能を有する。
サーバ装置100の条件導出部143は、図15のS109における条件導出において、教師画像データ群と教師正解データ群とによるディープラーニングの手法を用いて、第1の条件を導出する車線数学習処理と、第2の条件を導出する車線位置学習処理とを行う。この点が第1の実施例と異なる。条件導出部143は、これらの学習処理により、第1の条件としての第1の学習済み重みパラメータ、及び、第2の条件としての第2の学習済み重みパラメータを導出して、端末装置200の特定部243に送信する。
端末装置200の特定部243は、条件導出部143から受信した第1の学習済み重みパラメータ及び第2の学習済み重みパラメータを用いて、車線数及び車線位置を推論して特定する点も第1の実施例と異なる。
(Second Example)
In the second embodiment, the number of lanes and the lane position derivation method are different from those in the first embodiment, and the condition derivation unit 143 of the server device 100 in FIG. 3 and the specific unit of the terminal device 200 in FIG. 243 has artificial intelligence.
In the condition derivation in S109 of FIG. 15, the condition derivation unit 143 of the server device 100 uses a deep learning method using the teacher image data group and the teacher correct answer data group to perform a lane number learning process for deriving the first condition. , The lane position learning process for deriving the second condition is performed. This point is different from the first embodiment. The condition derivation unit 143 derives the first learned weight parameter as the first condition and the second learned weight parameter as the second condition by these learning processes, and derives the second learned weight parameter as the second condition of the terminal device 200. It is transmitted to the specific unit 243.
The first point is that the identification unit 243 of the terminal device 200 infers and specifies the number of lanes and the lane position by using the first learned weight parameter and the second learned weight parameter received from the condition derivation unit 143. It is different from the embodiment of.

[学習処理]
まず、サーバ装置100において、図2のGPU103及びVRAM104を用いた、条件導出部143が行う学習処理について説明する。
条件導出部143は、例えば、図9〜図11に示すような状態で自車から撮影した画像から、路上の白線、周辺の他車などを抽出し、抽出した白線の本数、周辺の他車の位置などにより車線数を特定できるように、第1の学習済み重みパラメータを導出する。
条件導出部143は、車線数と同様に、車線位置も特定できるように、第2の学習済み重みパラメータを導出する。
条件導出部143は、導出した2つの学習済み重みパラメータを、端末装置200の特定部243に送信する。なお、サーバ装置100が、2つの学習済み重みパラメータを用いて車線数及び車線位置を特定してもよい。
[Learning process]
First, in the server device 100, the learning process performed by the condition derivation unit 143 using the GPU 103 and the VRAM 104 of FIG. 2 will be described.
The condition derivation unit 143 extracts, for example, white lines on the road, other vehicles in the vicinity, etc. from the images taken from the own vehicle in the state shown in FIGS. 9 to 11, the number of extracted white lines, and other vehicles in the vicinity. The first learned weight parameter is derived so that the number of lanes can be specified by the position of.
The condition derivation unit 143 derives the second learned weight parameter so that the lane position can be specified as well as the number of lanes.
The condition derivation unit 143 transmits the derived two learned weight parameters to the specific unit 243 of the terminal device 200. The server device 100 may specify the number of lanes and the lane position using two learned weight parameters.

[推論処理]
次に、端末装置200の特定部243が行う推論処理について説明する。
特定部243は、条件導出部143が得た2つの学習済み重みパラメータを用いて、生成した画像の特徴の類否を行い、車線数及び車線位置を特定する。
これにより、端末装置200は、2つの学習済み重みパラメータを用いた推論処理により、車線数及び車線位置を精度良く特定することができる。
[Inference processing]
Next, the inference processing performed by the specific unit 243 of the terminal device 200 will be described.
The identification unit 243 uses the two learned weight parameters obtained by the condition derivation unit 143 to perform similarity of the features of the generated image, and specifies the number of lanes and the lane position.
As a result, the terminal device 200 can accurately specify the number of lanes and the lane position by inference processing using the two learned weight parameters.

以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
移動体に搭載され、前記移動体の位置情報と、前記位置情報に示される位置において所定の撮影範囲を撮影した画像とを送信する制御部を有する端末装置と、
複数の前記移動体のそれぞれから受信した前記位置情報及び前記画像を用いて、地理的に隣り合う所定の範囲毎に移動路の動線数を特定するための第1の条件を導出し、前記所定の範囲毎の前記第1の条件を前記端末装置に送信する制御部を有するサーバ装置と、
を有することを特徴とする動線特定システム。
(付記2)
前記サーバ装置は、複数の前記移動体のそれぞれから受信した前記位置情報及び前記画像を用いて、前記位置情報及び前記画像を送信した一の前記移動体が、前記位置情報により特定される前記所定の範囲において、いずれの動線に位置しているかを特定するために導出した第2の条件を前記端末装置に送信することを特徴とする、付記1に記載の動線特定システム。
(付記3)
前記端末装置は、当該端末装置を搭載した前記移動体が位置する、動線数を前記第1の条件に基づいて特定するとともに、いずれの動線かを前記第2の条件に基づいて特定し、
特定した結果である動線数の情報及びいずれの動線に位置しているかの情報を、前記位置情報と、前記位置情報に示される位置において撮影された前記画像との対応を識別可能な状態で前記サーバ装置に送信することを特徴とする、付記2に記載の動線特定システム。
(付記4)
前記サーバ装置は、前記移動体から受信した動線数の情報及びいずれの動線に位置しているかの情報の少なくともいずれかの特定の誤りが一定のしきい値以上であると判定したときに、前記第1の条件、及び/又は、前記第2の条件を再度導出するタイミングを決定することを特徴とする、付記3に記載の動線特定システム。
(付記5)
前記端末装置は、前記所定の範囲における動線数の特定の誤りが一定のしきい値以上であると判定したときに、前記画像の前記所定の撮影範囲を変更することを特徴とする、付記3又は4に記載の動線特定システム。
(付記6)
前記サーバ装置は、前記第1の条件に基づいて前記所定の範囲毎に特定した前記動線数の情報を、前記動線数の情報を含む移動路地図として出力することを特徴とする、付記3から5のいずれか一項に記載の動線特定システム。
(付記7)
複数の移動体が搭載する端末装置のそれぞれから受信した前記移動体の位置情報と、前記位置情報に示される位置において所定の撮影範囲を撮影した画像とを用いて、地理的に隣り合う所定の範囲毎に移動路の動線数を特定するための第1の条件を導出し、前記所定の範囲毎の前記第1の条件を前記端末装置に送信する制御部を有することを特徴とするサーバ装置。
(付記8)
移動体に搭載され、前記移動体の位置情報と、前記位置情報に示される位置において所定の撮影範囲を撮影した画像とを送信し、
複数の前記移動体のそれぞれから受信した前記位置情報と前記画像とを用いて、地理的に隣り合う所定の範囲毎に移動路の動線数を特定するために導出された第1の条件を受信することを特徴とする端末装置。
(付記9)
移動体に搭載され、前記移動体の位置情報と、前記位置情報に示される位置において所定の撮影範囲を撮影した画像とを送信し、
複数の前記移動体のそれぞれから受信した前記位置情報と前記画像とを用いて、地理的に隣り合う所定の範囲毎に移動路の動線数を特定するために導出された第1の条件を受信する、
処理をコンピュータに実行させることを特徴とする動線特定プログラム。
(付記10)
移動体に搭載され、前記移動体の位置情報と、前記位置情報に示される位置において所定の撮影範囲を撮影した画像とを送信し、
複数の前記移動体のそれぞれから受信した前記位置情報と前記画像とを用いて、地理的に隣り合う所定の範囲毎に移動路の動線数を特定するために導出された第1の条件を受信する、
処理をコンピュータが実行することを特徴とする動線特定方法。
Regarding the above embodiments, the following additional notes will be further disclosed.
(Appendix 1)
A terminal device mounted on a moving body and having a control unit for transmitting the position information of the moving body and an image of a predetermined shooting range taken at a position indicated by the position information.
Using the position information and the image received from each of the plurality of moving bodies, a first condition for specifying the number of flow lines of the moving path for each predetermined range geographically adjacent to each other is derived, and the said A server device having a control unit that transmits the first condition for each predetermined range to the terminal device, and a server device.
A flow line identification system characterized by having.
(Appendix 2)
The server device uses the position information and the image received from each of the plurality of the moving bodies, and the one said moving body that has transmitted the position information and the image is specified by the position information. The flow line identification system according to Appendix 1, wherein a second condition derived for identifying which flow line is located in the above range is transmitted to the terminal device.
(Appendix 3)
The terminal device specifies the number of flow lines in which the moving body equipped with the terminal device is located based on the first condition, and specifies which flow line is based on the second condition. ,
A state in which the correspondence between the position information and the image taken at the position indicated by the position information can be identified by the information on the number of flow lines as a result of the identification and the information on which flow line the information is located on. The flow line identification system according to Appendix 2, wherein the information is transmitted to the server device in the above.
(Appendix 4)
When the server device determines that at least one specific error of the information on the number of flow lines received from the mobile body and the information on which flow line is located is equal to or higher than a certain threshold value. The flow line identification system according to Appendix 3, wherein the first condition and / or the timing for deriving the second condition again is determined.
(Appendix 5)
The terminal device is characterized in that, when it is determined that a specific error in the number of flow lines in the predetermined range is equal to or higher than a certain threshold value, the predetermined shooting range of the image is changed. The flow line identification system according to 3 or 4.
(Appendix 6)
The server device is characterized in that the information on the number of flow lines specified for each predetermined range based on the first condition is output as a movement route map including the information on the number of flow lines. The flow line identification system according to any one of 3 to 5.
(Appendix 7)
Using the position information of the moving body received from each of the terminal devices mounted on the plurality of moving bodies and the image of a predetermined shooting range taken at the position indicated by the position information, a predetermined geographically adjacent predetermined position is used. A server having a control unit that derives a first condition for specifying the number of movement lines of a movement path for each range and transmits the first condition for each predetermined range to the terminal device. Device.
(Appendix 8)
It is mounted on a moving body, and the position information of the moving body and an image obtained by capturing a predetermined shooting range at the position indicated by the position information are transmitted.
Using the position information received from each of the plurality of moving bodies and the image, a first condition derived for specifying the number of flow lines of a moving path for each predetermined range geographically adjacent to each other is determined. A terminal device characterized by receiving.
(Appendix 9)
It is mounted on a moving body, and the position information of the moving body and an image obtained by capturing a predetermined shooting range at the position indicated by the position information are transmitted.
Using the position information received from each of the plurality of moving bodies and the image, a first condition derived for specifying the number of flow lines of a moving path for each predetermined range geographically adjacent to each other is determined. Receive,
A flow line identification program characterized by having a computer execute processing.
(Appendix 10)
It is mounted on a moving body, and the position information of the moving body and an image obtained by capturing a predetermined shooting range at the position indicated by the position information are transmitted.
Using the position information received from each of the plurality of moving bodies and the image, a first condition derived for specifying the number of flow lines of a moving path for each predetermined range geographically adjacent to each other is determined. Receive,
A flow line identification method characterized in that a computer executes processing.

10 車線判定システム
100 サーバ装置
140、240 制御部
200 端末装置
A、B、C 車両(移動体)
10 Lane Judgment System 100 Server Device 140, 240 Control Unit 200 Terminal Device A, B, C Vehicle (Mobile)

Claims (10)

移動体に搭載され、前記移動体の位置情報と、前記位置情報に示される位置において所定の撮影範囲を撮影した画像とを送信する制御部を有する端末装置と、
複数の前記移動体のそれぞれから受信した前記位置情報及び前記画像を用いて、地理的に隣り合う所定の範囲毎に移動路の動線数を特定するための第1の条件を導出し、前記所定の範囲毎の前記第1の条件を前記端末装置に送信する制御部を有するサーバ装置と、
を有することを特徴とする動線特定システム。
A terminal device mounted on a moving body and having a control unit for transmitting the position information of the moving body and an image of a predetermined shooting range taken at a position indicated by the position information.
Using the position information and the image received from each of the plurality of moving bodies, a first condition for specifying the number of flow lines of the moving path for each predetermined range geographically adjacent to each other is derived, and the said A server device having a control unit that transmits the first condition for each predetermined range to the terminal device, and a server device.
A flow line identification system characterized by having.
前記サーバ装置は、複数の前記移動体のそれぞれから受信した前記位置情報及び前記画像を用いて、前記位置情報及び前記画像を送信した一の前記移動体が、前記位置情報により特定される前記所定の範囲において、いずれの動線に位置しているかを特定するために導出した第2の条件を前記端末装置に送信することを特徴とする、請求項1に記載の動線特定システム。 The server device uses the position information and the image received from each of the plurality of the moving bodies, and the one said moving body that has transmitted the position information and the image is specified by the position information. The flow line specifying system according to claim 1, wherein a second condition derived for identifying which flow line is located in the above range is transmitted to the terminal device. 前記端末装置は、当該端末装置を搭載した前記移動体が位置する、動線数を前記第1の条件に基づいて特定するとともに、いずれの動線かを前記第2の条件に基づいて特定し、
特定した結果である動線数の情報及びいずれの動線に位置しているかの情報を、前記位置情報と、前記位置情報に示される位置において撮影された前記画像との対応を識別可能な状態で前記サーバ装置に送信することを特徴とする、請求項2に記載の動線特定システム。
The terminal device specifies the number of flow lines in which the moving body equipped with the terminal device is located based on the first condition, and specifies which flow line is based on the second condition. ,
A state in which the correspondence between the position information and the image taken at the position indicated by the position information can be identified by the information on the number of flow lines as a result of the identification and the information on which flow line the information is located on. The flow line specifying system according to claim 2, wherein the information is transmitted to the server device.
前記サーバ装置は、前記移動体から受信した動線数の情報及びいずれの動線に位置しているかの情報の少なくともいずれかの特定の誤りが一定のしきい値以上であると判定したときに、前記第1の条件、及び/又は、前記第2の条件を再度導出するタイミングを決定することを特徴とする、請求項3に記載の動線特定システム。 When the server device determines that at least one specific error of the information on the number of flow lines received from the mobile body and the information on which flow line is located is equal to or higher than a certain threshold value. The flow line specifying system according to claim 3, wherein the first condition and / or the timing for deriving the second condition again is determined. 前記端末装置は、前記所定の範囲における動線数の特定の誤りが一定のしきい値以上であると判定したときに、前記画像の前記所定の撮影範囲を変更することを特徴とする、請求項3又は4に記載の動線特定システム。 The terminal device is characterized in that when it is determined that a specific error in the number of flow lines in the predetermined range is equal to or more than a certain threshold value, the predetermined shooting range of the image is changed. Item 6. The flow line identification system according to item 3 or 4. 前記サーバ装置は、前記第1の条件に基づいて前記所定の範囲毎に特定した前記動線数の情報を、前記動線数の情報を含む移動路地図として出力することを特徴とする、請求項3から5のいずれか一項に記載の動線特定システム。 The server device is characterized in that it outputs information on the number of flow lines specified for each predetermined range based on the first condition as a movement route map including the information on the number of flow lines. Item 5. The flow line identification system according to any one of Items 3 to 5. 複数の移動体が搭載する端末装置のそれぞれから受信した前記移動体の位置情報と、前記位置情報に示される位置において所定の撮影範囲を撮影した画像とを用いて、地理的に隣り合う所定の範囲毎に移動路の動線数を特定するための第1の条件を導出し、前記所定の範囲毎の前記第1の条件を前記端末装置に送信する制御部を有することを特徴とするサーバ装置。 Using the position information of the moving body received from each of the terminal devices mounted on the plurality of moving bodies and the image of a predetermined shooting range taken at the position indicated by the position information, a predetermined geographically adjacent predetermined position is used. A server having a control unit that derives a first condition for specifying the number of movement lines of a movement path for each range and transmits the first condition for each predetermined range to the terminal device. Device. 移動体に搭載され、前記移動体の位置情報と、前記位置情報に示される位置において所定の撮影範囲を撮影した画像とをサーバ装置に送信し、
複数の前記移動体のそれぞれから受信した前記位置情報と前記画像とを用いて、地理的に隣り合う所定の範囲毎に移動路の動線数を特定するために前記サーバ装置により導出された第1の条件を前記サーバ装置から受信することを特徴とする端末装置。
It is mounted on the moving body, and the position information of the moving body and the image obtained by taking a predetermined shooting range at the position indicated by the position information are transmitted to the server device.
Using the position information received from each of the plurality of mobile bodies and the image, the first derived from the server device in order to specify the number of flow lines of the movement path for each predetermined range geographically adjacent to each other. A terminal device characterized in that the condition 1 is received from the server device.
移動体に搭載され、前記移動体の位置情報と、前記位置情報に示される位置において所定の撮影範囲を撮影した画像とをサーバ装置に送信し、
複数の前記移動体のそれぞれから受信した前記位置情報と前記画像とを用いて、地理的に隣り合う所定の範囲毎に移動路の動線数を特定するために前記サーバ装置により導出された第1の条件を前記サーバ装置から受信する、
処理をコンピュータに実行させることを特徴とする動線特定プログラム。
It is mounted on the moving body, and the position information of the moving body and the image obtained by taking a predetermined shooting range at the position indicated by the position information are transmitted to the server device.
Using the position information received from each of the plurality of mobile bodies and the image, the first derived from the server device in order to specify the number of flow lines of the movement path for each predetermined range geographically adjacent to each other. Receiving the condition 1 from the server device,
A flow line identification program characterized by having a computer execute processing.
移動体に搭載され、前記移動体の位置情報と、前記位置情報に示される位置において所定の撮影範囲を撮影した画像とをサーバ装置に送信し、
複数の前記移動体のそれぞれから受信した前記位置情報と前記画像とを用いて、地理的に隣り合う所定の範囲毎に移動路の動線数を特定するために前記サーバ装置により導出された第1の条件を前記サーバ装置から受信する、
処理をコンピュータが実行することを特徴とする動線特定方法。
It is mounted on the moving body, and the position information of the moving body and the image obtained by taking a predetermined shooting range at the position indicated by the position information are transmitted to the server device.
Using the position information received from each of the plurality of mobile bodies and the image, the first derived from the server device in order to specify the number of flow lines of the movement path for each predetermined range geographically adjacent to each other. Receiving the condition 1 from the server device,
A flow line identification method characterized in that a computer executes processing.
JP2017090391A 2017-04-28 2017-04-28 Flow line identification system, server device, terminal device, flow line identification method, and flow line identification program Active JP6916438B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017090391A JP6916438B2 (en) 2017-04-28 2017-04-28 Flow line identification system, server device, terminal device, flow line identification method, and flow line identification program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017090391A JP6916438B2 (en) 2017-04-28 2017-04-28 Flow line identification system, server device, terminal device, flow line identification method, and flow line identification program

Publications (2)

Publication Number Publication Date
JP2018189436A JP2018189436A (en) 2018-11-29
JP6916438B2 true JP6916438B2 (en) 2021-08-11

Family

ID=64479934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017090391A Active JP6916438B2 (en) 2017-04-28 2017-04-28 Flow line identification system, server device, terminal device, flow line identification method, and flow line identification program

Country Status (1)

Country Link
JP (1) JP6916438B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4370869B2 (en) * 2003-09-25 2009-11-25 トヨタ自動車株式会社 Map data updating method and map data updating apparatus
JP4622928B2 (en) * 2006-04-14 2011-02-02 トヨタ自動車株式会社 In-vehicle camera control device and in-vehicle camera control method.
DE102010007091A1 (en) * 2010-02-06 2011-08-11 Bayerische Motoren Werke Aktiengesellschaft, 80809 Method for determining the position of a motor vehicle
JP5288423B2 (en) * 2011-04-11 2013-09-11 株式会社日立製作所 Data distribution system and data distribution method
JP2014122859A (en) * 2012-12-21 2014-07-03 Aisin Aw Co Ltd Road information collection device and road information collection program
JP6193819B2 (en) * 2014-07-11 2017-09-06 株式会社Soken Traveling line recognition device

Also Published As

Publication number Publication date
JP2018189436A (en) 2018-11-29

Similar Documents

Publication Publication Date Title
CN111061261B (en) Automatic driving method using standard navigation map and lane configuration determined based on previous track of vehicle
EP3299921B1 (en) Location specific assistance for an autonomous vehicle control system
JP6644742B2 (en) Algorithms and infrastructure for robust and efficient vehicle positioning
US10816973B2 (en) Utilizing rule-based and model-based decision systems for autonomous driving control
US20180374359A1 (en) Evaluation framework for predicted trajectories in autonomous driving vehicle traffic prediction
US20160161265A1 (en) Method and system for improving accuracy of digital map data utilized by a vehicle
CN114829224A (en) Geo-location models for perception, prediction, or planning
US11720992B2 (en) Method, apparatus, and computer program product for generating an overhead view of an environment from a perspective image
US20210403001A1 (en) Systems and methods for generating lane data using vehicle trajectory sampling
KR20190141081A (en) A v2x communication-based vehicle lane system for autonomous vehicles
US9709414B2 (en) Personalized suggestion of automated driving features
EP3660735B1 (en) A compressive environmental feature representation for vehicle behavior prediction
US20220028262A1 (en) Systems and methods for generating source-agnostic trajectories
US20210407114A1 (en) Systems and methods for transferring map data between different maps
JP6916438B2 (en) Flow line identification system, server device, terminal device, flow line identification method, and flow line identification program
JP2023133049A (en) Perception-based parking assistance for autonomous machine system and application
JP7051416B2 (en) Self-position estimation device
CN112710316A (en) Dynamic map generation focused on the field of construction and localization technology
US11798411B2 (en) Systems and methods for transforming high-definition geographical map data into messages for vehicle communications
US20240175703A1 (en) Method, apparatus, and computer program product for at least approximate real-time intelligent gap placement within mobility data using junctions inferred by features of the mobility data
EP4375620A1 (en) Method, apparatus, and computer program product for intelligent gap placement within mobility data using junctions inferred by features of the mobility data
US20240175688A1 (en) Method, apparatus, and computer program product for intelligent trajectory configurations within mobility data using junctions inferred by features of the mobility data
US20210405641A1 (en) Detecting positioning of a sensor system associated with a vehicle
US20240175704A1 (en) Method, apparatus, and computer program product for intelligent gap placement within mobility data using junctions inferred by features of the mobility data
JP7261892B2 (en) Occupancy grid map management device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210628

R150 Certificate of patent or registration of utility model

Ref document number: 6916438

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150