JP7465901B2 - Information processing program, information processing device, and information processing system - Google Patents
Information processing program, information processing device, and information processing system Download PDFInfo
- Publication number
- JP7465901B2 JP7465901B2 JP2022003029A JP2022003029A JP7465901B2 JP 7465901 B2 JP7465901 B2 JP 7465901B2 JP 2022003029 A JP2022003029 A JP 2022003029A JP 2022003029 A JP2022003029 A JP 2022003029A JP 7465901 B2 JP7465901 B2 JP 7465901B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- road
- image
- information processing
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 125
- 238000000034 method Methods 0.000 claims description 37
- 238000001514 detection method Methods 0.000 claims description 33
- 238000003384 imaging method Methods 0.000 claims description 30
- 239000002131 composite material Substances 0.000 description 47
- 238000010586 diagram Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 18
- 238000010801 machine learning Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
Images
Description
本発明は、情報処理プログラム、情報処理装置及び情報処理システムに関する。 The present invention relates to an information processing program, an information processing device, and an information processing system.
従来、道路上を走行する車両の走行速度に関する速度情報を推定する技術が知られている。例えば、車両の進行方向に沿って一定距離に複数設置された撮像装置によって撮像された画像に基づいて、車両の走行速度を推定する技術が知られている。 Conventionally, there is known a technique for estimating speed information related to the traveling speed of a vehicle traveling on a road. For example, there is known a technique for estimating the traveling speed of a vehicle based on images captured by multiple imaging devices installed at a fixed distance along the traveling direction of the vehicle.
しかしながら、上記の従来技術は、車両の速度を求めるために、一定距離間隔に設置された複数の撮像装置を要する。 However, the above conventional technology requires multiple imaging devices installed at regular intervals to determine the vehicle speed.
本願は、上記に鑑みてなされたものであって、撮像装置が一台であっても、道路上を走行する車両の走行速度に関する速度情報を精度よく推定することができる情報処理プログラム、情報処理装置及び情報処理システムを提供することを目的とする。 The present application has been made in consideration of the above, and aims to provide an information processing program, an information processing device, and an information processing system that can accurately estimate speed information related to the traveling speed of a vehicle traveling on a road, even with only one imaging device.
本願に係る情報処理プログラムは、道路の画像を撮像する撮像装置から取得した前記画像のうち、前記道路上に固定された固定物が撮像された領域である固定物領域を検出する検出手順と、前記検出手順によって検出された前記固定物領域の位置に基づく前記画像上の複数の基準線を用いて、前記道路上を走行する車両の走行速度に関する速度情報を推定する推定手順と、をコンピュータに実行させる。 The information processing program of the present application causes a computer to execute a detection step of detecting a fixed object area, which is an area in an image acquired from an imaging device that captures an image of a road, in which a fixed object fixed on the road is captured, and an estimation step of estimating speed information related to the traveling speed of a vehicle traveling on the road, using a plurality of reference lines on the image based on the position of the fixed object area detected by the detection step.
前記推定手順は、所定の車両が撮像された車両画像と、前記車両画像に撮像された前記所定の車両の位置およびクラスを示す情報との組合せを含む学習データに基づいて、学習された学習済みの機械学習モデルを用いて、前記画像中の車両を検出する手順を含む。 The estimation step includes a step of detecting a vehicle in the image using a trained machine learning model based on training data including a combination of a vehicle image in which a specific vehicle is captured and information indicating the position and class of the specific vehicle captured in the vehicle image.
実施形態の一態様によれば、撮像装置が一台であっても、道路上を走行する車両の走行速度に関する速度情報を精度よく推定することができるといった効果を奏する。 According to one aspect of the embodiment, even with a single imaging device, it is possible to accurately estimate speed information related to the traveling speed of a vehicle traveling on a road.
以下に、本願に係る情報処理プログラム、情報処理装置及び情報処理システムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理プログラム、情報処理装置及び情報処理システムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Below, the information processing program, information processing device, and information processing system according to the present application will be described in detail with reference to the drawings. Note that the information processing program, information processing device, and information processing system according to the present application are not limited to these embodiments. In addition, the same parts in the following embodiments will be denoted by the same reference numerals, and duplicated descriptions will be omitted.
(実施形態)
〔1.情報処理システムの構成例〕
図1は、実施形態に係る情報処理システムの構成例を示す図である。図1に示すように、情報処理システム1は、撮像装置10と情報処理装置100とを含む。撮像装置10と情報処理装置100とは、それぞれネットワークNを介して有線又は無線で互いに通信可能に接続される。
(Embodiment)
[1. Example of information processing system configuration]
Fig. 1 is a diagram showing an example of the configuration of an information processing system according to an embodiment. As shown in Fig. 1, the
撮像装置10は、道路の画像を撮像する。具体的には、撮像装置10は、高速道路や一般道路等の車道の動画像を撮像する。例えば、撮像装置10は、固定カメラであり、特定の位置から所定時間連続した動画像を撮像する。撮像装置10は、道路を撮像可能なカメラであれば、道路に設置された固定カメラ、防犯カメラ、車載カメラ、またはドローンに搭載されたカメラなど、いかなる種類のカメラであってもよい。また、撮像装置10の台数は、少なくとも1台以上あればよい。 The imaging device 10 captures images of roads. Specifically, the imaging device 10 captures video images of roadways such as expressways and general roads. For example, the imaging device 10 is a fixed camera that captures continuous video images for a predetermined period of time from a specific position. The imaging device 10 may be any type of camera capable of capturing images of roads, such as a fixed camera installed on a road, a security camera, an in-vehicle camera, or a camera mounted on a drone. Furthermore, the number of imaging devices 10 should be at least one.
情報処理装置100は、図2に示す情報処理を実行する情報処理装置である。図2は、実施形態に係る情報処理の概要について説明するための図である。図2に示すように、情報処理装置100は、撮像装置10から道路の動画像を取得する。図2では、動画像を構成する一のフレーム(静止画像、以下、フレーム画像ともいう)G1を示す。フレーム画像G1には、2車線の道路R1上を走行する2台の車両C1およびC2が写っている。また、フレーム画像G1には、車線を区分する白色の破線の一部が道路R1の中央に写っている。ここで、白色の破線とは、白線が撮像された領域である白線領域と、白線同士の間隔とが一定の間隔で並んだ線のことを指す。例えば、白色の破線は、道路が2車線である場合のセンターラインや、道路が2車線以上である場合の車線境界線であってよい。
The
続いて、情報処理装置100は、取得した動画像から複数枚のフレーム画像(例えば、10枚、20枚、50枚、または100枚のフレーム画像等)を取得し、取得した複数枚のフレーム画像を足し合わせて各画素の平均をとることにより、車両や人物といった道路上の移動物体を削除する(ステップS1)。図2では、フレーム画像G1に写っていた2台の車両C1およびC2を削除した後の合成画像G2を示す。合成画像G2では、車両が削除され、道路R1上の2つの車線を区分する白線のみが道路R1上に写っている。また、情報処理装置100は、合成画像G2に対してハフ変換等の画像処理を行うことで、隣り合う2つの白線それぞれが撮像された領域である白線領域O1およびO2を検出する。なお、白線領域O1およびO2の形状は、道路の進行方向と平行な方向に長い線状とみなせる。
Next, the
また、情報処理装置100は、取得した動画像に撮像された各車両をトラッキングすることにより各車両の軌跡を推定し、推定した各車両の軌跡に基づいて、道路領域A1を推定する(ステップS2)。ここで、道路領域とは、画像のうち、車両の走行頻度が所定の閾値を超える領域のことを指す。情報処理装置100は、道路領域A1を推定した場合に、推定した道路領域A1を合成画像G2の画像上に描画した合成画像G3を生成してもよい。図2に示すように、道路領域A1の形状は、道路の進行方向と垂直な方向の長さに対して、道路の進行方向と平行な方向に長く伸びた形となる。また、道路領域A1は、道路の進行方向と垂直な方向の長さが、道路の幅に収まる。
The
続いて、情報処理装置100は、道路領域A1を囲む外接矩形T1を生成する(ステップS3)。例えば、外接矩形T1は、面積が最小となる最小外接矩形である。情報処理装置100は、外接矩形T1を生成した場合に、生成した外接矩形T1を合成画像G2の画像上に描画した合成画像G4を生成してもよい。図2に示すように、道路領域A1の形状が道路の進行方向と平行な方向に長く伸びた形状となるため、外接矩形T1は、長辺方向が道路の進行方向と平行な長方形となる。
Next, the
続いて、情報処理装置100は、画像上で外接矩形T1を外接矩形T1の長辺方向に移動させることにより、線状である白線領域O1の2つの端のうちの一方の端を検出する。図2に示すでは、情報処理装置100は、画像上で外接矩形T1をスライドさせることにより、合成画像G4に示す外接矩形T1の一の短辺と白線領域O1とが交差する交差状態から、外接矩形T1の一の短辺と白線領域O1とが交差しない非交差状態へと変化する境界(すなわち、白線O1と白線同士の間隔との境界のうち、一方の境界E12)を検出する。情報処理装置100は、外接矩形T1の一の短辺と白線領域O1とが、交差状態から非交差状態へと変化する境界E12を検出した場合に、検出された境界E12を白線領域O1の端として特定する。
Next, the
続いて、情報処理装置100は、画像上で外接矩形T1を外接矩形の長辺方向にさらに移動させることにより、白線領域O1と隣り合う白線領域O2の端を検出する。例えば、情報処理装置100は、外接矩形T1の一の短辺と白線領域O1とが交差しない非交差状態から、外接矩形T1の一の短辺と白線領域O2とが交差する交差状態へと変化する境界E21(すなわち、白線O2と白線同士の間隔との境界E21およびE22のうち、一方の境界E21)を検出する。続いて、情報処理装置100は、画像上で外接矩形T1を外接矩形の長辺方向にさらに移動させることにより、外接矩形T1の一の短辺と白線領域O2とが交差する交差状態から、外接矩形T1の一の短辺と白線領域O2とが交差しない非交差状態へと変化する境界E22(すなわち、白線O2と白線同士の間隔との境界E21およびE22のうち、他方の境界E22)を検出する。このように、情報処理装置100は、線状である白線領域O2の2つの端E21およびE22のうち、先に検出された白線領域O1の端E12と同じ側の端E22を検出する。情報処理装置100は、外接矩形T1の一の短辺と白線領域O2とが、交差状態から非交差状態へと変化する境界E22を検出した場合に、検出された境界E22を白線領域O2の端として特定する。
Next, the
続いて、情報処理装置100は、隣り合う2つの白線領域O1の端(境界E12)および白線領域O2の端(境界E22)を検出した場合に、検出された白線領域O1の端および白線領域O2の端それぞれの位置に基づく2つの基準線L1およびL2を生成する(ステップS4)。例えば、2つの基準線L1およびL2は、外接矩形T1の短辺と平行な直線である。情報処理装置100は、隣り合う2つの白線領域O1およびO2の端を検出した場合に、検出された白線領域O1の端(境界E12)および白線領域O2の端(境界E22)それぞれの位置に、生成された基準線L1およびL2それぞれを描画した合成画像G5を生成してもよい。
Next, when the
続いて、情報処理装置100は、2つの基準線L1およびL2を用いて、道路R1上を走行する車両の走行速度に関する速度情報を推定する。一般的に、道路の種類に応じて、白線の長さおよび白線同士の間隔の長さが決まっている。情報処理装置100は、道路の種類に応じた白線の長さおよび白線同士の間隔の長さを示す情報を取得する。情報処理装置100は、白線の長さおよび白線同士の間隔の長さを示す情報に基づいて、2つの基準線L1とL2の間の実距離を特定する。また、情報処理装置100は、動画像から、2つの基準線L1とL2の間を車両が走行するのに要した時間を特定する。情報処理装置100は、特定された2つの基準線L1とL2の間の実距離を、2つの基準線L1とL2の間を車両が走行するのに要した時間で除することにより、2つの基準線L1とL2の間を走行した車両の走行速度を算出する。
Then, the
なお、上述した図2では、情報処理装置100が、外接矩形T1の一の短辺と白線領域とが、交差状態から非交差状態へと変化する境界を検出した場合に、検出された境界を白線領域の端として特定する場合について説明したが、これに限られない。具体的には、情報処理装置100は、外接矩形T1の一の短辺と白線領域とが、非交差状態から交差状態へと変化する境界を検出した場合に、検出された境界を白線領域の端として特定してもよい。
Note that in the above-mentioned FIG. 2, when the
また、上述した図2では、車両が自動車である場合について説明したが、車両は自動車に限られない。例えば、本実施形態における車両には、自動車の他に、原動機付自転車(バイク)、自転車、荷車そのほか人もしくは動物の力により、または他の車両に牽引(けんいん)され、レールによらないで運転する車が含まれてよい。 In addition, in FIG. 2 above, the vehicle is described as an automobile, but the vehicle is not limited to an automobile. For example, the vehicle in this embodiment may include, in addition to an automobile, a motorized bicycle (motorcycle), a bicycle, a cart, or other vehicle that is towed by human or animal power or by another vehicle and does not operate on rails.
ここから、再び図1を用いて、実施形態に係る情報処理装置100の構成について説明する。図1に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の利用者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)を有してもよい。
The configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。また、通信部110は、ネットワークNと有線又は無線で接続され、例えば、撮像装置10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a network interface card (NIC), etc. The communication unit 110 is also connected to a network N by wire or wirelessly, and transmits and receives information to and from the imaging device 10, for example.
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、各種プログラム(情報処理プログラムの一例に相当)を記憶する。また、記憶部120は、取得部131が撮像装置10から取得した画像を記憶する。また、記憶部120は、画像中の車両を検出するために用いる学習済みの機械学習モデルM1に関する情報を記憶する。
(Memory unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 120 stores various programs (corresponding to an example of an information processing program). The storage unit 120 also stores images acquired by the acquisition unit 131 from the imaging device 10. The storage unit 120 also stores information related to a trained machine learning model M1 used to detect vehicles in images.
(制御部130)
制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等によって、情報処理装置100の内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM等の記憶領域を作業領域として実行されることにより実現される。
(Control unit 130)
The control unit 130 is a controller, and is realized, for example, by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), etc., by executing various programs (corresponding to an example of an information processing program) stored in a storage device inside the
図1に示すように、制御部130は、取得部131と、検出部132と、推定部133と、提供部134とを有し、以下に説明する情報処理の作用を実現または実行する。なお、制御部130の内部構成は、図1に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
As shown in FIG. 1, the control unit 130 has an acquisition unit 131, a detection unit 132, an
(取得部131)
取得部131は、道路の画像を撮像する撮像装置10から画像を取得する。具体的には、取得部131は、通信部110を介して、撮像装置10から画像を取得する。例えば、取得部131は、固定位置に設置された撮像装置10によって所定時間連続で撮像された動画像を取得する。取得部131は、画像を取得すると、取得した画像を記憶部120に格納する。
(Acquisition unit 131)
The acquisition unit 131 acquires images from the imaging device 10 that captures images of a road. Specifically, the acquisition unit 131 acquires images from the imaging device 10 via the communication unit 110. For example, the acquisition unit 131 acquires moving images captured continuously for a predetermined period of time by the imaging device 10 installed at a fixed position. When the acquisition unit 131 acquires images, it stores the acquired images in the storage unit 120.
(検出部132)
検出部132は、取得部131が取得した画像のうち、道路上に固定された白線が撮像された領域である白線領域を検出する。このように、検出部132は、画像のうち、道路上に固定された固定物(例えば、白線)が撮像された領域である固定物領域(例えば、白線領域)を検出する。例えば、検出部132は、取得部131が取得した動画像を取得する。続いて、検出部132は、動画像からn枚(例えば、n=10、20、50、または100等)の異なるフレーム画像を取得する。続いて、検出部132は、取得したn枚のフレーム画像の各画素を(1/n)倍したものを全て足し合わせる。このように、検出部132は、n枚のフレーム画像を足し合わせて各画素の平均をとる画像処理により、道路上を移動する移動物体が削除された合成画像(以下、車両を削除した画像ともいう)を生成する。続いて、検出部132は、生成された合成画像のうち、道路が撮像された領域である道路領域以外の領域を塗りつぶす。続いて、検出部132は、合成画像全体をグレースケール変換する。続いて、検出部132は、グレースケール変換された合成画像に含まれるエッジを抽出する。続いて、検出部132は、エッジを抽出した合成画像をハフ変換して、画像のうち、白線が撮像された領域である白線領域を検出する。
(Detection Unit 132)
The detection unit 132 detects a white line area, which is an area where a white line fixed on a road is captured, from the image acquired by the acquisition unit 131. In this way, the detection unit 132 detects a fixed object area (e.g., a white line area) from the image, which is an area where a fixed object (e.g., a white line) fixed on a road is captured. For example, the detection unit 132 acquires a moving image acquired by the acquisition unit 131. Next, the detection unit 132 acquires n different frame images (e.g., n=10, 20, 50, or 100, etc.) from the moving image. Next, the detection unit 132 adds up all the pixels of the acquired n frame images multiplied by (1/n). In this way, the detection unit 132 generates a composite image from which moving objects moving on the road are deleted (hereinafter, also referred to as an image from which a vehicle is deleted) by image processing that adds up the n frame images and takes the average of each pixel. Next, the detection unit 132 paints in the generated composite image other than the road area, which is an area where the road is captured. Next, the detection unit 132 converts the entire composite image into a grayscale image, extracts edges contained in the grayscale converted composite image, and then performs a Hough transform on the composite image from which the edges have been extracted to detect white line regions in the image, which are regions in which white lines are captured.
(推定部133)
推定部133は、検出部132によって検出された白線領域の位置に基づく画像上の複数の基準線を用いて、道路上を走行する車両の走行速度に関する速度情報を推定する。このように、推定部133は、検出部132によって検出された固定物領域(例えば、白線領域)の位置に基づく画像上の複数の基準線を用いて、道路上を走行する車両の走行速度に関する速度情報を推定する。より具体的には、推定部133は、画像のうち、車両の走行頻度が所定の閾値を超える領域を含む道路領域を囲む外接矩形と、白線領域とに基づいて、白線領域の端を検出し、検出された白線領域の端の位置に基づく複数の基準線を用いて、速度情報を推定する。
(Estimation unit 133)
The
図3は、実施形態に係る道路領域の推定処理の一例を示す図である。図3に示す画像G11は、取得部131が取得した動画像を構成する一のフレームを示す。推定部133は、取得部131が取得した動画像を取得する。続いて、推定部133は、動画像に撮像された各車両をトラッキングすることにより、各車両の中心座標を繋いだ線を生成し、生成した線を各車両の軌跡として推定する(ステップS21)。推定部133は、各車両の中心座標を繋いだ線を描画した合成画像G12を生成してもよい。
Figure 3 is a diagram showing an example of a road area estimation process according to the embodiment. Image G11 shown in Figure 3 shows one frame constituting the moving image acquired by the acquisition unit 131. The
続いて、推定部133は、合成画像G12に基づいて、合成画像G12のうち、所定の閾値を超える濃さの画素のみを抽出する(ステップS22)。推定部133は、所定の閾値を超える濃さの画素のみを抽出した合成画像G13を生成してもよい。
Next, the
続いて、推定部133は、合成画像G13に基づいて、合成画像G13のうち、抽出された画素によって構成される各領域の輪郭を抽出し、各領域の外周の長さで各領域をクラスタリングする(ステップS23)。推定部133は、各領域をクラスタリングしたものを可視化した合成画像G14を生成してもよい。
Next, the
続いて、推定部133は、クラスタリングされた各領域が凸包になるように各領域を塗りつぶす(ステップS24)。推定部133は、各領域が凸包になるように塗りつぶされた状態を可視化した合成画像G15を生成してもよい。
Next, the
続いて、推定部133は、凸包に塗りつぶされた各領域のうち、面積が最大となるクラスタの領域を抽出し、抽出したクラスタの領域を道路領域として推定する。このように、推定部133は、車両の軌跡を含む凸包を道路領域として推定する。図3に示す例では、推定部133は、面積が最大となるクラスタに属する要素が2つあるので、2つの要素のうち最も面積の大きい方を道路領域として推定する(ステップS25)。推定部133は、推定された道路領域を可視化した合成画像G16を生成してもよい。
The
続いて、推定部133は、検出部132によって生成された車両を削除した画像に推定された道路領域を重畳する(ステップS25)。推定部133は、車両を削除した画像に推定された道路領域を重畳した合成画像G31を生成してもよい。
The
図4は、実施形態に固定物領域の端の検出処理の一例を示す図である。図4に示す画像G31は、図3で生成された合成画像G31を示す。推定部133は、合成画像G31に基づいて、合成画像G31のうち、推定された道路領域を囲む外接矩形を生成する(ステップS31)。推定部133は、外接矩形を生成した場合に、車両を削除した画像に生成した外接矩形を重畳した合成画像G41を生成してもよい。
Figure 4 is a diagram showing an example of a process for detecting the edge of a fixed object area in an embodiment. Image G31 shown in Figure 4 shows the composite image G31 generated in Figure 3. Based on the composite image G31, the
続いて、推定部133は、車両を削除した画像上で外接矩形を外接矩形の長辺方向に移動させることにより、外接矩形の短辺と白線領域とが交差する交差状態から外接矩形の短辺と白線領域とが交差しない非交差状態へと変化する白線領域の端、または、非交差状態から交差状態へと変化する白線領域の端を検出する。推定部133は、画像上で外接矩形を外接矩形の長辺方向に移動させることにより、複数の白線領域の端を検出した場合に、検出された複数の白線領域の端それぞれの位置に基づく複数の基準線を生成する(ステップS41)。例えば、推定部133は、検出された複数の白線領域の端それぞれの位置に外接矩形の短辺と平行な複数の基準線を生成する。推定部133は、車両を削除した画像に生成した複数の基準線を重畳した合成画像G51を生成してもよい。
Next, the
続いて、推定部133は、白線に対して基準線の角度が直角になるように調整した複数の基準線を生成してもよい(ステップS42)。例えば、推定部133は、白線領域の端を検出した場合に、白線の長手方向に沿った直線の角度を算出する。続いて、推定部133は、算出した角度に対して、基準線の角度が直角となるように配置された複数の基準線を生成する。推定部133は、車両を削除した画像に角度が直角になるように調整した複数の基準線を重畳した合成画像G52を生成してもよい。これにより、情報処理装置100は、道路の進行方向に対して垂直な複数の基準線に基づいて速度情報を推定することができるので、速度情報をより精度よく推定することができる。
The
また、道路の規格により、国内の一般道路における白線の長さは5mであり、白線同士の間隔の長さは5mであると決まっている。つまり、国内の一般道路は、白線領域の長さと白線同士の間隔の長さとの比率が1:1であり、白線領域の長さと白線同士の間隔の長さの合計の長さが10mである。また、道路の規格により、国内の高速道路における白線の長さは8mであり、白線同士の間隔の長さは12mであると決まっている。つまり、国内の高速道路は、白線領域の長さと白線同士の間隔の長さとの比率が1:1.5であり、白線領域の長さと白線同士の間隔の長さの合計の長さが20mである。すなわち、高速道路における白線領域の長さと白線同士の間隔の長さの合計の長さは、一般道路における白線領域の長さと白線同士の間隔の長さの合計の長さの2倍である。 Road standards also stipulate that the length of white lines on general roads in Japan is 5m, and the distance between the lines is 5m. In other words, on general roads in Japan, the ratio of the length of the white line area to the distance between the lines is 1:1, and the total length of the white line area and the distance between the lines is 10m. Road standards also stipulate that the length of white lines on domestic expressways is 8m, and the distance between the lines is 12m. In other words, on domestic expressways, the ratio of the length of the white line area to the distance between the lines is 1:1.5, and the total length of the white line area and the distance between the lines is 20m. In other words, the total length of the white line area and the distance between the lines on expressways is twice the total length of the white line area and the distance between the lines on general roads.
図5は、実施形態に道路の種類の推定処理の一例を示す図である。推定部133は、白線領域の長さと白線同士の間隔の長さとの比率に基づいて、道路の種類を推定する。図5に示す画像G61は、取得部131が取得した動画像を構成する一のフレームを示す。推定部133は、画像G61のうち、道路が撮像された領域である道路領域以外の領域を塗りつぶす。続いて、推定部133は、合成画像全体をグレースケール変換する。続いて、推定部133は、グレースケール変換された合成画像に含まれるエッジを抽出する。続いて、推定部133は、エッジを抽出した合成画像をハフ変換して、合成画像のうち、白線が撮像された領域である白線領域を検出する。続いて、推定部133は、ハフ変換された合成画像に含まれる4つの白線領域の端それぞれを示す4つの点に座標を与えて射影変換する。図5に示す画像G62は、画像G61に示す4つの点を射影変換した後の合成画像である。図5に示す射影変換後の画像G62における白線領域の長さは73ピクセルであり、白線同士の間隔の長さは106ピクセルである。このとき、推定部133は、射影変換後の画像G62における白線領域の長さと白線同士の間隔の長さとの比率を1:1.45であると算出する。推定部133は、算出した比率が1:1.45であり、一般道路における白線領域の長さと白線同士の間隔の長さとの比率(1:1)よりも、高速道路における白線領域の長さと白線同士の間隔の長さとの比率(1:1.5)に近いので、画像G62に撮像された道路が高速道路であると推定する。
FIG. 5 is a diagram showing an example of a road type estimation process in an embodiment. The
続いて、推定部133は、推定された道路の種類に応じて、速度情報を推定する。例えば、推定部133は、推定された道路の種類が一般道路である場合には、2つの基準線の間の実距離を10mと特定する。また、推定部133は、推定された道路の種類が高速道路である場合には、2つの基準線の間の実距離を20mと特定する。また、推定部133は、動画像から、2つの基準線の間を車両が走行するのに要した時間を特定する。推定部133は、特定された2つの基準線の間の実距離を、2つの基準線の間を車両が走行するのに要した時間で除することにより、2つの基準線の間を走行した車両の走行速度を算出する。
Then, the
図6は、実施形態に係る機械学習モデルを用いた画像中の車両の検出処理の一例を示す図である。推定部133は、車両が撮像された画像等を学習データとして学習した学習済の機械学習モデルM1を用いて、画像中の車両を検出する。具体的には、推定部133は、車両が撮像された画像と、画像に撮像された車両の位置およびクラス(車両)を示す情報との組合せを含む学習データに基づいて、学習された機械学習モデルM1を取得する。より具体的には、推定部133は、車両が撮像された画像を入力情報として機械学習モデルに入力した場合に、画像に撮像された車両の位置およびクラス(車両)を示す情報が付加された画像を出力情報として出力するよう学習された機械学習モデルM1を取得する。例えば、推定部133は、記憶部120を参照して、記憶部120に記憶された学習済みの機械学習モデルM1を取得する。続いて、推定部133は、学習済みの機械学習モデルM1を取得すると、取得部131が取得した画像を学習済みの機械学習モデルに入力し、学習済みの機械学習モデルM1から出力された車両の位置およびクラス(車両)を示す情報が付加された画像を推定結果として取得する。図6では、推定部133は、検出された各車両の位置情報として、各車両に外接する矩形の座標情報が付加された画像を推定結果として取得する。例えば、推定部133は、検出された各車両の位置情報として、車両に外接する矩形の中心点の位置を示す座標情報が付加された画像を推定結果として取得してよい。
FIG. 6 is a diagram showing an example of a detection process of a vehicle in an image using a machine learning model according to an embodiment. The
なお、推定部133が取得する学習済みの機械学習モデルM1は、例えば、畳み込みニューラルネットワークまたは回帰型ニューラルネットワークなどのニューラルネットワークによる機械学習によって生成されるが、かかる例に限定されない。例えば、推定部133が取得する学習済みの機械学習モデルM1は、ニューラルネットワークに代えて、線形回帰またはロジスティック回帰といった学習アルゴリズムによる機械学習を用いて生成されてもよい。
The trained machine learning model M1 acquired by the
図7は、実施形態に係る車両の移動距離の測定処理の一例を示す図である。図7では、推定部133は、画像に撮像された道路が高速道路であると推定する。続いて、推定部133は、道路の種類が高速道路であると推定したので、画像中の基準線1および基準線2の間の実距離を20mと特定する。続いて、推定部133は、画像中の基準線1および基準線2の間の実距離を20mと特定したので、画像中の基準線1および基準線2の間を通過する車両を検出した場合、検出された車両の移動距離を20mと特定する。
Figure 7 is a diagram showing an example of a measurement process for a vehicle's travel distance according to an embodiment. In Figure 7, the
図8は、実施形態に係る車両の基準線通過の判定処理の一例を示す図である。推定部133は、取得部131が取得した各フレーム画像に、各フレーム画像中の車両の代表点の位置を示す座標情報(以下、位置情報ともいう)を記録する。例えば、推定部133は、各フレーム画像中の各車両を検出し、検出された各車両に外接する矩形の中心点の位置座標を代表点の位置座標として各フレーム画像と対応付けて記録してよい。また、推定部133は、現在のフレーム画像を取得し、取得された現在のフレーム画像中の所定の車両の代表点と、現在のフレーム画像と時間的に隣り合う次のフレーム画像中の所定の車両の代表点とを連結した線分が基準線と交差するか否かを判定する。推定部133は、現在のフレーム画像中の所定の車両の代表点と、次のフレーム画像中の所定の車両の代表点とを連結した線分が基準線と交差すると判定した場合、所定の車両が基準線を通過したと判定する。一方、推定部133は、現在のフレーム画像中の所定の車両の代表点と、次のフレーム画像中の所定の車両の代表点とを連結した線分が基準線と交差しないと判定した場合、所定の車両が基準線を通過していないと判定する。
FIG. 8 is a diagram showing an example of a process for determining whether a vehicle has passed through a reference line according to an embodiment. The
図9は、実施形態に係る車両の移動時間の測定処理の一例を示す図である。推定部133は、撮像装置10によって撮像された動画像のフレームレート(frame rate)に基づいて、画像中の車両の移動時間を推定する。図9では、動画像のフレームレートが30(fps)である場合について説明する。推定部133は、車両が道路上の一つ目の基準線1を通過した瞬間のフレーム(以下、第1フレームともいう)に対応する時刻を記録する。例えば、推定部133は、車両が基準線1を通過した瞬間のフレームに対応する時刻として、30枚中、5枚目のフレームに対応する時刻を記録する。続いて、推定部133は、車両が道路上の二つ目の基準線2を通過した瞬間のフレーム(以下、第2フレームともいう)に対応する時刻を記録する。例えば、推定部133は、車両が基準線2を通過した瞬間のフレームに対応する時刻として、30枚中、17枚目のフレームに対応する時刻を記録する。続いて、推定部133は、車両が基準線2を通過した瞬間の第2フレームに対応する時刻と、車両が基準線1を通過した瞬間の第1フレームに対応する時刻との時間差を算出し、算出した時間差に対応する時間を、車両が基準線1と基準線2の間を通過するのに要した移動時間であると推定する。例えば、推定部133は、動画像のフレームレートが30(fps)である場合、17枚目のフレームに対応する時刻と、5枚目のフレームに対応する時刻との時間差を「(17-5)/30=0.4秒」と算出する。続いて、推定部133は、算出した時間差である「0.4秒」を車両が基準線1と基準線2の間を通過するのに要した移動時間であると推定する。このように、推定部133は、隣り合う2つの基準線のうち一方の基準線を通過した車両が撮像された第1フレームに対応する時刻と、2つの基準線のうち他方の基準線を通過した車両が撮像された第2フレームに対応する時刻との時間差に相当する時間を、車両が2つの基準線の間を通過するのに要した移動時間であると推定する。
9 is a diagram showing an example of a measurement process of a travel time of a vehicle according to an embodiment. The
なお、図9では、推定部133が、動画像のフレームレートに基づいて、画像中の車両の移動時間を推定する場合について説明したが、推定部133は、画像中の車両の移動時間を推定する方法はこれに限られない。例えば、推定部133は、車両が基準線1および基準線2を通過したそれぞれの時刻を取得し、取得したそれぞれの時刻の差分を車両が基準線1と基準線2の間を通過するのに要した移動時間であると推定してもよい。
Note that, although FIG. 9 describes a case where the
続いて、推定部133は、推定された速度情報に基づいて、道路の交通情報を推定する。例えば、推定部133は、推定された速度情報に基づいて、交通情報として、全国の各道路における渋滞情報、各道路における通行止めまたは事故の発生状況等の情報を推定する。
Then, the
(提供部134)
提供部134は、推定部133によって推定された道路の交通情報を提供する。具体的には、提供部134は、推定部133によって推定された道路の交通情報を利用者の端末装置に送信する。
(Providing Unit 134)
The providing unit 134 provides the traffic information of the road estimated by the estimating
〔2.情報処理手順〕
図10は、実施形態に係る検出手順を示すフローチャートである。図10に示すように、情報処理装置100の取得部131は、道路の画像を撮像する撮像装置10から画像を取得する(ステップS101)。また、情報処理装置100の検出部132は、取得部131が取得した画像から車両や人物といった移動物体を削除する(ステップS102)。続いて、検出部132は、移動物体を削除した画像のうち、道路上に固定された固定物が撮像された領域である固定物領域を検出する(ステップS103)。
2. Information Processing Procedures
Fig. 10 is a flowchart showing a detection procedure according to the embodiment. As shown in Fig. 10, the acquisition unit 131 of the
図11は、実施形態に係る推定手順を示すフローチャートである。図11に示すように、情報処理装置100の取得部131は、道路の画像を撮像する撮像装置10から画像を取得する(ステップS201)。また、情報処理装置100の推定部133は、車両の軌跡に基づいて、道路領域を推定する(ステップS202)。続いて、推定部133は、道路領域の外接矩形を生成する(ステップS203)。続いて、推定部133は、画像上で外接矩形の長辺方向に外接矩形の短辺を移動させることにより、固定物領域の端を検出する(ステップS204)。続いて、推定部133は、固定物領域の端を2以上検出したか否かを判定する(ステップS205)。推定部133は、固定物領域の端を2以上検出したと判定した場合(ステップS205;Yes)、検出された2つの固定物領域の端それぞれの位置に基づく2本の基準線を用いて、道路上を走行する車両の走行速度に関する速度情報を推定する(ステップS206)。一方、推定部133は、固定物領域の端を2以上検出していないと判定した場合(ステップS205;No)、ステップS204の処理を繰り返す。
11 is a flowchart showing an estimation procedure according to the embodiment. As shown in FIG. 11, the acquisition unit 131 of the
〔3.変形例〕
上述した実施形態に係る情報処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100の他の実施形態について説明する。なお、実施形態と同一部分には、同一符号を付して説明を省略する。
3. Modifications
The
〔3-1.第1の変形例〕
図12は、第1の変形例に係る情報処理の概要について説明するための図である。上述した実施形態では、情報処理装置100が、1つの道路R1上に固定された白線領域の位置に基づく2つの基準線L1およびL2を用いて速度情報を推定する場合について説明した。図12では、情報処理装置100が、隣り合う2つの道路R2およびR3上にそれぞれ固定された白線領域の位置に基づく2本の基準線を用いて速度情報を推定する場合について説明する。
3-1. First Modified Example
Fig. 12 is a diagram for explaining an overview of information processing according to the first modified example. In the above-mentioned embodiment, a case has been described in which the
図12は、動画像に写っていた車両を削除した後の合成画像G7を示す。図12では、車両が削除された後の隣り合う2つの道路R2およびR3が合成画像G7に写っている。また、合成画像G7には、左側の道路R2上の2つの車線を区分する白線が撮像された白線領域O11およびO12が道路R3上に写っている。また、合成画像G7には、右側の道路R3上の2つの車線を区分する白線が撮像された白線領域O21およびO22が道路R3上に写っている。 Figure 12 shows a composite image G7 after the vehicle that was captured in the video has been removed. In Figure 12, the two adjacent roads R2 and R3 are captured in the composite image G7 after the vehicle has been removed. The composite image G7 also shows white line areas O11 and O12 on road R3, in which the white lines that separate the two lanes on road R2 on the left side are captured. The composite image G7 also shows white line areas O21 and O22 on road R3, in which the white lines that separate the two lanes on road R3 on the right side are captured.
具体的には、検出部132は、合成画像G7に対してハフ変換等の画像処理を行うことで、左側の道路R2上の白線領域O11およびO12、ならびに、右側の道路R3上の白線領域O21およびO22を検出する。なお、図12では、白線領域O11およびO12の各形状は、道路R2の進行方向と平行な方向に長い線状とみなせる。また、白線領域O21およびO22の各形状は、道路R3の進行方向と平行な方向に長い線状とみなせる。 Specifically, the detection unit 132 performs image processing such as a Hough transform on the composite image G7 to detect white line areas O11 and O12 on the left road R2, and white line areas O21 and O22 on the right road R3. Note that in FIG. 12, the shapes of the white line areas O11 and O12 can be regarded as long lines extending in a direction parallel to the traveling direction of road R2. Also, the shapes of the white line areas O21 and O22 can be regarded as long lines extending in a direction parallel to the traveling direction of road R3.
また、図示は省略するが、推定部133は、取得した動画像に撮像された各車両をトラッキングすることにより各車両の軌跡を推定し、推定した各車両の軌跡に基づいて、各道路の道路領域をそれぞれ推定する。続いて、推定部133は、各道路領域を囲む外接矩形をそれぞれ生成する。続いて、推定部133は、各道路上で各外接矩形を各外接矩形の長辺方向に移動させることにより、道路R2上で隣り合う2つの白線領域O11およびO12の端、ならびに、道路R3上で隣り合う2つの白線領域O21およびO22の端をそれぞれ特定する。続いて、推定部133は、道路R2上の白線領域O11の端と道路R3上の白線領域O21の端を繋ぐ基準線L3、および、道路R2上の白線領域O12の端と道路R3上の白線領域O22の端を繋ぐ基準線L4を用いて、速度情報を推定する。
Although not shown, the
これにより、情報処理装置100は、1つの道路上の白線領域に基づく複数の基準線を用いた場合と比べて、遠近法の影響で生じる画像中の距離の誤差を小さくすることができるため、速度情報をより精度よく推定することができる。
As a result, the
〔3-2.第2の変形例〕
図13は、第2の変形例に係る情報処理の概要について説明するための図である。上述した実施形態では、情報処理装置100が、道路上に固定された白線が撮像された白線領域を検出し、検出された白線領域の位置に基づく画像上の複数の基準線を用いて速度情報を推定する場合について説明したが、これに限られない。具体的には、情報処理装置100は、白線以外にも、画像中の道路の進行方向の距離の基準となる基準点を含む固定物が撮像された固定物領域であれば、どのような固定物領域の位置に基づく画像上の複数の基準線を用いて速度情報を推定してもよい。例えば、固定物は、車線を区分する白線の他に、横断歩道の白線または停止線の白線であってよい。
3-2. Second Modification
13 is a diagram for explaining an overview of information processing according to the second modified example. In the above-mentioned embodiment, the
図13では、情報処理装置100が、白線領域の代わりに、横断歩道が撮像された歩道領域の位置に基づく画像上の複数の基準線を用いて速度情報を推定する点が上述した実施形態と異なる。図13は、動画像に写っていた車両を削除した後の合成画像G81を示す。図13では、車両が削除された後の道路上に固定された横断歩道が合成画像G81に写っている。なお、図13では、情報処理装置100が、直線状の道路上に固定された横断歩道の幅(つまり、車両の進行方向の長さ)を示すデータを外部のデータベース等から取得できた場合に、以下の処理を行う。
In FIG. 13, the
具体的には、検出部132は、合成画像G81に対してハフ変換等の画像処理を行うことで、道路上に固定された横断歩道の7つの白線それぞれが撮像された7つの白線領域O31~O37を検出する。なお、図13では、白線領域O31~O37の各形状は、道路の進行方向と平行な方向に長い線状とみなせる。 Specifically, the detection unit 132 performs image processing such as a Hough transform on the composite image G81 to detect seven white line areas O31 to O37 in which the seven white lines of the pedestrian crossing fixed on the road are captured. Note that in FIG. 13, the shape of each of the white line areas O31 to O37 can be regarded as a long line extending in a direction parallel to the traveling direction of the road.
また、図示は省略するが、推定部133は、取得した動画像に撮像された各車両をトラッキングすることにより各車両の軌跡を推定し、推定した各車両の軌跡に基づいて、道路の道路領域を推定する。続いて、推定部133は、道路領域を囲む外接矩形を生成する。続いて、推定部133は、道路上で外接矩形を外接矩形の長辺方向に移動させることにより、各白線領域O31~O37の一方の端、および、各白線領域O31~O37の他方の端をそれぞれ特定する。続いて、推定部133は、各白線領域O31~O37の一方の端を繋ぐ基準線L6、および、各白線領域O31~O37の他方の端を繋ぐ基準線L7を用いて、速度情報を推定する。
Although not shown, the
〔3-3.第3の変形例〕
図14は、第3の変形例に係る情報処理の概要について説明するための図である。図14では、情報処理装置100が、歩道領域の両端の位置に基づく画像上の複数の基準線を用いて速度情報を推定する代わりに、横断歩道から所定の範囲内に位置する停止線の一端および歩道領域の一端の位置に基づく画像上の複数の基準線を用いて速度情報を推定する点が図13と異なる。図14は、動画像に写っていた車両を削除した後の合成画像G82を示す。図14では、図13と同様に、車両が削除された後の道路上に固定された横断歩道および横断歩道から所定の範囲内に位置する停止線(図13参照)が合成画像G82に写っている。なお、図14では、情報処理装置100が、直線状の道路上に固定された横断歩道の端を結ぶ線と停止線との距離を示すデータを外部のデータベース等から取得できた場合に、以下の処理を行う。
3-3. Third Modification
FIG. 14 is a diagram for explaining an overview of information processing according to the third modified example. In FIG. 14, the
具体的には、検出部132は、合成画像G82に対してハフ変換等の画像処理を行うことで、道路上に固定された横断歩道の7つの白線それぞれが撮像された7つの白線領域O31~O37、および、横断歩道から所定の範囲内に位置する停止線が撮像された白線領域O4(図13参照)を検出する。なお、図14では、白線領域O31~O37の各形状は、道路の進行方向と平行な方向に長い線状とみなせる。また、白線領域O4の形状は、道路の進行方向と垂直な方向に長い線状とみなせる。 Specifically, the detection unit 132 performs image processing such as a Hough transform on the composite image G82 to detect seven white line areas O31-O37 in which the seven white lines of a pedestrian crossing fixed on the road are captured, and a white line area O4 (see FIG. 13) in which a stop line located within a predetermined range from the pedestrian crossing is captured. Note that in FIG. 14, the shape of each of the white line areas O31-O37 can be regarded as a long line extending in a direction parallel to the traveling direction of the road. The shape of the white line area O4 can be regarded as a long line extending in a direction perpendicular to the traveling direction of the road.
また、図示は省略するが、推定部133は、取得した動画像に撮像された各車両をトラッキングすることにより各車両の軌跡を推定し、推定した各車両の軌跡に基づいて、道路の道路領域を推定する。続いて、推定部133は、道路領域を囲む外接矩形を生成する。続いて、推定部133は、道路上で外接矩形を外接矩形の長辺方向に移動させることにより、各白線領域O31~O37の両端のうち停止線に近い方の端、および、白線領域O4の端をそれぞれ特定する。続いて、推定部133は、各白線領域O31~O37の停止線に近い方の端を繋ぐ基準線L7、および、白線領域O4の端と平行な基準線L8を用いて、速度情報を推定する。
Although not shown, the
〔4.効果〕
上述したように、実施形態に係る情報処理装置100は、検出部132と推定部133を備える。検出部132は、道路の画像を撮像する撮像装置10から取得した画像のうち、道路上に固定された固定物が撮像された領域である固定物領域を検出する。推定部133は、検出部132によって検出された固定物領域の位置に基づく画像上の複数の基準線を用いて、道路上を走行する車両の走行速度に関する速度情報を推定する。
4. Effects
As described above, the
これにより、情報処理装置100は、撮像装置が一台であっても、道路上を走行する車両の走行速度に関する速度情報を精度よく推定することができる。
As a result, the
また、推定部133は、画像のうち、車両の走行頻度が所定の閾値を超える領域を含む道路領域を囲む外接矩形と、固定物領域とに基づいて、固定物領域の端を検出し、検出された固定物領域の端の位置に基づく複数の基準線を用いて、速度情報を推定する。
The
これにより、情報処理装置100は、例えば、道路の両端等の直線を含むことなく、道路の中央付近に固定された白線に基づいて、速度情報を精度よく推定することができる。
This allows the
また、推定部133は、画像上で外接矩形を外接矩形の長辺方向に移動させることにより、外接矩形の短辺と固定物領域とが交差する交差状態から外接矩形の短辺と固定物領域とが交差しない非交差状態へと変化する固定物領域の端、または、非交差状態から交差状態へと変化する固定物領域の端を検出する。
In addition, the
これにより、情報処理装置100は、道路の進行方向に沿って、固定物領域の端を適切に検出することができる。
This allows the
また、推定部133は、画像上で外接矩形を外接矩形の長辺方向に移動させることにより、複数の固定物領域の端を検出した場合に、検出された複数の固定物領域の端それぞれの位置に基づく複数の基準線を用いて、速度情報を推定する。
In addition, when the
これにより、情報処理装置100は、複数の基準線を用いて、速度情報を精度よく推定することができる。
This allows the
また、推定部133は、外接矩形の短辺と平行な複数の基準線を用いて、速度情報を推定する。
In addition, the
これにより、情報処理装置100は、速度情報をより精度よく推定することができる。
This allows the
また、推定部133は、動画像である画像に撮像された車両をトラッキングすることにより推定された車両の軌跡に基づいて、道路領域を推定する。
The
これにより、情報処理装置100は、道路のうち、車両の走行頻度が所定の閾値を超える領域を適切に推定することができる。
This allows the
また、推定部133は、車両の軌跡を含む凸包を道路領域として推定する。
The
これにより、情報処理装置100は、道路のうち、車両の走行頻度が所定の閾値を超える領域を適切に推定することができる。
This allows the
また、推定部133は、外接矩形の面積が最小となる最小外接矩形と、固定物領域とに基づいて、固定物領域の端を検出する。
In addition, the
これにより、情報処理装置100は、固定物領域の端を精度よく推定することができる。
This allows the
また、固定物は、道路上に固定された白線である。検出部132は、固定物領域として、白線が撮像された領域である白線領域を検出する。推定部133は、白線領域の長さと白線同士の間隔の長さとの比率に基づいて、道路の種類を推定し、推定された道路の種類に応じて、複数の基準線の間の実距離を推定する。
The fixed object is a white line fixed on the road. The detection unit 132 detects a white line area, which is an area where a white line is imaged, as a fixed object area. The
これにより、情報処理装置100は、道路の種類に応じて、画像中の複数の基準線の間の実距離を精度よく推定することができるので、速度情報をより精度よく推定することができる。
This allows the
また、推定部133は、所定の車両が撮像された車両画像と、車両画像に撮像された所定の車両の位置およびクラスを示す情報との組合せを含む学習データに基づいて、学習された学習済みの機械学習モデルを用いて、画像中の車両を検出する。
The
これにより、情報処理装置100は、画像中の車両を精度よく検出することができるため、速度情報をより精度よく推定することができる。
This allows the
また、推定部133は、一のフレーム画像中の車両の位置を示す第1代表点と、一のフレーム画像と時間的に隣り合う次のフレーム画像中の車両の位置を示す第2代表点とを連結した線分と、基準線とが交差するか否かを判定し、線分と基準線とが交差すると判定した場合、車両が基準線を通過したと判定し、線分と基準線とが交差しないと判定した場合、車両が基準線を通過していないと判定する。
The
これにより、情報処理装置100は、車両が基準線を通過したか否かを精度よく判定することができるため、速度情報をより精度よく推定することができる。
This allows the
また、推定部133は、隣り合う2つの基準線のうち一方の基準線を通過した車両が撮像された第1フレームに対応する時刻と、2つの基準線のうち他方の基準線を通過した車両が撮像された第2フレームに対応する時刻との時間差に相当する時間を、車両が2つの基準線の間を通過するのに要した移動時間であると推定する。
The
これにより、情報処理装置100は、車両が複数の基準線の間を通過するのに要した移動時間を精度よく判定することができるため、速度情報をより精度よく推定することができる。
This allows the
また、推定部133は、推定された速度情報に基づいて、道路の交通情報を推定する。
The
これにより、情報処理装置100は、精度の良い速度情報に基づくため、道路の交通情報を精度よく推定することができる。
As a result, the
〔5.ハードウェア構成〕
また、上述してきた実施形態に係る情報処理装置100は、例えば図15に示すような構成のコンピュータ1000によって実現される。図15は、情報処理装置100の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を備える。
5. Hardware Configuration
Moreover, the
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The CPU 1100 operates based on a program stored in the ROM 1300 or the
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、所定の通信網を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定の通信網を介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
The CPU 1100 controls output devices such as a display and a printer, and input devices such as a keyboard and a mouse, via the input/
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。
For example, when the computer 1000 functions as the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although several embodiments of the present application have been described in detail above with reference to the drawings, these are merely examples, and the present invention can be embodied in other forms that incorporate various modifications and improvements based on the knowledge of those skilled in the art, including the forms described in the disclosure section of the invention.
〔6.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[6. Other]
Furthermore, among the processes described in the above embodiments and modifications, all or part of the processes described as being performed automatically can be performed manually, or all or part of the processes described as being performed manually can be performed automatically by a known method. In addition, the information including the processing procedures, specific names, various data and parameters shown in the above documents and drawings can be changed arbitrarily unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 In addition, each component of each device shown in the figure is a functional concept, and does not necessarily have to be physically configured as shown in the figure. In other words, the specific form of distribution and integration of each device is not limited to that shown in the figure, and all or part of them can be functionally or physically distributed and integrated in any unit depending on various loads, usage conditions, etc.
また、上述した情報処理装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットホーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。
The
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 The above-described embodiments and variations can be combined as appropriate to the extent that they do not cause inconsistencies in the processing content.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、推定部は、推定手段や推定回路に読み替えることができる。 The above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the estimation unit can be read as estimation means or estimation circuit.
1 情報処理システム
10 撮像装置
100 情報処理装置
110 通信部
120 記憶部
130 制御部
131 取得部
132 検出部
133 推定部
134 提供部
REFERENCE SIGNS
Claims (12)
前記検出手順によって検出された前記固定物領域と、前記画像のうち、前記道路上を走行する車両の走行頻度が所定の閾値を超える領域を含む道路領域を囲む外接矩形と、前記固定物領域とに基づいて、前記固定物領域の端を検出し、検出された前記固定物領域の端の位置に基づく前記画像上の複数の基準線を用いて、前記車両の走行速度に関する速度情報を推定する推定手順と、
をコンピュータに実行させる情報処理プログラム。 a detection step of detecting a fixed object area, which is an area in which a fixed object fixed on the road is imaged, from an image acquired from an imaging device that captures an image of the road;
an estimation step of detecting edges of the fixed object area based on the fixed object area detected by the detection step, a circumscribing rectangle surrounding a road area in the image including an area where a frequency of vehicles traveling on the road exceeds a predetermined threshold, and the fixed object area, and estimating speed information related to the traveling speed of the vehicle using a plurality of reference lines on the image based on the positions of the edges of the detected fixed object area;
An information processing program that causes a computer to execute the above.
前記画像上で前記外接矩形を前記外接矩形の長辺方向に移動させることにより、前記外接矩形の短辺と前記固定物領域とが交差する交差状態から前記外接矩形の短辺と前記固定物領域とが交差しない非交差状態へと変化する前記固定物領域の端、または、前記非交差状態から前記交差状態へと変化する前記固定物領域の端を検出する、
請求項1に記載の情報処理プログラム。 The estimation procedure comprises:
by moving the circumscribing rectangle in the direction of the long side of the circumscribing rectangle on the image, detecting an end of the fixed object region that changes from an intersecting state in which the short side of the circumscribing rectangle and the fixed object region intersect to a non-intersecting state in which the short side of the circumscribing rectangle and the fixed object region do not intersect, or detecting an end of the fixed object region that changes from the non-intersecting state to the intersecting state;
The information processing program according to claim 1 .
前記画像上で前記外接矩形を前記外接矩形の長辺方向に移動させることにより、複数の前記固定物領域の端を検出した場合に、検出された複数の前記固定物領域の端それぞれの位置に基づく前記複数の基準線を用いて、前記速度情報を推定する、
請求項1または2に記載の情報処理プログラム。 The estimation procedure comprises:
when edges of a plurality of the fixed object regions are detected by moving the circumscribing rectangle in a direction of a longer side of the circumscribing rectangle on the image, the speed information is estimated using the plurality of reference lines based on the positions of the respective detected edges of the plurality of the fixed object regions;
3. The information processing program according to claim 1 or 2.
前記外接矩形の短辺と平行な前記複数の基準線を用いて、前記速度情報を推定する、
請求項1~3のいずれか1つに記載の情報処理プログラム。 The estimation procedure comprises:
estimating the velocity information using the plurality of reference lines parallel to the short sides of the circumscribing rectangle;
4. The information processing program according to claim 1.
動画像である前記画像に撮像された前記車両をトラッキングすることにより推定された前記車両の軌跡に基づいて、前記道路領域を推定する、
請求項1~4のいずれか1つに記載の情報処理プログラム。 The estimation procedure comprises:
estimating the road area based on a trajectory of the vehicle estimated by tracking the vehicle captured in the image, which is a moving image;
5. An information processing program according to claim 1.
前記車両の軌跡を含む凸包を前記道路領域として推定する、
請求項5に記載の情報処理プログラム。 The estimation procedure comprises:
A convex hull including the trajectory of the vehicle is estimated as the road area.
The information processing program according to claim 5.
前記外接矩形の面積が最小となる最小外接矩形と、前記固定物領域とに基づいて、前記固定物領域の端を検出する、
請求項1~6のいずれか1つに記載の情報処理プログラム。 The estimation procedure comprises:
detecting an edge of the fixed object region based on a minimum circumscribing rectangle that has a minimum area of the circumscribing rectangle and the fixed object region;
7. An information processing program according to claim 1.
前記検出手順は、
前記固定物領域として、前記白線が撮像された領域である白線領域を検出し、
前記推定手順は、
前記白線領域の長さと前記白線同士の間隔の長さとの比率に基づいて、前記道路の種類を推定し、推定された前記道路の種類に応じて、前記複数の基準線の間の実距離を推定する、
請求項1~7のいずれか1つに記載の情報処理プログラム。 the fixed object is a white line fixed on the road,
The detection step comprises:
A white line area is detected as the fixed object area, and the white line area is an area where the white line is captured.
The estimation procedure comprises:
a type of the road is estimated based on a ratio between a length of the white line area and a length of a space between the white lines, and an actual distance between the plurality of reference lines is estimated in accordance with the estimated type of the road.
An information processing program according to any one of claims 1 to 7.
前記撮像装置によって撮像された動画像を構成する一のフレーム画像中の前記車両の位置を示す第1代表点と、前記一のフレーム画像と時間的に隣り合う次のフレーム画像中の前記車両の位置を示す第2代表点とを連結した線分と、前記基準線とが交差するか否かを判定し、前記線分と前記基準線とが交差すると判定した場合、前記車両が前記基準線を通過したと判定し、前記線分と前記基準線とが交差しないと判定した場合、前記車両が前記基準線を通過していないと判定する手順を含む、
請求項1~8のいずれか1つに記載の情報処理プログラム。 The estimation procedure comprises:
the step of determining whether a line segment connecting a first representative point indicating the position of the vehicle in one frame image constituting a moving image captured by the imaging device and a second representative point indicating the position of the vehicle in a next frame image adjacent in time to the one frame image intersects with the reference line, determining that the vehicle has passed through the reference line when it is determined that the line segment intersects with the reference line, and determining that the vehicle has not passed through the reference line when it is determined that the line segment does not intersect with the reference line.
An information processing program according to any one of claims 1 to 8.
隣り合う2つの前記基準線のうち一方の前記基準線を通過した前記車両が撮像された第1フレームに対応する時刻と、前記2つの前記基準線のうち他方の前記基準線を通過した前記車両が撮像された第2フレームに対応する時刻との時間差に相当する時間を、前記車両が前記2つの前記基準線の間を通過するのに要した移動時間であると推定する、
請求項1~9のいずれか1つに記載の情報処理プログラム。 The estimation procedure comprises:
a time corresponding to the difference between a time corresponding to a first frame in which the vehicle has passed one of the two adjacent reference lines and an image of the vehicle has passed the other of the two reference lines and a time corresponding to a second frame in which the vehicle has passed the other of the two reference lines is estimated to be the travel time required for the vehicle to pass between the two reference lines;
10. An information processing program according to claim 1.
前記検出部によって検出された前記固定物領域と、前記画像のうち、前記道路上を走行する車両の走行頻度が所定の閾値を超える領域を含む道路領域を囲む外接矩形と、前記固定物領域とに基づいて、前記固定物領域の端を検出し、検出された前記固定物領域の端の位置に基づく前記画像上の複数の基準線を用いて、前記車両の走行速度に関する速度情報を推定する推定部と、
を備える情報処理装置。 a detection unit that detects a fixed object area, which is an area in which a fixed object fixed on the road is captured, from an image acquired from an imaging device that captures an image of the road;
an estimation unit that detects edges of the fixed object area based on the fixed object area detected by the detection unit, a circumscribing rectangle that encloses a road area in the image including an area where the frequency of vehicles traveling on the road exceeds a predetermined threshold, and the fixed object area, and estimates speed information related to the traveling speed of the vehicle using a plurality of reference lines on the image based on the positions of the edges of the detected fixed object area;
An information processing device comprising:
前記撮像装置は、
道路の画像を撮像し、
前記情報処理装置は、
前記撮像装置から取得した前記画像のうち、前記道路上に固定された固定物が撮像された領域である固定物領域を検出し、前記検出された前記固定物領域と、前記画像のうち、前記道路上を走行する車両の走行頻度が所定の閾値を超える領域を含む道路領域を囲む外接矩形と、前記固定物領域とに基づいて、前記固定物領域の端を検出し、検出された前記固定物領域の端の位置に基づく前記画像上の複数の基準線を用いて、前記車両の走行速度に関する速度情報を推定する、
情報処理システム。 An information processing system including an imaging device and an information processing device,
The imaging device includes:
Taking an image of the road,
The information processing device includes:
a fixed object area is detected from the image acquired from the imaging device, which is an area in which a fixed object fixed on the road is imaged; an edge of the fixed object area is detected based on the detected fixed object area, a circumscribing rectangle that encloses a road area in the image including an area in which a traveling frequency of vehicles on the road exceeds a predetermined threshold, and the fixed object area; and speed information relating to the traveling speed of the vehicle is estimated using a plurality of reference lines on the image based on the positions of the edges of the detected fixed object area.
Information processing system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022003029A JP7465901B2 (en) | 2022-01-12 | 2022-01-12 | Information processing program, information processing device, and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022003029A JP7465901B2 (en) | 2022-01-12 | 2022-01-12 | Information processing program, information processing device, and information processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023102505A JP2023102505A (en) | 2023-07-25 |
JP7465901B2 true JP7465901B2 (en) | 2024-04-11 |
Family
ID=87377436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022003029A Active JP7465901B2 (en) | 2022-01-12 | 2022-01-12 | Information processing program, information processing device, and information processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7465901B2 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015207212A (en) | 2014-04-22 | 2015-11-19 | サクサ株式会社 | Vehicle detection device and system, and program |
-
2022
- 2022-01-12 JP JP2022003029A patent/JP7465901B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015207212A (en) | 2014-04-22 | 2015-11-19 | サクサ株式会社 | Vehicle detection device and system, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2023102505A (en) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11093801B2 (en) | Object detection device and object detection method | |
JP7349792B2 (en) | How to provide information for vehicle operation | |
US10713507B2 (en) | Object detecting apparatus, object detecting method, and computer program product | |
JP6897335B2 (en) | Learning program, learning method and object detector | |
US20190205668A1 (en) | Object detecting apparatus, object detecting method, and computer program product | |
JP7081438B2 (en) | Object speed estimation method and equipment and image processing equipment | |
JP4962581B2 (en) | Lane marking detector | |
Zhang et al. | Real-time traffic analysis using deep learning techniques and UAV based video | |
US11694388B2 (en) | System and method for generating large simulation data sets for testing an autonomous driver | |
JP4973008B2 (en) | Vehicle discrimination device and program thereof | |
Lu et al. | SUPER: A novel lane detection system | |
CN108280450A (en) | A kind of express highway pavement detection method based on lane line | |
KR20210122181A (en) | Apparatus and method for controlling traffic signal based on reinforcement learning | |
JP2006350699A (en) | Image processor and image processing method | |
Haris et al. | Lane line detection and departure estimation in a complex environment by using an asymmetric kernel convolution algorithm | |
JP7465901B2 (en) | Information processing program, information processing device, and information processing system | |
US11120292B2 (en) | Distance estimation device, distance estimation method, and distance estimation computer program | |
KR20200133920A (en) | Apparatus for recognizing projected information based on ann and method tnereof | |
CN113516853A (en) | Multi-lane traffic flow detection method for complex monitoring scene | |
JP5125214B2 (en) | Obstacle detection method and obstacle detection device | |
Michalke et al. | A self-adaptive approach for curbstone/roadside detection based on human-like signal processing and multi-sensor fusion | |
US20220245831A1 (en) | Speed estimation systems and methods without camera calibration | |
CN115440063A (en) | Traffic signal lamp control method and device, computer equipment and storage medium | |
TWI502166B (en) | Image monitoring system, and method | |
DE102011111856B4 (en) | Method and device for detecting at least one lane in a vehicle environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220318 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7465901 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |