JP7465901B2 - Information processing program, information processing device, and information processing system - Google Patents

Information processing program, information processing device, and information processing system Download PDF

Info

Publication number
JP7465901B2
JP7465901B2 JP2022003029A JP2022003029A JP7465901B2 JP 7465901 B2 JP7465901 B2 JP 7465901B2 JP 2022003029 A JP2022003029 A JP 2022003029A JP 2022003029 A JP2022003029 A JP 2022003029A JP 7465901 B2 JP7465901 B2 JP 7465901B2
Authority
JP
Japan
Prior art keywords
area
road
image
information processing
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022003029A
Other languages
Japanese (ja)
Other versions
JP2023102505A (en
Inventor
振宇 賀
達大 内藤
正紀 錦見
亮太 鳥島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2022003029A priority Critical patent/JP7465901B2/en
Publication of JP2023102505A publication Critical patent/JP2023102505A/en
Application granted granted Critical
Publication of JP7465901B2 publication Critical patent/JP7465901B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理プログラム、情報処理装置及び情報処理システムに関する。 The present invention relates to an information processing program, an information processing device, and an information processing system.

従来、道路上を走行する車両の走行速度に関する速度情報を推定する技術が知られている。例えば、車両の進行方向に沿って一定距離に複数設置された撮像装置によって撮像された画像に基づいて、車両の走行速度を推定する技術が知られている。 Conventionally, there is known a technique for estimating speed information related to the traveling speed of a vehicle traveling on a road. For example, there is known a technique for estimating the traveling speed of a vehicle based on images captured by multiple imaging devices installed at a fixed distance along the traveling direction of the vehicle.

特開平8-55293号公報Japanese Patent Application Laid-Open No. 8-55293

しかしながら、上記の従来技術は、車両の速度を求めるために、一定距離間隔に設置された複数の撮像装置を要する。 However, the above conventional technology requires multiple imaging devices installed at regular intervals to determine the vehicle speed.

本願は、上記に鑑みてなされたものであって、撮像装置が一台であっても、道路上を走行する車両の走行速度に関する速度情報を精度よく推定することができる情報処理プログラム、情報処理装置及び情報処理システムを提供することを目的とする。 The present application has been made in consideration of the above, and aims to provide an information processing program, an information processing device, and an information processing system that can accurately estimate speed information related to the traveling speed of a vehicle traveling on a road, even with only one imaging device.

本願に係る情報処理プログラムは、道路の画像を撮像する撮像装置から取得した前記画像のうち、前記道路上に固定された固定物が撮像された領域である固定物領域を検出する検出手順と、前記検出手順によって検出された前記固定物領域の位置に基づく前記画像上の複数の基準線を用いて、前記道路上を走行する車両の走行速度に関する速度情報を推定する推定手順と、をコンピュータに実行させる。 The information processing program of the present application causes a computer to execute a detection step of detecting a fixed object area, which is an area in an image acquired from an imaging device that captures an image of a road, in which a fixed object fixed on the road is captured, and an estimation step of estimating speed information related to the traveling speed of a vehicle traveling on the road, using a plurality of reference lines on the image based on the position of the fixed object area detected by the detection step.

前記推定手順は、所定の車両が撮像された車両画像と、前記車両画像に撮像された前記所定の車両の位置およびクラスを示す情報との組合せを含む学習データに基づいて、学習された学習済みの機械学習モデルを用いて、前記画像中の車両を検出する手順を含む。 The estimation step includes a step of detecting a vehicle in the image using a trained machine learning model based on training data including a combination of a vehicle image in which a specific vehicle is captured and information indicating the position and class of the specific vehicle captured in the vehicle image.

実施形態の一態様によれば、撮像装置が一台であっても、道路上を走行する車両の走行速度に関する速度情報を精度よく推定することができるといった効果を奏する。 According to one aspect of the embodiment, even with a single imaging device, it is possible to accurately estimate speed information related to the traveling speed of a vehicle traveling on a road.

図1は、実施形態に係る情報処理システムの構成例を示す図である。FIG. 1 is a diagram illustrating an example of the configuration of an information processing system according to an embodiment. 図2は、実施形態に係る情報処理の概要について説明するための図である。FIG. 2 is a diagram for explaining an overview of information processing according to the embodiment. 図3は、実施形態に係る道路領域の推定処理の一例を示す図である。FIG. 3 is a diagram illustrating an example of a road area estimation process according to the embodiment. 図4は、実施形態に係る固定物領域の端の検出処理の一例を示す図である。FIG. 4 is a diagram illustrating an example of a process for detecting the edge of a fixed object region according to the embodiment. 図5は、実施形態に係る道路の種類の推定処理の一例を示す図である。FIG. 5 is a diagram illustrating an example of a road type estimation process according to the embodiment. 図6は、実施形態に係る機械学習モデルを用いた画像中の車両の検出処理の一例を示す図である。FIG. 6 is a diagram illustrating an example of a process for detecting a vehicle in an image using a machine learning model according to an embodiment. 図7は、実施形態に係る車両の移動距離の測定処理の一例を示す図である。FIG. 7 is a diagram illustrating an example of a measurement process of a travel distance of a vehicle according to the embodiment. 図8は、実施形態に係る車両の基準線通過の判定処理の一例を示す図である。FIG. 8 is a diagram illustrating an example of a process for determining whether a vehicle has passed through a reference line according to the embodiment. 図9は、実施形態に係る車両の移動時間の測定処理の一例を示す図である。FIG. 9 is a diagram illustrating an example of a measurement process of a travel time of a vehicle according to the embodiment. 図10は、実施形態に係る検出手順を示すフローチャートである。FIG. 10 is a flowchart showing a detection procedure according to the embodiment. 図11は、実施形態に係る推定手順を示すフローチャートである。FIG. 11 is a flowchart showing an estimation procedure according to the embodiment. 図12は、第1の変形例に係る情報処理の概要について説明するための図である。FIG. 12 is a diagram for explaining an overview of information processing according to the first modified example. 図13は、第2の変形例に係る情報処理の概要について説明するための図である。FIG. 13 is a diagram for explaining an overview of information processing according to the second modified example. 図14は、第3の変形例に係る情報処理の概要について説明するための図である。FIG. 14 is a diagram for explaining an overview of information processing according to the third modified example. 図15は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 15 is a hardware configuration diagram illustrating an example of a computer that realizes the functions of the information processing device.

以下に、本願に係る情報処理プログラム、情報処理装置及び情報処理システムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理プログラム、情報処理装置及び情報処理システムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Below, the information processing program, information processing device, and information processing system according to the present application will be described in detail with reference to the drawings. Note that the information processing program, information processing device, and information processing system according to the present application are not limited to these embodiments. In addition, the same parts in the following embodiments will be denoted by the same reference numerals, and duplicated descriptions will be omitted.

(実施形態)
〔1.情報処理システムの構成例〕
図1は、実施形態に係る情報処理システムの構成例を示す図である。図1に示すように、情報処理システム1は、撮像装置10と情報処理装置100とを含む。撮像装置10と情報処理装置100とは、それぞれネットワークNを介して有線又は無線で互いに通信可能に接続される。
(Embodiment)
[1. Example of information processing system configuration]
Fig. 1 is a diagram showing an example of the configuration of an information processing system according to an embodiment. As shown in Fig. 1, the information processing system 1 includes an imaging device 10 and an information processing device 100. The imaging device 10 and the information processing device 100 are connected to each other via a network N in a wired or wireless manner so as to be able to communicate with each other.

撮像装置10は、道路の画像を撮像する。具体的には、撮像装置10は、高速道路や一般道路等の車道の動画像を撮像する。例えば、撮像装置10は、固定カメラであり、特定の位置から所定時間連続した動画像を撮像する。撮像装置10は、道路を撮像可能なカメラであれば、道路に設置された固定カメラ、防犯カメラ、車載カメラ、またはドローンに搭載されたカメラなど、いかなる種類のカメラであってもよい。また、撮像装置10の台数は、少なくとも1台以上あればよい。 The imaging device 10 captures images of roads. Specifically, the imaging device 10 captures video images of roadways such as expressways and general roads. For example, the imaging device 10 is a fixed camera that captures continuous video images for a predetermined period of time from a specific position. The imaging device 10 may be any type of camera capable of capturing images of roads, such as a fixed camera installed on a road, a security camera, an in-vehicle camera, or a camera mounted on a drone. Furthermore, the number of imaging devices 10 should be at least one.

情報処理装置100は、図2に示す情報処理を実行する情報処理装置である。図2は、実施形態に係る情報処理の概要について説明するための図である。図2に示すように、情報処理装置100は、撮像装置10から道路の動画像を取得する。図2では、動画像を構成する一のフレーム(静止画像、以下、フレーム画像ともいう)G1を示す。フレーム画像G1には、2車線の道路R1上を走行する2台の車両C1およびC2が写っている。また、フレーム画像G1には、車線を区分する白色の破線の一部が道路R1の中央に写っている。ここで、白色の破線とは、白線が撮像された領域である白線領域と、白線同士の間隔とが一定の間隔で並んだ線のことを指す。例えば、白色の破線は、道路が2車線である場合のセンターラインや、道路が2車線以上である場合の車線境界線であってよい。 The information processing device 100 is an information processing device that executes the information processing shown in FIG. 2. FIG. 2 is a diagram for explaining an overview of the information processing according to the embodiment. As shown in FIG. 2, the information processing device 100 acquires a moving image of a road from the imaging device 10. FIG. 2 shows one frame (still image, hereinafter also referred to as a frame image) G1 that constitutes the moving image. The frame image G1 shows two vehicles C1 and C2 traveling on a two-lane road R1. In addition, the frame image G1 shows a part of a white dashed line that divides the lanes in the center of the road R1. Here, the white dashed line refers to a line in which the white line area, which is an area where the white line is imaged, and the interval between the white lines are arranged at a regular interval. For example, the white dashed line may be a center line when the road has two lanes, or a lane boundary line when the road has two or more lanes.

続いて、情報処理装置100は、取得した動画像から複数枚のフレーム画像(例えば、10枚、20枚、50枚、または100枚のフレーム画像等)を取得し、取得した複数枚のフレーム画像を足し合わせて各画素の平均をとることにより、車両や人物といった道路上の移動物体を削除する(ステップS1)。図2では、フレーム画像G1に写っていた2台の車両C1およびC2を削除した後の合成画像G2を示す。合成画像G2では、車両が削除され、道路R1上の2つの車線を区分する白線のみが道路R1上に写っている。また、情報処理装置100は、合成画像G2に対してハフ変換等の画像処理を行うことで、隣り合う2つの白線それぞれが撮像された領域である白線領域O1およびO2を検出する。なお、白線領域O1およびO2の形状は、道路の進行方向と平行な方向に長い線状とみなせる。 Next, the information processing device 100 acquires a plurality of frame images (for example, 10, 20, 50, or 100 frame images) from the acquired video, and removes moving objects on the road, such as vehicles and people, by adding up the acquired plurality of frame images and taking the average of each pixel (step S1). FIG. 2 shows a composite image G2 after removing two vehicles C1 and C2 that were captured in the frame image G1. In the composite image G2, the vehicles have been removed, and only the white lines that separate the two lanes on the road R1 are captured on the road R1. The information processing device 100 also performs image processing such as a Hough transform on the composite image G2 to detect white line areas O1 and O2, which are areas in which two adjacent white lines are captured. The shapes of the white line areas O1 and O2 can be considered to be long lines parallel to the traveling direction of the road.

また、情報処理装置100は、取得した動画像に撮像された各車両をトラッキングすることにより各車両の軌跡を推定し、推定した各車両の軌跡に基づいて、道路領域A1を推定する(ステップS2)。ここで、道路領域とは、画像のうち、車両の走行頻度が所定の閾値を超える領域のことを指す。情報処理装置100は、道路領域A1を推定した場合に、推定した道路領域A1を合成画像G2の画像上に描画した合成画像G3を生成してもよい。図2に示すように、道路領域A1の形状は、道路の進行方向と垂直な方向の長さに対して、道路の進行方向と平行な方向に長く伸びた形となる。また、道路領域A1は、道路の進行方向と垂直な方向の長さが、道路の幅に収まる。 The information processing device 100 also estimates the trajectory of each vehicle by tracking each vehicle captured in the acquired video, and estimates the road area A1 based on the estimated trajectory of each vehicle (step S2). Here, the road area refers to an area in the image where the frequency of vehicles traveling exceeds a predetermined threshold. When the information processing device 100 estimates the road area A1, it may generate a composite image G3 in which the estimated road area A1 is drawn on the image of the composite image G2. As shown in FIG. 2, the shape of the road area A1 is elongated in a direction parallel to the road travel direction relative to its length in a direction perpendicular to the road travel direction. Furthermore, the length of the road area A1 in a direction perpendicular to the road travel direction fits within the width of the road.

続いて、情報処理装置100は、道路領域A1を囲む外接矩形T1を生成する(ステップS3)。例えば、外接矩形T1は、面積が最小となる最小外接矩形である。情報処理装置100は、外接矩形T1を生成した場合に、生成した外接矩形T1を合成画像G2の画像上に描画した合成画像G4を生成してもよい。図2に示すように、道路領域A1の形状が道路の進行方向と平行な方向に長く伸びた形状となるため、外接矩形T1は、長辺方向が道路の進行方向と平行な長方形となる。 Next, the information processing device 100 generates a circumscribing rectangle T1 that surrounds the road area A1 (step S3). For example, the circumscribing rectangle T1 is a minimum circumscribing rectangle with a smallest area. When the information processing device 100 generates the circumscribing rectangle T1, the information processing device 100 may generate a composite image G4 by drawing the generated circumscribing rectangle T1 on the image of the composite image G2. As shown in FIG. 2, since the shape of the road area A1 is elongated in a direction parallel to the traveling direction of the road, the circumscribing rectangle T1 is a rectangle whose long side is parallel to the traveling direction of the road.

続いて、情報処理装置100は、画像上で外接矩形T1を外接矩形T1の長辺方向に移動させることにより、線状である白線領域O1の2つの端のうちの一方の端を検出する。図2に示すでは、情報処理装置100は、画像上で外接矩形T1をスライドさせることにより、合成画像G4に示す外接矩形T1の一の短辺と白線領域O1とが交差する交差状態から、外接矩形T1の一の短辺と白線領域O1とが交差しない非交差状態へと変化する境界(すなわち、白線O1と白線同士の間隔との境界のうち、一方の境界E12)を検出する。情報処理装置100は、外接矩形T1の一の短辺と白線領域O1とが、交差状態から非交差状態へと変化する境界E12を検出した場合に、検出された境界E12を白線領域O1の端として特定する。 Next, the information processing device 100 detects one of the two ends of the linear white line area O1 by moving the circumscribing rectangle T1 on the image in the direction of the long side of the circumscribing rectangle T1. In FIG. 2, the information processing device 100 detects a boundary (i.e., one of the boundaries E12 between the white line O1 and the space between the white lines) at which a crossing state in which one short side of the circumscribing rectangle T1 and the white line area O1 shown in the composite image G4 crosses each other changes to a non-crossing state in which one short side of the circumscribing rectangle T1 and the white line area O1 do not cross each other, by sliding the circumscribing rectangle T1 on the image. When the information processing device 100 detects a boundary E12 at which a crossing state changes between one short side of the circumscribing rectangle T1 and the white line area O1 to a non-crossing state, the information processing device 100 identifies the detected boundary E12 as the end of the white line area O1.

続いて、情報処理装置100は、画像上で外接矩形T1を外接矩形の長辺方向にさらに移動させることにより、白線領域O1と隣り合う白線領域O2の端を検出する。例えば、情報処理装置100は、外接矩形T1の一の短辺と白線領域O1とが交差しない非交差状態から、外接矩形T1の一の短辺と白線領域O2とが交差する交差状態へと変化する境界E21(すなわち、白線O2と白線同士の間隔との境界E21およびE22のうち、一方の境界E21)を検出する。続いて、情報処理装置100は、画像上で外接矩形T1を外接矩形の長辺方向にさらに移動させることにより、外接矩形T1の一の短辺と白線領域O2とが交差する交差状態から、外接矩形T1の一の短辺と白線領域O2とが交差しない非交差状態へと変化する境界E22(すなわち、白線O2と白線同士の間隔との境界E21およびE22のうち、他方の境界E22)を検出する。このように、情報処理装置100は、線状である白線領域O2の2つの端E21およびE22のうち、先に検出された白線領域O1の端E12と同じ側の端E22を検出する。情報処理装置100は、外接矩形T1の一の短辺と白線領域O2とが、交差状態から非交差状態へと変化する境界E22を検出した場合に、検出された境界E22を白線領域O2の端として特定する。 Next, the information processing device 100 detects the edge of the white line area O2 adjacent to the white line area O1 by further moving the circumscribing rectangle T1 on the image in the direction of the long side of the circumscribing rectangle. For example, the information processing device 100 detects a boundary E21 (i.e., one of the boundaries E21 and E22 between the white line O2 and the space between the white lines) at which a non-intersecting state in which one short side of the circumscribing rectangle T1 and the white line area O1 do not intersect changes to an intersecting state in which one short side of the circumscribing rectangle T1 and the white line area O2 intersect. Next, the information processing device 100 detects a boundary E22 (i.e., the other boundary E22 of the boundaries E21 and E22 between the white line O2 and the space between the white lines) at which a crossing state where one short side of the circumscribing rectangle T1 and the white line area O2 crosses changes to a non-crossing state where one short side of the circumscribing rectangle T1 and the white line area O2 do not cross by further moving the circumscribing rectangle T1 on the image in the direction of the long side of the circumscribing rectangle. In this way, the information processing device 100 detects the edge E22 on the same side as the edge E12 of the previously detected white line area O1, of the two edges E21 and E22 of the linear white line area O2. When the information processing device 100 detects a boundary E22 at which a crossing state where one short side of the circumscribing rectangle T1 and the white line area O2 crosses changes to a non-crossing state, the information processing device 100 specifies the detected boundary E22 as the edge of the white line area O2.

続いて、情報処理装置100は、隣り合う2つの白線領域O1の端(境界E12)および白線領域O2の端(境界E22)を検出した場合に、検出された白線領域O1の端および白線領域O2の端それぞれの位置に基づく2つの基準線L1およびL2を生成する(ステップS4)。例えば、2つの基準線L1およびL2は、外接矩形T1の短辺と平行な直線である。情報処理装置100は、隣り合う2つの白線領域O1およびO2の端を検出した場合に、検出された白線領域O1の端(境界E12)および白線領域O2の端(境界E22)それぞれの位置に、生成された基準線L1およびL2それぞれを描画した合成画像G5を生成してもよい。 Next, when the information processing device 100 detects the edges of two adjacent white line areas O1 (border E12) and O2 (border E22), it generates two reference lines L1 and L2 based on the positions of the detected edges of the white line areas O1 and O2 (step S4). For example, the two reference lines L1 and L2 are straight lines parallel to the short sides of the circumscribed rectangle T1. When the information processing device 100 detects the edges of two adjacent white line areas O1 and O2, it may generate a composite image G5 in which the generated reference lines L1 and L2 are drawn at the positions of the detected edges of the white line areas O1 (border E12) and O2 (border E22).

続いて、情報処理装置100は、2つの基準線L1およびL2を用いて、道路R1上を走行する車両の走行速度に関する速度情報を推定する。一般的に、道路の種類に応じて、白線の長さおよび白線同士の間隔の長さが決まっている。情報処理装置100は、道路の種類に応じた白線の長さおよび白線同士の間隔の長さを示す情報を取得する。情報処理装置100は、白線の長さおよび白線同士の間隔の長さを示す情報に基づいて、2つの基準線L1とL2の間の実距離を特定する。また、情報処理装置100は、動画像から、2つの基準線L1とL2の間を車両が走行するのに要した時間を特定する。情報処理装置100は、特定された2つの基準線L1とL2の間の実距離を、2つの基準線L1とL2の間を車両が走行するのに要した時間で除することにより、2つの基準線L1とL2の間を走行した車両の走行速度を算出する。 Then, the information processing device 100 uses the two reference lines L1 and L2 to estimate speed information related to the traveling speed of the vehicle traveling on the road R1. In general, the length of the white lines and the length of the interval between the white lines are determined according to the type of road. The information processing device 100 acquires information indicating the length of the white lines and the length of the interval between the white lines according to the type of road. The information processing device 100 specifies the actual distance between the two reference lines L1 and L2 based on the information indicating the length of the white lines and the length of the interval between the white lines. The information processing device 100 also specifies the time required for the vehicle to travel between the two reference lines L1 and L2 from the moving image. The information processing device 100 calculates the traveling speed of the vehicle that traveled between the two reference lines L1 and L2 by dividing the specified actual distance between the two reference lines L1 and L2 by the time required for the vehicle to travel between the two reference lines L1 and L2.

なお、上述した図2では、情報処理装置100が、外接矩形T1の一の短辺と白線領域とが、交差状態から非交差状態へと変化する境界を検出した場合に、検出された境界を白線領域の端として特定する場合について説明したが、これに限られない。具体的には、情報処理装置100は、外接矩形T1の一の短辺と白線領域とが、非交差状態から交差状態へと変化する境界を検出した場合に、検出された境界を白線領域の端として特定してもよい。 Note that in the above-mentioned FIG. 2, when the information processing device 100 detects a boundary where one short side of the circumscribing rectangle T1 and the white line area change from an intersecting state to a non-intersecting state, the detected boundary is identified as the edge of the white line area, but this is not limited to the above. Specifically, when the information processing device 100 detects a boundary where one short side of the circumscribing rectangle T1 and the white line area change from a non-intersecting state to an intersecting state, the information processing device 100 may identify the detected boundary as the edge of the white line area.

また、上述した図2では、車両が自動車である場合について説明したが、車両は自動車に限られない。例えば、本実施形態における車両には、自動車の他に、原動機付自転車(バイク)、自転車、荷車そのほか人もしくは動物の力により、または他の車両に牽引(けんいん)され、レールによらないで運転する車が含まれてよい。 In addition, in FIG. 2 above, the vehicle is described as an automobile, but the vehicle is not limited to an automobile. For example, the vehicle in this embodiment may include, in addition to an automobile, a motorized bicycle (motorcycle), a bicycle, a cart, or other vehicle that is towed by human or animal power or by another vehicle and does not operate on rails.

ここから、再び図1を用いて、実施形態に係る情報処理装置100の構成について説明する。図1に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の利用者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)を有してもよい。 The configuration of the information processing device 100 according to the embodiment will now be described with reference to FIG. 1 again. As shown in FIG. 1, the information processing device 100 has a communication unit 110, a storage unit 120, and a control unit 130. Note that the information processing device 100 may also have an input unit (e.g., a keyboard, a mouse, etc.) that accepts various operations from a user of the information processing device 100, etc.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。また、通信部110は、ネットワークNと有線又は無線で接続され、例えば、撮像装置10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a network interface card (NIC), etc. The communication unit 110 is also connected to a network N by wire or wirelessly, and transmits and receives information to and from the imaging device 10, for example.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、各種プログラム(情報処理プログラムの一例に相当)を記憶する。また、記憶部120は、取得部131が撮像装置10から取得した画像を記憶する。また、記憶部120は、画像中の車両を検出するために用いる学習済みの機械学習モデルM1に関する情報を記憶する。
(Memory unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 120 stores various programs (corresponding to an example of an information processing program). The storage unit 120 also stores images acquired by the acquisition unit 131 from the imaging device 10. The storage unit 120 also stores information related to a trained machine learning model M1 used to detect vehicles in images.

(制御部130)
制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等によって、情報処理装置100の内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM等の記憶領域を作業領域として実行されることにより実現される。
(Control unit 130)
The control unit 130 is a controller, and is realized, for example, by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), etc., by executing various programs (corresponding to an example of an information processing program) stored in a storage device inside the information processing device 100 using a storage area such as a RAM as a working area.

図1に示すように、制御部130は、取得部131と、検出部132と、推定部133と、提供部134とを有し、以下に説明する情報処理の作用を実現または実行する。なお、制御部130の内部構成は、図1に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 As shown in FIG. 1, the control unit 130 has an acquisition unit 131, a detection unit 132, an estimation unit 133, and a provision unit 134, and realizes or executes the information processing action described below. Note that the internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 1, and may be other configurations as long as they perform the information processing described below.

(取得部131)
取得部131は、道路の画像を撮像する撮像装置10から画像を取得する。具体的には、取得部131は、通信部110を介して、撮像装置10から画像を取得する。例えば、取得部131は、固定位置に設置された撮像装置10によって所定時間連続で撮像された動画像を取得する。取得部131は、画像を取得すると、取得した画像を記憶部120に格納する。
(Acquisition unit 131)
The acquisition unit 131 acquires images from the imaging device 10 that captures images of a road. Specifically, the acquisition unit 131 acquires images from the imaging device 10 via the communication unit 110. For example, the acquisition unit 131 acquires moving images captured continuously for a predetermined period of time by the imaging device 10 installed at a fixed position. When the acquisition unit 131 acquires images, it stores the acquired images in the storage unit 120.

(検出部132)
検出部132は、取得部131が取得した画像のうち、道路上に固定された白線が撮像された領域である白線領域を検出する。このように、検出部132は、画像のうち、道路上に固定された固定物(例えば、白線)が撮像された領域である固定物領域(例えば、白線領域)を検出する。例えば、検出部132は、取得部131が取得した動画像を取得する。続いて、検出部132は、動画像からn枚(例えば、n=10、20、50、または100等)の異なるフレーム画像を取得する。続いて、検出部132は、取得したn枚のフレーム画像の各画素を(1/n)倍したものを全て足し合わせる。このように、検出部132は、n枚のフレーム画像を足し合わせて各画素の平均をとる画像処理により、道路上を移動する移動物体が削除された合成画像(以下、車両を削除した画像ともいう)を生成する。続いて、検出部132は、生成された合成画像のうち、道路が撮像された領域である道路領域以外の領域を塗りつぶす。続いて、検出部132は、合成画像全体をグレースケール変換する。続いて、検出部132は、グレースケール変換された合成画像に含まれるエッジを抽出する。続いて、検出部132は、エッジを抽出した合成画像をハフ変換して、画像のうち、白線が撮像された領域である白線領域を検出する。
(Detection Unit 132)
The detection unit 132 detects a white line area, which is an area where a white line fixed on a road is captured, from the image acquired by the acquisition unit 131. In this way, the detection unit 132 detects a fixed object area (e.g., a white line area) from the image, which is an area where a fixed object (e.g., a white line) fixed on a road is captured. For example, the detection unit 132 acquires a moving image acquired by the acquisition unit 131. Next, the detection unit 132 acquires n different frame images (e.g., n=10, 20, 50, or 100, etc.) from the moving image. Next, the detection unit 132 adds up all the pixels of the acquired n frame images multiplied by (1/n). In this way, the detection unit 132 generates a composite image from which moving objects moving on the road are deleted (hereinafter, also referred to as an image from which a vehicle is deleted) by image processing that adds up the n frame images and takes the average of each pixel. Next, the detection unit 132 paints in the generated composite image other than the road area, which is an area where the road is captured. Next, the detection unit 132 converts the entire composite image into a grayscale image, extracts edges contained in the grayscale converted composite image, and then performs a Hough transform on the composite image from which the edges have been extracted to detect white line regions in the image, which are regions in which white lines are captured.

(推定部133)
推定部133は、検出部132によって検出された白線領域の位置に基づく画像上の複数の基準線を用いて、道路上を走行する車両の走行速度に関する速度情報を推定する。このように、推定部133は、検出部132によって検出された固定物領域(例えば、白線領域)の位置に基づく画像上の複数の基準線を用いて、道路上を走行する車両の走行速度に関する速度情報を推定する。より具体的には、推定部133は、画像のうち、車両の走行頻度が所定の閾値を超える領域を含む道路領域を囲む外接矩形と、白線領域とに基づいて、白線領域の端を検出し、検出された白線領域の端の位置に基づく複数の基準線を用いて、速度情報を推定する。
(Estimation unit 133)
The estimation unit 133 estimates speed information related to the traveling speed of a vehicle traveling on a road, using a plurality of reference lines on the image based on the positions of the white line areas detected by the detection unit 132. In this way, the estimation unit 133 estimates speed information related to the traveling speed of a vehicle traveling on a road, using a plurality of reference lines on the image based on the positions of fixed object areas (e.g., white line areas) detected by the detection unit 132. More specifically, the estimation unit 133 detects the edges of the white line areas based on the white line areas and circumscribing rectangles that surround road areas including areas in which the vehicle traveling frequency exceeds a predetermined threshold in the image, and estimates the speed information using a plurality of reference lines based on the positions of the detected edges of the white line areas.

図3は、実施形態に係る道路領域の推定処理の一例を示す図である。図3に示す画像G11は、取得部131が取得した動画像を構成する一のフレームを示す。推定部133は、取得部131が取得した動画像を取得する。続いて、推定部133は、動画像に撮像された各車両をトラッキングすることにより、各車両の中心座標を繋いだ線を生成し、生成した線を各車両の軌跡として推定する(ステップS21)。推定部133は、各車両の中心座標を繋いだ線を描画した合成画像G12を生成してもよい。 Figure 3 is a diagram showing an example of a road area estimation process according to the embodiment. Image G11 shown in Figure 3 shows one frame constituting the moving image acquired by the acquisition unit 131. The estimation unit 133 acquires the moving image acquired by the acquisition unit 131. Next, the estimation unit 133 tracks each vehicle captured in the moving image to generate a line connecting the center coordinates of each vehicle, and estimates the generated line as the trajectory of each vehicle (step S21). The estimation unit 133 may generate a composite image G12 in which the line connecting the center coordinates of each vehicle is drawn.

続いて、推定部133は、合成画像G12に基づいて、合成画像G12のうち、所定の閾値を超える濃さの画素のみを抽出する(ステップS22)。推定部133は、所定の閾値を超える濃さの画素のみを抽出した合成画像G13を生成してもよい。 Next, the estimation unit 133 extracts only pixels from the composite image G12 that have a darkness exceeding a predetermined threshold value based on the composite image G12 (step S22). The estimation unit 133 may generate a composite image G13 from which only pixels that have a darkness exceeding a predetermined threshold value are extracted.

続いて、推定部133は、合成画像G13に基づいて、合成画像G13のうち、抽出された画素によって構成される各領域の輪郭を抽出し、各領域の外周の長さで各領域をクラスタリングする(ステップS23)。推定部133は、各領域をクラスタリングしたものを可視化した合成画像G14を生成してもよい。 Next, the estimation unit 133 extracts the contours of each region of the composite image G13 that is formed by the extracted pixels based on the composite image G13, and clusters each region based on the perimeter length of each region (step S23). The estimation unit 133 may generate a composite image G14 that visualizes the clustering of each region.

続いて、推定部133は、クラスタリングされた各領域が凸包になるように各領域を塗りつぶす(ステップS24)。推定部133は、各領域が凸包になるように塗りつぶされた状態を可視化した合成画像G15を生成してもよい。 Next, the estimation unit 133 fills each of the clustered regions so that each region becomes a convex hull (step S24). The estimation unit 133 may generate a composite image G15 that visualizes the state in which each region is filled so that it becomes a convex hull.

続いて、推定部133は、凸包に塗りつぶされた各領域のうち、面積が最大となるクラスタの領域を抽出し、抽出したクラスタの領域を道路領域として推定する。このように、推定部133は、車両の軌跡を含む凸包を道路領域として推定する。図3に示す例では、推定部133は、面積が最大となるクラスタに属する要素が2つあるので、2つの要素のうち最も面積の大きい方を道路領域として推定する(ステップS25)。推定部133は、推定された道路領域を可視化した合成画像G16を生成してもよい。 The estimation unit 133 then extracts the area of the cluster with the largest area from among the areas filled in the convex hull, and estimates the area of the extracted cluster as the road area. In this way, the estimation unit 133 estimates the convex hull including the vehicle trajectory as the road area. In the example shown in FIG. 3, since there are two elements that belong to the cluster with the largest area, the estimation unit 133 estimates the one of the two elements with the largest area as the road area (step S25). The estimation unit 133 may generate a composite image G16 that visualizes the estimated road area.

続いて、推定部133は、検出部132によって生成された車両を削除した画像に推定された道路領域を重畳する(ステップS25)。推定部133は、車両を削除した画像に推定された道路領域を重畳した合成画像G31を生成してもよい。 The estimation unit 133 then superimposes the estimated road area on the image from which the vehicle has been removed, generated by the detection unit 132 (step S25). The estimation unit 133 may generate a composite image G31 in which the estimated road area has been superimposed on the image from which the vehicle has been removed.

図4は、実施形態に固定物領域の端の検出処理の一例を示す図である。図4に示す画像G31は、図3で生成された合成画像G31を示す。推定部133は、合成画像G31に基づいて、合成画像G31のうち、推定された道路領域を囲む外接矩形を生成する(ステップS31)。推定部133は、外接矩形を生成した場合に、車両を削除した画像に生成した外接矩形を重畳した合成画像G41を生成してもよい。 Figure 4 is a diagram showing an example of a process for detecting the edge of a fixed object area in an embodiment. Image G31 shown in Figure 4 shows the composite image G31 generated in Figure 3. Based on the composite image G31, the estimation unit 133 generates a circumscribing rectangle that surrounds the estimated road area in the composite image G31 (step S31). When the estimation unit 133 generates a circumscribing rectangle, it may generate a composite image G41 by superimposing the generated circumscribing rectangle on an image from which the vehicle has been removed.

続いて、推定部133は、車両を削除した画像上で外接矩形を外接矩形の長辺方向に移動させることにより、外接矩形の短辺と白線領域とが交差する交差状態から外接矩形の短辺と白線領域とが交差しない非交差状態へと変化する白線領域の端、または、非交差状態から交差状態へと変化する白線領域の端を検出する。推定部133は、画像上で外接矩形を外接矩形の長辺方向に移動させることにより、複数の白線領域の端を検出した場合に、検出された複数の白線領域の端それぞれの位置に基づく複数の基準線を生成する(ステップS41)。例えば、推定部133は、検出された複数の白線領域の端それぞれの位置に外接矩形の短辺と平行な複数の基準線を生成する。推定部133は、車両を削除した画像に生成した複数の基準線を重畳した合成画像G51を生成してもよい。 Next, the estimation unit 133 detects the edge of the white line area where the short side of the circumscribing rectangle and the white line area change from an intersection state where the short side of the circumscribing rectangle and the white line area intersect to a non-intersection state where the short side of the circumscribing rectangle and the white line area do not intersect, or the edge of the white line area where the non-intersection state changes to an intersection state, by moving the circumscribing rectangle on the image in the direction of the long side of the circumscribing rectangle. When the estimation unit 133 detects the edges of multiple white line areas by moving the circumscribing rectangle on the image in the direction of the long side of the circumscribing rectangle, it generates multiple reference lines based on the positions of each of the detected edges of the multiple white line areas (step S41). For example, the estimation unit 133 generates multiple reference lines parallel to the short side of the circumscribing rectangle at the positions of each of the detected edges of the multiple white line areas. The estimation unit 133 may generate a composite image G51 in which the generated reference lines are superimposed on the image in which the vehicle has been removed.

続いて、推定部133は、白線に対して基準線の角度が直角になるように調整した複数の基準線を生成してもよい(ステップS42)。例えば、推定部133は、白線領域の端を検出した場合に、白線の長手方向に沿った直線の角度を算出する。続いて、推定部133は、算出した角度に対して、基準線の角度が直角となるように配置された複数の基準線を生成する。推定部133は、車両を削除した画像に角度が直角になるように調整した複数の基準線を重畳した合成画像G52を生成してもよい。これにより、情報処理装置100は、道路の進行方向に対して垂直な複数の基準線に基づいて速度情報を推定することができるので、速度情報をより精度よく推定することができる。 The estimation unit 133 may then generate multiple reference lines adjusted so that the angles of the reference lines are perpendicular to the white lines (step S42). For example, when the estimation unit 133 detects the edge of a white line area, it calculates the angle of a straight line along the longitudinal direction of the white line. The estimation unit 133 may then generate multiple reference lines arranged so that the angles of the reference lines are perpendicular to the calculated angle. The estimation unit 133 may generate a composite image G52 in which multiple reference lines adjusted so that the angles are perpendicular to an image from which the vehicle has been removed are superimposed. This allows the information processing device 100 to estimate speed information based on multiple reference lines perpendicular to the traveling direction of the road, thereby allowing for more accurate estimation of speed information.

また、道路の規格により、国内の一般道路における白線の長さは5mであり、白線同士の間隔の長さは5mであると決まっている。つまり、国内の一般道路は、白線領域の長さと白線同士の間隔の長さとの比率が1:1であり、白線領域の長さと白線同士の間隔の長さの合計の長さが10mである。また、道路の規格により、国内の高速道路における白線の長さは8mであり、白線同士の間隔の長さは12mであると決まっている。つまり、国内の高速道路は、白線領域の長さと白線同士の間隔の長さとの比率が1:1.5であり、白線領域の長さと白線同士の間隔の長さの合計の長さが20mである。すなわち、高速道路における白線領域の長さと白線同士の間隔の長さの合計の長さは、一般道路における白線領域の長さと白線同士の間隔の長さの合計の長さの2倍である。 Road standards also stipulate that the length of white lines on general roads in Japan is 5m, and the distance between the lines is 5m. In other words, on general roads in Japan, the ratio of the length of the white line area to the distance between the lines is 1:1, and the total length of the white line area and the distance between the lines is 10m. Road standards also stipulate that the length of white lines on domestic expressways is 8m, and the distance between the lines is 12m. In other words, on domestic expressways, the ratio of the length of the white line area to the distance between the lines is 1:1.5, and the total length of the white line area and the distance between the lines is 20m. In other words, the total length of the white line area and the distance between the lines on expressways is twice the total length of the white line area and the distance between the lines on general roads.

図5は、実施形態に道路の種類の推定処理の一例を示す図である。推定部133は、白線領域の長さと白線同士の間隔の長さとの比率に基づいて、道路の種類を推定する。図5に示す画像G61は、取得部131が取得した動画像を構成する一のフレームを示す。推定部133は、画像G61のうち、道路が撮像された領域である道路領域以外の領域を塗りつぶす。続いて、推定部133は、合成画像全体をグレースケール変換する。続いて、推定部133は、グレースケール変換された合成画像に含まれるエッジを抽出する。続いて、推定部133は、エッジを抽出した合成画像をハフ変換して、合成画像のうち、白線が撮像された領域である白線領域を検出する。続いて、推定部133は、ハフ変換された合成画像に含まれる4つの白線領域の端それぞれを示す4つの点に座標を与えて射影変換する。図5に示す画像G62は、画像G61に示す4つの点を射影変換した後の合成画像である。図5に示す射影変換後の画像G62における白線領域の長さは73ピクセルであり、白線同士の間隔の長さは106ピクセルである。このとき、推定部133は、射影変換後の画像G62における白線領域の長さと白線同士の間隔の長さとの比率を1:1.45であると算出する。推定部133は、算出した比率が1:1.45であり、一般道路における白線領域の長さと白線同士の間隔の長さとの比率(1:1)よりも、高速道路における白線領域の長さと白線同士の間隔の長さとの比率(1:1.5)に近いので、画像G62に撮像された道路が高速道路であると推定する。 FIG. 5 is a diagram showing an example of a road type estimation process in an embodiment. The estimation unit 133 estimates the type of road based on the ratio between the length of the white line area and the length of the interval between the white lines. The image G61 shown in FIG. 5 shows one frame constituting the moving image acquired by the acquisition unit 131. The estimation unit 133 fills in the area of the image G61 other than the road area, which is the area where the road is captured. Next, the estimation unit 133 converts the entire composite image to grayscale. Next, the estimation unit 133 extracts edges included in the grayscale converted composite image. Next, the estimation unit 133 performs a Hough transform on the composite image from which the edges have been extracted, and detects white line areas, which are areas where the white lines are captured, in the composite image. Next, the estimation unit 133 performs a projective transform by giving coordinates to four points indicating the edges of the four white line areas included in the Hough transformed composite image. The image G62 shown in FIG. 5 is a composite image after the four points shown in the image G61 have been projectively transformed. The length of the white line area in image G62 after projective transformation shown in FIG. 5 is 73 pixels, and the length of the space between the white lines is 106 pixels. At this time, the estimation unit 133 calculates that the ratio between the length of the white line area in image G62 after projective transformation and the length of the space between the white lines is 1:1.45. The estimation unit 133 estimates that the road captured in image G62 is an expressway because the calculated ratio of 1:1.45 is closer to the ratio between the length of the white line area and the length of the space between the white lines on an expressway (1:1.5) than the ratio between the length of the white line area and the length of the space between the white lines on an ordinary road (1:1).

続いて、推定部133は、推定された道路の種類に応じて、速度情報を推定する。例えば、推定部133は、推定された道路の種類が一般道路である場合には、2つの基準線の間の実距離を10mと特定する。また、推定部133は、推定された道路の種類が高速道路である場合には、2つの基準線の間の実距離を20mと特定する。また、推定部133は、動画像から、2つの基準線の間を車両が走行するのに要した時間を特定する。推定部133は、特定された2つの基準線の間の実距離を、2つの基準線の間を車両が走行するのに要した時間で除することにより、2つの基準線の間を走行した車両の走行速度を算出する。 Then, the estimation unit 133 estimates speed information according to the estimated road type. For example, if the estimated road type is a general road, the estimation unit 133 specifies the actual distance between the two reference lines as 10 m. If the estimated road type is an expressway, the estimation unit 133 specifies the actual distance between the two reference lines as 20 m. The estimation unit 133 also specifies the time required for the vehicle to travel between the two reference lines from the video. The estimation unit 133 calculates the travel speed of the vehicle that traveled between the two reference lines by dividing the specified actual distance between the two reference lines by the time required for the vehicle to travel between the two reference lines.

図6は、実施形態に係る機械学習モデルを用いた画像中の車両の検出処理の一例を示す図である。推定部133は、車両が撮像された画像等を学習データとして学習した学習済の機械学習モデルM1を用いて、画像中の車両を検出する。具体的には、推定部133は、車両が撮像された画像と、画像に撮像された車両の位置およびクラス(車両)を示す情報との組合せを含む学習データに基づいて、学習された機械学習モデルM1を取得する。より具体的には、推定部133は、車両が撮像された画像を入力情報として機械学習モデルに入力した場合に、画像に撮像された車両の位置およびクラス(車両)を示す情報が付加された画像を出力情報として出力するよう学習された機械学習モデルM1を取得する。例えば、推定部133は、記憶部120を参照して、記憶部120に記憶された学習済みの機械学習モデルM1を取得する。続いて、推定部133は、学習済みの機械学習モデルM1を取得すると、取得部131が取得した画像を学習済みの機械学習モデルに入力し、学習済みの機械学習モデルM1から出力された車両の位置およびクラス(車両)を示す情報が付加された画像を推定結果として取得する。図6では、推定部133は、検出された各車両の位置情報として、各車両に外接する矩形の座標情報が付加された画像を推定結果として取得する。例えば、推定部133は、検出された各車両の位置情報として、車両に外接する矩形の中心点の位置を示す座標情報が付加された画像を推定結果として取得してよい。 FIG. 6 is a diagram showing an example of a detection process of a vehicle in an image using a machine learning model according to an embodiment. The estimation unit 133 detects a vehicle in an image using a trained machine learning model M1 that has been trained using images of a vehicle as training data. Specifically, the estimation unit 133 acquires a trained machine learning model M1 based on training data including a combination of an image of a vehicle and information indicating the position and class (vehicle) of the vehicle captured in the image. More specifically, the estimation unit 133 acquires a machine learning model M1 that has been trained to output, as output information, an image to which information indicating the position and class (vehicle) of the vehicle captured in the image is added when an image of a vehicle is input as input information to the machine learning model. For example, the estimation unit 133 refers to the storage unit 120 and acquires the trained machine learning model M1 stored in the storage unit 120. Next, when the estimation unit 133 acquires the trained machine learning model M1, the estimation unit 133 inputs the image acquired by the acquisition unit 131 into the trained machine learning model, and acquires, as an estimation result, an image to which information indicating the position and class (vehicle) of the vehicle output from the trained machine learning model M1 is added. In FIG. 6, the estimation unit 133 acquires, as the estimation result, an image to which coordinate information of a rectangle circumscribing each vehicle is added as the position information of each detected vehicle. For example, the estimation unit 133 may acquire, as the estimation result, an image to which coordinate information indicating the position of the center point of a rectangle circumscribing each vehicle is added as the position information of each detected vehicle.

なお、推定部133が取得する学習済みの機械学習モデルM1は、例えば、畳み込みニューラルネットワークまたは回帰型ニューラルネットワークなどのニューラルネットワークによる機械学習によって生成されるが、かかる例に限定されない。例えば、推定部133が取得する学習済みの機械学習モデルM1は、ニューラルネットワークに代えて、線形回帰またはロジスティック回帰といった学習アルゴリズムによる機械学習を用いて生成されてもよい。 The trained machine learning model M1 acquired by the estimation unit 133 is generated by machine learning using a neural network such as a convolutional neural network or a regression neural network, but is not limited to such examples. For example, the trained machine learning model M1 acquired by the estimation unit 133 may be generated using machine learning using a learning algorithm such as linear regression or logistic regression instead of a neural network.

図7は、実施形態に係る車両の移動距離の測定処理の一例を示す図である。図7では、推定部133は、画像に撮像された道路が高速道路であると推定する。続いて、推定部133は、道路の種類が高速道路であると推定したので、画像中の基準線1および基準線2の間の実距離を20mと特定する。続いて、推定部133は、画像中の基準線1および基準線2の間の実距離を20mと特定したので、画像中の基準線1および基準線2の間を通過する車両を検出した場合、検出された車両の移動距離を20mと特定する。 Figure 7 is a diagram showing an example of a measurement process for a vehicle's travel distance according to an embodiment. In Figure 7, the estimation unit 133 estimates that the road captured in the image is an expressway. Then, since the estimation unit 133 has estimated that the type of road is an expressway, it determines the actual distance between reference line 1 and reference line 2 in the image to be 20 m. Then, since the estimation unit 133 has determined that the actual distance between reference line 1 and reference line 2 in the image to be 20 m, when the estimation unit 133 detects a vehicle passing between reference line 1 and reference line 2 in the image, it determines the travel distance of the detected vehicle to be 20 m.

図8は、実施形態に係る車両の基準線通過の判定処理の一例を示す図である。推定部133は、取得部131が取得した各フレーム画像に、各フレーム画像中の車両の代表点の位置を示す座標情報(以下、位置情報ともいう)を記録する。例えば、推定部133は、各フレーム画像中の各車両を検出し、検出された各車両に外接する矩形の中心点の位置座標を代表点の位置座標として各フレーム画像と対応付けて記録してよい。また、推定部133は、現在のフレーム画像を取得し、取得された現在のフレーム画像中の所定の車両の代表点と、現在のフレーム画像と時間的に隣り合う次のフレーム画像中の所定の車両の代表点とを連結した線分が基準線と交差するか否かを判定する。推定部133は、現在のフレーム画像中の所定の車両の代表点と、次のフレーム画像中の所定の車両の代表点とを連結した線分が基準線と交差すると判定した場合、所定の車両が基準線を通過したと判定する。一方、推定部133は、現在のフレーム画像中の所定の車両の代表点と、次のフレーム画像中の所定の車両の代表点とを連結した線分が基準線と交差しないと判定した場合、所定の車両が基準線を通過していないと判定する。 FIG. 8 is a diagram showing an example of a process for determining whether a vehicle has passed through a reference line according to an embodiment. The estimation unit 133 records, in each frame image acquired by the acquisition unit 131, coordinate information (hereinafter also referred to as position information) indicating the position of a representative point of the vehicle in each frame image. For example, the estimation unit 133 may detect each vehicle in each frame image, and record the position coordinates of the center point of a rectangle circumscribing each detected vehicle as the position coordinates of the representative point in association with each frame image. In addition, the estimation unit 133 acquires a current frame image, and determines whether a line segment connecting a representative point of a specific vehicle in the acquired current frame image and a representative point of a specific vehicle in a next frame image that is adjacent to the current frame image in time intersects with the reference line. If the estimation unit 133 determines that a line segment connecting a representative point of a specific vehicle in the current frame image and a representative point of a specific vehicle in the next frame image intersects with the reference line, it determines that the specific vehicle has passed through the reference line. On the other hand, if the estimation unit 133 determines that the line segment connecting the representative point of the specified vehicle in the current frame image and the representative point of the specified vehicle in the next frame image does not intersect with the reference line, it determines that the specified vehicle has not passed through the reference line.

図9は、実施形態に係る車両の移動時間の測定処理の一例を示す図である。推定部133は、撮像装置10によって撮像された動画像のフレームレート(frame rate)に基づいて、画像中の車両の移動時間を推定する。図9では、動画像のフレームレートが30(fps)である場合について説明する。推定部133は、車両が道路上の一つ目の基準線1を通過した瞬間のフレーム(以下、第1フレームともいう)に対応する時刻を記録する。例えば、推定部133は、車両が基準線1を通過した瞬間のフレームに対応する時刻として、30枚中、5枚目のフレームに対応する時刻を記録する。続いて、推定部133は、車両が道路上の二つ目の基準線2を通過した瞬間のフレーム(以下、第2フレームともいう)に対応する時刻を記録する。例えば、推定部133は、車両が基準線2を通過した瞬間のフレームに対応する時刻として、30枚中、17枚目のフレームに対応する時刻を記録する。続いて、推定部133は、車両が基準線2を通過した瞬間の第2フレームに対応する時刻と、車両が基準線1を通過した瞬間の第1フレームに対応する時刻との時間差を算出し、算出した時間差に対応する時間を、車両が基準線1と基準線2の間を通過するのに要した移動時間であると推定する。例えば、推定部133は、動画像のフレームレートが30(fps)である場合、17枚目のフレームに対応する時刻と、5枚目のフレームに対応する時刻との時間差を「(17-5)/30=0.4秒」と算出する。続いて、推定部133は、算出した時間差である「0.4秒」を車両が基準線1と基準線2の間を通過するのに要した移動時間であると推定する。このように、推定部133は、隣り合う2つの基準線のうち一方の基準線を通過した車両が撮像された第1フレームに対応する時刻と、2つの基準線のうち他方の基準線を通過した車両が撮像された第2フレームに対応する時刻との時間差に相当する時間を、車両が2つの基準線の間を通過するのに要した移動時間であると推定する。 9 is a diagram showing an example of a measurement process of a travel time of a vehicle according to an embodiment. The estimation unit 133 estimates the travel time of a vehicle in an image based on the frame rate of a moving image captured by the imaging device 10. In FIG. 9, a case where the frame rate of a moving image is 30 (fps) will be described. The estimation unit 133 records a time corresponding to a frame (hereinafter also referred to as a first frame) at the moment when the vehicle passes the first reference line 1 on the road. For example, the estimation unit 133 records a time corresponding to the fifth frame out of 30 frames as the time corresponding to the frame at the moment when the vehicle passes the reference line 1. Next, the estimation unit 133 records a time corresponding to a frame (hereinafter also referred to as a second frame) at the moment when the vehicle passes the second reference line 2 on the road. For example, the estimation unit 133 records a time corresponding to the 17th frame out of 30 frames as the time corresponding to the frame at the moment when the vehicle passes the reference line 2. Next, the estimation unit 133 calculates the time difference between the time corresponding to the second frame at the moment when the vehicle passes the reference line 2 and the time corresponding to the first frame at the moment when the vehicle passes the reference line 1, and estimates that the time corresponding to the calculated time difference is the travel time required for the vehicle to pass between the reference line 1 and the reference line 2. For example, when the frame rate of the moving image is 30 (fps), the estimation unit 133 calculates the time difference between the time corresponding to the 17th frame and the time corresponding to the 5th frame as "(17-5)/30=0.4 seconds". Next, the estimation unit 133 estimates that the calculated time difference of "0.4 seconds" is the travel time required for the vehicle to pass between the reference line 1 and the reference line 2. In this way, the estimation unit 133 estimates that the travel time required for the vehicle to pass between the two reference lines is the time equivalent to the time difference between the time corresponding to the first frame in which the vehicle is imaged passing one of the two adjacent reference lines and the time corresponding to the second frame in which the vehicle is imaged passing the other of the two reference lines.

なお、図9では、推定部133が、動画像のフレームレートに基づいて、画像中の車両の移動時間を推定する場合について説明したが、推定部133は、画像中の車両の移動時間を推定する方法はこれに限られない。例えば、推定部133は、車両が基準線1および基準線2を通過したそれぞれの時刻を取得し、取得したそれぞれの時刻の差分を車両が基準線1と基準線2の間を通過するのに要した移動時間であると推定してもよい。 Note that, although FIG. 9 describes a case where the estimation unit 133 estimates the travel time of the vehicle in the image based on the frame rate of the moving image, the method by which the estimation unit 133 estimates the travel time of the vehicle in the image is not limited to this. For example, the estimation unit 133 may acquire the respective times at which the vehicle passes through reference line 1 and reference line 2, and estimate that the difference between the respective acquired times is the travel time required for the vehicle to pass between reference line 1 and reference line 2.

続いて、推定部133は、推定された速度情報に基づいて、道路の交通情報を推定する。例えば、推定部133は、推定された速度情報に基づいて、交通情報として、全国の各道路における渋滞情報、各道路における通行止めまたは事故の発生状況等の情報を推定する。 Then, the estimation unit 133 estimates traffic information for the road based on the estimated speed information. For example, the estimation unit 133 estimates traffic information such as congestion information for each road nationwide, road closures or accident occurrence status for each road, etc., based on the estimated speed information.

(提供部134)
提供部134は、推定部133によって推定された道路の交通情報を提供する。具体的には、提供部134は、推定部133によって推定された道路の交通情報を利用者の端末装置に送信する。
(Providing Unit 134)
The providing unit 134 provides the traffic information of the road estimated by the estimating unit 133. Specifically, the providing unit 134 transmits the traffic information of the road estimated by the estimating unit 133 to the terminal device of the user.

〔2.情報処理手順〕
図10は、実施形態に係る検出手順を示すフローチャートである。図10に示すように、情報処理装置100の取得部131は、道路の画像を撮像する撮像装置10から画像を取得する(ステップS101)。また、情報処理装置100の検出部132は、取得部131が取得した画像から車両や人物といった移動物体を削除する(ステップS102)。続いて、検出部132は、移動物体を削除した画像のうち、道路上に固定された固定物が撮像された領域である固定物領域を検出する(ステップS103)。
2. Information Processing Procedures
Fig. 10 is a flowchart showing a detection procedure according to the embodiment. As shown in Fig. 10, the acquisition unit 131 of the information processing device 100 acquires an image from the imaging device 10 that captures an image of a road (step S101). The detection unit 132 of the information processing device 100 deletes moving objects such as vehicles and people from the image acquired by the acquisition unit 131 (step S102). Next, the detection unit 132 detects a fixed object area, which is an area where a fixed object fixed on the road is captured, from the image from which the moving objects have been deleted (step S103).

図11は、実施形態に係る推定手順を示すフローチャートである。図11に示すように、情報処理装置100の取得部131は、道路の画像を撮像する撮像装置10から画像を取得する(ステップS201)。また、情報処理装置100の推定部133は、車両の軌跡に基づいて、道路領域を推定する(ステップS202)。続いて、推定部133は、道路領域の外接矩形を生成する(ステップS203)。続いて、推定部133は、画像上で外接矩形の長辺方向に外接矩形の短辺を移動させることにより、固定物領域の端を検出する(ステップS204)。続いて、推定部133は、固定物領域の端を2以上検出したか否かを判定する(ステップS205)。推定部133は、固定物領域の端を2以上検出したと判定した場合(ステップS205;Yes)、検出された2つの固定物領域の端それぞれの位置に基づく2本の基準線を用いて、道路上を走行する車両の走行速度に関する速度情報を推定する(ステップS206)。一方、推定部133は、固定物領域の端を2以上検出していないと判定した場合(ステップS205;No)、ステップS204の処理を繰り返す。 11 is a flowchart showing an estimation procedure according to the embodiment. As shown in FIG. 11, the acquisition unit 131 of the information processing device 100 acquires an image from the imaging device 10 that captures an image of a road (step S201). The estimation unit 133 of the information processing device 100 estimates a road area based on the trajectory of the vehicle (step S202). Next, the estimation unit 133 generates a circumscribing rectangle of the road area (step S203). Next, the estimation unit 133 detects the edge of the fixed object area by moving the short side of the circumscribing rectangle in the long side direction of the circumscribing rectangle on the image (step S204). Next, the estimation unit 133 determines whether or not two or more edges of the fixed object area have been detected (step S205). When the estimation unit 133 determines that two or more edges of the fixed object area have been detected (step S205; Yes), the estimation unit 133 estimates speed information related to the traveling speed of the vehicle traveling on the road using two reference lines based on the positions of the edges of the two detected fixed object areas (step S206). On the other hand, if the estimation unit 133 determines that two or more edges of the fixed object region have not been detected (step S205; No), it repeats the process of step S204.

〔3.変形例〕
上述した実施形態に係る情報処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100の他の実施形態について説明する。なお、実施形態と同一部分には、同一符号を付して説明を省略する。
3. Modifications
The information processing device 100 according to the above-described embodiment may be implemented in various different forms other than the above-described embodiment. Therefore, other embodiments of the information processing device 100 will be described below. Note that the same parts as those in the embodiment will be denoted by the same reference numerals and descriptions thereof will be omitted.

〔3-1.第1の変形例〕
図12は、第1の変形例に係る情報処理の概要について説明するための図である。上述した実施形態では、情報処理装置100が、1つの道路R1上に固定された白線領域の位置に基づく2つの基準線L1およびL2を用いて速度情報を推定する場合について説明した。図12では、情報処理装置100が、隣り合う2つの道路R2およびR3上にそれぞれ固定された白線領域の位置に基づく2本の基準線を用いて速度情報を推定する場合について説明する。
3-1. First Modified Example
Fig. 12 is a diagram for explaining an overview of information processing according to the first modified example. In the above-mentioned embodiment, a case has been described in which the information processing device 100 estimates speed information using two reference lines L1 and L2 based on the positions of white line areas fixed on one road R1. Fig. 12 explains a case in which the information processing device 100 estimates speed information using two reference lines based on the positions of white line areas fixed on two adjacent roads R2 and R3.

図12は、動画像に写っていた車両を削除した後の合成画像G7を示す。図12では、車両が削除された後の隣り合う2つの道路R2およびR3が合成画像G7に写っている。また、合成画像G7には、左側の道路R2上の2つの車線を区分する白線が撮像された白線領域O11およびO12が道路R3上に写っている。また、合成画像G7には、右側の道路R3上の2つの車線を区分する白線が撮像された白線領域O21およびO22が道路R3上に写っている。 Figure 12 shows a composite image G7 after the vehicle that was captured in the video has been removed. In Figure 12, the two adjacent roads R2 and R3 are captured in the composite image G7 after the vehicle has been removed. The composite image G7 also shows white line areas O11 and O12 on road R3, in which the white lines that separate the two lanes on road R2 on the left side are captured. The composite image G7 also shows white line areas O21 and O22 on road R3, in which the white lines that separate the two lanes on road R3 on the right side are captured.

具体的には、検出部132は、合成画像G7に対してハフ変換等の画像処理を行うことで、左側の道路R2上の白線領域O11およびO12、ならびに、右側の道路R3上の白線領域O21およびO22を検出する。なお、図12では、白線領域O11およびO12の各形状は、道路R2の進行方向と平行な方向に長い線状とみなせる。また、白線領域O21およびO22の各形状は、道路R3の進行方向と平行な方向に長い線状とみなせる。 Specifically, the detection unit 132 performs image processing such as a Hough transform on the composite image G7 to detect white line areas O11 and O12 on the left road R2, and white line areas O21 and O22 on the right road R3. Note that in FIG. 12, the shapes of the white line areas O11 and O12 can be regarded as long lines extending in a direction parallel to the traveling direction of road R2. Also, the shapes of the white line areas O21 and O22 can be regarded as long lines extending in a direction parallel to the traveling direction of road R3.

また、図示は省略するが、推定部133は、取得した動画像に撮像された各車両をトラッキングすることにより各車両の軌跡を推定し、推定した各車両の軌跡に基づいて、各道路の道路領域をそれぞれ推定する。続いて、推定部133は、各道路領域を囲む外接矩形をそれぞれ生成する。続いて、推定部133は、各道路上で各外接矩形を各外接矩形の長辺方向に移動させることにより、道路R2上で隣り合う2つの白線領域O11およびO12の端、ならびに、道路R3上で隣り合う2つの白線領域O21およびO22の端をそれぞれ特定する。続いて、推定部133は、道路R2上の白線領域O11の端と道路R3上の白線領域O21の端を繋ぐ基準線L3、および、道路R2上の白線領域O12の端と道路R3上の白線領域O22の端を繋ぐ基準線L4を用いて、速度情報を推定する。 Although not shown, the estimation unit 133 estimates the trajectory of each vehicle by tracking each vehicle captured in the acquired video image, and estimates the road area of each road based on the estimated trajectory of each vehicle. Next, the estimation unit 133 generates a circumscribing rectangle that surrounds each road area. Next, the estimation unit 133 moves each circumscribing rectangle in the long side direction of each circumscribing rectangle on each road to identify the ends of two adjacent white line areas O11 and O12 on road R2 and the ends of two adjacent white line areas O21 and O22 on road R3. Next, the estimation unit 133 estimates the speed information using a reference line L3 that connects the end of the white line area O11 on road R2 and the end of the white line area O21 on road R3, and a reference line L4 that connects the end of the white line area O12 on road R2 and the end of the white line area O22 on road R3.

これにより、情報処理装置100は、1つの道路上の白線領域に基づく複数の基準線を用いた場合と比べて、遠近法の影響で生じる画像中の距離の誤差を小さくすることができるため、速度情報をより精度よく推定することができる。 As a result, the information processing device 100 can reduce distance errors in an image caused by the effects of perspective compared to when multiple reference lines based on white line areas on a single road are used, allowing the information processing device 100 to estimate speed information more accurately.

〔3-2.第2の変形例〕
図13は、第2の変形例に係る情報処理の概要について説明するための図である。上述した実施形態では、情報処理装置100が、道路上に固定された白線が撮像された白線領域を検出し、検出された白線領域の位置に基づく画像上の複数の基準線を用いて速度情報を推定する場合について説明したが、これに限られない。具体的には、情報処理装置100は、白線以外にも、画像中の道路の進行方向の距離の基準となる基準点を含む固定物が撮像された固定物領域であれば、どのような固定物領域の位置に基づく画像上の複数の基準線を用いて速度情報を推定してもよい。例えば、固定物は、車線を区分する白線の他に、横断歩道の白線または停止線の白線であってよい。
3-2. Second Modification
13 is a diagram for explaining an overview of information processing according to the second modified example. In the above-mentioned embodiment, the information processing device 100 detects a white line area in which a white line fixed on a road is captured, and estimates speed information using a plurality of reference lines on an image based on the position of the detected white line area, but this is not limited to the above. Specifically, the information processing device 100 may estimate speed information using a plurality of reference lines on an image based on the position of any fixed object area, as long as the fixed object area is a fixed object area in which a fixed object including a reference point that is a reference for the distance in the traveling direction of the road in the image is captured, other than a white line. For example, the fixed object may be a white line of a pedestrian crossing or a white line of a stop line, in addition to a white line that divides a lane.

図13では、情報処理装置100が、白線領域の代わりに、横断歩道が撮像された歩道領域の位置に基づく画像上の複数の基準線を用いて速度情報を推定する点が上述した実施形態と異なる。図13は、動画像に写っていた車両を削除した後の合成画像G81を示す。図13では、車両が削除された後の道路上に固定された横断歩道が合成画像G81に写っている。なお、図13では、情報処理装置100が、直線状の道路上に固定された横断歩道の幅(つまり、車両の進行方向の長さ)を示すデータを外部のデータベース等から取得できた場合に、以下の処理を行う。 In FIG. 13, the information processing device 100 differs from the above-described embodiment in that, instead of the white line area, the information processing device 100 estimates speed information using multiple reference lines on the image based on the position of the sidewalk area in which the crosswalk is captured. FIG. 13 shows a composite image G81 after a vehicle that was captured in a moving image has been deleted. In FIG. 13, a crosswalk fixed on the road after the vehicle has been deleted is captured in the composite image G81. Note that in FIG. 13, the information processing device 100 performs the following processing if it is able to acquire data indicating the width of a crosswalk fixed on a straight road (i.e., the length in the direction of travel of the vehicle) from an external database or the like.

具体的には、検出部132は、合成画像G81に対してハフ変換等の画像処理を行うことで、道路上に固定された横断歩道の7つの白線それぞれが撮像された7つの白線領域O31~O37を検出する。なお、図13では、白線領域O31~O37の各形状は、道路の進行方向と平行な方向に長い線状とみなせる。 Specifically, the detection unit 132 performs image processing such as a Hough transform on the composite image G81 to detect seven white line areas O31 to O37 in which the seven white lines of the pedestrian crossing fixed on the road are captured. Note that in FIG. 13, the shape of each of the white line areas O31 to O37 can be regarded as a long line extending in a direction parallel to the traveling direction of the road.

また、図示は省略するが、推定部133は、取得した動画像に撮像された各車両をトラッキングすることにより各車両の軌跡を推定し、推定した各車両の軌跡に基づいて、道路の道路領域を推定する。続いて、推定部133は、道路領域を囲む外接矩形を生成する。続いて、推定部133は、道路上で外接矩形を外接矩形の長辺方向に移動させることにより、各白線領域O31~O37の一方の端、および、各白線領域O31~O37の他方の端をそれぞれ特定する。続いて、推定部133は、各白線領域O31~O37の一方の端を繋ぐ基準線L6、および、各白線領域O31~O37の他方の端を繋ぐ基準線L7を用いて、速度情報を推定する。 Although not shown, the estimation unit 133 estimates the trajectory of each vehicle by tracking each vehicle captured in the acquired video image, and estimates the road area of the road based on the estimated trajectory of each vehicle. Next, the estimation unit 133 generates a circumscribing rectangle that surrounds the road area. Next, the estimation unit 133 moves the circumscribing rectangle on the road in the direction of the long side of the circumscribing rectangle to identify one end of each of the white line areas O31 to O37 and the other end of each of the white line areas O31 to O37. Next, the estimation unit 133 estimates speed information using a reference line L6 that connects one end of each of the white line areas O31 to O37 and a reference line L7 that connects the other end of each of the white line areas O31 to O37.

〔3-3.第3の変形例〕
図14は、第3の変形例に係る情報処理の概要について説明するための図である。図14では、情報処理装置100が、歩道領域の両端の位置に基づく画像上の複数の基準線を用いて速度情報を推定する代わりに、横断歩道から所定の範囲内に位置する停止線の一端および歩道領域の一端の位置に基づく画像上の複数の基準線を用いて速度情報を推定する点が図13と異なる。図14は、動画像に写っていた車両を削除した後の合成画像G82を示す。図14では、図13と同様に、車両が削除された後の道路上に固定された横断歩道および横断歩道から所定の範囲内に位置する停止線(図13参照)が合成画像G82に写っている。なお、図14では、情報処理装置100が、直線状の道路上に固定された横断歩道の端を結ぶ線と停止線との距離を示すデータを外部のデータベース等から取得できた場合に、以下の処理を行う。
3-3. Third Modification
FIG. 14 is a diagram for explaining an overview of information processing according to the third modified example. In FIG. 14, the information processing device 100 estimates speed information using a plurality of reference lines on an image based on the positions of both ends of a sidewalk area, instead of estimating speed information using a plurality of reference lines on an image based on the positions of one end of a stop line located within a predetermined range from a crosswalk and one end of a sidewalk area, which is different from FIG. 13. FIG. 14 shows a composite image G82 after a vehicle that was captured in a moving image has been deleted. In FIG. 14, as in FIG. 13, a crosswalk fixed on a road after the vehicle has been deleted and a stop line (see FIG. 13) located within a predetermined range from the crosswalk are captured in the composite image G82. In FIG. 14, the information processing device 100 performs the following processing when it is able to acquire data indicating the distance between a line connecting the ends of a crosswalk fixed on a straight road and the stop line from an external database or the like.

具体的には、検出部132は、合成画像G82に対してハフ変換等の画像処理を行うことで、道路上に固定された横断歩道の7つの白線それぞれが撮像された7つの白線領域O31~O37、および、横断歩道から所定の範囲内に位置する停止線が撮像された白線領域O4(図13参照)を検出する。なお、図14では、白線領域O31~O37の各形状は、道路の進行方向と平行な方向に長い線状とみなせる。また、白線領域O4の形状は、道路の進行方向と垂直な方向に長い線状とみなせる。 Specifically, the detection unit 132 performs image processing such as a Hough transform on the composite image G82 to detect seven white line areas O31-O37 in which the seven white lines of a pedestrian crossing fixed on the road are captured, and a white line area O4 (see FIG. 13) in which a stop line located within a predetermined range from the pedestrian crossing is captured. Note that in FIG. 14, the shape of each of the white line areas O31-O37 can be regarded as a long line extending in a direction parallel to the traveling direction of the road. The shape of the white line area O4 can be regarded as a long line extending in a direction perpendicular to the traveling direction of the road.

また、図示は省略するが、推定部133は、取得した動画像に撮像された各車両をトラッキングすることにより各車両の軌跡を推定し、推定した各車両の軌跡に基づいて、道路の道路領域を推定する。続いて、推定部133は、道路領域を囲む外接矩形を生成する。続いて、推定部133は、道路上で外接矩形を外接矩形の長辺方向に移動させることにより、各白線領域O31~O37の両端のうち停止線に近い方の端、および、白線領域O4の端をそれぞれ特定する。続いて、推定部133は、各白線領域O31~O37の停止線に近い方の端を繋ぐ基準線L7、および、白線領域O4の端と平行な基準線L8を用いて、速度情報を推定する。 Although not shown, the estimation unit 133 estimates the trajectory of each vehicle by tracking each vehicle captured in the acquired video, and estimates the road area of the road based on the estimated trajectory of each vehicle. Next, the estimation unit 133 generates a circumscribing rectangle that surrounds the road area. Next, the estimation unit 133 moves the circumscribing rectangle on the road in the direction of the longer side of the circumscribing rectangle to identify the end of each of the white line areas O31 to O37 that is closer to the stop line, and the end of the white line area O4. Next, the estimation unit 133 estimates the speed information using a reference line L7 that connects the ends of each of the white line areas O31 to O37 that are closer to the stop line, and a reference line L8 that is parallel to the end of the white line area O4.

〔4.効果〕
上述したように、実施形態に係る情報処理装置100は、検出部132と推定部133を備える。検出部132は、道路の画像を撮像する撮像装置10から取得した画像のうち、道路上に固定された固定物が撮像された領域である固定物領域を検出する。推定部133は、検出部132によって検出された固定物領域の位置に基づく画像上の複数の基準線を用いて、道路上を走行する車両の走行速度に関する速度情報を推定する。
4. Effects
As described above, the information processing device 100 according to the embodiment includes the detection unit 132 and the estimation unit 133. The detection unit 132 detects a fixed object area, which is an area in which a fixed object fixed on a road is captured, from an image acquired from the imaging device 10 that captures an image of a road. The estimation unit 133 estimates speed information related to the traveling speed of a vehicle traveling on a road, using a plurality of reference lines on the image based on the positions of the fixed object area detected by the detection unit 132.

これにより、情報処理装置100は、撮像装置が一台であっても、道路上を走行する車両の走行速度に関する速度情報を精度よく推定することができる。 As a result, the information processing device 100 can accurately estimate speed information regarding the traveling speed of a vehicle traveling on a road, even with only one imaging device.

また、推定部133は、画像のうち、車両の走行頻度が所定の閾値を超える領域を含む道路領域を囲む外接矩形と、固定物領域とに基づいて、固定物領域の端を検出し、検出された固定物領域の端の位置に基づく複数の基準線を用いて、速度情報を推定する。 The estimation unit 133 also detects the edges of the fixed object area based on a circumscribing rectangle that encloses a road area in the image, including an area where the vehicle traveling frequency exceeds a predetermined threshold, and the fixed object area, and estimates speed information using multiple reference lines based on the positions of the edges of the detected fixed object area.

これにより、情報処理装置100は、例えば、道路の両端等の直線を含むことなく、道路の中央付近に固定された白線に基づいて、速度情報を精度よく推定することができる。 This allows the information processing device 100 to accurately estimate speed information based on, for example, a white line fixed near the center of the road, without including straight lines at both ends of the road.

また、推定部133は、画像上で外接矩形を外接矩形の長辺方向に移動させることにより、外接矩形の短辺と固定物領域とが交差する交差状態から外接矩形の短辺と固定物領域とが交差しない非交差状態へと変化する固定物領域の端、または、非交差状態から交差状態へと変化する固定物領域の端を検出する。 In addition, the estimation unit 133 detects the edge of the fixed object area where the short side of the circumscribing rectangle and the fixed object area change from an intersecting state where the short side of the circumscribing rectangle and the fixed object area intersect to a non-intersecting state where the short side of the circumscribing rectangle and the fixed object area do not intersect, or the edge of the fixed object area where the non-intersecting state changes to an intersecting state, by moving the circumscribing rectangle on the image in the direction of the long side of the circumscribing rectangle.

これにより、情報処理装置100は、道路の進行方向に沿って、固定物領域の端を適切に検出することができる。 This allows the information processing device 100 to properly detect the edge of the fixed object area along the road travel direction.

また、推定部133は、画像上で外接矩形を外接矩形の長辺方向に移動させることにより、複数の固定物領域の端を検出した場合に、検出された複数の固定物領域の端それぞれの位置に基づく複数の基準線を用いて、速度情報を推定する。 In addition, when the estimation unit 133 detects the edges of multiple fixed object regions by moving the circumscribing rectangle on the image in the direction of the longer side of the circumscribing rectangle, it estimates the speed information using multiple reference lines based on the positions of each of the detected edges of the multiple fixed object regions.

これにより、情報処理装置100は、複数の基準線を用いて、速度情報を精度よく推定することができる。 This allows the information processing device 100 to accurately estimate speed information using multiple reference lines.

また、推定部133は、外接矩形の短辺と平行な複数の基準線を用いて、速度情報を推定する。 In addition, the estimation unit 133 estimates the speed information using multiple reference lines parallel to the short sides of the circumscribing rectangle.

これにより、情報処理装置100は、速度情報をより精度よく推定することができる。 This allows the information processing device 100 to estimate speed information more accurately.

また、推定部133は、動画像である画像に撮像された車両をトラッキングすることにより推定された車両の軌跡に基づいて、道路領域を推定する。 The estimation unit 133 also estimates the road area based on the vehicle trajectory estimated by tracking the vehicle captured in the moving image.

これにより、情報処理装置100は、道路のうち、車両の走行頻度が所定の閾値を超える領域を適切に推定することができる。 This allows the information processing device 100 to appropriately estimate areas of the road where the frequency of vehicle travel exceeds a predetermined threshold.

また、推定部133は、車両の軌跡を含む凸包を道路領域として推定する。 The estimation unit 133 also estimates the convex hull that includes the vehicle trajectory as the road area.

これにより、情報処理装置100は、道路のうち、車両の走行頻度が所定の閾値を超える領域を適切に推定することができる。 This allows the information processing device 100 to appropriately estimate areas of the road where the frequency of vehicle travel exceeds a predetermined threshold.

また、推定部133は、外接矩形の面積が最小となる最小外接矩形と、固定物領域とに基づいて、固定物領域の端を検出する。 In addition, the estimation unit 133 detects the edge of the fixed object region based on the minimum circumscribing rectangle that has the smallest area and the fixed object region.

これにより、情報処理装置100は、固定物領域の端を精度よく推定することができる。 This allows the information processing device 100 to accurately estimate the edges of fixed object regions.

また、固定物は、道路上に固定された白線である。検出部132は、固定物領域として、白線が撮像された領域である白線領域を検出する。推定部133は、白線領域の長さと白線同士の間隔の長さとの比率に基づいて、道路の種類を推定し、推定された道路の種類に応じて、複数の基準線の間の実距離を推定する。 The fixed object is a white line fixed on the road. The detection unit 132 detects a white line area, which is an area where a white line is imaged, as a fixed object area. The estimation unit 133 estimates the type of road based on the ratio between the length of the white line area and the length of the space between the white lines, and estimates the actual distance between multiple reference lines according to the estimated road type.

これにより、情報処理装置100は、道路の種類に応じて、画像中の複数の基準線の間の実距離を精度よく推定することができるので、速度情報をより精度よく推定することができる。 This allows the information processing device 100 to accurately estimate the actual distance between multiple reference lines in the image depending on the type of road, thereby making it possible to more accurately estimate speed information.

また、推定部133は、所定の車両が撮像された車両画像と、車両画像に撮像された所定の車両の位置およびクラスを示す情報との組合せを含む学習データに基づいて、学習された学習済みの機械学習モデルを用いて、画像中の車両を検出する。 The estimation unit 133 also detects vehicles in the image using a trained machine learning model based on learning data including a combination of a vehicle image in which a specific vehicle is captured and information indicating the position and class of the specific vehicle captured in the vehicle image.

これにより、情報処理装置100は、画像中の車両を精度よく検出することができるため、速度情報をより精度よく推定することができる。 This allows the information processing device 100 to accurately detect vehicles in the image, thereby enabling more accurate estimation of speed information.

また、推定部133は、一のフレーム画像中の車両の位置を示す第1代表点と、一のフレーム画像と時間的に隣り合う次のフレーム画像中の車両の位置を示す第2代表点とを連結した線分と、基準線とが交差するか否かを判定し、線分と基準線とが交差すると判定した場合、車両が基準線を通過したと判定し、線分と基準線とが交差しないと判定した場合、車両が基準線を通過していないと判定する。 The estimation unit 133 also determines whether a line segment connecting a first representative point indicating the position of the vehicle in one frame image and a second representative point indicating the position of the vehicle in the next frame image that is adjacent in time to the one frame image intersects with a reference line, and if it is determined that the line segment intersects with the reference line, it determines that the vehicle has passed the reference line, and if it is determined that the line segment does not intersect with the reference line, it determines that the vehicle has not passed the reference line.

これにより、情報処理装置100は、車両が基準線を通過したか否かを精度よく判定することができるため、速度情報をより精度よく推定することができる。 This allows the information processing device 100 to accurately determine whether the vehicle has passed the reference line, thereby enabling more accurate estimation of speed information.

また、推定部133は、隣り合う2つの基準線のうち一方の基準線を通過した車両が撮像された第1フレームに対応する時刻と、2つの基準線のうち他方の基準線を通過した車両が撮像された第2フレームに対応する時刻との時間差に相当する時間を、車両が2つの基準線の間を通過するのに要した移動時間であると推定する。 The estimation unit 133 also estimates that the travel time required for the vehicle to pass between the two reference lines is the time corresponding to the time difference between the time corresponding to the first frame in which the vehicle passing one of the two adjacent reference lines is imaged, and the time corresponding to the second frame in which the vehicle passing the other of the two reference lines is imaged.

これにより、情報処理装置100は、車両が複数の基準線の間を通過するのに要した移動時間を精度よく判定することができるため、速度情報をより精度よく推定することができる。 This allows the information processing device 100 to accurately determine the travel time required for the vehicle to pass between multiple reference lines, thereby enabling more accurate estimation of speed information.

また、推定部133は、推定された速度情報に基づいて、道路の交通情報を推定する。 The estimation unit 133 also estimates road traffic information based on the estimated speed information.

これにより、情報処理装置100は、精度の良い速度情報に基づくため、道路の交通情報を精度よく推定することができる。 As a result, the information processing device 100 can estimate road traffic information with high accuracy based on accurate speed information.

〔5.ハードウェア構成〕
また、上述してきた実施形態に係る情報処理装置100は、例えば図15に示すような構成のコンピュータ1000によって実現される。図15は、情報処理装置100の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を備える。
5. Hardware Configuration
Moreover, the information processing device 100 according to the embodiment described above is realized by a computer 1000 having a configuration as shown in Fig. 15, for example. Fig. 15 is a hardware configuration diagram showing an example of a computer that realizes the functions of the information processing device 100. The computer 1000 includes a CPU 1100, a RAM 1200, a ROM 1300, a HDD 1400, a communication interface (I/F) 1500, an input/output interface (I/F) 1600, and a media interface (I/F) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400, and controls each component. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started, and programs that depend on the hardware of the computer 1000, etc.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、所定の通信網を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定の通信網を介して他の機器へ送信する。 HDD 1400 stores programs executed by CPU 1100 and data used by such programs. Communication interface 1500 receives data from other devices via a specified communication network and sends it to CPU 1100, and transmits data generated by CPU 1100 to other devices via the specified communication network.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。 The CPU 1100 controls output devices such as a display and a printer, and input devices such as a keyboard and a mouse, via the input/output interface 1600. The CPU 1100 acquires data from the input devices via the input/output interface 1600. The CPU 1100 also outputs generated data to the output devices via the input/output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 The media interface 1700 reads a program or data stored in the recording medium 1800 and provides it to the CPU 1100 via the RAM 1200. The CPU 1100 loads the program from the recording medium 1800 onto the RAM 1200 via the media interface 1700 and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase change rewritable Disc), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory.

例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the information processing device 100 according to the embodiment, the CPU 1100 of the computer 1000 executes programs loaded onto the RAM 1200 to realize the functions of the control unit 130. The CPU 1100 of the computer 1000 reads and executes these programs from the recording medium 1800, but as another example, the CPU 1100 may obtain these programs from another device via a specified communication network.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although several embodiments of the present application have been described in detail above with reference to the drawings, these are merely examples, and the present invention can be embodied in other forms that incorporate various modifications and improvements based on the knowledge of those skilled in the art, including the forms described in the disclosure section of the invention.

〔6.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[6. Other]
Furthermore, among the processes described in the above embodiments and modifications, all or part of the processes described as being performed automatically can be performed manually, or all or part of the processes described as being performed manually can be performed automatically by a known method. In addition, the information including the processing procedures, specific names, various data and parameters shown in the above documents and drawings can be changed arbitrarily unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 In addition, each component of each device shown in the figure is a functional concept, and does not necessarily have to be physically configured as shown in the figure. In other words, the specific form of distribution and integration of each device is not limited to that shown in the figure, and all or part of them can be functionally or physically distributed and integrated in any unit depending on various loads, usage conditions, etc.

また、上述した情報処理装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットホーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。 The information processing device 100 described above may be realized using multiple server computers, and depending on the functions, the configuration can be flexibly changed, such as by calling an external platform using an API (Application Programming Interface) or network computing.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 The above-described embodiments and variations can be combined as appropriate to the extent that they do not cause inconsistencies in the processing content.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、推定部は、推定手段や推定回路に読み替えることができる。 The above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the estimation unit can be read as estimation means or estimation circuit.

1 情報処理システム
10 撮像装置
100 情報処理装置
110 通信部
120 記憶部
130 制御部
131 取得部
132 検出部
133 推定部
134 提供部
REFERENCE SIGNS LIST 1 Information processing system 10 Imaging device 100 Information processing device 110 Communication unit 120 Storage unit 130 Control unit 131 Acquisition unit 132 Detection unit 133 Estimation unit 134 Provision unit

Claims (12)

道路の画像を撮像する撮像装置から取得した前記画像のうち、前記道路上に固定された固定物が撮像された領域である固定物領域を検出する検出手順と、
前記検出手順によって検出された前記固定物領域と、前記画像のうち、前記道路上を走行する車両の走行頻度が所定の閾値を超える領域を含む道路領域を囲む外接矩形と、前記固定物領域とに基づいて、前記固定物領域の端を検出し、検出された前記固定物領域の端の位置に基づく前記画像上の複数の基準線を用いて、前記車両の走行速度に関する速度情報を推定する推定手順と、
をコンピュータに実行させる情報処理プログラム。
a detection step of detecting a fixed object area, which is an area in which a fixed object fixed on the road is imaged, from an image acquired from an imaging device that captures an image of the road;
an estimation step of detecting edges of the fixed object area based on the fixed object area detected by the detection step, a circumscribing rectangle surrounding a road area in the image including an area where a frequency of vehicles traveling on the road exceeds a predetermined threshold, and the fixed object area, and estimating speed information related to the traveling speed of the vehicle using a plurality of reference lines on the image based on the positions of the edges of the detected fixed object area;
An information processing program that causes a computer to execute the above.
前記推定手順は、
前記画像上で前記外接矩形を前記外接矩形の長辺方向に移動させることにより、前記外接矩形の短辺と前記固定物領域とが交差する交差状態から前記外接矩形の短辺と前記固定物領域とが交差しない非交差状態へと変化する前記固定物領域の端、または、前記非交差状態から前記交差状態へと変化する前記固定物領域の端を検出する、
請求項1に記載の情報処理プログラム。
The estimation procedure comprises:
by moving the circumscribing rectangle in the direction of the long side of the circumscribing rectangle on the image, detecting an end of the fixed object region that changes from an intersecting state in which the short side of the circumscribing rectangle and the fixed object region intersect to a non-intersecting state in which the short side of the circumscribing rectangle and the fixed object region do not intersect, or detecting an end of the fixed object region that changes from the non-intersecting state to the intersecting state;
The information processing program according to claim 1 .
前記推定手順は、
前記画像上で前記外接矩形を前記外接矩形の長辺方向に移動させることにより、複数の前記固定物領域の端を検出した場合に、検出された複数の前記固定物領域の端それぞれの位置に基づく前記複数の基準線を用いて、前記速度情報を推定する、
請求項1または2に記載の情報処理プログラム。
The estimation procedure comprises:
when edges of a plurality of the fixed object regions are detected by moving the circumscribing rectangle in a direction of a longer side of the circumscribing rectangle on the image, the speed information is estimated using the plurality of reference lines based on the positions of the respective detected edges of the plurality of the fixed object regions;
3. The information processing program according to claim 1 or 2.
前記推定手順は、
前記外接矩形の短辺と平行な前記複数の基準線を用いて、前記速度情報を推定する、
請求項1~3のいずれか1つに記載の情報処理プログラム。
The estimation procedure comprises:
estimating the velocity information using the plurality of reference lines parallel to the short sides of the circumscribing rectangle;
4. The information processing program according to claim 1.
前記推定手順は、
動画像である前記画像に撮像された前記車両をトラッキングすることにより推定された前記車両の軌跡に基づいて、前記道路領域を推定する、
請求項1~4のいずれか1つに記載の情報処理プログラム。
The estimation procedure comprises:
estimating the road area based on a trajectory of the vehicle estimated by tracking the vehicle captured in the image, which is a moving image;
5. An information processing program according to claim 1.
前記推定手順は、
前記車両の軌跡を含む凸包を前記道路領域として推定する、
請求項5に記載の情報処理プログラム。
The estimation procedure comprises:
A convex hull including the trajectory of the vehicle is estimated as the road area.
The information processing program according to claim 5.
前記推定手順は、
前記外接矩形の面積が最小となる最小外接矩形と、前記固定物領域とに基づいて、前記固定物領域の端を検出する、
請求項1~6のいずれか1つに記載の情報処理プログラム。
The estimation procedure comprises:
detecting an edge of the fixed object region based on a minimum circumscribing rectangle that has a minimum area of the circumscribing rectangle and the fixed object region;
7. An information processing program according to claim 1.
前記固定物は、前記道路上に固定された白線であり、
前記検出手順は、
前記固定物領域として、前記白線が撮像された領域である白線領域を検出し、
前記推定手順は、
前記白線領域の長さと前記白線同士の間隔の長さとの比率に基づいて、前記道路の種類を推定し、推定された前記道路の種類に応じて、前記複数の基準線の間の実距離を推定する、
請求項1~7のいずれか1つに記載の情報処理プログラム。
the fixed object is a white line fixed on the road,
The detection step comprises:
A white line area is detected as the fixed object area, and the white line area is an area where the white line is captured.
The estimation procedure comprises:
a type of the road is estimated based on a ratio between a length of the white line area and a length of a space between the white lines, and an actual distance between the plurality of reference lines is estimated in accordance with the estimated type of the road.
An information processing program according to any one of claims 1 to 7.
前記推定手順は、
前記撮像装置によって撮像された動画像を構成する一のフレーム画像中の前記車両の位置を示す第1代表点と、前記一のフレーム画像と時間的に隣り合う次のフレーム画像中の前記車両の位置を示す第2代表点とを連結した線分と、前記基準線とが交差するか否かを判定し、前記線分と前記基準線とが交差すると判定した場合、前記車両が前記基準線を通過したと判定し、前記線分と前記基準線とが交差しないと判定した場合、前記車両が前記基準線を通過していないと判定する手順を含む、
請求項1~8のいずれか1つに記載の情報処理プログラム。
The estimation procedure comprises:
the step of determining whether a line segment connecting a first representative point indicating the position of the vehicle in one frame image constituting a moving image captured by the imaging device and a second representative point indicating the position of the vehicle in a next frame image adjacent in time to the one frame image intersects with the reference line, determining that the vehicle has passed through the reference line when it is determined that the line segment intersects with the reference line, and determining that the vehicle has not passed through the reference line when it is determined that the line segment does not intersect with the reference line.
An information processing program according to any one of claims 1 to 8.
前記推定手順は、
隣り合う2つの前記基準線のうち一方の前記基準線を通過した前記車両が撮像された第1フレームに対応する時刻と、前記2つの前記基準線のうち他方の前記基準線を通過した前記車両が撮像された第2フレームに対応する時刻との時間差に相当する時間を、前記車両が前記2つの前記基準線の間を通過するのに要した移動時間であると推定する、
請求項1~9のいずれか1つに記載の情報処理プログラム。
The estimation procedure comprises:
a time corresponding to the difference between a time corresponding to a first frame in which the vehicle has passed one of the two adjacent reference lines and an image of the vehicle has passed the other of the two reference lines and a time corresponding to a second frame in which the vehicle has passed the other of the two reference lines is estimated to be the travel time required for the vehicle to pass between the two reference lines;
10. An information processing program according to claim 1.
道路の画像を撮像する撮像装置から取得した前記画像のうち、前記道路上に固定された固定物が撮像された領域である固定物領域を検出する検出部と、
前記検出部によって検出された前記固定物領域と、前記画像のうち、前記道路上を走行する車両の走行頻度が所定の閾値を超える領域を含む道路領域を囲む外接矩形と、前記固定物領域とに基づいて、前記固定物領域の端を検出し、検出された前記固定物領域の端の位置に基づく前記画像上の複数の基準線を用いて、前記車両の走行速度に関する速度情報を推定する推定部と、
を備える情報処理装置。
a detection unit that detects a fixed object area, which is an area in which a fixed object fixed on the road is captured, from an image acquired from an imaging device that captures an image of the road;
an estimation unit that detects edges of the fixed object area based on the fixed object area detected by the detection unit, a circumscribing rectangle that encloses a road area in the image including an area where the frequency of vehicles traveling on the road exceeds a predetermined threshold, and the fixed object area, and estimates speed information related to the traveling speed of the vehicle using a plurality of reference lines on the image based on the positions of the edges of the detected fixed object area;
An information processing device comprising:
撮像装置と、情報処理装置とを、備える情報処理システムであって、
前記撮像装置は、
道路の画像を撮像し、
前記情報処理装置は、
前記撮像装置から取得した前記画像のうち、前記道路上に固定された固定物が撮像された領域である固定物領域を検出し、前記検出された前記固定物領域と、前記画像のうち、前記道路上を走行する車両の走行頻度が所定の閾値を超える領域を含む道路領域を囲む外接矩形と、前記固定物領域とに基づいて、前記固定物領域の端を検出し、検出された前記固定物領域の端の位置に基づく前記画像上の複数の基準線を用いて、前記車両の走行速度に関する速度情報を推定する、
情報処理システム。
An information processing system including an imaging device and an information processing device,
The imaging device includes:
Taking an image of the road,
The information processing device includes:
a fixed object area is detected from the image acquired from the imaging device, which is an area in which a fixed object fixed on the road is imaged; an edge of the fixed object area is detected based on the detected fixed object area, a circumscribing rectangle that encloses a road area in the image including an area in which a traveling frequency of vehicles on the road exceeds a predetermined threshold, and the fixed object area; and speed information relating to the traveling speed of the vehicle is estimated using a plurality of reference lines on the image based on the positions of the edges of the detected fixed object area.
Information processing system.
JP2022003029A 2022-01-12 2022-01-12 Information processing program, information processing device, and information processing system Active JP7465901B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022003029A JP7465901B2 (en) 2022-01-12 2022-01-12 Information processing program, information processing device, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022003029A JP7465901B2 (en) 2022-01-12 2022-01-12 Information processing program, information processing device, and information processing system

Publications (2)

Publication Number Publication Date
JP2023102505A JP2023102505A (en) 2023-07-25
JP7465901B2 true JP7465901B2 (en) 2024-04-11

Family

ID=87377436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022003029A Active JP7465901B2 (en) 2022-01-12 2022-01-12 Information processing program, information processing device, and information processing system

Country Status (1)

Country Link
JP (1) JP7465901B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015207212A (en) 2014-04-22 2015-11-19 サクサ株式会社 Vehicle detection device and system, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015207212A (en) 2014-04-22 2015-11-19 サクサ株式会社 Vehicle detection device and system, and program

Also Published As

Publication number Publication date
JP2023102505A (en) 2023-07-25

Similar Documents

Publication Publication Date Title
US11093801B2 (en) Object detection device and object detection method
JP7349792B2 (en) How to provide information for vehicle operation
US10713507B2 (en) Object detecting apparatus, object detecting method, and computer program product
JP6897335B2 (en) Learning program, learning method and object detector
US20190205668A1 (en) Object detecting apparatus, object detecting method, and computer program product
JP7081438B2 (en) Object speed estimation method and equipment and image processing equipment
JP4962581B2 (en) Lane marking detector
Zhang et al. Real-time traffic analysis using deep learning techniques and UAV based video
US11694388B2 (en) System and method for generating large simulation data sets for testing an autonomous driver
JP4973008B2 (en) Vehicle discrimination device and program thereof
Lu et al. SUPER: A novel lane detection system
CN108280450A (en) A kind of express highway pavement detection method based on lane line
KR20210122181A (en) Apparatus and method for controlling traffic signal based on reinforcement learning
JP2006350699A (en) Image processor and image processing method
Haris et al. Lane line detection and departure estimation in a complex environment by using an asymmetric kernel convolution algorithm
JP7465901B2 (en) Information processing program, information processing device, and information processing system
US11120292B2 (en) Distance estimation device, distance estimation method, and distance estimation computer program
KR20200133920A (en) Apparatus for recognizing projected information based on ann and method tnereof
CN113516853A (en) Multi-lane traffic flow detection method for complex monitoring scene
JP5125214B2 (en) Obstacle detection method and obstacle detection device
Michalke et al. A self-adaptive approach for curbstone/roadside detection based on human-like signal processing and multi-sensor fusion
US20220245831A1 (en) Speed estimation systems and methods without camera calibration
CN115440063A (en) Traffic signal lamp control method and device, computer equipment and storage medium
TWI502166B (en) Image monitoring system, and method
DE102011111856B4 (en) Method and device for detecting at least one lane in a vehicle environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240401

R150 Certificate of patent or registration of utility model

Ref document number: 7465901

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150