JP6235956B2 - Image composition method, program, and apparatus - Google Patents

Image composition method, program, and apparatus Download PDF

Info

Publication number
JP6235956B2
JP6235956B2 JP2014072006A JP2014072006A JP6235956B2 JP 6235956 B2 JP6235956 B2 JP 6235956B2 JP 2014072006 A JP2014072006 A JP 2014072006A JP 2014072006 A JP2014072006 A JP 2014072006A JP 6235956 B2 JP6235956 B2 JP 6235956B2
Authority
JP
Japan
Prior art keywords
image
size
screen
vehicle
substitute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014072006A
Other languages
Japanese (ja)
Other versions
JP2015194860A (en
Inventor
芳己 山田
芳己 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Advanced Engineering Ltd
Original Assignee
Fujitsu Advanced Engineering Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Advanced Engineering Ltd filed Critical Fujitsu Advanced Engineering Ltd
Priority to JP2014072006A priority Critical patent/JP6235956B2/en
Publication of JP2015194860A publication Critical patent/JP2015194860A/en
Application granted granted Critical
Publication of JP6235956B2 publication Critical patent/JP6235956B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

開示の技術は、画像合成方法、プログラム、及び装置に関する。   The disclosed technology relates to an image composition method, a program, and an apparatus.

近年、道路や駐車場等の交通インフラや交通インフラを利用する車両等にカメラが設置され、人間の目に変わって取得された映像が車両通行の円滑化や安全確保、更にはエンターテインメント等、様々な用途に利用されている。   In recent years, cameras have been installed in traffic infrastructure such as roads and parking lots, and vehicles that use traffic infrastructure, and the images acquired in the eyes of humans can be used for various purposes such as facilitating vehicle traffic, ensuring safety, and entertainment. It is used for various purposes.

例えば、車両に設けられたカメラで撮影した画像と、車両に設けられた水平レーザーを用いて計測した、車両から車両周囲の建物までの距離情報と、を用いて、仮想3次元空間を作成し、道案内等に利用する技術が提案されている。   For example, a virtual three-dimensional space is created using an image captured by a camera provided in the vehicle and distance information from the vehicle to a building around the vehicle measured using a horizontal laser provided in the vehicle. Techniques used for route guidance have been proposed.

また、車両前方の左右にカメラを設置し、カメラの画像から抽出した地点の動きベクトル、車両の速度、及びカメラの画角に基づいて、道路幅を推定する技術が提案されている。   In addition, a technique has been proposed in which cameras are installed on the left and right in front of the vehicle, and the road width is estimated based on the motion vector of the point extracted from the camera image, the vehicle speed, and the angle of view of the camera.

特開2004−265396号公報JP 2004-265396 A 特開2009−246808号公報JP 2009-246808 A

しかしながら、従来では上記に説明したように、カメラで取得した画像の利用面に関しての提案が行われるばかりであり、利用に適した画像を取得するためのカメラ設置作業の効率化を目的とした提案は行われていない。   However, as described above, in the past, proposals have only been made regarding the use of images acquired by cameras, and proposals aimed at improving the efficiency of camera installation work for acquiring images suitable for use. Is not done.

そこで、開示の技術は一つの側面として、カメラのモニタ画面上における被写体の大きさの調整を伴うカメラ設置作業の効率を向上させることを目的とする。   Therefore, as an aspect of the disclosed technology, an object is to improve the efficiency of camera installation work that involves adjusting the size of a subject on the monitor screen of the camera.

開示の技術は、カメラにより撮影された画像に含まれる第1の物体が有する認識対象部の大きさと同じ大きさの認識対象部を有するように、第1の物体に替わる代替画像の初期の大きさを設定する。そして、第1の物体が表示されていない第1の画像と、代替画像の初期の大きさの設定に用いた第1の物体が表示されている第2の画像の両方に含まれる第2の物体の画面上での大きさが変化した場合に、両画像における第2の物体の大きさの変化の割合を算出する。そして、算出した割合に応じて大きさを調整した代替画像を第1の画像に合成する。   In the disclosed technique, the initial size of the substitute image replacing the first object is such that the recognition target portion has the same size as the recognition target portion included in the first object included in the image captured by the camera. Set the size. The second image included in both the first image in which the first object is not displayed and the second image in which the first object used for setting the initial size of the substitute image is displayed. When the size of the object on the screen changes, the ratio of the change in the size of the second object in both images is calculated. Then, the substitute image whose size is adjusted according to the calculated ratio is synthesized with the first image.

開示の技術は、カメラのモニタ画面上における被写体の大きさの調整を伴うカメラ設置作業の効率を向上させることができる、という効果を有する。   The disclosed technique has an effect that the efficiency of the camera installation work accompanied by the adjustment of the size of the subject on the monitor screen of the camera can be improved.

図1は、第1実施形態に係るナンバー認識装置の機能ブロック図である。FIG. 1 is a functional block diagram of the number recognition apparatus according to the first embodiment. 図2は、車両の画像キャプチャについて説明するための模式図である。FIG. 2 is a schematic diagram for explaining image capture of a vehicle. 図3は、車両の置き換えについて説明するための模式図である。FIG. 3 is a schematic diagram for explaining vehicle replacement. 図4は、バーチャル車両の大きさの調整について説明するための模式図である。FIG. 4 is a schematic diagram for explaining the adjustment of the size of the virtual vehicle. 図5は、第1実施形態に係るナンバー認識装置として機能するコンピュータのブロック図である。FIG. 5 is a block diagram of a computer that functions as a number recognition apparatus according to the first embodiment. 図6は、画像合成処理の全体の流れを示すフローチャートである。FIG. 6 is a flowchart showing the overall flow of the image composition process. 図7は、キャプチャ画像取得処理サブルーチンのフローチャートである。FIG. 7 is a flowchart of a captured image acquisition processing subroutine. 図8は、バーチャル車両初期サイズ設定処理サブルーチンのフローチャートである。FIG. 8 is a flowchart of a virtual vehicle initial size setting processing subroutine. 図9は、道路幅算出処理サブルーチンのフローチャートである。FIG. 9 is a flowchart of a road width calculation processing subroutine. 図10は、第1実施形態に係るバーチャル車両合成処理サブルーチンのフローチャートである。FIG. 10 is a flowchart of the virtual vehicle composition processing subroutine according to the first embodiment. 図11は、第2実施形態に係るナンバー認識装置の機能ブロック図である。FIG. 11 is a functional block diagram of the number recognition apparatus according to the second embodiment. 図12は、インジケータ表示について説明するための模式図である。FIG. 12 is a schematic diagram for explaining the indicator display. 図13は、第2実施形態に係るナンバー認識装置として機能するコンピュータのブロック図である。FIG. 13 is a block diagram of a computer that functions as a number recognition apparatus according to the second embodiment. 図14は、第2実施形態に係るバーチャル車両合成処理サブルーチンのフローチャートである。FIG. 14 is a flowchart of a virtual vehicle composition processing subroutine according to the second embodiment.

以下、図面を参照して、開示の技術の実施形態の一例を詳細に説明する。   Hereinafter, an example of an embodiment of the disclosed technology will be described in detail with reference to the drawings.

(第1実施形態)   (First embodiment)

交通インフラへの画像認識技術の適用例として、ナンバー認識装置の設置が挙げられる。ナンバー認識装置は、道路上を通行する車両の画像をカメラで取得し、取得した画像から認識対象であるナンバープレートを検出して、ナンバープレートに記載されているナンバー情報を読み取る装置である。   An example of application of image recognition technology to transportation infrastructure is the installation of a number recognition device. The number recognition device is a device that acquires an image of a vehicle passing on a road with a camera, detects a number plate that is a recognition target from the acquired image, and reads number information described on the number plate.

ナンバー認識装置に備えられた認識性能を引き出すためには、カメラで撮影した画像が表示されるモニタ画面上(以下、「画面上」という)でのナンバープレートの大きさを、ナンバー認識装置の取扱説明書等に記載された範囲内に収める必要がある。従って、作業員がカメラの画像を画面で見ながらカメラのズームやピントを調整して、実際にナンバー認識装置で車両のナンバー情報を読み取れるか確認しながら、カメラの設置作業を進めている。   In order to bring out the recognition performance of the number recognition device, the size of the license plate on the monitor screen (hereinafter referred to as “on the screen”) on which the images taken by the camera are displayed is handled by the number recognition device. It must be within the range described in the manual. Accordingly, the operator is proceeding with the camera installation while checking whether the number information of the vehicle can be actually read by the number recognition device by adjusting the zoom and focus of the camera while viewing the image of the camera on the screen.

しかし、道路を通行する車両の位置は一定でないため、カメラからナンバープレートまでの距離が変動することで、画面上に表示されるナンバープレートの大きさが変化する。また、カメラの設置位置や設置角度を変更するカメラ調整を実施した場合にも、画面上に表示されるナンバープレートの大きさが変化する。   However, since the position of the vehicle traveling on the road is not constant, the size of the license plate displayed on the screen changes as the distance from the camera to the license plate varies. Also, when the camera adjustment is performed to change the camera installation position or installation angle, the size of the license plate displayed on the screen changes.

そのため、1回のカメラ調整でカメラの設置作業を終了することは困難であり、実際には、作業員は車両が通過するのを待って、複数回に亘りカメラ調整と車両ナンバーの読み取り確認を実施して、よりナンバー認識率が向上するカメラ調整を行う必要がある。   For this reason, it is difficult to complete the camera installation work with a single camera adjustment. In fact, the worker waits for the vehicle to pass and performs camera adjustment and vehicle number reading confirmation multiple times. It is necessary to perform camera adjustment to improve the number recognition rate.

更に言えば、ナンバー認識装置の動作確認を実施する際にタイミングよく車両が道路を通行する保証もなく、作業員はカメラ調整を実施する度に車両が通行するまで待機する必要があり、カメラの設置作業の進行に支障をきたすことになる。また、逆に、道路が車両で渋滞し、カメラで車両のナンバープレートを撮影できない程に車両間隔が狭くなっている場合も、ナンバー認識装置の動作確認が進まず、カメラの設置作業の進行に支障をきたすことがある。   Furthermore, there is no guarantee that the vehicle will pass through the road in a timely manner when checking the operation of the number recognition device, and the worker will have to wait until the vehicle passes every time the camera is adjusted. This will hinder the progress of the installation work. Conversely, when the road is congested with vehicles and the distance between the vehicles is so narrow that the number plate of the vehicle cannot be photographed with the camera, the operation of the number recognition device does not proceed and the camera installation work proceeds. May cause trouble.

そのため、これまではカメラ設置作業に際して交通整理を実施して車両の通行量を調整したり、道路を通行止めにしてテスト車両を走らせたりして、ナンバー認識装置の動作確認を行う場合があった。しかし、この場合でも、カメラ調整毎に何度もテスト車両を走行させなければならず、カメラの設置作業に要する労力の低減を図る必要性が浮かび上がってきた。   For this reason, there have been cases where the operation of the number recognition device has been confirmed by adjusting traffic during the camera installation work to adjust the amount of traffic of the vehicle or running the test vehicle with the road closed. However, even in this case, it is necessary to run the test vehicle many times for each camera adjustment, and the necessity of reducing the labor required for the camera installation work has emerged.

以下では、カメラの設置作業の効率化を図るため、カメラで撮影した画像に、予め用意された擬似的な車両の画像(バーチャル車両)を合成し、バーチャル車両のナンバーが認識できるか否かによってカメラ調整が進められるナンバー認識装置について説明する。なお、説明を簡略化するため、以下の説明ではカメラで撮影した画像には一車線分の道路しか映っていないものとして説明するが、複数車線の道路が映った画像であってもよいことはいうまでもない。   In the following, in order to improve the efficiency of camera installation work, a virtual vehicle image (virtual vehicle) prepared in advance is combined with an image captured by the camera, and whether or not the number of the virtual vehicle can be recognized A number recognition apparatus in which camera adjustment is advanced will be described. In order to simplify the explanation, in the following explanation, it is assumed that the image taken by the camera shows only one lane of road, but it may be an image showing a road of multiple lanes. Needless to say.

図1には、本実施形態に係るナンバー認識装置100が示されている。   FIG. 1 shows a number recognition device 100 according to the present embodiment.

ナンバー認識装置100は、取得部10、設定部20、算出部30、合成部40、及び認識部50を含む。このうち、設定部20、算出部30、及び合成部40をまとめて画像合成部60と称する場合がある。   The number recognition device 100 includes an acquisition unit 10, a setting unit 20, a calculation unit 30, a synthesis unit 40, and a recognition unit 50. Among these, the setting unit 20, the calculation unit 30, and the synthesis unit 40 may be collectively referred to as an image synthesis unit 60.

取得部10はカメラと有線又は無線で接続され、カメラからの画像を取得して監視対象である車両を検出すると共に、検出した車両が画面上の予め指定した基準線に到達した際に、画面に表示された画像を取得する。以下、車両が基準線に到達した際に取得した画像をキャプチャ画像という。   The acquisition unit 10 is connected to the camera by wire or wirelessly, acquires an image from the camera to detect a vehicle to be monitored, and displays the screen when the detected vehicle reaches a predetermined reference line on the screen. Get the image displayed in. Hereinafter, an image acquired when the vehicle reaches the reference line is referred to as a capture image.

本実施形態では、画面垂直方向の道路上を進行する車両が画面中央位置に到達したタイミングでキャプチャ画像を取得するため、車両の画面垂直方向の長さを考慮して、基準線を画面下部の画面水平方向に設定する。   In this embodiment, in order to acquire a captured image when a vehicle traveling on a road in the vertical direction of the screen reaches the center position of the screen, the reference line is set at the bottom of the screen in consideration of the length of the vehicle in the vertical direction of the screen. Set the screen horizontally.

取得部10は、作業員等により画面上に設定された車両を検出するための範囲(指定エリア)内に車両が進入したか否かを検出する。そして、指定エリア内に車両が進入したことを検出すると、取得部10は、例えば画像に含まれるフレーム毎に車両の位置を検出する。すなわち、取得部10は、例えばカメラからの画像が30fps(frame per second)であれば、1秒間に30回車両の位置を検出する。そして、取得部10は、車両が基準線に到達した際に画面に表示されている画像全体をキャプチャ画像として取得する。車両位置の検出には公知の技術が適用され、例えば、フレームに含まれる道路の色情報と車両の色情報との相違から車両の位置を検出する。   The acquisition unit 10 detects whether or not the vehicle has entered a range (designated area) for detecting the vehicle set on the screen by a worker or the like. Then, when detecting that the vehicle has entered the designated area, the acquisition unit 10 detects the position of the vehicle for each frame included in the image, for example. That is, for example, if the image from the camera is 30 fps (frame per second), the acquisition unit 10 detects the position of the vehicle 30 times per second. And the acquisition part 10 acquires the whole image currently displayed on the screen as a capture image, when a vehicle reaches | attains a reference line. A known technique is applied to the detection of the vehicle position. For example, the position of the vehicle is detected from the difference between the color information of the road and the color information of the vehicle included in the frame.

そして、例えばナンバー認識装置100の動作モードが、カメラ調整中であることを示すカメラ調整モードに設定されている場合、取得部10は、設定部20へキャプチャ画像を取得したことを通知する。更に、取得部10は、キャプチャ画像の取得後も画像合成部60へカメラからの画像を通知する。一方、ナンバー認識装置100の動作モードが、実際に運用中であることを示す運用モードに設定されている場合、取得部10は、認識部50へキャプチャ画像を取得したことを通知する。   For example, when the operation mode of the number recognition apparatus 100 is set to the camera adjustment mode indicating that the camera is being adjusted, the acquisition unit 10 notifies the setting unit 20 that the captured image has been acquired. Furthermore, the acquisition unit 10 notifies the image composition unit 60 of the image from the camera even after the capture image is acquired. On the other hand, when the operation mode of the number recognition device 100 is set to an operation mode indicating that the number recognition device 100 is actually in operation, the acquisition unit 10 notifies the recognition unit 50 that a captured image has been acquired.

なお、画面上に設定する基準線の位置に応じて、キャプチャ画像における車両の位置を変更することができるため、例えば、よりナンバープレートが鮮明に表示される位置で車両のキャプチャ画像を取得する等の設定が可能となる。   Since the position of the vehicle in the captured image can be changed according to the position of the reference line set on the screen, for example, the captured image of the vehicle is acquired at a position where the license plate is displayed more clearly. Can be set.

図2は、取得部10での画像の取得の様子を説明した図であり、画面上に設定された指定エリア8内で車両2を検出してから3フレーム目に車両2が基準線6に達した状態を示している。そして、取得部10は、指定エリア8内で車両2を検出してから3フレーム目の画像をキャプチャ画像として取得する。   FIG. 2 is a diagram for explaining how the acquisition unit 10 acquires an image. In the third frame after the vehicle 2 is detected in the designated area 8 set on the screen, the vehicle 2 becomes the reference line 6. It shows the reached state. And the acquisition part 10 acquires the image of the 3rd frame as a capture image, after detecting the vehicle 2 in the designation | designated area 8. FIG.

設定部20は、取得部10で取得したキャプチャ画像から車両2のナンバープレートの大きさを求める。ここでナンバープレートの大きさとは、基準線6に沿った方向のナンバープレートの長さ(ナンバープレートの幅)と、基準線6と直交する方向のナンバープレートの長さ(ナンバープレートの高さ)と、をいう。   The setting unit 20 obtains the size of the license plate of the vehicle 2 from the captured image acquired by the acquisition unit 10. Here, the size of the license plate means the length of the license plate in the direction along the reference line 6 (number plate width) and the length of the license plate in the direction perpendicular to the reference line 6 (number plate height). Say.

なお、ナンバープレートの大きさの抽出には公知の技術が適用され、例えば、キャプチャ画像からナンバープレートの輪郭を抽出して、ナンバープレートの大きさを求めることができる。また、ナンバープレートの表示色は予め定められていることから、キャプチャ画像における各画素の色成分と、ナンバープレートの表示色の色成分と、を比較することで、キャプチャ画像からナンバープレートの大きさを抽出することができる。   A known technique is applied to the extraction of the license plate size. For example, the license plate size can be obtained by extracting the outline of the license plate from the captured image. In addition, since the license plate display color is predetermined, the size of the license plate from the captured image can be determined by comparing the color component of each pixel in the captured image with the color component of the license plate display color. Can be extracted.

そして、設定部20は、バーチャル車両4のナンバープレートの大きさが、車両2のナンバープレートの大きさと一致するように、バーチャル車両4全体の大きさを拡大又は縮小して、バーチャル車両4の初期の大きさを設定する。そして、設定部20は、画面上におけるキャプチャ画像の車両2のナンバープレートの表示位置と、バーチャル車両4のナンバープレートの表示位置が一致するように、キャプチャ画像の車両2をバーチャル車両4で置き換える。   Then, the setting unit 20 enlarges or reduces the size of the entire virtual vehicle 4 so that the size of the license plate of the virtual vehicle 4 matches the size of the license plate of the vehicle 2, Set the size of. Then, the setting unit 20 replaces the vehicle 2 of the capture image with the virtual vehicle 4 so that the display position of the license plate of the vehicle 2 on the screen matches the display position of the license plate of the virtual vehicle 4.

なお、本実施形態では、設定したバーチャル車両4の大きさをキャプチャ画面上で確認するため、キャプチャ画像の車両2をバーチャル車両4で置き換えるようにしたが、キャプチャ画像の車両2をバーチャル車両4で置き換える処理は必須ではない。ここでは、車両2のナンバープレートの大きさと同じ大きさを有するバーチャル車両4の大きさが設定できればよい。   In this embodiment, in order to confirm the size of the set virtual vehicle 4 on the capture screen, the vehicle 2 in the capture image is replaced with the virtual vehicle 4. However, the vehicle 2 in the capture image is replaced with the virtual vehicle 4. The replacement process is not essential. Here, it is sufficient if the size of the virtual vehicle 4 having the same size as the license plate of the vehicle 2 can be set.

図3は、設定部20でキャプチャ画像に表示された車両2がバーチャル車両4に置き換えられる様子を示した図である。この際、車両2の基準線6に沿った方向の長さがH1、バーチャル車両4の基準線6に沿った方向の長さがH2と異なる場合であっても、各々の車両のナンバープレートは同じ大きさになる。   FIG. 3 is a diagram illustrating a state where the vehicle 2 displayed in the captured image by the setting unit 20 is replaced with the virtual vehicle 4. At this time, even if the length in the direction along the reference line 6 of the vehicle 2 is different from H1 and the length in the direction along the reference line 6 of the virtual vehicle 4 is different from H2, the number plate of each vehicle is It becomes the same size.

算出部30は、車両2をバーチャル車両4に置き換えたキャプチャ画像から、バーチャル車両4が通行する道路の画面上の道路幅L0を算出する。そのため、算出部30は、基準線6と、道路の左右に存在する車両通行帯境界線(境界線)と、が交差する地点間を結ぶ距離、具体的には2地点間を結ぶ直線の基準線6に沿った画素数を計測して道路幅L0を算出する。キャプチャ画面における道路の境界線の抽出には、キャプチャ画像の2値化処理やラプラシアンフィルタを用いたフィルタ処理等、公知の画像処理技術が用いられる。   The calculation unit 30 calculates the road width L0 on the screen of the road on which the virtual vehicle 4 passes from the captured image in which the vehicle 2 is replaced with the virtual vehicle 4. Therefore, the calculation unit 30 calculates the distance connecting the points where the reference line 6 and the vehicle lane boundary line (boundary line) existing on the left and right sides of the road intersect, specifically, the reference of the straight line connecting the two points. The number of pixels along the line 6 is measured to calculate the road width L0. A known image processing technique, such as binarization processing of a captured image or filter processing using a Laplacian filter, is used to extract a road boundary line on the capture screen.

更に算出部30は、取得部10から通知されるキャプチャ画像取得後のカメラの画像(カメラ調整中画像)を監視し、引き続き、カメラ調整中画像の各々に表示される道路の境界線を抽出して、基準線6に沿った画面上の道路幅を算出する。そして、算出部30は、ズーム率の変更等のカメラ調整により、カメラ調整中画像の道路幅がキャプチャ画像における道路幅L0から道路幅L1に変化した際に、道路幅の変化率であるL1/L0を算出して合成部40へ通知する。   Further, the calculation unit 30 monitors the captured camera image (camera adjustment image) notified from the acquisition unit 10, and subsequently extracts the road boundary line displayed in each of the camera adjustment images. Thus, the road width on the screen along the reference line 6 is calculated. Then, the calculation unit 30 performs a camera adjustment such as a change of the zoom ratio, and when the road width of the image under camera adjustment changes from the road width L0 to the road width L1 in the captured image, L1 / L1 is a change rate of the road width. L0 is calculated and notified to the combining unit 40.

このように、作業員等がカメラ調整を実施した場合、それに伴い画面に表示される画像の範囲が変更される。従って、算出部30は、カメラ調整が実施されたか否かを、キャプチャ画像及びカメラ調整中画像の各々の画像に含まれる共通の物体である道路の幅の変化で検出しているということができる。なお、本実施形態では、カメラ調整中画像に車両2は表示されていないものとする。   Thus, when a worker or the like performs camera adjustment, the range of the image displayed on the screen is changed accordingly. Therefore, it can be said that the calculation unit 30 detects whether or not the camera adjustment has been performed based on a change in the width of the road that is a common object included in each of the captured image and the camera adjusting image. . In the present embodiment, it is assumed that the vehicle 2 is not displayed in the camera adjustment image.

合成部40は、キャプチャ画像におけるバーチャル車両4のナンバープレートの大きさが道路幅の変化率と同じL1/L0倍となるように、キャプチャ画像のバーチャル車両4の縦横比を保ったまま、バーチャル車両4全体の大きさを調整する。そして、合成部40は、道路幅の変化率に応じて大きさを調整したバーチャル車両4と、道路幅がL1となったカメラ調整中画像とを合成し、合成した画像を認識部50へ通知する。   The synthesizing unit 40 maintains the aspect ratio of the virtual vehicle 4 in the captured image while maintaining the aspect ratio of the virtual vehicle 4 in the captured image so that the size of the license plate of the virtual vehicle 4 in the captured image is L1 / L0 times the change rate of the road width. 4 Adjust the overall size. The synthesizing unit 40 synthesizes the virtual vehicle 4 whose size is adjusted according to the change rate of the road width and the camera adjusting image whose road width is L1, and notifies the recognizing unit 50 of the synthesized image. To do.

図4は、合成部40によってナンバープレートの大きさが調整されたバーチャル車両4をカメラ調整中画像に合成した様子を示した図である。   FIG. 4 is a diagram illustrating a state in which the virtual vehicle 4 in which the size of the license plate is adjusted by the combining unit 40 is combined with the camera adjusting image.

例えば図4に示すように、例えば、キャプチャ画像、すなわちカメラ調整前における画像の基準線6に沿った道路幅をL0、その際のバーチャル車両4のナンバープレートの幅をW0とする。そして、カメラ調整中画像の基準線6に沿った道路幅がL1となった場合に、合成部40は、カメラ調整中画像におけるバーチャル車両4のナンバープレートの幅W1を、W1=W0*(L1/L0)によって算出する。そして、合成部40は、画面上におけるバーチャル車両4のナンバープレートの幅がW1となるように、バーチャル車両4の縦横比を保ったまま、バーチャル車両4全体の大きさを調整する。このようにバーチャル車両4の大きさを調整することで、バーチャル車両4のナンバープレートの大きさが道路幅の変化率と同じL1/L0倍になる。なお、本実施形態では、画面に表示される画像の範囲の変化を道路幅の変化で検出したが、キャプチャ画像及びカメラ調整中画像の各々の画像に共通して含まれ、各々の画像間で大きさの変化を比較することができる物体であればどのようなものを用いてもよい。   For example, as shown in FIG. 4, for example, the captured image, that is, the road width along the reference line 6 of the image before camera adjustment is L0, and the width of the license plate of the virtual vehicle 4 at that time is W0. When the road width along the reference line 6 of the camera adjustment image becomes L1, the synthesizing unit 40 sets the width W1 of the license plate of the virtual vehicle 4 in the camera adjustment image as W1 = W0 * (L1 / L0). And the synthetic | combination part 40 adjusts the magnitude | size of the virtual vehicle 4 whole, maintaining the aspect ratio of the virtual vehicle 4 so that the width | variety of the license plate of the virtual vehicle 4 on a screen may become W1. By adjusting the size of the virtual vehicle 4 in this way, the size of the license plate of the virtual vehicle 4 becomes L1 / L0 times the same as the change rate of the road width. In this embodiment, the change in the range of the image displayed on the screen is detected by the change in the road width. However, the change is included in each of the captured image and the camera adjusting image, and is included between the images. Any object can be used as long as it can compare changes in size.

更に、合成部40は、バーチャル車両4のナンバープレートの底辺が基準線6と接触し、且つ、基準線6に沿った道路幅の中央と、バーチャル車両4のナンバープレートの幅方向の中央と、が一致する位置に、バーチャル車両4をカメラ調整中画像に合成する。   Furthermore, the combining unit 40 has a base of the license plate of the virtual vehicle 4 in contact with the reference line 6, and a center of the road width along the reference line 6, a center of the virtual vehicle 4 in the width direction of the license plate, The virtual vehicle 4 is combined with the camera adjustment image at a position where the two match.

そして、認識部50は、ナンバー認識装置100の動作モードがカメラ調整モードに設定されている場合、合成部40でカメラ調整中画像に合成されたバーチャル車両4のナンバー情報を認識する。一方、認識部50は、ナンバー認識装置100の動作モードが運用モードに設定されている場合、取得部10で取得されたキャプチャ画像に表示されている車両2のナンバー情報を認識する。   And the recognition part 50 recognizes the number information of the virtual vehicle 4 synthesize | combined with the image under camera adjustment in the synthetic | combination part 40, when the operation mode of the number recognition apparatus 100 is set to camera adjustment mode. On the other hand, the recognition unit 50 recognizes the number information of the vehicle 2 displayed in the captured image acquired by the acquisition unit 10 when the operation mode of the number recognition apparatus 100 is set to the operation mode.

このように、第1実施形態のナンバー認識装置100では、カメラ調整に伴う画面上のカメラ調整中画像の範囲の変化に応じて、道路を通行する車両2のナンバープレートの大きさから算出したナンバープレートの大きさを有するバーチャル車両4を合成する。従って、カメラ調整の実施毎に車両2の通過を待つことなく、現在のカメラ取り付け位置及びズーム率で、車両2のナンバー情報が認識できるか否かを確認することができる。   Thus, in the number recognition apparatus 100 of 1st Embodiment, the number calculated from the magnitude | size of the number plate of the vehicle 2 which passes along a road according to the change of the range of the image under camera adjustment on the screen accompanying camera adjustment. A virtual vehicle 4 having a plate size is synthesized. Therefore, it is possible to confirm whether or not the number information of the vehicle 2 can be recognized with the current camera mounting position and zoom ratio without waiting for the vehicle 2 to pass every time the camera adjustment is performed.

以上に説明したナンバー認識装置100は、例えば、図5に示すコンピュータ70で実現することができる。コンピュータ70は、CPU72、メモリ74、及び不揮発性の記憶部76を含み、これらはバス78を介して互いに接続される。   The number recognition apparatus 100 described above can be realized by, for example, a computer 70 shown in FIG. The computer 70 includes a CPU 72, a memory 74, and a nonvolatile storage unit 76, which are connected to each other via a bus 78.

また、記憶部76はHDD(Hard Disk Drive)又はフラッシュメモリ等によって実現できる。記憶媒体としての記憶部76には、コンピュータ70をカメラ調整モードを有するナンバー認識装置100として機能させるための画像合成プログラム80が記憶されている。CPU72は、画像合成プログラム80を記憶部76から読み出してメモリ74に展開し、画像合成プログラム80に含まれる各種プロセスを順次実行する。   The storage unit 76 can be realized by an HDD (Hard Disk Drive) or a flash memory. An image composition program 80 for causing the computer 70 to function as the number recognition device 100 having the camera adjustment mode is stored in the storage unit 76 as a storage medium. The CPU 72 reads out the image composition program 80 from the storage unit 76 and expands it in the memory 74, and sequentially executes various processes included in the image composition program 80.

画像合成プログラム80は、取得プロセス82、置換プロセス84、算出プロセス86、合成プロセス88、及び認識プロセス90を含む。   The image composition program 80 includes an acquisition process 82, a replacement process 84, a calculation process 86, a composition process 88, and a recognition process 90.

CPU72は、取得プロセス82を実行することで、図1に示す取得部10として動作する。また、CPU72は、置換プロセス84を実行することで、図1に示す設定部20として動作する。また、CPU72は、算出プロセス86を実行することで、図1に示す算出部30として動作する。また、CPU72は、合成プロセス88を実行することで、図1に示す合成部40として動作する。また、CPU72は、認識プロセス90を実行することで、図1に示す認識部50として動作する。   The CPU 72 operates as the acquisition unit 10 illustrated in FIG. 1 by executing the acquisition process 82. The CPU 72 operates as the setting unit 20 illustrated in FIG. 1 by executing the replacement process 84. The CPU 72 operates as the calculation unit 30 illustrated in FIG. 1 by executing the calculation process 86. Further, the CPU 72 operates as the synthesis unit 40 illustrated in FIG. 1 by executing the synthesis process 88. Further, the CPU 72 operates as the recognition unit 50 illustrated in FIG. 1 by executing the recognition process 90.

以上により、画像合成プログラム80を実行したコンピュータ70が、ナンバー認識装置100として動作する。   As described above, the computer 70 that has executed the image composition program 80 operates as the number recognition apparatus 100.

なお、一例として、CPU72にはタイマが内蔵され、CPU72は、画像合成プログラム80からの要求によりタイマを起動及び停止すると共に、タイマ起動からの経過時間を画像合成プログラム80へ通知する機能を有するものとする。また、画像合成プログラム80は、開示の技術における画像合成プログラムの一例を示したものである。また、ナンバー認識装置100は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。   As an example, the CPU 72 has a built-in timer, and the CPU 72 has a function of starting and stopping the timer in response to a request from the image composition program 80 and notifying the image composition program 80 of the elapsed time from the timer activation. And The image composition program 80 is an example of an image composition program in the disclosed technology. The number recognition apparatus 100 can also be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC (Application Specific Integrated Circuit) or the like.

次に、本実施形態に係るナンバー認識装置100の作用を説明する。なお、本実施形態に係るナンバー認識装置100の動作モードはカメラ調整モードに予め設定されており、ナンバー認識装置100の起動後に図6に示す画像合成処理を実行する。また、カメラで撮影された画像は、メモリ74の予め定めた領域に時系列に従ってフレーム単位で記憶されるものとする。また、画面上には指定エリア8及び基準線6が予め設定されているものとする。更に、バーチャル車両4は記憶部76に予め記憶され、CPU72が画像合成プログラム80をメモリ74に展開する際に、メモリ74の予め定めた領域に展開されるものとする。   Next, the operation of the number recognition apparatus 100 according to this embodiment will be described. Note that the operation mode of the number recognition apparatus 100 according to the present embodiment is preset to the camera adjustment mode, and the image composition process shown in FIG. 6 is executed after the number recognition apparatus 100 is activated. In addition, it is assumed that an image captured by the camera is stored in a predetermined area of the memory 74 in units of frames in time series. Further, it is assumed that the designated area 8 and the reference line 6 are set in advance on the screen. Furthermore, the virtual vehicle 4 is stored in advance in the storage unit 76, and is expanded in a predetermined area of the memory 74 when the CPU 72 expands the image composition program 80 in the memory 74.

図6は、ナンバー認識装置100で実行される画像合成処理の全体を示したフローチャートである。画像合成処理はステップS100〜S500の処理を含む。   FIG. 6 is a flowchart showing the entire image composition process executed by the number recognition apparatus 100. The image composition process includes the processes of steps S100 to S500.

まず、ステップS100のキャプチャ画像取得処理について説明する。図7は、ステップS100で実行されるキャプチャ画像取得処理のサブルーチンのフローチャートである。   First, the captured image acquisition process in step S100 will be described. FIG. 7 is a flowchart of a subroutine of captured image acquisition processing executed in step S100.

まず、ステップS105では、取得部10は、メモリ74に記憶される画像のフレームを参照して、画面に設定された指定エリア8内に車両2が存在するか否かを判定する。   First, in step S <b> 105, the acquisition unit 10 refers to an image frame stored in the memory 74 and determines whether or not the vehicle 2 exists in the designated area 8 set on the screen.

そして、ステップS110では、取得部10は、ステップS105の処理で指定エリア8内に車両2が存在すると判定した場合にはステップS120へ処理を移行し、そうでないと判定した場合には、ステップS115へ処理を移行する。   In step S110, the acquisition unit 10 proceeds to step S120 if it is determined in step S105 that the vehicle 2 is present in the designated area 8, and if not, step S115 is performed. Transfer processing to.

ステップS115では、取得部10は、メモリ74からステップS105の処理で参照したフレームの次のフレームを取得し、ステップS105へ移行する。すなわち、取得部10は、指定エリア8内に車両2が存在するフレームが検出されるまで、ステップS105〜S115の処理を繰り返す。   In step S115, the acquisition unit 10 acquires a frame next to the frame referred to in step S105 from the memory 74, and proceeds to step S105. That is, the acquisition unit 10 repeats the processes in steps S105 to S115 until a frame in which the vehicle 2 exists in the designated area 8 is detected.

ステップS120では、取得部10は、指定エリア8内における車両2の位置を判定する。そして、ステップS125では、取得部10は、基準線6に車両2が到達したか否かを判定し、否定判定の場合にはステップS130へ移行する。   In step S <b> 120, the acquisition unit 10 determines the position of the vehicle 2 in the designated area 8. In step S125, the acquisition unit 10 determines whether or not the vehicle 2 has reached the reference line 6. If the determination is negative, the process proceeds to step S130.

ステップS130では、取得部10は、メモリ74からステップS120の処理で車両2の位置を判定したフレームの次のフレームを取得し、ステップS120へ移行する。すなわち、取得部10は、基準線6に車両2が到達したフレームが検出されるまで、ステップS120〜S130の処理を繰り返す。   In step S130, the acquisition unit 10 acquires a frame next to the frame for which the position of the vehicle 2 has been determined in the process of step S120 from the memory 74, and proceeds to step S120. That is, the acquisition unit 10 repeats the processes of steps S120 to S130 until a frame in which the vehicle 2 reaches the reference line 6 is detected.

一方、ステップS125の処理で肯定判定となった場合、すなわち基準線6に車両2が到達した場合にはステップS135に移行し、取得部10は現在参照しているフレームをキャプチャ画像として、メモリ74の予め定めた領域に記憶する。   On the other hand, when an affirmative determination is made in the process of step S125, that is, when the vehicle 2 reaches the reference line 6, the process proceeds to step S135, and the acquisition unit 10 uses the currently referenced frame as a captured image as a captured image. Is stored in a predetermined area.

以上の処理により、図6のステップS100の処理が終了する。   With the above processing, the processing in step S100 in FIG. 6 is completed.

次に、ステップS200のバーチャル車両初期サイズ設定処理について説明する。図8は、ステップS200で実行されるバーチャル車両初期サイズ設定処理のサブルーチンのフローチャートである。   Next, the virtual vehicle initial size setting process in step S200 will be described. FIG. 8 is a flowchart of a subroutine of the virtual vehicle initial size setting process executed in step S200.

まず、ステップS205では、設定部20は、ステップS135の処理でメモリ74に記憶されたキャプチャ画像から、キャプチャ画像に表示されている車両2のナンバープレートの大きさを検出し、検出した大きさをメモリ74の予め定めた領域に記憶する。   First, in step S205, the setting unit 20 detects the size of the license plate of the vehicle 2 displayed in the captured image from the captured image stored in the memory 74 in the process of step S135, and determines the detected size. Store in a predetermined area of the memory 74.

ステップS210では、設定部20は、メモリ74からバーチャル車両4を取得する。そして、設定部20は、バーチャル車両4のナンバープレートの大きさがステップS205で検出した車両2のナンバープレートの大きさと一致するように、バーチャル車両4全体の大きさを拡大又は縮小して、バーチャル車両4の初期の大きさを設定する。   In step S <b> 210, the setting unit 20 acquires the virtual vehicle 4 from the memory 74. Then, the setting unit 20 enlarges or reduces the size of the entire virtual vehicle 4 so that the size of the number plate of the virtual vehicle 4 matches the size of the number plate of the vehicle 2 detected in step S205. The initial size of the vehicle 4 is set.

ステップS215では、作業員等が画面上でステップS210の処理で設定したバーチャル車両4の大きさを確認することができるように、設定部20は、キャプチャ画像上の車両2をステップS210の処理で大きさを設定したバーチャル車両4に置き換える。この際、設定部20は、キャプチャ画像における車両2のナンバープレートの表示位置と、バーチャル車両4のナンバープレートの表示位置と、が一致するように、キャプチャ画像にバーチャル車両4を配置する。   In step S215, the setting unit 20 sets the vehicle 2 on the captured image in the process of step S210 so that a worker or the like can confirm the size of the virtual vehicle 4 set in the process of step S210 on the screen. Replace with the virtual vehicle 4 whose size is set. At this time, the setting unit 20 arranges the virtual vehicle 4 on the capture image so that the display position of the license plate of the vehicle 2 in the capture image matches the display position of the license plate of the virtual vehicle 4.

以上の処理により、図6のステップS200の処理が終了する。   With the above processing, the processing in step S200 in FIG. 6 is completed.

次に、ステップS300の道路幅算出処理について説明する。図9は、ステップS300で実行される道路幅算出処理のサブルーチンのフローチャートである。   Next, the road width calculation process in step S300 will be described. FIG. 9 is a flowchart of a road width calculation process subroutine executed in step S300.

まず、ステップS305では、算出部30は、ステップS215の処理で車両2をバーチャル車両4に置き換えたキャプチャ画像(置換キャプチャ画像)から、基準線6に沿った道路幅L0を算出する。そして、算出部30はCPU72に対してタイマの起動を要求する。   First, in step S305, the calculation unit 30 calculates the road width L0 along the reference line 6 from the capture image (replacement capture image) obtained by replacing the vehicle 2 with the virtual vehicle 4 in the process of step S215. Then, the calculation unit 30 requests the CPU 72 to start a timer.

ステップS310では、算出部30は、CPU72に対してタイマの経過時間情報を要求し、ステップS305の処理から予め定めた時間経過したか否かを判定する。ここで、予め定めた時間とは、後述する道路幅の変化を判定する処理の実行間隔を規定する時間である。そして、予め定めた時間は記憶部76に予め記憶され、CPU72が画像合成プログラム80をメモリ74に展開する際に、メモリ74の予め定めた領域に展開されるものとする。   In step S310, the calculation unit 30 requests timer 72 elapsed time information from the CPU 72, and determines whether or not a predetermined time has elapsed from the processing in step S305. Here, the predetermined time is a time that defines an execution interval of a process for determining a change in road width, which will be described later. The predetermined time is stored in advance in the storage unit 76, and is expanded in a predetermined area of the memory 74 when the CPU 72 expands the image composition program 80 in the memory 74.

そして、本ステップの判定処理が否定判定の場合には、算出部30は、予め定めた時間を経過するまでステップS310の処理を繰り返す。一方、肯定判定の場合にはステップS315へ移行すると共に、算出部30はCPU72に対してタイマの停止を要求する。   And when the determination process of this step is negative determination, the calculation part 30 repeats the process of step S310 until predetermined time passes. On the other hand, when the determination is affirmative, the process proceeds to step S315, and the calculation unit 30 requests the CPU 72 to stop the timer.

ステップS315では、算出部30は、メモリ74から現時点で最新のカメラ調整中画像のフレームを取得し、当該フレームから基準線6に沿った道路幅L1を算出する。   In step S <b> 315, the calculation unit 30 acquires the frame of the latest camera adjustment image at the current time from the memory 74, and calculates the road width L <b> 1 along the reference line 6 from the frame.

ステップS320では、算出部30は、ステップS305の処理で算出した道路幅L0と、ステップS315の処理で算出した道路幅L1が同じ値ではないか否かを判定する。なお、道路幅L0と道路幅L1が同じ値とは、完全に値が一致する場合の他、道路幅L0と道路幅L1との差分が、道路幅L0と道路幅L1とが同じ値であるとみなすことのできる予め定めた範囲内にある場合も含むようにしてもよい。   In step S320, the calculation unit 30 determines whether the road width L0 calculated in the process of step S305 and the road width L1 calculated in the process of step S315 are not the same value. The road width L0 and the road width L1 have the same value. In addition to the case where the values completely match, the difference between the road width L0 and the road width L1 is the same value for the road width L0 and the road width L1. It may also be included when it is within a predetermined range that can be regarded as.

そして、本ステップでの判定が否定判定の場合、すなわち、道路幅L0と道路幅L1とが同じ値である場合にはステップS310へ移行し、算出部30は、道路幅L0と道路幅L1との値が異なるまでステップS310〜S320の処理を繰り返す。一方、肯定判定の場合にはステップS325へ移行する。   If the determination in this step is negative, that is, if the road width L0 and the road width L1 are the same value, the process proceeds to step S310, and the calculation unit 30 calculates the road width L0 and the road width L1. Steps S310 to S320 are repeated until the values of are different. On the other hand, if the determination is affirmative, the process proceeds to step S325.

ステップS325では、算出部30は、道路幅の変化率(L1/L0)を算出する。   In step S325, the calculation unit 30 calculates the road width change rate (L1 / L0).

以上の処理により、図6のステップS300の処理が終了する。   With the above processing, the processing in step S300 in FIG. 6 is completed.

次に、ステップS400のバーチャル車両合成処理について説明する。図10は、ステップS400で実行されるバーチャル車両合成処理のサブルーチンのフローチャートである。   Next, the virtual vehicle composition process in step S400 will be described. FIG. 10 is a flowchart of a subroutine of the virtual vehicle composition process executed in step S400.

まず、ステップS405では、合成部40は、図8のステップS215の処理で生成した置換キャプチャ画像におけるバーチャル車両4のナンバープレートの幅が(L1/L0)倍となるように、バーチャル車両4全体の大きさを調整する。この際、合成部40は、バーチャル車両4の縦横比が変わらないようにバーチャル車両4の大きさを調整する。   First, in step S405, the synthesizer 40 determines the entire virtual vehicle 4 so that the width of the license plate of the virtual vehicle 4 in the replacement capture image generated in the process of step S215 in FIG. 8 is (L1 / L0) times. Adjust the size. At this time, the combining unit 40 adjusts the size of the virtual vehicle 4 so that the aspect ratio of the virtual vehicle 4 does not change.

そして、ステップS410では、合成部40は、図9のステップS320の処理で置換キャプチャ画像と比較して道路幅に変化があると判定されたカメラ調整中画像のフレームから、基準線6に沿った道路幅の中央点を算出する。   In step S410, the synthesizer 40 follows the reference line 6 from the frame of the camera-adjusting image determined to have a change in the road width compared to the replacement capture image in the process of step S320 in FIG. Calculate the center point of the road width.

ステップS415では、合成部40は、ステップS410の処理に用いたカメラ調整中画像のフレームの道路幅の中央点と、バーチャル車両4の予め定めた点と、が一致する位置に、バーチャル車両4を合成する。ここで、バーチャル車両4の予め定めた点として、例えば、バーチャル車両4のナンバープレート底辺の幅方向における中央点が用いられる。   In step S415, the composition unit 40 places the virtual vehicle 4 at a position where the center point of the road width of the frame of the camera adjustment image used in the process of step S410 matches the predetermined point of the virtual vehicle 4. Synthesize. Here, as the predetermined point of the virtual vehicle 4, for example, the center point in the width direction of the license plate bottom side of the virtual vehicle 4 is used.

以上の処理により、図6のステップS400の処理が終了する。   With the above processing, the processing in step S400 in FIG. 6 is completed.

そして、ステップS500では、認識部50は、バーチャル車両4が合成されたカメラ調整中画像のフレームから、バーチャル車両4のナンバー情報が認識できるか否かを判定する。そして、肯定判定の場合には、現在のカメラ調整内容で道路上を実際に通行する車両のナンバー情報が認識できるため、画像合成プログラム80を終了する。   In step S500, the recognizing unit 50 determines whether or not the number information of the virtual vehicle 4 can be recognized from the frame of the camera adjusting image in which the virtual vehicle 4 is synthesized. In the case of an affirmative determination, since the number information of the vehicle actually passing on the road can be recognized with the current camera adjustment content, the image composition program 80 is terminated.

一方、否定判定の場合には、ステップS300の処理に戻り、新たに取得したカメラ調整中画像のフレームに対してステップS300〜S500の処理を繰り返し実行する。なお、この場合、置換キャプチャ画像における道路幅L0は1度取得すれば十分であるため、図9におけるステップS305の処理は省略する。   On the other hand, in the case of negative determination, the process returns to the process of step S300, and the processes of steps S300 to S500 are repeatedly executed on the newly acquired frame of the camera adjustment image. In this case, since it is sufficient to obtain the road width L0 in the replacement capture image once, the process of step S305 in FIG. 9 is omitted.

このように本実施形態では、カメラ調整により画面に表示される画像が変化した場合でも、バーチャル車両4を用いて、各々の画像でナンバープレートがどのような大きさで表示されるかを確認することができる。従って、カメラ設置作業の際、画面上に設けた指定エリア8内を通行する車両の画像を1度取得すれば、カメラ調整後に実際の車両が指定エリア8内を通行しない場合でも、ナンバー認識装置100の動作確認を実施することができる。   Thus, in this embodiment, even when the image displayed on the screen changes due to camera adjustment, the virtual vehicle 4 is used to check the size of the license plate displayed in each image. be able to. Therefore, if the image of the vehicle passing through the designated area 8 provided on the screen is acquired once during the camera installation work, the number recognition device even if the actual vehicle does not pass through the designated area 8 after the camera adjustment. 100 operation checks can be performed.

なお、本実施形態では、キャプチャ画像での車両2の位置を決定する基準線6(判定線)と、道路幅の変化を検出する位置を示す基準線6(変化検出基準線)と、を共通の基準線6として説明した。   In the present embodiment, the reference line 6 (determination line) for determining the position of the vehicle 2 in the captured image and the reference line 6 (change detection reference line) indicating the position for detecting the change in the road width are shared. The reference line 6 is described.

しかし、判定線と変化検出基準線とを、それぞれ画面上の異なる位置に設定するようにしてもよい。この場合、図7に示したキャプチャ画像取得処理のフローチャートの説明において、「基準線6」を「判定線」に読み替える。そして、図9に示した道路幅算出処理のフローチャートの説明において、「基準線6」を「変化検出基準線」に読み替える。   However, the determination line and the change detection reference line may be set at different positions on the screen. In this case, in the description of the flowchart of the captured image acquisition process illustrated in FIG. 7, “reference line 6” is replaced with “determination line”. Then, in the description of the flowchart of the road width calculation process shown in FIG. 9, “reference line 6” is replaced with “change detection reference line”.

その上で、ステップS405の処理で、キャプチャ画像における判定線に沿った道路幅L2を算出し、置換キャプチャ画像におけるバーチャル車両4のナンバープレートの幅が(L1/L2)倍となるように、バーチャル車両4全体の大きさを調整すればよい。すなわち、判定線及び変化検出基準線を共通にする場合であっても、そうでない場合であっても、キャプチャ画像における道路幅に対するカメラ調整中画像における道路幅の変化の割合に応じて、バーチャル車両4全体の大きさを調整すればよいことがわかる。   Then, in step S405, the road width L2 along the determination line in the capture image is calculated, and the virtual plate 4 of the virtual vehicle 4 in the replacement capture image is multiplied by (L1 / L2) times. What is necessary is just to adjust the magnitude | size of the vehicle 4 whole. That is, whether or not the determination line and the change detection reference line are shared, the virtual vehicle according to the ratio of the change in the road width in the camera adjustment image to the road width in the captured image It can be seen that the size of the entire 4 may be adjusted.

(第2実施形態)   (Second Embodiment)

次に、開示の技術の第2実施形態について説明する。なお、第1実施形態と同一の部分には同一の符号を付して説明を省略し、第1実施形態と異なる部分を中心に説明する。   Next, a second embodiment of the disclosed technique will be described. In addition, the same code | symbol is attached | subjected to the part same as 1st Embodiment, description is abbreviate | omitted, and it demonstrates centering on a different part from 1st Embodiment.

図11には、本実施形態に係るナンバー認識装置100Aが示されている。   FIG. 11 shows a number recognition device 100A according to the present embodiment.

本実施形態に係るナンバー認識装置100Aが第1実施形態のナンバー認識装置100と異なる点は、合成部40が合成部40Aに置き換えられた点である。なお、これに伴い、画像合成部60を画像合成部60Aと称する場合がある。   The number recognition device 100A according to the present embodiment is different from the number recognition device 100 according to the first embodiment in that the combining unit 40 is replaced with a combining unit 40A. Accordingly, the image composition unit 60 may be referred to as an image composition unit 60A.

例えば、ナンバー認識装置100Aには、ナンバー認識装置100Aの実機による実験や設計仕様に基づくコンピュータシミュレーション等により、車両2のナンバー情報を認証するのに適した画面上でのナンバープレートの大きさが規定されているものとする。この大きさは、例えば画面に表示されるナンバープレートの幅に相当する画素数Rで規定され、一例としてR1≦R≦R2と表される。なお、R1≦R≦R2の範囲を適正画像範囲ということにする。従って、カメラ設置作業の際、作業員等は画面を見ながらカメラ調整を実施し、画面に表示される車両2のナンバープレートの幅が適正画像範囲内に含まれるように、カメラのズーム率等を調整することになる。   For example, in the number recognition device 100A, the size of the number plate on the screen suitable for authenticating the number information of the vehicle 2 is defined by experiments with a real machine of the number recognition device 100A or computer simulation based on design specifications. It is assumed that This size is defined by, for example, the number of pixels R corresponding to the width of the license plate displayed on the screen, and is expressed as R1 ≦ R ≦ R2 as an example. Note that the range of R1 ≦ R ≦ R2 is referred to as an appropriate image range. Accordingly, during camera installation work, workers etc. adjust the camera while looking at the screen, and the camera zoom rate etc. so that the width of the license plate of the vehicle 2 displayed on the screen is included in the appropriate image range. Will be adjusted.

しかしながら、作業員等は、現在のカメラ設置位置やカメラのズーム率で、画面に表示されるバーチャル車両4のナンバープレートの幅が適正画像範囲内に含まれるか否かを知る方法がない。状況によっては、バーチャル車両4のナンバープレートの幅が適正画像範囲内に含まれていない場合でも、認識部50がナンバー情報を正しく認識する場合も考えられる。従って、ナンバー認識装置100Aにおけるナンバー情報の認識率をより向上させるためにも、バーチャル車両4のナンバープレートの幅を適正画像範囲内に収めることは、ナンバー認識装置100Aのカメラ設置における重要な作業の1つといえる。   However, there is no way for a worker or the like to know whether or not the width of the license plate of the virtual vehicle 4 displayed on the screen is included in the appropriate image range at the current camera installation position and camera zoom rate. Depending on the situation, even when the width of the license plate of the virtual vehicle 4 is not included in the appropriate image range, the recognition unit 50 may recognize the number information correctly. Therefore, in order to further improve the recognition rate of the number information in the number recognition device 100A, keeping the width of the number plate of the virtual vehicle 4 within an appropriate image range is an important task in installing the camera of the number recognition device 100A. One can be said.

そのため、合成部40Aは、バーチャル車両4をカメラ調整中画像に合成する際、バーチャル車両4の他に、バーチャル車両4のナンバープレートの幅が適正画像範囲内に収まっているか否かを表示するインジケータを合成して、認識部50へ通知する。   Therefore, when synthesizing the virtual vehicle 4 with the camera-adjusting image, the synthesizing unit 40A displays, in addition to the virtual vehicle 4, whether or not the width of the license plate of the virtual vehicle 4 is within the appropriate image range. And the recognition unit 50 is notified.

図12は、一例としてズーム調整前後におけるインジケータ15の表示を示した図である。この場合、ズーム調整前におけるバーチャル車両4のナンバープレートの幅に相当する画素数RがRa(Ra<R1)である場合には、カメラ調整中画像のナンバー情報の認識に影響を与えない箇所に、“NG”を示す赤色のインジケータ15が表示される。一方、ズーム調整後におけるバーチャル車両4のナンバープレートの幅に相当する画素数RがRb(R1≦Rb≦R2)である場合には、赤色のインジケータ15が“OK”を示す緑のインジケータ15に置き換えられる。   FIG. 12 is a diagram showing the display of the indicator 15 before and after zoom adjustment as an example. In this case, when the number of pixels R corresponding to the width of the license plate of the virtual vehicle 4 before zoom adjustment is Ra (Ra <R1), the recognition of the number information of the image during camera adjustment is not affected. , A red indicator 15 indicating “NG” is displayed. On the other hand, when the number of pixels R corresponding to the width of the license plate of the virtual vehicle 4 after zoom adjustment is Rb (R1 ≦ Rb ≦ R2), the red indicator 15 is changed to the green indicator 15 indicating “OK”. Replaced.

なお、インジケータ15の表示色に制限はなく、バーチャル車両4のナンバープレートの幅が適正画像範囲内に収まっているか否かを表示することができれば、何れの表示色を用いてもよいことはいうまでもない。また、インジケータ15の表示位置も、図12に示した位置に限定されないことはいうまでもない。   The display color of the indicator 15 is not limited, and any display color may be used as long as it can display whether or not the width of the license plate of the virtual vehicle 4 is within the appropriate image range. Not too long. Needless to say, the display position of the indicator 15 is not limited to the position shown in FIG.

以上に説明したナンバー認識装置100Aは、例えば、図13に示すコンピュータ70Aで実現することができる。また、画像合成プログラム80Aは、第1実施形態に係る合成プロセス88の替わりに合成プロセス88Aを含む。そして、CPU72は、合成プロセス88Aを実行することで、図11に示す合成部40Aとして動作する。なお、ナンバー認識装置100Aも第1実施形態に係るナンバー認識装置100と同様に、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。   The number recognition apparatus 100A described above can be realized by, for example, a computer 70A shown in FIG. The image composition program 80A includes a composition process 88A instead of the composition process 88 according to the first embodiment. Then, the CPU 72 operates as the synthesis unit 40A illustrated in FIG. 11 by executing the synthesis process 88A. Note that the number recognition device 100A can also be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC or the like, similarly to the number recognition device 100 according to the first embodiment.

次に、本実施形態に係るナンバー認識装置100Aの作用を説明する。なお、本実施形態に係るナンバー認識装置100Aの画像合成処理が図6に示した第1実施形態に係る画像合成処理と異なる点は、ステップS400の処理である。   Next, the operation of the number recognition device 100A according to the present embodiment will be described. Note that the image synthesizing process of the number recognition device 100A according to the present embodiment is different from the image synthesizing process according to the first embodiment shown in FIG. 6 in the process of step S400.

図14は、本実施形態に係るステップS400で実行されるバーチャル車両合成処理のサブルーチンのフローチャートである。本フローチャートでは、図10に示した第1実施形態に係るステップS400での処理を示したフローチャートに対して、新たにステップS420〜S435が追加されている。   FIG. 14 is a flowchart of a subroutine of the virtual vehicle composition process executed in step S400 according to the present embodiment. In this flowchart, steps S420 to S435 are newly added to the flowchart showing the process in step S400 according to the first embodiment shown in FIG.

ステップS420では、合成部40Aは、ステップS405の処理で調整したバーチャル車両4のナンバープレートの幅に相当する画素数が、適正画像範囲内であるか否かを判定する。そして、肯定判定の場合にはステップS425へ移行し、合成部40Aは、メモリ74から緑色のインジケータ15の画像を取得する。一方、否定判定の場合にはステップS430へ移行し、合成部40Aは、メモリ74から赤色のインジケータ15の画像を取得する。なお、赤色及び緑色のインジケータ15の画像は記憶部76に予め記憶され、CPU72が画像合成プログラム80Aをメモリ74に展開する際に、メモリ74の予め定めた領域に展開されるものとする。   In step S420, the composition unit 40A determines whether or not the number of pixels corresponding to the width of the license plate of the virtual vehicle 4 adjusted in the process of step S405 is within the appropriate image range. If the determination is affirmative, the process proceeds to step S425, and the composition unit 40A acquires the image of the green indicator 15 from the memory 74. On the other hand, in the case of a negative determination, the process proceeds to step S430, and the composition unit 40A acquires the image of the red indicator 15 from the memory 74. Note that the images of the red and green indicators 15 are stored in advance in the storage unit 76, and are expanded in a predetermined area of the memory 74 when the CPU 72 expands the image composition program 80A in the memory 74.

ステップS435では、合成部40Aは、ステップS415の処理でバーチャル車両4を合成したカメラ調整中画像に対して、ステップS425又はステップS430の処理で取得したインジケータ15の画像を合成する。この際、合成部40Aは、認識部50でのナンバー情報の認識処理に影響を与えない位置、具体的には、バーチャル車両4のナンバープレートの表示位置と重複しない位置にインジケータ15の画像を合成する。   In step S435, the combining unit 40A combines the image of the indicator 15 acquired in the process of step S425 or step S430 with the camera adjusting image in which the virtual vehicle 4 is combined in the process of step S415. At this time, the combining unit 40A combines the image of the indicator 15 at a position that does not affect the number information recognition processing in the recognition unit 50, specifically, at a position that does not overlap with the display position of the number plate of the virtual vehicle 4. To do.

なお、本実施形態では、インジケータ15の色の相違により、バーチャル車両4のナンバープレートの大きさが適正画像範囲内に収まっているか否かのシグナルを通知したが、シグナルの通知方法はこれに限られない。例えば、バーチャル車両4のナンバープレートの大きさが適正画像範囲内に収まった場合に、音声で通知したり、音声及びインジケータ15で通知したりするようにしてもよい。この場合、作業員等はカメラ調整中に画面を見る必要がなくなり、カメラ調整を実施している作業員等の視界の範囲内に画面がない場合であっても、バーチャル車両4のナンバープレートの大きさが適正画像範囲内に収まっているか否かを判定することができる。   In the present embodiment, a signal indicating whether or not the size of the license plate of the virtual vehicle 4 is within the appropriate image range is notified due to the difference in the color of the indicator 15, but the signal notification method is not limited thereto. I can't. For example, when the size of the license plate of the virtual vehicle 4 falls within the appropriate image range, the notification may be made by voice or by the voice and indicator 15. In this case, the worker or the like does not need to look at the screen during the camera adjustment, and even if the screen is not within the field of view of the worker or the like performing the camera adjustment, the license plate of the virtual vehicle 4 It can be determined whether or not the size is within the appropriate image range.

このように本実施形態に係るナンバー認識装置100Aは、カメラ調整による画像の変化に応じて調整されたバーチャル車両4のナンバープレートの大きさの目安を、インジケータ15を用いて画面上に表示する。従って、何度もカメラ調整を実施することなく、車両2のナンバープレートの大きさが適正画像範囲内に収まる位置にカメラの画像表示範囲を合わせることができるため、作業員等によるカメラ設置作業の効率を向上させることができる。   As described above, the number recognition device 100A according to the present embodiment displays on the screen, using the indicator 15, the guideline of the size of the number plate of the virtual vehicle 4 adjusted according to the image change caused by the camera adjustment. Therefore, the camera image display range can be adjusted to a position where the size of the license plate of the vehicle 2 is within the appropriate image range without performing camera adjustments many times. Efficiency can be improved.

以上、開示の技術を実施形態を用いて説明したが、開示の技術は上記実施形態に記載の範囲には限定されない。開示の技術の要旨を逸脱しない範囲で上記実施形態に多様な変更または改良を加えることができ、当該変更または改良を加えた形態も開示の技術の技術的範囲に含まれる。例えば、開示の技術の要旨を逸脱しない範囲で処理の順序を変更してもよい。   Although the disclosed technique has been described using the embodiment, the disclosed technique is not limited to the scope described in the embodiment. Various changes or improvements can be added to the above-described embodiment without departing from the gist of the disclosed technology, and forms to which the changes or improvements are added are also included in the technical scope of the disclosed technology. For example, the processing order may be changed without departing from the scope of the disclosed technology.

また、上記では開示の技術に係る画像合成プログラムの一例である画像合成プログラム80、80Aが記憶部76に予め記憶(インストール)されている態様を説明したが、これに限定されるものではない。開示の技術に係る画像合成プログラムは、コンピュータ読取可能な記録媒体に記録されている形態で提供することも可能である。例えば、開示の技術に係る画像合成プログラムは、CD−ROM、DVD−ROM、及びUSBメモリ等の可搬型記録媒体、並びに、フラッシュメモリ等の半導体メモリ等に記録されている形態で提供することも可能である。   In the above description, the mode in which the image synthesis programs 80 and 80A, which are examples of the image synthesis program according to the disclosed technology, are stored (installed) in the storage unit 76 in advance has been described. However, the present invention is not limited to this. The image composition program according to the disclosed technology can also be provided in a form recorded on a computer-readable recording medium. For example, the image composition program according to the disclosed technology may be provided in a form recorded in a portable recording medium such as a CD-ROM, a DVD-ROM, and a USB memory, and a semiconductor memory such as a flash memory. Is possible.

また、開示の技術に係る画像合成処理の一例を、車両のナンバー情報を認識するナンバー認識装置を用いて説明したが、画像の合成対象は車両に限られない。例えば、人物の顔等を認証する人物認証装置に用いられるカメラの設置作業では、実際の人物を予め用意した人物の画像(バーチャル人物)に置き換えるようにしてもよい。なお、この場合の認識対象部は人物の顔となる。   Moreover, although an example of the image composition processing according to the disclosed technology has been described using the number recognition device that recognizes the vehicle number information, the image composition target is not limited to the vehicle. For example, in the installation work of a camera used for a person authentication device for authenticating a person's face or the like, an actual person may be replaced with a person image (virtual person) prepared in advance. In this case, the recognition target portion is a human face.

以上の実施形態に関し、更に以下の付記を開示する。   Regarding the above embodiment, the following additional notes are disclosed.

(付記1)
コンピュータに、
カメラにより撮影された画像に含まれる第1の物体が有する認識対象部の大きさと同じ大きさの認識対象部を有するように、前記第1の物体に替わる代替画像の初期の大きさを設定し、
前記画像を表示する画面上で、前記第1の物体が表示されていない画像である第1の画像と、前記代替画像の初期の大きさの設定に用いた前記第1の物体が表示されている画面である第2の画像と、の各々の画像に共通して含まれる第2の物体の大きさが変化した場合に、前記画面上での前記第2の画像に含まれる前記第2の物体の大きさに対する前記第1の画像に含まれる前記第2の物体の大きさの割合を算出し、
算出した前記割合に応じて大きさを調整した前記代替画像を、前記第1の画像に合成する
ことを含む処理を実行させる画像合成方法。
(Appendix 1)
On the computer,
The initial size of the substitute image that replaces the first object is set so that the recognition target portion has the same size as the recognition target portion included in the first object included in the image captured by the camera. ,
On the screen displaying the image, the first image that is an image in which the first object is not displayed and the first object used for setting the initial size of the substitute image are displayed. And the second image included in the second image on the screen when the size of the second object included in each of the images is changed. Calculating a ratio of the size of the second object included in the first image to the size of the object;
An image composition method for executing processing including combining the substitute image, the size of which is adjusted according to the calculated ratio, with the first image.

(付記2)
前記画面上での前記第2の物体の大きさの変化の有無を、前記画面上の予め定めた位置に設けられた基準線と、前記第2の物体の境界線と、が交差する複数の地点のうち、2地点間の距離の変化によって検出する
付記1記載の画像合成方法。
(Appendix 2)
Whether or not there is a change in the size of the second object on the screen, a reference line provided at a predetermined position on the screen and a boundary line of the second object intersect with each other. The image composition method according to appendix 1, wherein the image is detected by a change in distance between two points.

(付記3)
前記第1の物体が前記基準線に到達した際に、前記代替画像の初期の大きさを設定する
付記2記載の画像合成方法。
(Appendix 3)
The image composition method according to claim 2, wherein an initial size of the substitute image is set when the first object reaches the reference line.

(付記4)
前記第1の画像に合成する前記代替画像の大きさを調整する際、前記割合に応じて調整した前記代替画像に含まれる認識対象部の前記基準線に沿った方向の長さが、前記画面上で前記代替画像に含まれる認識対象部を認識するのに適した予め定めた範囲内に含まれる場合に、シグナルを通知する
付記2又は付記3記載の画像合成方法。
(Appendix 4)
When adjusting the size of the substitute image to be combined with the first image, the length in the direction along the reference line of the recognition target portion included in the substitute image adjusted according to the ratio is the screen. The image composition method according to Supplementary Note 2 or Supplementary Note 3, wherein a signal is notified when the signal is included in a predetermined range suitable for recognizing a recognition target part included in the substitute image.

(付記5)
コンピュータに、
カメラにより撮影された画像に含まれる第1の物体が有する認識対象部の大きさと同じ大きさの認識対象部を有するように、前記第1の物体に替わる代替画像の初期の大きさを設定し、
前記画像を表示する画面上で、前記第1の物体が表示されていない画像である第1の画像と、前記代替画像の初期の大きさの設定に用いた前記第1の物体が表示されている画面である第2の画像と、の各々の画像に共通して含まれる第2の物体の大きさが変化した場合に、前記画面上での前記第2の画像に含まれる前記第2の物体の大きさに対する前記第1の画像に含まれる前記第2の物体の大きさの割合を算出し、
算出した前記割合に応じて大きさを調整した前記代替画像を、前記第1の画像に合成する
ことを含む処理を実行させるための画像合成プログラム。
(Appendix 5)
On the computer,
The initial size of the substitute image that replaces the first object is set so that the recognition target portion has the same size as the recognition target portion included in the first object included in the image captured by the camera. ,
On the screen displaying the image, the first image that is an image in which the first object is not displayed and the first object used for setting the initial size of the substitute image are displayed. And the second image included in the second image on the screen when the size of the second object included in each of the images is changed. Calculating a ratio of the size of the second object included in the first image to the size of the object;
An image synthesis program for executing processing including synthesizing the substitute image whose size is adjusted in accordance with the calculated ratio with the first image.

(付記6)
コンピュータに、
カメラにより撮影された画像に含まれる第1の物体が有する認識対象部の大きさと同じ大きさの認識対象部を有するように、前記第1の物体に替わる代替画像の初期の大きさを設定し、
前記画像を表示する画面上で、前記第1の物体が表示されていない画像である第1の画像と、前記代替画像の初期の大きさの設定に用いた前記第1の物体が表示されている画面である第2の画像と、の各々の画像に共通して含まれる第2の物体の大きさが変化した場合に、前記画面上での前記第2の画像に含まれる前記第2の物体の大きさに対する前記第1の画像に含まれる前記第2の物体の大きさの割合を算出し、
算出した前記割合に応じて大きさを調整した前記代替画像を、前記第1の画像に合成する
ことを含む処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
(Appendix 6)
On the computer,
The initial size of the substitute image that replaces the first object is set so that the recognition target portion has the same size as the recognition target portion included in the first object included in the image captured by the camera. ,
On the screen displaying the image, the first image that is an image in which the first object is not displayed and the first object used for setting the initial size of the substitute image are displayed. And the second image included in the second image on the screen when the size of the second object included in each of the images is changed. Calculating a ratio of the size of the second object included in the first image to the size of the object;
A computer-readable recording medium storing a program for executing a process including combining the first image with the substitute image whose size is adjusted according to the calculated ratio.

(付記7)
カメラにより撮影された画像に含まれる第1の物体が有する認識対象部の大きさと同じ大きさの認識対象部を有するように、前記第1の物体に替わる代替画像の初期の大きさを設定する設定部と、
前記画像を表示する画面上で、前記第1の物体が表示されていない画像である第1の画像と、前記設定部による前記代替画像の初期の大きさの設定に用いられた前記第1の物体が表示されている画面である第2の画像と、の各々の画像に共通して含まれる第2の物体の大きさが変化した場合に、前記画面上での前記第2の画像に含まれる前記第2の物体の大きさに対する前記第1の画像に含まれる前記第2の物体の大きさの割合を算出する算出部と、
前記算出部により算出された前記割合に応じて大きさを調整した前記代替画像を、前記第1の画像に合成する合成部と、
を含む画像合成装置。
(Appendix 7)
The initial size of the substitute image replacing the first object is set so as to have a recognition target portion having the same size as the recognition target portion included in the first object included in the image photographed by the camera. A setting section;
On the screen displaying the image, the first image that is an image on which the first object is not displayed and the first size used for setting the initial size of the substitute image by the setting unit Included in the second image on the screen when the size of the second object that is commonly included in each of the images and the second image that is the screen on which the object is displayed has changed A calculator that calculates a ratio of the size of the second object included in the first image to the size of the second object
A synthesizing unit that synthesizes the substitute image, the size of which is adjusted according to the ratio calculated by the calculating unit, with the first image;
An image synthesizing apparatus.

(付記8)
前記算出部は、前記画面上での前記第2の物体の大きさの変化の有無を、前記画面上の予め定めた位置に設けられた基準線と、前記第2の物体の境界線と、が交差する複数の地点のうち、2地点間の距離の変化によって検出する
付記7記載の画像合成装置。
(Appendix 8)
The calculation unit determines whether or not the size of the second object changes on the screen, a reference line provided at a predetermined position on the screen, a boundary line of the second object, The image composition device according to claim 7, wherein the image composition device is detected by a change in a distance between two points among a plurality of points intersecting each other.

(付記9)
前記設定部は、前記第1の物体が前記基準線に到達した際に、前記代替画像の初期の大きさを設定する
付記8記載の画像合成装置。
(Appendix 9)
The image composing apparatus according to claim 8, wherein the setting unit sets an initial size of the substitute image when the first object reaches the reference line.

(付記10)
前記調整部は、前記第1の画像に合成する前記代替画像の大きさを調整する際、前記割合に応じて調整した前記代替画像に含まれる認識対象部の前記基準線に沿った方向の長さが、前記画面上で前記代替画像に含まれる認識対象部を認識するのに適した予め定めた範囲内に含まれる場合に、シグナルを通知する
付記8又は付記9記載の画像合成装置。
(Appendix 10)
The adjustment unit adjusts the size of the substitute image to be combined with the first image, and the length of the recognition target unit included in the substitute image adjusted according to the ratio in the direction along the reference line. The image synthesizing apparatus according to Supplementary Note 8 or Supplementary Note 9, wherein the signal is notified when the signal is included in a predetermined range suitable for recognizing the recognition target part included in the substitute image on the screen.

2 車両
4 バーチャル車両
6 基準線
10 取得部
15 インジケータ
20 設定部
30 算出部
40、40A 合成部
50 認識部
60、60A 画像合成部
70、70A コンピュータ
80、80A 画像合成プログラム
100、100A ナンバー認識装置
2 Vehicle 4 Virtual vehicle 6 Reference line 10 Acquisition unit 15 Indicator 20 Setting unit 30 Calculation unit 40, 40A Composition unit 50 Recognition unit 60, 60A Image composition unit 70, 70A Computer 80, 80A Image composition program 100, 100A Number recognition device

Claims (6)

コンピュータに、
カメラにより撮影された画像に含まれる第1の物体が有する認識対象部の大きさと同じ大きさの認識対象部を有するように、前記第1の物体に替わる代替画像の初期の大きさを設定し、
前記画像を表示する画面上で、前記第1の物体が表示されていない画像である第1の画像と、前記代替画像の初期の大きさの設定に用いた前記第1の物体が表示されている画面である第2の画像と、の各々の画像に共通して含まれる第2の物体の大きさが変化した場合に、前記画面上での前記第2の画像に含まれる前記第2の物体の大きさに対する前記第1の画像に含まれる前記第2の物体の大きさの割合を算出し、
算出した前記割合に応じて大きさを調整した前記代替画像を、前記第1の画像に合成する
ことを含む処理を実行させる画像合成方法。
On the computer,
The initial size of the substitute image that replaces the first object is set so that the recognition target portion has the same size as the recognition target portion included in the first object included in the image captured by the camera. ,
On the screen displaying the image, the first image that is an image in which the first object is not displayed and the first object used for setting the initial size of the substitute image are displayed. And the second image included in the second image on the screen when the size of the second object included in each of the images is changed. Calculating a ratio of the size of the second object included in the first image to the size of the object;
An image composition method for executing processing including combining the substitute image, the size of which is adjusted according to the calculated ratio, with the first image.
前記画面上での前記第2の物体の大きさの変化の有無を、前記画面上の予め定めた位置に設けられた基準線と、前記第2の物体の境界線と、が交差する複数の地点のうち、2地点間の距離の変化によって検出する
請求項1記載の画像合成方法。
Whether or not there is a change in the size of the second object on the screen, a reference line provided at a predetermined position on the screen and a boundary line of the second object intersect with each other. The image composition method according to claim 1, wherein detection is performed by a change in distance between two points.
前記第1の物体が前記基準線に到達した際に、前記代替画像の初期の大きさを設定する
請求項2記載の画像合成方法。
The image composition method according to claim 2, wherein when the first object reaches the reference line, an initial size of the substitute image is set.
前記第1の画像に合成する前記代替画像の大きさを調整する際、前記割合に応じて調整した前記代替画像に含まれる認識対象部の前記基準線に沿った方向の長さが、前記画面上で前記代替画像に含まれる認識対象部を認識するのに適した予め定めた範囲内に含まれる場合に、シグナルを通知する
請求項2又は請求項3記載の画像合成方法。
When adjusting the size of the substitute image to be combined with the first image, the length in the direction along the reference line of the recognition target portion included in the substitute image adjusted according to the ratio is the screen. The image synthesizing method according to claim 2 or 3, wherein a signal is notified when the signal is included in a predetermined range suitable for recognizing a recognition target portion included in the substitute image.
コンピュータに、
カメラにより撮影された画像に含まれる第1の物体が有する認識対象部の大きさと同じ大きさの認識対象部を有するように、前記第1の物体に替わる代替画像の初期の大きさを設定し、
前記画像を表示する画面上で、前記第1の物体が表示されていない画像である第1の画像と、前記代替画像の初期の大きさの設定に用いた前記第1の物体が表示されている画面である第2の画像と、の各々の画像に共通して含まれる第2の物体の大きさが変化した場合に、前記画面上での前記第2の画像に含まれる前記第2の物体の大きさに対する前記第1の画像に含まれる前記第2の物体の大きさの割合を算出し、
算出した前記割合に応じて大きさを調整した前記代替画像を、前記第1の画像に合成する
ことを含む処理を実行させるための画像合成プログラム。
On the computer,
The initial size of the substitute image that replaces the first object is set so that the recognition target portion has the same size as the recognition target portion included in the first object included in the image captured by the camera. ,
On the screen displaying the image, the first image that is an image in which the first object is not displayed and the first object used for setting the initial size of the substitute image are displayed. And the second image included in the second image on the screen when the size of the second object included in each of the images is changed. Calculating a ratio of the size of the second object included in the first image to the size of the object;
An image synthesis program for executing processing including synthesizing the substitute image whose size is adjusted in accordance with the calculated ratio with the first image.
カメラにより撮影された画像に含まれる第1の物体が有する認識対象部の大きさと同じ大きさの認識対象部を有するように、前記第1の物体に替わる代替画像の初期の大きさを設定する設定部と、
前記画像を表示する画面上で、前記第1の物体が表示されていない画像である第1の画像と、前記設定部による前記代替画像の初期の大きさの設定に用いられた前記第1の物体が表示されている画面である第2の画像と、の各々の画像に共通して含まれる第2の物体の大きさが変化した場合に、前記画面上での前記第2の画像に含まれる前記第2の物体の大きさに対する前記第1の画像に含まれる前記第2の物体の大きさの割合を算出する算出部と、
前記算出部により算出された前記割合に応じて大きさを調整した前記代替画像を、前記第1の画像に合成する合成部と、
を含む画像合成装置。
The initial size of the substitute image replacing the first object is set so as to have a recognition target portion having the same size as the recognition target portion included in the first object included in the image photographed by the camera. A setting section;
On the screen displaying the image, the first image that is an image on which the first object is not displayed and the first size used for setting the initial size of the substitute image by the setting unit Included in the second image on the screen when the size of the second object that is commonly included in each of the images and the second image that is the screen on which the object is displayed has changed A calculator that calculates a ratio of the size of the second object included in the first image to the size of the second object
A synthesizing unit that synthesizes the substitute image, the size of which is adjusted according to the ratio calculated by the calculating unit, with the first image;
An image synthesizing apparatus.
JP2014072006A 2014-03-31 2014-03-31 Image composition method, program, and apparatus Active JP6235956B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014072006A JP6235956B2 (en) 2014-03-31 2014-03-31 Image composition method, program, and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014072006A JP6235956B2 (en) 2014-03-31 2014-03-31 Image composition method, program, and apparatus

Publications (2)

Publication Number Publication Date
JP2015194860A JP2015194860A (en) 2015-11-05
JP6235956B2 true JP6235956B2 (en) 2017-11-22

Family

ID=54433825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014072006A Active JP6235956B2 (en) 2014-03-31 2014-03-31 Image composition method, program, and apparatus

Country Status (1)

Country Link
JP (1) JP6235956B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110930300B (en) * 2019-12-09 2023-09-29 上海扩博智能技术有限公司 Image correction method, system, device and storage medium
JP7472738B2 (en) 2020-09-24 2024-04-23 沖電気工業株式会社 Installation Adjustment System

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3799861B2 (en) * 1999-02-24 2006-07-19 株式会社日立製作所 Image synthesizing apparatus and recording medium on which program for executing image synthesizing method is recorded
JP5258601B2 (en) * 2009-01-29 2013-08-07 三菱電機株式会社 License plate reader and license plate reading system

Also Published As

Publication number Publication date
JP2015194860A (en) 2015-11-05

Similar Documents

Publication Publication Date Title
EP3193320B1 (en) Method for collecting evidence of vehicle parking violation, and apparatus therefor
JP5594246B2 (en) Lane recognition device
CN106663193B (en) System and method for curb detection and pedestrian hazard assessment
JP4793324B2 (en) Vehicle monitoring apparatus and vehicle monitoring method
JP4702569B2 (en) Image processing apparatus for vehicle
JP2010072807A (en) Device for detecting and determining road boundary
US9152865B2 (en) Dynamic zone stabilization and motion compensation in a traffic management apparatus and system
JP6083976B2 (en) Lane status discrimination device and lane status discrimination method
JP2010117800A (en) Parking lot monitoring device and method
JP2012155516A (en) Vehicle behavior recording system
JP6512793B2 (en) Imaging device, surveillance camera system, control method and program for imaging device
JP6235956B2 (en) Image composition method, program, and apparatus
JP6152261B2 (en) Car parking frame recognition device
WO2017099047A1 (en) Position information identification method, position information identification device, and position information identification program
KR101635831B1 (en) Apparatus and method for recognizing position of vehicle
JP5012522B2 (en) Roadside boundary surface detection device
CN113420714A (en) Collected image reporting method and device and electronic equipment
EP3951744A1 (en) Image processing device, vehicle control device, method, and program
JP6658124B2 (en) Imaging device, method, and program, display control device, and program
JP7356383B2 (en) Image judgment device, image judgment method, and program
JP6935690B2 (en) Detection programs, methods, and equipment
JP6004216B1 (en) Position information specifying method, position information specifying apparatus, and position information specifying program
JP2009143385A (en) Movable body detection device, movable body detection method, and movable body detection program
JP2009032030A (en) Vehicle detector
JP2009214790A (en) Apparatus and method for imaging, and apparatus and method for processing image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171027

R150 Certificate of patent or registration of utility model

Ref document number: 6235956

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350