JP6235956B2 - Image composition method, program, and apparatus - Google Patents
Image composition method, program, and apparatus Download PDFInfo
- Publication number
- JP6235956B2 JP6235956B2 JP2014072006A JP2014072006A JP6235956B2 JP 6235956 B2 JP6235956 B2 JP 6235956B2 JP 2014072006 A JP2014072006 A JP 2014072006A JP 2014072006 A JP2014072006 A JP 2014072006A JP 6235956 B2 JP6235956 B2 JP 6235956B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- size
- screen
- vehicle
- substitute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
開示の技術は、画像合成方法、プログラム、及び装置に関する。 The disclosed technology relates to an image composition method, a program, and an apparatus.
近年、道路や駐車場等の交通インフラや交通インフラを利用する車両等にカメラが設置され、人間の目に変わって取得された映像が車両通行の円滑化や安全確保、更にはエンターテインメント等、様々な用途に利用されている。 In recent years, cameras have been installed in traffic infrastructure such as roads and parking lots, and vehicles that use traffic infrastructure, and the images acquired in the eyes of humans can be used for various purposes such as facilitating vehicle traffic, ensuring safety, and entertainment. It is used for various purposes.
例えば、車両に設けられたカメラで撮影した画像と、車両に設けられた水平レーザーを用いて計測した、車両から車両周囲の建物までの距離情報と、を用いて、仮想3次元空間を作成し、道案内等に利用する技術が提案されている。 For example, a virtual three-dimensional space is created using an image captured by a camera provided in the vehicle and distance information from the vehicle to a building around the vehicle measured using a horizontal laser provided in the vehicle. Techniques used for route guidance have been proposed.
また、車両前方の左右にカメラを設置し、カメラの画像から抽出した地点の動きベクトル、車両の速度、及びカメラの画角に基づいて、道路幅を推定する技術が提案されている。 In addition, a technique has been proposed in which cameras are installed on the left and right in front of the vehicle, and the road width is estimated based on the motion vector of the point extracted from the camera image, the vehicle speed, and the angle of view of the camera.
しかしながら、従来では上記に説明したように、カメラで取得した画像の利用面に関しての提案が行われるばかりであり、利用に適した画像を取得するためのカメラ設置作業の効率化を目的とした提案は行われていない。 However, as described above, in the past, proposals have only been made regarding the use of images acquired by cameras, and proposals aimed at improving the efficiency of camera installation work for acquiring images suitable for use. Is not done.
そこで、開示の技術は一つの側面として、カメラのモニタ画面上における被写体の大きさの調整を伴うカメラ設置作業の効率を向上させることを目的とする。 Therefore, as an aspect of the disclosed technology, an object is to improve the efficiency of camera installation work that involves adjusting the size of a subject on the monitor screen of the camera.
開示の技術は、カメラにより撮影された画像に含まれる第1の物体が有する認識対象部の大きさと同じ大きさの認識対象部を有するように、第1の物体に替わる代替画像の初期の大きさを設定する。そして、第1の物体が表示されていない第1の画像と、代替画像の初期の大きさの設定に用いた第1の物体が表示されている第2の画像の両方に含まれる第2の物体の画面上での大きさが変化した場合に、両画像における第2の物体の大きさの変化の割合を算出する。そして、算出した割合に応じて大きさを調整した代替画像を第1の画像に合成する。 In the disclosed technique, the initial size of the substitute image replacing the first object is such that the recognition target portion has the same size as the recognition target portion included in the first object included in the image captured by the camera. Set the size. The second image included in both the first image in which the first object is not displayed and the second image in which the first object used for setting the initial size of the substitute image is displayed. When the size of the object on the screen changes, the ratio of the change in the size of the second object in both images is calculated. Then, the substitute image whose size is adjusted according to the calculated ratio is synthesized with the first image.
開示の技術は、カメラのモニタ画面上における被写体の大きさの調整を伴うカメラ設置作業の効率を向上させることができる、という効果を有する。 The disclosed technique has an effect that the efficiency of the camera installation work accompanied by the adjustment of the size of the subject on the monitor screen of the camera can be improved.
以下、図面を参照して、開示の技術の実施形態の一例を詳細に説明する。 Hereinafter, an example of an embodiment of the disclosed technology will be described in detail with reference to the drawings.
(第1実施形態) (First embodiment)
交通インフラへの画像認識技術の適用例として、ナンバー認識装置の設置が挙げられる。ナンバー認識装置は、道路上を通行する車両の画像をカメラで取得し、取得した画像から認識対象であるナンバープレートを検出して、ナンバープレートに記載されているナンバー情報を読み取る装置である。 An example of application of image recognition technology to transportation infrastructure is the installation of a number recognition device. The number recognition device is a device that acquires an image of a vehicle passing on a road with a camera, detects a number plate that is a recognition target from the acquired image, and reads number information described on the number plate.
ナンバー認識装置に備えられた認識性能を引き出すためには、カメラで撮影した画像が表示されるモニタ画面上(以下、「画面上」という)でのナンバープレートの大きさを、ナンバー認識装置の取扱説明書等に記載された範囲内に収める必要がある。従って、作業員がカメラの画像を画面で見ながらカメラのズームやピントを調整して、実際にナンバー認識装置で車両のナンバー情報を読み取れるか確認しながら、カメラの設置作業を進めている。 In order to bring out the recognition performance of the number recognition device, the size of the license plate on the monitor screen (hereinafter referred to as “on the screen”) on which the images taken by the camera are displayed is handled by the number recognition device. It must be within the range described in the manual. Accordingly, the operator is proceeding with the camera installation while checking whether the number information of the vehicle can be actually read by the number recognition device by adjusting the zoom and focus of the camera while viewing the image of the camera on the screen.
しかし、道路を通行する車両の位置は一定でないため、カメラからナンバープレートまでの距離が変動することで、画面上に表示されるナンバープレートの大きさが変化する。また、カメラの設置位置や設置角度を変更するカメラ調整を実施した場合にも、画面上に表示されるナンバープレートの大きさが変化する。 However, since the position of the vehicle traveling on the road is not constant, the size of the license plate displayed on the screen changes as the distance from the camera to the license plate varies. Also, when the camera adjustment is performed to change the camera installation position or installation angle, the size of the license plate displayed on the screen changes.
そのため、1回のカメラ調整でカメラの設置作業を終了することは困難であり、実際には、作業員は車両が通過するのを待って、複数回に亘りカメラ調整と車両ナンバーの読み取り確認を実施して、よりナンバー認識率が向上するカメラ調整を行う必要がある。 For this reason, it is difficult to complete the camera installation work with a single camera adjustment. In fact, the worker waits for the vehicle to pass and performs camera adjustment and vehicle number reading confirmation multiple times. It is necessary to perform camera adjustment to improve the number recognition rate.
更に言えば、ナンバー認識装置の動作確認を実施する際にタイミングよく車両が道路を通行する保証もなく、作業員はカメラ調整を実施する度に車両が通行するまで待機する必要があり、カメラの設置作業の進行に支障をきたすことになる。また、逆に、道路が車両で渋滞し、カメラで車両のナンバープレートを撮影できない程に車両間隔が狭くなっている場合も、ナンバー認識装置の動作確認が進まず、カメラの設置作業の進行に支障をきたすことがある。 Furthermore, there is no guarantee that the vehicle will pass through the road in a timely manner when checking the operation of the number recognition device, and the worker will have to wait until the vehicle passes every time the camera is adjusted. This will hinder the progress of the installation work. Conversely, when the road is congested with vehicles and the distance between the vehicles is so narrow that the number plate of the vehicle cannot be photographed with the camera, the operation of the number recognition device does not proceed and the camera installation work proceeds. May cause trouble.
そのため、これまではカメラ設置作業に際して交通整理を実施して車両の通行量を調整したり、道路を通行止めにしてテスト車両を走らせたりして、ナンバー認識装置の動作確認を行う場合があった。しかし、この場合でも、カメラ調整毎に何度もテスト車両を走行させなければならず、カメラの設置作業に要する労力の低減を図る必要性が浮かび上がってきた。 For this reason, there have been cases where the operation of the number recognition device has been confirmed by adjusting traffic during the camera installation work to adjust the amount of traffic of the vehicle or running the test vehicle with the road closed. However, even in this case, it is necessary to run the test vehicle many times for each camera adjustment, and the necessity of reducing the labor required for the camera installation work has emerged.
以下では、カメラの設置作業の効率化を図るため、カメラで撮影した画像に、予め用意された擬似的な車両の画像(バーチャル車両)を合成し、バーチャル車両のナンバーが認識できるか否かによってカメラ調整が進められるナンバー認識装置について説明する。なお、説明を簡略化するため、以下の説明ではカメラで撮影した画像には一車線分の道路しか映っていないものとして説明するが、複数車線の道路が映った画像であってもよいことはいうまでもない。 In the following, in order to improve the efficiency of camera installation work, a virtual vehicle image (virtual vehicle) prepared in advance is combined with an image captured by the camera, and whether or not the number of the virtual vehicle can be recognized A number recognition apparatus in which camera adjustment is advanced will be described. In order to simplify the explanation, in the following explanation, it is assumed that the image taken by the camera shows only one lane of road, but it may be an image showing a road of multiple lanes. Needless to say.
図1には、本実施形態に係るナンバー認識装置100が示されている。
FIG. 1 shows a
ナンバー認識装置100は、取得部10、設定部20、算出部30、合成部40、及び認識部50を含む。このうち、設定部20、算出部30、及び合成部40をまとめて画像合成部60と称する場合がある。
The
取得部10はカメラと有線又は無線で接続され、カメラからの画像を取得して監視対象である車両を検出すると共に、検出した車両が画面上の予め指定した基準線に到達した際に、画面に表示された画像を取得する。以下、車両が基準線に到達した際に取得した画像をキャプチャ画像という。
The
本実施形態では、画面垂直方向の道路上を進行する車両が画面中央位置に到達したタイミングでキャプチャ画像を取得するため、車両の画面垂直方向の長さを考慮して、基準線を画面下部の画面水平方向に設定する。 In this embodiment, in order to acquire a captured image when a vehicle traveling on a road in the vertical direction of the screen reaches the center position of the screen, the reference line is set at the bottom of the screen in consideration of the length of the vehicle in the vertical direction of the screen. Set the screen horizontally.
取得部10は、作業員等により画面上に設定された車両を検出するための範囲(指定エリア)内に車両が進入したか否かを検出する。そして、指定エリア内に車両が進入したことを検出すると、取得部10は、例えば画像に含まれるフレーム毎に車両の位置を検出する。すなわち、取得部10は、例えばカメラからの画像が30fps(frame per second)であれば、1秒間に30回車両の位置を検出する。そして、取得部10は、車両が基準線に到達した際に画面に表示されている画像全体をキャプチャ画像として取得する。車両位置の検出には公知の技術が適用され、例えば、フレームに含まれる道路の色情報と車両の色情報との相違から車両の位置を検出する。
The
そして、例えばナンバー認識装置100の動作モードが、カメラ調整中であることを示すカメラ調整モードに設定されている場合、取得部10は、設定部20へキャプチャ画像を取得したことを通知する。更に、取得部10は、キャプチャ画像の取得後も画像合成部60へカメラからの画像を通知する。一方、ナンバー認識装置100の動作モードが、実際に運用中であることを示す運用モードに設定されている場合、取得部10は、認識部50へキャプチャ画像を取得したことを通知する。
For example, when the operation mode of the
なお、画面上に設定する基準線の位置に応じて、キャプチャ画像における車両の位置を変更することができるため、例えば、よりナンバープレートが鮮明に表示される位置で車両のキャプチャ画像を取得する等の設定が可能となる。 Since the position of the vehicle in the captured image can be changed according to the position of the reference line set on the screen, for example, the captured image of the vehicle is acquired at a position where the license plate is displayed more clearly. Can be set.
図2は、取得部10での画像の取得の様子を説明した図であり、画面上に設定された指定エリア8内で車両2を検出してから3フレーム目に車両2が基準線6に達した状態を示している。そして、取得部10は、指定エリア8内で車両2を検出してから3フレーム目の画像をキャプチャ画像として取得する。
FIG. 2 is a diagram for explaining how the
設定部20は、取得部10で取得したキャプチャ画像から車両2のナンバープレートの大きさを求める。ここでナンバープレートの大きさとは、基準線6に沿った方向のナンバープレートの長さ(ナンバープレートの幅)と、基準線6と直交する方向のナンバープレートの長さ(ナンバープレートの高さ)と、をいう。
The setting
なお、ナンバープレートの大きさの抽出には公知の技術が適用され、例えば、キャプチャ画像からナンバープレートの輪郭を抽出して、ナンバープレートの大きさを求めることができる。また、ナンバープレートの表示色は予め定められていることから、キャプチャ画像における各画素の色成分と、ナンバープレートの表示色の色成分と、を比較することで、キャプチャ画像からナンバープレートの大きさを抽出することができる。 A known technique is applied to the extraction of the license plate size. For example, the license plate size can be obtained by extracting the outline of the license plate from the captured image. In addition, since the license plate display color is predetermined, the size of the license plate from the captured image can be determined by comparing the color component of each pixel in the captured image with the color component of the license plate display color. Can be extracted.
そして、設定部20は、バーチャル車両4のナンバープレートの大きさが、車両2のナンバープレートの大きさと一致するように、バーチャル車両4全体の大きさを拡大又は縮小して、バーチャル車両4の初期の大きさを設定する。そして、設定部20は、画面上におけるキャプチャ画像の車両2のナンバープレートの表示位置と、バーチャル車両4のナンバープレートの表示位置が一致するように、キャプチャ画像の車両2をバーチャル車両4で置き換える。
Then, the setting
なお、本実施形態では、設定したバーチャル車両4の大きさをキャプチャ画面上で確認するため、キャプチャ画像の車両2をバーチャル車両4で置き換えるようにしたが、キャプチャ画像の車両2をバーチャル車両4で置き換える処理は必須ではない。ここでは、車両2のナンバープレートの大きさと同じ大きさを有するバーチャル車両4の大きさが設定できればよい。
In this embodiment, in order to confirm the size of the set
図3は、設定部20でキャプチャ画像に表示された車両2がバーチャル車両4に置き換えられる様子を示した図である。この際、車両2の基準線6に沿った方向の長さがH1、バーチャル車両4の基準線6に沿った方向の長さがH2と異なる場合であっても、各々の車両のナンバープレートは同じ大きさになる。
FIG. 3 is a diagram illustrating a state where the
算出部30は、車両2をバーチャル車両4に置き換えたキャプチャ画像から、バーチャル車両4が通行する道路の画面上の道路幅L0を算出する。そのため、算出部30は、基準線6と、道路の左右に存在する車両通行帯境界線(境界線)と、が交差する地点間を結ぶ距離、具体的には2地点間を結ぶ直線の基準線6に沿った画素数を計測して道路幅L0を算出する。キャプチャ画面における道路の境界線の抽出には、キャプチャ画像の2値化処理やラプラシアンフィルタを用いたフィルタ処理等、公知の画像処理技術が用いられる。
The
更に算出部30は、取得部10から通知されるキャプチャ画像取得後のカメラの画像(カメラ調整中画像)を監視し、引き続き、カメラ調整中画像の各々に表示される道路の境界線を抽出して、基準線6に沿った画面上の道路幅を算出する。そして、算出部30は、ズーム率の変更等のカメラ調整により、カメラ調整中画像の道路幅がキャプチャ画像における道路幅L0から道路幅L1に変化した際に、道路幅の変化率であるL1/L0を算出して合成部40へ通知する。
Further, the
このように、作業員等がカメラ調整を実施した場合、それに伴い画面に表示される画像の範囲が変更される。従って、算出部30は、カメラ調整が実施されたか否かを、キャプチャ画像及びカメラ調整中画像の各々の画像に含まれる共通の物体である道路の幅の変化で検出しているということができる。なお、本実施形態では、カメラ調整中画像に車両2は表示されていないものとする。
Thus, when a worker or the like performs camera adjustment, the range of the image displayed on the screen is changed accordingly. Therefore, it can be said that the
合成部40は、キャプチャ画像におけるバーチャル車両4のナンバープレートの大きさが道路幅の変化率と同じL1/L0倍となるように、キャプチャ画像のバーチャル車両4の縦横比を保ったまま、バーチャル車両4全体の大きさを調整する。そして、合成部40は、道路幅の変化率に応じて大きさを調整したバーチャル車両4と、道路幅がL1となったカメラ調整中画像とを合成し、合成した画像を認識部50へ通知する。
The synthesizing
図4は、合成部40によってナンバープレートの大きさが調整されたバーチャル車両4をカメラ調整中画像に合成した様子を示した図である。
FIG. 4 is a diagram illustrating a state in which the
例えば図4に示すように、例えば、キャプチャ画像、すなわちカメラ調整前における画像の基準線6に沿った道路幅をL0、その際のバーチャル車両4のナンバープレートの幅をW0とする。そして、カメラ調整中画像の基準線6に沿った道路幅がL1となった場合に、合成部40は、カメラ調整中画像におけるバーチャル車両4のナンバープレートの幅W1を、W1=W0*(L1/L0)によって算出する。そして、合成部40は、画面上におけるバーチャル車両4のナンバープレートの幅がW1となるように、バーチャル車両4の縦横比を保ったまま、バーチャル車両4全体の大きさを調整する。このようにバーチャル車両4の大きさを調整することで、バーチャル車両4のナンバープレートの大きさが道路幅の変化率と同じL1/L0倍になる。なお、本実施形態では、画面に表示される画像の範囲の変化を道路幅の変化で検出したが、キャプチャ画像及びカメラ調整中画像の各々の画像に共通して含まれ、各々の画像間で大きさの変化を比較することができる物体であればどのようなものを用いてもよい。
For example, as shown in FIG. 4, for example, the captured image, that is, the road width along the
更に、合成部40は、バーチャル車両4のナンバープレートの底辺が基準線6と接触し、且つ、基準線6に沿った道路幅の中央と、バーチャル車両4のナンバープレートの幅方向の中央と、が一致する位置に、バーチャル車両4をカメラ調整中画像に合成する。
Furthermore, the combining
そして、認識部50は、ナンバー認識装置100の動作モードがカメラ調整モードに設定されている場合、合成部40でカメラ調整中画像に合成されたバーチャル車両4のナンバー情報を認識する。一方、認識部50は、ナンバー認識装置100の動作モードが運用モードに設定されている場合、取得部10で取得されたキャプチャ画像に表示されている車両2のナンバー情報を認識する。
And the
このように、第1実施形態のナンバー認識装置100では、カメラ調整に伴う画面上のカメラ調整中画像の範囲の変化に応じて、道路を通行する車両2のナンバープレートの大きさから算出したナンバープレートの大きさを有するバーチャル車両4を合成する。従って、カメラ調整の実施毎に車両2の通過を待つことなく、現在のカメラ取り付け位置及びズーム率で、車両2のナンバー情報が認識できるか否かを確認することができる。
Thus, in the
以上に説明したナンバー認識装置100は、例えば、図5に示すコンピュータ70で実現することができる。コンピュータ70は、CPU72、メモリ74、及び不揮発性の記憶部76を含み、これらはバス78を介して互いに接続される。
The
また、記憶部76はHDD(Hard Disk Drive)又はフラッシュメモリ等によって実現できる。記憶媒体としての記憶部76には、コンピュータ70をカメラ調整モードを有するナンバー認識装置100として機能させるための画像合成プログラム80が記憶されている。CPU72は、画像合成プログラム80を記憶部76から読み出してメモリ74に展開し、画像合成プログラム80に含まれる各種プロセスを順次実行する。
The
画像合成プログラム80は、取得プロセス82、置換プロセス84、算出プロセス86、合成プロセス88、及び認識プロセス90を含む。
The
CPU72は、取得プロセス82を実行することで、図1に示す取得部10として動作する。また、CPU72は、置換プロセス84を実行することで、図1に示す設定部20として動作する。また、CPU72は、算出プロセス86を実行することで、図1に示す算出部30として動作する。また、CPU72は、合成プロセス88を実行することで、図1に示す合成部40として動作する。また、CPU72は、認識プロセス90を実行することで、図1に示す認識部50として動作する。
The
以上により、画像合成プログラム80を実行したコンピュータ70が、ナンバー認識装置100として動作する。
As described above, the
なお、一例として、CPU72にはタイマが内蔵され、CPU72は、画像合成プログラム80からの要求によりタイマを起動及び停止すると共に、タイマ起動からの経過時間を画像合成プログラム80へ通知する機能を有するものとする。また、画像合成プログラム80は、開示の技術における画像合成プログラムの一例を示したものである。また、ナンバー認識装置100は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。
As an example, the
次に、本実施形態に係るナンバー認識装置100の作用を説明する。なお、本実施形態に係るナンバー認識装置100の動作モードはカメラ調整モードに予め設定されており、ナンバー認識装置100の起動後に図6に示す画像合成処理を実行する。また、カメラで撮影された画像は、メモリ74の予め定めた領域に時系列に従ってフレーム単位で記憶されるものとする。また、画面上には指定エリア8及び基準線6が予め設定されているものとする。更に、バーチャル車両4は記憶部76に予め記憶され、CPU72が画像合成プログラム80をメモリ74に展開する際に、メモリ74の予め定めた領域に展開されるものとする。
Next, the operation of the
図6は、ナンバー認識装置100で実行される画像合成処理の全体を示したフローチャートである。画像合成処理はステップS100〜S500の処理を含む。
FIG. 6 is a flowchart showing the entire image composition process executed by the
まず、ステップS100のキャプチャ画像取得処理について説明する。図7は、ステップS100で実行されるキャプチャ画像取得処理のサブルーチンのフローチャートである。 First, the captured image acquisition process in step S100 will be described. FIG. 7 is a flowchart of a subroutine of captured image acquisition processing executed in step S100.
まず、ステップS105では、取得部10は、メモリ74に記憶される画像のフレームを参照して、画面に設定された指定エリア8内に車両2が存在するか否かを判定する。
First, in step S <b> 105, the
そして、ステップS110では、取得部10は、ステップS105の処理で指定エリア8内に車両2が存在すると判定した場合にはステップS120へ処理を移行し、そうでないと判定した場合には、ステップS115へ処理を移行する。
In step S110, the
ステップS115では、取得部10は、メモリ74からステップS105の処理で参照したフレームの次のフレームを取得し、ステップS105へ移行する。すなわち、取得部10は、指定エリア8内に車両2が存在するフレームが検出されるまで、ステップS105〜S115の処理を繰り返す。
In step S115, the
ステップS120では、取得部10は、指定エリア8内における車両2の位置を判定する。そして、ステップS125では、取得部10は、基準線6に車両2が到達したか否かを判定し、否定判定の場合にはステップS130へ移行する。
In step S <b> 120, the
ステップS130では、取得部10は、メモリ74からステップS120の処理で車両2の位置を判定したフレームの次のフレームを取得し、ステップS120へ移行する。すなわち、取得部10は、基準線6に車両2が到達したフレームが検出されるまで、ステップS120〜S130の処理を繰り返す。
In step S130, the
一方、ステップS125の処理で肯定判定となった場合、すなわち基準線6に車両2が到達した場合にはステップS135に移行し、取得部10は現在参照しているフレームをキャプチャ画像として、メモリ74の予め定めた領域に記憶する。
On the other hand, when an affirmative determination is made in the process of step S125, that is, when the
以上の処理により、図6のステップS100の処理が終了する。 With the above processing, the processing in step S100 in FIG. 6 is completed.
次に、ステップS200のバーチャル車両初期サイズ設定処理について説明する。図8は、ステップS200で実行されるバーチャル車両初期サイズ設定処理のサブルーチンのフローチャートである。 Next, the virtual vehicle initial size setting process in step S200 will be described. FIG. 8 is a flowchart of a subroutine of the virtual vehicle initial size setting process executed in step S200.
まず、ステップS205では、設定部20は、ステップS135の処理でメモリ74に記憶されたキャプチャ画像から、キャプチャ画像に表示されている車両2のナンバープレートの大きさを検出し、検出した大きさをメモリ74の予め定めた領域に記憶する。
First, in step S205, the setting
ステップS210では、設定部20は、メモリ74からバーチャル車両4を取得する。そして、設定部20は、バーチャル車両4のナンバープレートの大きさがステップS205で検出した車両2のナンバープレートの大きさと一致するように、バーチャル車両4全体の大きさを拡大又は縮小して、バーチャル車両4の初期の大きさを設定する。
In step S <b> 210, the setting
ステップS215では、作業員等が画面上でステップS210の処理で設定したバーチャル車両4の大きさを確認することができるように、設定部20は、キャプチャ画像上の車両2をステップS210の処理で大きさを設定したバーチャル車両4に置き換える。この際、設定部20は、キャプチャ画像における車両2のナンバープレートの表示位置と、バーチャル車両4のナンバープレートの表示位置と、が一致するように、キャプチャ画像にバーチャル車両4を配置する。
In step S215, the setting
以上の処理により、図6のステップS200の処理が終了する。 With the above processing, the processing in step S200 in FIG. 6 is completed.
次に、ステップS300の道路幅算出処理について説明する。図9は、ステップS300で実行される道路幅算出処理のサブルーチンのフローチャートである。 Next, the road width calculation process in step S300 will be described. FIG. 9 is a flowchart of a road width calculation process subroutine executed in step S300.
まず、ステップS305では、算出部30は、ステップS215の処理で車両2をバーチャル車両4に置き換えたキャプチャ画像(置換キャプチャ画像)から、基準線6に沿った道路幅L0を算出する。そして、算出部30はCPU72に対してタイマの起動を要求する。
First, in step S305, the
ステップS310では、算出部30は、CPU72に対してタイマの経過時間情報を要求し、ステップS305の処理から予め定めた時間経過したか否かを判定する。ここで、予め定めた時間とは、後述する道路幅の変化を判定する処理の実行間隔を規定する時間である。そして、予め定めた時間は記憶部76に予め記憶され、CPU72が画像合成プログラム80をメモリ74に展開する際に、メモリ74の予め定めた領域に展開されるものとする。
In step S310, the
そして、本ステップの判定処理が否定判定の場合には、算出部30は、予め定めた時間を経過するまでステップS310の処理を繰り返す。一方、肯定判定の場合にはステップS315へ移行すると共に、算出部30はCPU72に対してタイマの停止を要求する。
And when the determination process of this step is negative determination, the
ステップS315では、算出部30は、メモリ74から現時点で最新のカメラ調整中画像のフレームを取得し、当該フレームから基準線6に沿った道路幅L1を算出する。
In step S <b> 315, the
ステップS320では、算出部30は、ステップS305の処理で算出した道路幅L0と、ステップS315の処理で算出した道路幅L1が同じ値ではないか否かを判定する。なお、道路幅L0と道路幅L1が同じ値とは、完全に値が一致する場合の他、道路幅L0と道路幅L1との差分が、道路幅L0と道路幅L1とが同じ値であるとみなすことのできる予め定めた範囲内にある場合も含むようにしてもよい。
In step S320, the
そして、本ステップでの判定が否定判定の場合、すなわち、道路幅L0と道路幅L1とが同じ値である場合にはステップS310へ移行し、算出部30は、道路幅L0と道路幅L1との値が異なるまでステップS310〜S320の処理を繰り返す。一方、肯定判定の場合にはステップS325へ移行する。
If the determination in this step is negative, that is, if the road width L0 and the road width L1 are the same value, the process proceeds to step S310, and the
ステップS325では、算出部30は、道路幅の変化率(L1/L0)を算出する。
In step S325, the
以上の処理により、図6のステップS300の処理が終了する。 With the above processing, the processing in step S300 in FIG. 6 is completed.
次に、ステップS400のバーチャル車両合成処理について説明する。図10は、ステップS400で実行されるバーチャル車両合成処理のサブルーチンのフローチャートである。 Next, the virtual vehicle composition process in step S400 will be described. FIG. 10 is a flowchart of a subroutine of the virtual vehicle composition process executed in step S400.
まず、ステップS405では、合成部40は、図8のステップS215の処理で生成した置換キャプチャ画像におけるバーチャル車両4のナンバープレートの幅が(L1/L0)倍となるように、バーチャル車両4全体の大きさを調整する。この際、合成部40は、バーチャル車両4の縦横比が変わらないようにバーチャル車両4の大きさを調整する。
First, in step S405, the
そして、ステップS410では、合成部40は、図9のステップS320の処理で置換キャプチャ画像と比較して道路幅に変化があると判定されたカメラ調整中画像のフレームから、基準線6に沿った道路幅の中央点を算出する。
In step S410, the
ステップS415では、合成部40は、ステップS410の処理に用いたカメラ調整中画像のフレームの道路幅の中央点と、バーチャル車両4の予め定めた点と、が一致する位置に、バーチャル車両4を合成する。ここで、バーチャル車両4の予め定めた点として、例えば、バーチャル車両4のナンバープレート底辺の幅方向における中央点が用いられる。
In step S415, the
以上の処理により、図6のステップS400の処理が終了する。 With the above processing, the processing in step S400 in FIG. 6 is completed.
そして、ステップS500では、認識部50は、バーチャル車両4が合成されたカメラ調整中画像のフレームから、バーチャル車両4のナンバー情報が認識できるか否かを判定する。そして、肯定判定の場合には、現在のカメラ調整内容で道路上を実際に通行する車両のナンバー情報が認識できるため、画像合成プログラム80を終了する。
In step S500, the recognizing
一方、否定判定の場合には、ステップS300の処理に戻り、新たに取得したカメラ調整中画像のフレームに対してステップS300〜S500の処理を繰り返し実行する。なお、この場合、置換キャプチャ画像における道路幅L0は1度取得すれば十分であるため、図9におけるステップS305の処理は省略する。 On the other hand, in the case of negative determination, the process returns to the process of step S300, and the processes of steps S300 to S500 are repeatedly executed on the newly acquired frame of the camera adjustment image. In this case, since it is sufficient to obtain the road width L0 in the replacement capture image once, the process of step S305 in FIG. 9 is omitted.
このように本実施形態では、カメラ調整により画面に表示される画像が変化した場合でも、バーチャル車両4を用いて、各々の画像でナンバープレートがどのような大きさで表示されるかを確認することができる。従って、カメラ設置作業の際、画面上に設けた指定エリア8内を通行する車両の画像を1度取得すれば、カメラ調整後に実際の車両が指定エリア8内を通行しない場合でも、ナンバー認識装置100の動作確認を実施することができる。
Thus, in this embodiment, even when the image displayed on the screen changes due to camera adjustment, the
なお、本実施形態では、キャプチャ画像での車両2の位置を決定する基準線6(判定線)と、道路幅の変化を検出する位置を示す基準線6(変化検出基準線)と、を共通の基準線6として説明した。
In the present embodiment, the reference line 6 (determination line) for determining the position of the
しかし、判定線と変化検出基準線とを、それぞれ画面上の異なる位置に設定するようにしてもよい。この場合、図7に示したキャプチャ画像取得処理のフローチャートの説明において、「基準線6」を「判定線」に読み替える。そして、図9に示した道路幅算出処理のフローチャートの説明において、「基準線6」を「変化検出基準線」に読み替える。
However, the determination line and the change detection reference line may be set at different positions on the screen. In this case, in the description of the flowchart of the captured image acquisition process illustrated in FIG. 7, “
その上で、ステップS405の処理で、キャプチャ画像における判定線に沿った道路幅L2を算出し、置換キャプチャ画像におけるバーチャル車両4のナンバープレートの幅が(L1/L2)倍となるように、バーチャル車両4全体の大きさを調整すればよい。すなわち、判定線及び変化検出基準線を共通にする場合であっても、そうでない場合であっても、キャプチャ画像における道路幅に対するカメラ調整中画像における道路幅の変化の割合に応じて、バーチャル車両4全体の大きさを調整すればよいことがわかる。
Then, in step S405, the road width L2 along the determination line in the capture image is calculated, and the
(第2実施形態) (Second Embodiment)
次に、開示の技術の第2実施形態について説明する。なお、第1実施形態と同一の部分には同一の符号を付して説明を省略し、第1実施形態と異なる部分を中心に説明する。 Next, a second embodiment of the disclosed technique will be described. In addition, the same code | symbol is attached | subjected to the part same as 1st Embodiment, description is abbreviate | omitted, and it demonstrates centering on a different part from 1st Embodiment.
図11には、本実施形態に係るナンバー認識装置100Aが示されている。
FIG. 11 shows a
本実施形態に係るナンバー認識装置100Aが第1実施形態のナンバー認識装置100と異なる点は、合成部40が合成部40Aに置き換えられた点である。なお、これに伴い、画像合成部60を画像合成部60Aと称する場合がある。
The
例えば、ナンバー認識装置100Aには、ナンバー認識装置100Aの実機による実験や設計仕様に基づくコンピュータシミュレーション等により、車両2のナンバー情報を認証するのに適した画面上でのナンバープレートの大きさが規定されているものとする。この大きさは、例えば画面に表示されるナンバープレートの幅に相当する画素数Rで規定され、一例としてR1≦R≦R2と表される。なお、R1≦R≦R2の範囲を適正画像範囲ということにする。従って、カメラ設置作業の際、作業員等は画面を見ながらカメラ調整を実施し、画面に表示される車両2のナンバープレートの幅が適正画像範囲内に含まれるように、カメラのズーム率等を調整することになる。
For example, in the
しかしながら、作業員等は、現在のカメラ設置位置やカメラのズーム率で、画面に表示されるバーチャル車両4のナンバープレートの幅が適正画像範囲内に含まれるか否かを知る方法がない。状況によっては、バーチャル車両4のナンバープレートの幅が適正画像範囲内に含まれていない場合でも、認識部50がナンバー情報を正しく認識する場合も考えられる。従って、ナンバー認識装置100Aにおけるナンバー情報の認識率をより向上させるためにも、バーチャル車両4のナンバープレートの幅を適正画像範囲内に収めることは、ナンバー認識装置100Aのカメラ設置における重要な作業の1つといえる。
However, there is no way for a worker or the like to know whether or not the width of the license plate of the
そのため、合成部40Aは、バーチャル車両4をカメラ調整中画像に合成する際、バーチャル車両4の他に、バーチャル車両4のナンバープレートの幅が適正画像範囲内に収まっているか否かを表示するインジケータを合成して、認識部50へ通知する。
Therefore, when synthesizing the
図12は、一例としてズーム調整前後におけるインジケータ15の表示を示した図である。この場合、ズーム調整前におけるバーチャル車両4のナンバープレートの幅に相当する画素数RがRa(Ra<R1)である場合には、カメラ調整中画像のナンバー情報の認識に影響を与えない箇所に、“NG”を示す赤色のインジケータ15が表示される。一方、ズーム調整後におけるバーチャル車両4のナンバープレートの幅に相当する画素数RがRb(R1≦Rb≦R2)である場合には、赤色のインジケータ15が“OK”を示す緑のインジケータ15に置き換えられる。
FIG. 12 is a diagram showing the display of the
なお、インジケータ15の表示色に制限はなく、バーチャル車両4のナンバープレートの幅が適正画像範囲内に収まっているか否かを表示することができれば、何れの表示色を用いてもよいことはいうまでもない。また、インジケータ15の表示位置も、図12に示した位置に限定されないことはいうまでもない。
The display color of the
以上に説明したナンバー認識装置100Aは、例えば、図13に示すコンピュータ70Aで実現することができる。また、画像合成プログラム80Aは、第1実施形態に係る合成プロセス88の替わりに合成プロセス88Aを含む。そして、CPU72は、合成プロセス88Aを実行することで、図11に示す合成部40Aとして動作する。なお、ナンバー認識装置100Aも第1実施形態に係るナンバー認識装置100と同様に、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。
The
次に、本実施形態に係るナンバー認識装置100Aの作用を説明する。なお、本実施形態に係るナンバー認識装置100Aの画像合成処理が図6に示した第1実施形態に係る画像合成処理と異なる点は、ステップS400の処理である。
Next, the operation of the
図14は、本実施形態に係るステップS400で実行されるバーチャル車両合成処理のサブルーチンのフローチャートである。本フローチャートでは、図10に示した第1実施形態に係るステップS400での処理を示したフローチャートに対して、新たにステップS420〜S435が追加されている。 FIG. 14 is a flowchart of a subroutine of the virtual vehicle composition process executed in step S400 according to the present embodiment. In this flowchart, steps S420 to S435 are newly added to the flowchart showing the process in step S400 according to the first embodiment shown in FIG.
ステップS420では、合成部40Aは、ステップS405の処理で調整したバーチャル車両4のナンバープレートの幅に相当する画素数が、適正画像範囲内であるか否かを判定する。そして、肯定判定の場合にはステップS425へ移行し、合成部40Aは、メモリ74から緑色のインジケータ15の画像を取得する。一方、否定判定の場合にはステップS430へ移行し、合成部40Aは、メモリ74から赤色のインジケータ15の画像を取得する。なお、赤色及び緑色のインジケータ15の画像は記憶部76に予め記憶され、CPU72が画像合成プログラム80Aをメモリ74に展開する際に、メモリ74の予め定めた領域に展開されるものとする。
In step S420, the
ステップS435では、合成部40Aは、ステップS415の処理でバーチャル車両4を合成したカメラ調整中画像に対して、ステップS425又はステップS430の処理で取得したインジケータ15の画像を合成する。この際、合成部40Aは、認識部50でのナンバー情報の認識処理に影響を与えない位置、具体的には、バーチャル車両4のナンバープレートの表示位置と重複しない位置にインジケータ15の画像を合成する。
In step S435, the combining
なお、本実施形態では、インジケータ15の色の相違により、バーチャル車両4のナンバープレートの大きさが適正画像範囲内に収まっているか否かのシグナルを通知したが、シグナルの通知方法はこれに限られない。例えば、バーチャル車両4のナンバープレートの大きさが適正画像範囲内に収まった場合に、音声で通知したり、音声及びインジケータ15で通知したりするようにしてもよい。この場合、作業員等はカメラ調整中に画面を見る必要がなくなり、カメラ調整を実施している作業員等の視界の範囲内に画面がない場合であっても、バーチャル車両4のナンバープレートの大きさが適正画像範囲内に収まっているか否かを判定することができる。
In the present embodiment, a signal indicating whether or not the size of the license plate of the
このように本実施形態に係るナンバー認識装置100Aは、カメラ調整による画像の変化に応じて調整されたバーチャル車両4のナンバープレートの大きさの目安を、インジケータ15を用いて画面上に表示する。従って、何度もカメラ調整を実施することなく、車両2のナンバープレートの大きさが適正画像範囲内に収まる位置にカメラの画像表示範囲を合わせることができるため、作業員等によるカメラ設置作業の効率を向上させることができる。
As described above, the
以上、開示の技術を実施形態を用いて説明したが、開示の技術は上記実施形態に記載の範囲には限定されない。開示の技術の要旨を逸脱しない範囲で上記実施形態に多様な変更または改良を加えることができ、当該変更または改良を加えた形態も開示の技術の技術的範囲に含まれる。例えば、開示の技術の要旨を逸脱しない範囲で処理の順序を変更してもよい。 Although the disclosed technique has been described using the embodiment, the disclosed technique is not limited to the scope described in the embodiment. Various changes or improvements can be added to the above-described embodiment without departing from the gist of the disclosed technology, and forms to which the changes or improvements are added are also included in the technical scope of the disclosed technology. For example, the processing order may be changed without departing from the scope of the disclosed technology.
また、上記では開示の技術に係る画像合成プログラムの一例である画像合成プログラム80、80Aが記憶部76に予め記憶(インストール)されている態様を説明したが、これに限定されるものではない。開示の技術に係る画像合成プログラムは、コンピュータ読取可能な記録媒体に記録されている形態で提供することも可能である。例えば、開示の技術に係る画像合成プログラムは、CD−ROM、DVD−ROM、及びUSBメモリ等の可搬型記録媒体、並びに、フラッシュメモリ等の半導体メモリ等に記録されている形態で提供することも可能である。
In the above description, the mode in which the
また、開示の技術に係る画像合成処理の一例を、車両のナンバー情報を認識するナンバー認識装置を用いて説明したが、画像の合成対象は車両に限られない。例えば、人物の顔等を認証する人物認証装置に用いられるカメラの設置作業では、実際の人物を予め用意した人物の画像(バーチャル人物)に置き換えるようにしてもよい。なお、この場合の認識対象部は人物の顔となる。 Moreover, although an example of the image composition processing according to the disclosed technology has been described using the number recognition device that recognizes the vehicle number information, the image composition target is not limited to the vehicle. For example, in the installation work of a camera used for a person authentication device for authenticating a person's face or the like, an actual person may be replaced with a person image (virtual person) prepared in advance. In this case, the recognition target portion is a human face.
以上の実施形態に関し、更に以下の付記を開示する。 Regarding the above embodiment, the following additional notes are disclosed.
(付記1)
コンピュータに、
カメラにより撮影された画像に含まれる第1の物体が有する認識対象部の大きさと同じ大きさの認識対象部を有するように、前記第1の物体に替わる代替画像の初期の大きさを設定し、
前記画像を表示する画面上で、前記第1の物体が表示されていない画像である第1の画像と、前記代替画像の初期の大きさの設定に用いた前記第1の物体が表示されている画面である第2の画像と、の各々の画像に共通して含まれる第2の物体の大きさが変化した場合に、前記画面上での前記第2の画像に含まれる前記第2の物体の大きさに対する前記第1の画像に含まれる前記第2の物体の大きさの割合を算出し、
算出した前記割合に応じて大きさを調整した前記代替画像を、前記第1の画像に合成する
ことを含む処理を実行させる画像合成方法。
(Appendix 1)
On the computer,
The initial size of the substitute image that replaces the first object is set so that the recognition target portion has the same size as the recognition target portion included in the first object included in the image captured by the camera. ,
On the screen displaying the image, the first image that is an image in which the first object is not displayed and the first object used for setting the initial size of the substitute image are displayed. And the second image included in the second image on the screen when the size of the second object included in each of the images is changed. Calculating a ratio of the size of the second object included in the first image to the size of the object;
An image composition method for executing processing including combining the substitute image, the size of which is adjusted according to the calculated ratio, with the first image.
(付記2)
前記画面上での前記第2の物体の大きさの変化の有無を、前記画面上の予め定めた位置に設けられた基準線と、前記第2の物体の境界線と、が交差する複数の地点のうち、2地点間の距離の変化によって検出する
付記1記載の画像合成方法。
(Appendix 2)
Whether or not there is a change in the size of the second object on the screen, a reference line provided at a predetermined position on the screen and a boundary line of the second object intersect with each other. The image composition method according to appendix 1, wherein the image is detected by a change in distance between two points.
(付記3)
前記第1の物体が前記基準線に到達した際に、前記代替画像の初期の大きさを設定する
付記2記載の画像合成方法。
(Appendix 3)
The image composition method according to
(付記4)
前記第1の画像に合成する前記代替画像の大きさを調整する際、前記割合に応じて調整した前記代替画像に含まれる認識対象部の前記基準線に沿った方向の長さが、前記画面上で前記代替画像に含まれる認識対象部を認識するのに適した予め定めた範囲内に含まれる場合に、シグナルを通知する
付記2又は付記3記載の画像合成方法。
(Appendix 4)
When adjusting the size of the substitute image to be combined with the first image, the length in the direction along the reference line of the recognition target portion included in the substitute image adjusted according to the ratio is the screen. The image composition method according to
(付記5)
コンピュータに、
カメラにより撮影された画像に含まれる第1の物体が有する認識対象部の大きさと同じ大きさの認識対象部を有するように、前記第1の物体に替わる代替画像の初期の大きさを設定し、
前記画像を表示する画面上で、前記第1の物体が表示されていない画像である第1の画像と、前記代替画像の初期の大きさの設定に用いた前記第1の物体が表示されている画面である第2の画像と、の各々の画像に共通して含まれる第2の物体の大きさが変化した場合に、前記画面上での前記第2の画像に含まれる前記第2の物体の大きさに対する前記第1の画像に含まれる前記第2の物体の大きさの割合を算出し、
算出した前記割合に応じて大きさを調整した前記代替画像を、前記第1の画像に合成する
ことを含む処理を実行させるための画像合成プログラム。
(Appendix 5)
On the computer,
The initial size of the substitute image that replaces the first object is set so that the recognition target portion has the same size as the recognition target portion included in the first object included in the image captured by the camera. ,
On the screen displaying the image, the first image that is an image in which the first object is not displayed and the first object used for setting the initial size of the substitute image are displayed. And the second image included in the second image on the screen when the size of the second object included in each of the images is changed. Calculating a ratio of the size of the second object included in the first image to the size of the object;
An image synthesis program for executing processing including synthesizing the substitute image whose size is adjusted in accordance with the calculated ratio with the first image.
(付記6)
コンピュータに、
カメラにより撮影された画像に含まれる第1の物体が有する認識対象部の大きさと同じ大きさの認識対象部を有するように、前記第1の物体に替わる代替画像の初期の大きさを設定し、
前記画像を表示する画面上で、前記第1の物体が表示されていない画像である第1の画像と、前記代替画像の初期の大きさの設定に用いた前記第1の物体が表示されている画面である第2の画像と、の各々の画像に共通して含まれる第2の物体の大きさが変化した場合に、前記画面上での前記第2の画像に含まれる前記第2の物体の大きさに対する前記第1の画像に含まれる前記第2の物体の大きさの割合を算出し、
算出した前記割合に応じて大きさを調整した前記代替画像を、前記第1の画像に合成する
ことを含む処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
(Appendix 6)
On the computer,
The initial size of the substitute image that replaces the first object is set so that the recognition target portion has the same size as the recognition target portion included in the first object included in the image captured by the camera. ,
On the screen displaying the image, the first image that is an image in which the first object is not displayed and the first object used for setting the initial size of the substitute image are displayed. And the second image included in the second image on the screen when the size of the second object included in each of the images is changed. Calculating a ratio of the size of the second object included in the first image to the size of the object;
A computer-readable recording medium storing a program for executing a process including combining the first image with the substitute image whose size is adjusted according to the calculated ratio.
(付記7)
カメラにより撮影された画像に含まれる第1の物体が有する認識対象部の大きさと同じ大きさの認識対象部を有するように、前記第1の物体に替わる代替画像の初期の大きさを設定する設定部と、
前記画像を表示する画面上で、前記第1の物体が表示されていない画像である第1の画像と、前記設定部による前記代替画像の初期の大きさの設定に用いられた前記第1の物体が表示されている画面である第2の画像と、の各々の画像に共通して含まれる第2の物体の大きさが変化した場合に、前記画面上での前記第2の画像に含まれる前記第2の物体の大きさに対する前記第1の画像に含まれる前記第2の物体の大きさの割合を算出する算出部と、
前記算出部により算出された前記割合に応じて大きさを調整した前記代替画像を、前記第1の画像に合成する合成部と、
を含む画像合成装置。
(Appendix 7)
The initial size of the substitute image replacing the first object is set so as to have a recognition target portion having the same size as the recognition target portion included in the first object included in the image photographed by the camera. A setting section;
On the screen displaying the image, the first image that is an image on which the first object is not displayed and the first size used for setting the initial size of the substitute image by the setting unit Included in the second image on the screen when the size of the second object that is commonly included in each of the images and the second image that is the screen on which the object is displayed has changed A calculator that calculates a ratio of the size of the second object included in the first image to the size of the second object
A synthesizing unit that synthesizes the substitute image, the size of which is adjusted according to the ratio calculated by the calculating unit, with the first image;
An image synthesizing apparatus.
(付記8)
前記算出部は、前記画面上での前記第2の物体の大きさの変化の有無を、前記画面上の予め定めた位置に設けられた基準線と、前記第2の物体の境界線と、が交差する複数の地点のうち、2地点間の距離の変化によって検出する
付記7記載の画像合成装置。
(Appendix 8)
The calculation unit determines whether or not the size of the second object changes on the screen, a reference line provided at a predetermined position on the screen, a boundary line of the second object, The image composition device according to claim 7, wherein the image composition device is detected by a change in a distance between two points among a plurality of points intersecting each other.
(付記9)
前記設定部は、前記第1の物体が前記基準線に到達した際に、前記代替画像の初期の大きさを設定する
付記8記載の画像合成装置。
(Appendix 9)
The image composing apparatus according to
(付記10)
前記調整部は、前記第1の画像に合成する前記代替画像の大きさを調整する際、前記割合に応じて調整した前記代替画像に含まれる認識対象部の前記基準線に沿った方向の長さが、前記画面上で前記代替画像に含まれる認識対象部を認識するのに適した予め定めた範囲内に含まれる場合に、シグナルを通知する
付記8又は付記9記載の画像合成装置。
(Appendix 10)
The adjustment unit adjusts the size of the substitute image to be combined with the first image, and the length of the recognition target unit included in the substitute image adjusted according to the ratio in the direction along the reference line. The image synthesizing apparatus according to
2 車両
4 バーチャル車両
6 基準線
10 取得部
15 インジケータ
20 設定部
30 算出部
40、40A 合成部
50 認識部
60、60A 画像合成部
70、70A コンピュータ
80、80A 画像合成プログラム
100、100A ナンバー認識装置
2
Claims (6)
カメラにより撮影された画像に含まれる第1の物体が有する認識対象部の大きさと同じ大きさの認識対象部を有するように、前記第1の物体に替わる代替画像の初期の大きさを設定し、
前記画像を表示する画面上で、前記第1の物体が表示されていない画像である第1の画像と、前記代替画像の初期の大きさの設定に用いた前記第1の物体が表示されている画面である第2の画像と、の各々の画像に共通して含まれる第2の物体の大きさが変化した場合に、前記画面上での前記第2の画像に含まれる前記第2の物体の大きさに対する前記第1の画像に含まれる前記第2の物体の大きさの割合を算出し、
算出した前記割合に応じて大きさを調整した前記代替画像を、前記第1の画像に合成する
ことを含む処理を実行させる画像合成方法。 On the computer,
The initial size of the substitute image that replaces the first object is set so that the recognition target portion has the same size as the recognition target portion included in the first object included in the image captured by the camera. ,
On the screen displaying the image, the first image that is an image in which the first object is not displayed and the first object used for setting the initial size of the substitute image are displayed. And the second image included in the second image on the screen when the size of the second object included in each of the images is changed. Calculating a ratio of the size of the second object included in the first image to the size of the object;
An image composition method for executing processing including combining the substitute image, the size of which is adjusted according to the calculated ratio, with the first image.
請求項1記載の画像合成方法。 Whether or not there is a change in the size of the second object on the screen, a reference line provided at a predetermined position on the screen and a boundary line of the second object intersect with each other. The image composition method according to claim 1, wherein detection is performed by a change in distance between two points.
請求項2記載の画像合成方法。 The image composition method according to claim 2, wherein when the first object reaches the reference line, an initial size of the substitute image is set.
請求項2又は請求項3記載の画像合成方法。 When adjusting the size of the substitute image to be combined with the first image, the length in the direction along the reference line of the recognition target portion included in the substitute image adjusted according to the ratio is the screen. The image synthesizing method according to claim 2 or 3, wherein a signal is notified when the signal is included in a predetermined range suitable for recognizing a recognition target portion included in the substitute image.
カメラにより撮影された画像に含まれる第1の物体が有する認識対象部の大きさと同じ大きさの認識対象部を有するように、前記第1の物体に替わる代替画像の初期の大きさを設定し、
前記画像を表示する画面上で、前記第1の物体が表示されていない画像である第1の画像と、前記代替画像の初期の大きさの設定に用いた前記第1の物体が表示されている画面である第2の画像と、の各々の画像に共通して含まれる第2の物体の大きさが変化した場合に、前記画面上での前記第2の画像に含まれる前記第2の物体の大きさに対する前記第1の画像に含まれる前記第2の物体の大きさの割合を算出し、
算出した前記割合に応じて大きさを調整した前記代替画像を、前記第1の画像に合成する
ことを含む処理を実行させるための画像合成プログラム。 On the computer,
The initial size of the substitute image that replaces the first object is set so that the recognition target portion has the same size as the recognition target portion included in the first object included in the image captured by the camera. ,
On the screen displaying the image, the first image that is an image in which the first object is not displayed and the first object used for setting the initial size of the substitute image are displayed. And the second image included in the second image on the screen when the size of the second object included in each of the images is changed. Calculating a ratio of the size of the second object included in the first image to the size of the object;
An image synthesis program for executing processing including synthesizing the substitute image whose size is adjusted in accordance with the calculated ratio with the first image.
前記画像を表示する画面上で、前記第1の物体が表示されていない画像である第1の画像と、前記設定部による前記代替画像の初期の大きさの設定に用いられた前記第1の物体が表示されている画面である第2の画像と、の各々の画像に共通して含まれる第2の物体の大きさが変化した場合に、前記画面上での前記第2の画像に含まれる前記第2の物体の大きさに対する前記第1の画像に含まれる前記第2の物体の大きさの割合を算出する算出部と、
前記算出部により算出された前記割合に応じて大きさを調整した前記代替画像を、前記第1の画像に合成する合成部と、
を含む画像合成装置。 The initial size of the substitute image replacing the first object is set so as to have a recognition target portion having the same size as the recognition target portion included in the first object included in the image photographed by the camera. A setting section;
On the screen displaying the image, the first image that is an image on which the first object is not displayed and the first size used for setting the initial size of the substitute image by the setting unit Included in the second image on the screen when the size of the second object that is commonly included in each of the images and the second image that is the screen on which the object is displayed has changed A calculator that calculates a ratio of the size of the second object included in the first image to the size of the second object
A synthesizing unit that synthesizes the substitute image, the size of which is adjusted according to the ratio calculated by the calculating unit, with the first image;
An image synthesizing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014072006A JP6235956B2 (en) | 2014-03-31 | 2014-03-31 | Image composition method, program, and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014072006A JP6235956B2 (en) | 2014-03-31 | 2014-03-31 | Image composition method, program, and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015194860A JP2015194860A (en) | 2015-11-05 |
JP6235956B2 true JP6235956B2 (en) | 2017-11-22 |
Family
ID=54433825
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014072006A Active JP6235956B2 (en) | 2014-03-31 | 2014-03-31 | Image composition method, program, and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6235956B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110930300B (en) * | 2019-12-09 | 2023-09-29 | 上海扩博智能技术有限公司 | Image correction method, system, device and storage medium |
JP7472738B2 (en) | 2020-09-24 | 2024-04-23 | 沖電気工業株式会社 | Installation Adjustment System |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3799861B2 (en) * | 1999-02-24 | 2006-07-19 | 株式会社日立製作所 | Image synthesizing apparatus and recording medium on which program for executing image synthesizing method is recorded |
JP5258601B2 (en) * | 2009-01-29 | 2013-08-07 | 三菱電機株式会社 | License plate reader and license plate reading system |
-
2014
- 2014-03-31 JP JP2014072006A patent/JP6235956B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015194860A (en) | 2015-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3193320B1 (en) | Method for collecting evidence of vehicle parking violation, and apparatus therefor | |
JP5594246B2 (en) | Lane recognition device | |
CN106663193B (en) | System and method for curb detection and pedestrian hazard assessment | |
JP4793324B2 (en) | Vehicle monitoring apparatus and vehicle monitoring method | |
JP4702569B2 (en) | Image processing apparatus for vehicle | |
JP2010072807A (en) | Device for detecting and determining road boundary | |
US9152865B2 (en) | Dynamic zone stabilization and motion compensation in a traffic management apparatus and system | |
JP6083976B2 (en) | Lane status discrimination device and lane status discrimination method | |
JP2010117800A (en) | Parking lot monitoring device and method | |
JP2012155516A (en) | Vehicle behavior recording system | |
JP6512793B2 (en) | Imaging device, surveillance camera system, control method and program for imaging device | |
JP6235956B2 (en) | Image composition method, program, and apparatus | |
JP6152261B2 (en) | Car parking frame recognition device | |
WO2017099047A1 (en) | Position information identification method, position information identification device, and position information identification program | |
KR101635831B1 (en) | Apparatus and method for recognizing position of vehicle | |
JP5012522B2 (en) | Roadside boundary surface detection device | |
CN113420714A (en) | Collected image reporting method and device and electronic equipment | |
EP3951744A1 (en) | Image processing device, vehicle control device, method, and program | |
JP6658124B2 (en) | Imaging device, method, and program, display control device, and program | |
JP7356383B2 (en) | Image judgment device, image judgment method, and program | |
JP6935690B2 (en) | Detection programs, methods, and equipment | |
JP6004216B1 (en) | Position information specifying method, position information specifying apparatus, and position information specifying program | |
JP2009143385A (en) | Movable body detection device, movable body detection method, and movable body detection program | |
JP2009032030A (en) | Vehicle detector | |
JP2009214790A (en) | Apparatus and method for imaging, and apparatus and method for processing image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171010 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171027 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6235956 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |