JP2014016878A - Adjustment method of imaging device, imaging device, and program - Google Patents

Adjustment method of imaging device, imaging device, and program Download PDF

Info

Publication number
JP2014016878A
JP2014016878A JP2012154681A JP2012154681A JP2014016878A JP 2014016878 A JP2014016878 A JP 2014016878A JP 2012154681 A JP2012154681 A JP 2012154681A JP 2012154681 A JP2012154681 A JP 2012154681A JP 2014016878 A JP2014016878 A JP 2014016878A
Authority
JP
Japan
Prior art keywords
unit
parameter
imaging
adjustment
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012154681A
Other languages
Japanese (ja)
Other versions
JP6093517B2 (en
Inventor
Yohei Kojima
洋平 小島
Tetsuya Tomonaka
哲也 塘中
Hiroyuki Nakayama
博之 中山
Mayumi Saito
真由美 斎藤
Yoshi Cho
凱 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2012154681A priority Critical patent/JP6093517B2/en
Publication of JP2014016878A publication Critical patent/JP2014016878A/en
Application granted granted Critical
Publication of JP6093517B2 publication Critical patent/JP6093517B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily set a parameter of a camera properly.SOLUTION: First, an imaging unit 111 picks up an image including a part of a rectangular area on a road. Then, a coordinate specification unit 114 specifies coordinates of each of vertices of the rectangular area on the basis of the image picked up by the imaging unit 111. Then, a parameter specification unit 115 specifies a parameter on the basis of a shape of a closed section connecting the coordinates specified by the coordinate specification unit 114. Then, referring to the parameter specified by the parameter specification unit 115, in order to cause the parameter to be closer to a target parameter, the parameter is adjusted by adjusting a zoom mechanism 121, a horizontal rotation mechanism 133, a vertical rotation mechanism 134, and a vertical expansion/contraction mechanism 135.

Description

本発明は、撮像装置の調整方法、撮像装置、及びプログラムに関する。   The present invention relates to an imaging device adjustment method, an imaging device, and a program.

従来のERP(Electronic Road Pricing:電子道路課金)システムは、通路に設けられた第1ガントリ装置に撮像装置を備え、第1ガントリ装置より通路の車両進行方向前方に設けられた第2ガントリ装置に車両検知器を備えている。このようなERPシステムでは、車両検知器が車両を検知したときに、撮像装置が車両を撮像し、CCS(Central Computer System:中央コンピュータシステム)が当該撮像した画像に対してナンバープレートの認識処理を行っている(例えば、特許文献1を参照)。   A conventional ERP (Electronic Road Pricing) system includes an imaging device in a first gantry device provided in a passage, and a second gantry device provided in front of the passage in the vehicle traveling direction from the first gantry device. A vehicle detector is provided. In such an ERP system, when the vehicle detector detects the vehicle, the imaging device images the vehicle, and a CCS (Central Computer System) performs license plate recognition processing on the captured image. (For example, refer to Patent Document 1).

また、近年、GPS(Global Positioning System:全地球測位システム)や第3世代移動体通信を用いたERPシステム(以下、次世代ERPシステムと呼ぶ)の開発が計画されている。次世代ERPシステムでは、GPSや移動体通信を用いて車両の認識処理を行うことから、従来のERPシステムで通路に設置していたアンテナ及びガントリ装置が不要となる。   In recent years, development of an ERP system (hereinafter referred to as a next-generation ERP system) using GPS (Global Positioning System) or third-generation mobile communication is planned. In the next-generation ERP system, since the vehicle recognition process is performed using GPS or mobile communication, the antenna and the gantry device installed in the passage in the conventional ERP system become unnecessary.

次世代ERPシステムでは、ガントリ装置が不要となることから、従来のERPシステムで第2ガントリ装置に備えていた車両検知器を用いない構成とすることが検討されている。そのため、不正車両の取り締まり等のために車両のナンバープレートに記載された車両番号(車両情報)を認識する車両情報認識装置は路側に設置されることとなる。この場合、車両情報認識装置をカンチレバーやポールなどの路側設備に固定設置することが考えられるが、メンテナンスや使い回しを容易にするため、三脚などに設置することで車両情報認識装置を可搬型にしたいという要望がある(例えば、特許文献2を参照)。   In the next-generation ERP system, since a gantry device is not required, a configuration in which the vehicle detector provided in the second gantry device in the conventional ERP system is not used has been studied. Therefore, a vehicle information recognition device for recognizing a vehicle number (vehicle information) written on a license plate of the vehicle for the control of an unauthorized vehicle is installed on the road side. In this case, it is conceivable that the vehicle information recognition device is fixedly installed on roadside equipment such as a cantilever or a pole, but for ease of maintenance and use, the vehicle information recognition device can be installed on a tripod to make it portable. There is a desire to do so (see, for example, Patent Document 2).

特開2002−260165号公報JP 2002-260165 A 特開平08−055296号公報Japanese Patent Laid-Open No. 08-055296

しかし、上述のような可搬型の車両情報認識装置を設置しても、撮像した画像に写った車両が車両情報の認識のために適切な角度や大きさとなるようにするには、カメラの水平な面内の撮像方向や鉛直な面内の撮像俯角や画角などのパラメータを微妙に調整する必要があるが、これらを現場で適正に調整することは容易ではない。   However, even if the portable vehicle information recognition device as described above is installed, in order for the vehicle shown in the captured image to have an appropriate angle and size for recognition of vehicle information, However, it is necessary to finely adjust parameters such as the imaging direction within a smooth plane and the imaging depression angle and angle of view within a vertical plane. However, it is not easy to properly adjust these parameters in the field.

本発明は上述のような課題に鑑みてなされたものであり、撮像装置のパラメータを適正に容易に設定することができる撮像装置の調整方法、撮像装置、及びプログラムを提供するものである。   The present invention has been made in view of the above-described problems, and provides an imaging apparatus adjustment method, an imaging apparatus, and a program that can appropriately and easily set parameters of the imaging apparatus.

本発明は上記の課題を解決するためになされたものであり、撮像装置の調整方法であって、前記撮像装置の撮像部が、路面上の矩形領域の一部を含む画像を撮像する撮像ステップと、前記撮像装置の座標特定部が、前記撮像部が撮像した画像に基づいて前記矩形領域の各頂点の座標を特定する座標特定ステップと、前記撮像装置のパラメータ特定部が、前記座標特定部が特定した座標を結ぶ閉区間の形状に基づいて前記パラメータを特定するパラメータ特定ステップと、前記パラメータ特定部が特定したパラメータを参照し、当該パラメータを目標パラメータに近づけるように、前記撮像装置の調整部を調整する調整ステップとを有することを特徴とする。
なお、「パラメータ」(カメラパラメータ)とは、撮像画像を調整するためのカメラ側の各種設定項目であり、水平面上における撮像方向(左右の撮影方向)、鉛直面上における撮像方向(上下の撮影方向)、画角、カメラの設置位置、焦点距離、フォーカスの状態、絞りの状態、カメラのシャッター速度、カメラの感度、光学フィルタの特性などが含まれる。
The present invention has been made to solve the above-described problem, and is an imaging device adjustment method in which an imaging unit of the imaging device captures an image including a part of a rectangular region on a road surface. A coordinate specifying step in which the coordinate specifying unit of the imaging device specifies the coordinates of each vertex of the rectangular area based on the image captured by the imaging unit, and the parameter specifying unit of the imaging device includes the coordinate specifying unit The parameter specifying step for specifying the parameter based on the shape of the closed section connecting the specified coordinates and the parameter specified by the parameter specifying unit, and adjusting the imaging device so that the parameter approaches the target parameter And an adjusting step for adjusting the portion.
The “parameter” (camera parameter) is various setting items on the camera side for adjusting the captured image. The imaging direction on the horizontal plane (left and right imaging directions), the imaging direction on the vertical plane (upper and lower imaging) Direction), angle of view, camera installation position, focal length, focus state, aperture state, camera shutter speed, camera sensitivity, optical filter characteristics, and the like.

また、本発明においては、前記矩形領域は、車線の両端の線及び当該線に直交する線を辺とすることが好ましい。   Moreover, in this invention, it is preferable that the said rectangular area | region uses the line of the both ends of a lane, and the line orthogonal to the said line as a side.

また、本発明においては、前記撮像ステップの前に、前記撮像部が撮像する画像に前記矩形領域の全部が含まれるよう前記撮像装置の調整部により画角を調整する広角化ステップを有し、前記調整ステップでは、前記パラメータのうち方向角及び俯角を目標パラメータに近づける調整を行った後に、画角を前記目標パラメータに近づける調整を行うことが好ましい。   Further, in the present invention, before the imaging step, there is a widening step of adjusting the angle of view by the adjustment unit of the imaging device so that the image captured by the imaging unit includes all of the rectangular area, In the adjustment step, it is preferable to perform an adjustment to make the angle of view close to the target parameter after performing an adjustment to make the direction angle and the depression angle close to the target parameter among the parameters.

また、本発明は、路面上の矩形領域の一部を含む画像を撮像する撮像部と、前記撮像部の撮像範囲を決定するパラメータを調整する調整部と、前記撮像部が撮像した画像に基づいて前記矩形領域の各頂点の座標を特定する座標特定部と、前記座標特定部が特定した座標を結ぶ閉区間の形状に基づいて前記パラメータを特定するパラメータ特定部とを備えることを特徴とする撮像装置である。   Further, the present invention is based on an imaging unit that captures an image including a part of a rectangular area on a road surface, an adjustment unit that adjusts a parameter that determines an imaging range of the imaging unit, and an image captured by the imaging unit. A coordinate specifying unit that specifies the coordinates of each vertex of the rectangular region, and a parameter specifying unit that specifies the parameter based on the shape of a closed section connecting the coordinates specified by the coordinate specifying unit. An imaging device.

また、本発明においては、前記目標パラメータで決定される撮像範囲を撮像したときに認識精度が最も良くなるよう設計された設定情報を用いて、前記撮像部が撮像した画像から車両情報を認識する認識部を備えることが好ましい。   In the present invention, vehicle information is recognized from an image captured by the imaging unit using setting information designed to provide the best recognition accuracy when the imaging range determined by the target parameter is imaged. It is preferable to provide a recognition unit.

また、本発明においては、前記矩形領域は、車線の両端の線及び当該線に直交する線を辺とすることが好ましい。   Moreover, in this invention, it is preferable that the said rectangular area | region uses the line of the both ends of a lane, and the line orthogonal to the said line as a side.

また、本発明においては、前記パラメータ特定部が特定したパラメータと所定の目標パラメータとを比較し、その比較結果を提示する提示部を備えることが好ましい。
なお、「提示部」の例としては、比較結果を示す文字や画像等を表示するディスプレイや、比較結果を示す音声を出力するスピーカー等が挙げられる。
Moreover, in this invention, it is preferable to provide the presentation part which compares the parameter which the said parameter specific | specification part specified with the predetermined target parameter, and shows the comparison result.
Examples of the “presentation unit” include a display that displays characters and images indicating the comparison result, a speaker that outputs sound indicating the comparison result, and the like.

また、本発明は、撮像装置を、路面上の矩形領域の一部を含む画像を撮像する撮像部、前記撮像部が撮像した画像に基づいて前記矩形領域の各頂点の座標を特定する座標特定部、前記座標特定部が特定した座標を結ぶ閉区間の形状に基づいて前記パラメータを特定するパラメータ特定部として機能させるためのプログラムである。   In addition, the present invention provides an imaging device that captures an image including a part of a rectangular area on a road surface, and coordinate specification that specifies the coordinates of each vertex of the rectangular area based on the image captured by the imaging section And a program for functioning as a parameter specifying unit for specifying the parameter based on the shape of a closed section connecting the coordinates specified by the coordinate specifying unit.

本発明によれば、撮像装置のパラメータ特定部が、現在のパラメータを特定するため、利用者は、現在のパラメータと目標パラメータとがほぼ一致するように調整部の調整を行うことで、撮像装置のパラメータを適正に容易に設定することができる。   According to the present invention, since the parameter specifying unit of the image pickup apparatus specifies the current parameter, the user adjusts the adjustment unit so that the current parameter and the target parameter substantially match, whereby the image pickup apparatus The parameters can be set appropriately and easily.

本発明の一実施形態による車両情報認識装置の外観図である。1 is an external view of a vehicle information recognition device according to an embodiment of the present invention. 本発明の一実施形態で用いる矩形領域の指定方法を示す図である。It is a figure which shows the designation | designated method of the rectangular area used by one Embodiment of this invention. 本発明の一実施形態による車両情報認識装置のパラメータの調整方法を示すフローチャートである。It is a flowchart which shows the adjustment method of the parameter of the vehicle information recognition apparatus by one Embodiment of this invention.

以下、図面を参照しながら本発明の実施形態について詳しく説明する。
図1は、本発明の一実施形態による車両情報認識装置100の外観図である。
車両情報認識装置100(撮像装置)は、図1に示すように、主要構成として、動画像を撮像するカメラ110、カメラ110の画角(ズーム量)を調整するズームレンズ120、カメラ110を固定する三脚130を有する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is an external view of a vehicle information recognition apparatus 100 according to an embodiment of the present invention.
As shown in FIG. 1, the vehicle information recognition device 100 (imaging device) has a camera 110 that captures a moving image, a zoom lens 120 that adjusts the angle of view (zoom amount) of the camera 110, and a camera 110 as main components. A tripod 130 is provided.

ズームレンズ120及び三脚130には、カメラ110の撮像範囲を決定するパラメータ(俯角・方向角・画角など)を調整するための調整部が設けられる。具体的には、ズームレンズ120には、画角を調整する調整部であるズーム機構121が設けられており、画角を無段階に調節することができる。また、三脚130は、地面に立設される三本の脚部131と、カメラ110が装着されるカメラ支持部132とを有し、脚部131とカメラ支持部132は、方向角を調整する調整部である水平回動機構133、俯角を調整する調整部である鉛直回動機構134、及び高さを調整する調整部である鉛直伸縮機構135とで連結されている。水平回動機構133は、カメラ支持部132に装着されたカメラ110を略水平な面内で回動させ、鉛直回動機構134は、カメラ支持部132に装着されたカメラ110を略鉛直な面内で回動させる。   The zoom lens 120 and the tripod 130 are provided with an adjustment unit for adjusting parameters (such as depression angle, direction angle, and field angle) that determine the imaging range of the camera 110. Specifically, the zoom lens 120 is provided with a zoom mechanism 121 that is an adjustment unit for adjusting the angle of view, and the angle of view can be adjusted steplessly. The tripod 130 has three legs 131 standing on the ground and a camera support 132 to which the camera 110 is mounted. The legs 131 and the camera support 132 adjust the direction angle. They are connected by a horizontal rotation mechanism 133 that is an adjustment unit, a vertical rotation mechanism 134 that is an adjustment unit that adjusts the depression angle, and a vertical telescopic mechanism 135 that is an adjustment unit that adjusts the height. The horizontal rotation mechanism 133 rotates the camera 110 mounted on the camera support unit 132 in a substantially horizontal plane, and the vertical rotation mechanism 134 rotates the camera 110 mounted on the camera support unit 132 in a substantially vertical plane. Rotate in.

カメラ110には、当該カメラ110による撮像を制御するためのコンピュータが搭載されている。コンピュータは、所定のプログラムを実行することで、撮像部111、認識部112、I/F部113、座標特定部114、パラメータ特定部115、目標パラメータ記憶部116、提示部117を備える。   The camera 110 is equipped with a computer for controlling imaging by the camera 110. The computer includes an imaging unit 111, a recognition unit 112, an I / F unit 113, a coordinate specification unit 114, a parameter specification unit 115, a target parameter storage unit 116, and a presentation unit 117 by executing a predetermined program.

撮像部111は、カメラ110により動画像の撮像を行う。
認識部112は、撮像部111が撮像した動画像に対して、基準となる文字画像である比較用テンプレート(設定情報)と動画像に含まれる文字画像とを比較するアルゴリズムにより車両情報の認識を行う。
I/F部113は、ディスプレイやスピーカーなどの出力装置を介して利用者に情報を出力し、入力装置を介して利用者から情報の入力を受け付ける。I/F部113は、例えばタッチパネルなどによって実現される。
座標特定部114は、I/Fを介して、利用者から撮像部111が撮像した動画像における、車線の一部を示す矩形領域の4つの頂点の座標の入力を受け付ける。なお、撮像部111が撮像した画像上における矩形領域の形状は必ずしも矩形とならない。
The imaging unit 111 captures a moving image with the camera 110.
The recognition unit 112 recognizes vehicle information using an algorithm that compares a comparison template (setting information), which is a reference character image, with a character image included in the moving image with respect to the moving image captured by the imaging unit 111. Do.
The I / F unit 113 outputs information to the user via an output device such as a display or a speaker, and receives information input from the user via the input device. The I / F unit 113 is realized by, for example, a touch panel.
The coordinate specifying unit 114 receives input of coordinates of four vertices of a rectangular area indicating a part of a lane in a moving image captured by the imaging unit 111 from the user via the I / F. Note that the shape of the rectangular area on the image captured by the imaging unit 111 is not necessarily rectangular.

図2は、本発明の一実施形態で用いる矩形領域の指定方法を示す図である。
本実施形態では、矩形領域として、図2に示すように、車両情報の認識対象となる車両が通行する車線の両端の線A、Bと車線に直交する線C、Dとを辺とする四角形であって、奥行き方向(A、B)の長さを、路面に破線でプリントされた車線境界線の1つの線分の長さとする領域を用いる。つまり、矩形領域は、約12メートル(車線境界線の1つの線分の長さ)×約3.6メートル(車線の幅の長さ)となる。
FIG. 2 is a diagram showing a method for specifying a rectangular area used in an embodiment of the present invention.
In this embodiment, as a rectangular area, as shown in FIG. 2, a rectangle whose sides are lines A and B at both ends of a lane through which a vehicle as a vehicle information recognition target passes and lines C and D orthogonal to the lane. And the area | region which makes the length of a depth direction (A, B) the length of one line segment of the lane boundary printed on the road surface with the broken line is used. That is, the rectangular area is about 12 meters (the length of one line segment of the lane boundary line) × about 3.6 meters (the length of the width of the lane).

パラメータ特定部115は、座標特定部114が入力を受け付けた頂点に基づいて現在のパラメータの値を特定する。
目標パラメータ記憶部116は、認識部112が実施する車両情報認識のアルゴリズムに適した撮像範囲を撮像するためのパラメータである目標パラメータを記憶する。
提示部117は、パラメータ特定部115が特定したパラメータと目標パラメータ記憶部116が記憶する目標パラメータとの差分値(比較結果)を、I/F部113を介して利用者に提示する。
The parameter specifying unit 115 specifies the current parameter value based on the vertex from which the coordinate specifying unit 114 has received an input.
The target parameter storage unit 116 stores a target parameter that is a parameter for imaging an imaging range suitable for the vehicle information recognition algorithm executed by the recognition unit 112.
The presenting unit 117 presents the difference value (comparison result) between the parameter identified by the parameter identifying unit 115 and the target parameter stored in the target parameter storage unit 116 to the user via the I / F unit 113.

ここで、目標パラメータ及び比較用テンプレートについて説明する。予め利用者は、ナンバープレートの文字が読みやすくなるようにカメラの撮像条件を調整し、その条件での各種カメラパラメータを、「目標パラメータ」として設定しておく。また、その目標パラメータにて撮像されたナンバープレート画像から切り出された文字画像が、「比較用テンプレート」(標準的な文字画像)となる。これらは記憶部116に記録される。
例えば、撮影された画像全体に対する、ナンバープレートの大きさ(範囲)、プレート上の文字の大きさ(高さ、幅、線の太さ)、文字間隔が、比較用テンプレートのものに近いほど、比較用テンプレートと撮影された文字画像の一致度が高くなるため、車両情報(ナンバープレートに記載された情報)の認識精度が高くなる。
つまり、認識部112は、目標パラメータ記憶部116が記憶する目標パラメータで決定される撮像範囲を撮像部111が撮像したときに、最も精度良く車両情報を認識することができる。
Here, the target parameter and the comparison template will be described. In advance, the user adjusts the imaging conditions of the camera so that the characters on the license plate are easy to read, and sets various camera parameters under the conditions as “target parameters”. In addition, a character image cut out from the license plate image picked up with the target parameter becomes a “comparison template” (standard character image). These are recorded in the storage unit 116.
For example, the closer the license plate size (range), character size (height, width, line thickness), and character spacing on the plate is closer to that of the comparison template, Since the degree of coincidence between the comparison template and the photographed character image is high, the recognition accuracy of the vehicle information (information described on the license plate) is high.
That is, the recognition unit 112 can recognize the vehicle information with the highest accuracy when the imaging unit 111 images the imaging range determined by the target parameter stored in the target parameter storage unit 116.

次に、本発明の一実施形態による車両情報認識装置100のパラメータの調整方法について説明する。
図3は、本発明の一実施形態による車両情報認識装置100のパラメータの調整方法を示すフローチャートである。
Next, a parameter adjustment method for the vehicle information recognition apparatus 100 according to an embodiment of the present invention will be described.
FIG. 3 is a flowchart illustrating a parameter adjustment method of the vehicle information recognition apparatus 100 according to an embodiment of the present invention.

まず、利用者は、三脚130の水平回動機構133及び鉛直回動機構134によって方向角及び俯角が目標パラメータになるように調整して路側に設置する(ステップS1)。このとき、方向角及び俯角は、目標パラメータにぴったり合致している必要は無い。次に利用者は、撮像部111によって撮像される動画像を監視しながら、三脚130の鉛直伸縮機構135とズームレンズ120のズーム機構121により、所定の矩形領域の全部が動画像中に収まるように、高さと画角とを互いに調整する(ステップS2)。   First, the user adjusts the direction angle and the depression angle to be the target parameters by the horizontal rotation mechanism 133 and the vertical rotation mechanism 134 of the tripod 130 and installs them on the road side (step S1). At this time, the direction angle and the depression angle do not need to exactly match the target parameter. Next, the user monitors the moving image picked up by the image pickup unit 111, so that the entire predetermined rectangular area can be accommodated in the moving image by the vertical extension mechanism 135 of the tripod 130 and the zoom mechanism 121 of the zoom lens 120. Then, the height and the angle of view are adjusted to each other (step S2).

次に、利用者は、車両情報認識装置100のI/F部113が表示する画像を参照し、当該画像上における矩形領域の4つの頂点の2次元座標を入力する(ステップS3)。利用者は、例えば、タッチパネル上の該当する点をタッチすることで座標の入力を行っても良いし、方向キーの押下により座標の入力を行っても良い。   Next, the user refers to the image displayed by the I / F unit 113 of the vehicle information recognition apparatus 100, and inputs the two-dimensional coordinates of the four vertices of the rectangular area on the image (step S3). For example, the user may input coordinates by touching a corresponding point on the touch panel, or may input coordinates by pressing a direction key.

利用者が矩形領域の全ての頂点の座標を入力すると、車両情報認識装置100の座標特定部114は、I/F部113を介して当該頂点の座標の入力を受け付ける。このとき、利用者は、まず車両番号の認識対象となる車線のうち、破線で道路上にペイントされた車線境界線の両端の座標を入力し、その後、他方の車両境界線の対応する点の座標を入力することで、容易に矩形領域の指定を行うことができる。   When the user inputs the coordinates of all the vertices of the rectangular area, the coordinate specifying unit 114 of the vehicle information recognition apparatus 100 receives the input of the coordinates of the vertices via the I / F unit 113. At this time, the user first inputs the coordinates of both ends of the lane boundary line painted on the road with a broken line among the lanes whose vehicle numbers are to be recognized, and then the corresponding point of the other vehicle boundary line. By inputting the coordinates, the rectangular area can be easily specified.

次に、パラメータ特定部115は、座標特定部114が特定した4つの座標に基づいて、矩形領域の中心点を基準としたときのカメラ110のパラメータを特定する(ステップS4)。すなわち、パラメータ特定部115は、12メートル×3.6メートルの矩形領域を撮像したときに、座標特定部114が特定した4つの座標を結ぶ閉区間の形状となるようなパラメータを算出する。   Next, the parameter specifying unit 115 specifies the parameters of the camera 110 based on the center point of the rectangular area based on the four coordinates specified by the coordinate specifying unit 114 (step S4). That is, the parameter specifying unit 115 calculates a parameter that forms a closed section connecting the four coordinates specified by the coordinate specifying unit 114 when an image of a rectangular area of 12 meters × 3.6 meters is captured.

具体的には、パラメータ特定部115は、矩形領域の中心点を基準(原点)としたときの矩形領域の各頂点の相対位置(x座標、y座標、z座標)を特定する。次に、パラメータ特定部115は、パラメータを示す3×4行列であるカメラ行列Pε、特定した相対位置のベクトルXε、及び座標特定部114が特定した画面上の座標(x座標、y座標)のベクトルuを用いて、式(1)に示す方程式を解くことで、パラメータの値を特定する。ここで、カメラ行列Pεとは、画角(焦点距離)、アスペクト比、非直交歪み、画像中心、カメラ110の位置を示すX方向、Y方向及びZ方向の平行移動量、カメラ110の姿勢を示す俯角及び方向角を含む行列である。なお、カメラ行列Pεのうち、俯角及び方向角、X方向、Y方向及びZ方向の平行移動量、並びに画角が、不明な(値の特定が必要な)パラメータとなる。
また、x座標、y座標、z座標は、それぞれ3次元ユークリッド空間である仮想空間の座標軸を基準とする座標を示すものであり、X方向、Y方向、Z方向は、それぞれ実空間の座標軸を基準とする移動方向を示す。
Specifically, the parameter specifying unit 115 specifies the relative position (x coordinate, y coordinate, z coordinate) of each vertex of the rectangular area when the center point of the rectangular area is used as a reference (origin). Next, the parameter specifying unit 115 includes a camera matrix P ε which is a 3 × 4 matrix indicating parameters, a specified relative position vector X ε , and coordinates on the screen specified by the coordinate specifying unit 114 (x coordinate, y coordinate). The value of the parameter is specified by solving the equation shown in Expression (1) using the vector u of). Here, the camera matrix P ε is the angle of view (focal length), aspect ratio, non-orthogonal distortion, image center, parallel movement amount in the X, Y, and Z directions indicating the position of the camera 110, and the attitude of the camera 110. Is a matrix including a depression angle and a direction angle. Of the camera matrix P epsilon, depression and direction angle, X-direction, parallel movement amount in the Y direction and the Z direction, and angle of view, an unknown (certain value is required) parameters.
The x coordinate, the y coordinate, and the z coordinate indicate coordinates based on the coordinate axis of the virtual space that is a three-dimensional Euclidean space, and the X direction, the Y direction, and the Z direction indicate the coordinate axes of the real space, respectively. Indicates the reference movement direction.

εε×u=0 ・・・(1)
但し、「×」は外積の演算子である。
P ε X ε × u = 0 ··· (1)
Here, “×” is an outer product operator.

式(1)は、カメラ行列Pεにより実空間上の参照点であるベクトルXεを仮想空間に投影したベクトルと、その仮想空間上の対応であるベクトルuとが一致している状態を示す式である。 Expression (1) shows a state in which a vector X ε that is a reference point in the real space is projected on the virtual space by the camera matrix P ε and a vector u that is a corresponding in the virtual space match. It is a formula.

ステップS4でパラメータ特定部115がカメラ110のパラメータを特定すると、提示部117は、パラメータ特定部115が特定したパラメータと目標パラメータ記憶部116が記憶する目標パラメータとの差分値を算出し、I/F部113を介して利用者に当該差分値を提示する(ステップS5)。次に、利用者は、I/F部113に表示された方向角及び俯角の差分値を参照し、その値が誤差範囲内であるか否かを判定する(ステップS6)。例えば、方向角及び俯角の差分値が2度以内である場合に誤差範囲内であると判定することができる。   When the parameter identification unit 115 identifies the parameter of the camera 110 in step S4, the presentation unit 117 calculates a difference value between the parameter identified by the parameter identification unit 115 and the target parameter stored in the target parameter storage unit 116, and I / The difference value is presented to the user via the F unit 113 (step S5). Next, the user refers to the difference value between the direction angle and the depression angle displayed on the I / F unit 113, and determines whether or not the value is within an error range (step S6). For example, when the difference value between the directional angle and the depression angle is within 2 degrees, it can be determined that it is within the error range.

利用者は、方向角の差分値及び俯角の差分値の少なくとも何れかの値が誤差範囲内にないと判定した場合(ステップS6:NO)、三脚130の水平回動機構133及び鉛直回動機構134によって、目標パラメータに近づけるよう方向角及び俯角の微調整を行う(ステップS7)。そして、再度ステップS3に戻り、矩形領域の座標の入力を行う。   When the user determines that at least one of the difference value of the direction angle and the difference value of the depression angle is not within the error range (step S6: NO), the horizontal rotation mechanism 133 and the vertical rotation mechanism of the tripod 130 are displayed. By 134, the direction angle and the depression angle are finely adjusted so as to approach the target parameter (step S7). And it returns to step S3 again and inputs the coordinate of a rectangular area.

他方、利用者は、方向角及び俯角の差分値が何れも誤差範囲内にあると判定した場合(ステップS6:YES)、I/F部113に表示された画角の差分値を参照し、ズームレンズ120のズーム機構121により目標パラメータに近づけるよう画角を調整する(ステップS8)。画角の調整が完了すると、利用者は、認識部112による車両情報認識処理の実行を開始させる(ステップS9)。具体的には、認識部112は、撮像部111が撮像した動画像の各フレームに対してパターンマッチングなどの既存の画像処理を行うことにより車両が含まれるフレームを抽出し、当該フレーム画像から車両部分を抽出する。そして、認識部112は、抽出した車両部分からナンバープレート位置を特定し、比較用テンプレートを用いたOCR処理により当該ナンバープレートに記載されている車両情報を認識する。   On the other hand, when the user determines that both the difference values of the direction angle and the depression angle are within the error range (step S6: YES), the user refers to the difference value of the angle of view displayed on the I / F unit 113, The angle of view is adjusted so as to approach the target parameter by the zoom mechanism 121 of the zoom lens 120 (step S8). When the adjustment of the angle of view is completed, the user starts execution of vehicle information recognition processing by the recognition unit 112 (step S9). Specifically, the recognition unit 112 extracts a frame including a vehicle by performing existing image processing such as pattern matching on each frame of the moving image captured by the imaging unit 111, and the vehicle is extracted from the frame image. Extract the part. And the recognition part 112 identifies a license plate position from the extracted vehicle part, and recognizes the vehicle information described in the said license plate by the OCR process using the template for a comparison.

このように、本実施形態によれば、車両情報認識装置100のパラメータ特定部115が、現在のパラメータを特定するため、利用者は、現在のパラメータと目標パラメータの差分値が示す通りに調整部の調整を行うことで、車両情報認識装置100のパラメータを適正に容易に設定することができる。   Thus, according to the present embodiment, the parameter specifying unit 115 of the vehicle information recognition apparatus 100 specifies the current parameter, so that the user can adjust the adjustment unit as indicated by the difference value between the current parameter and the target parameter. By performing this adjustment, the parameters of the vehicle information recognition device 100 can be set appropriately and easily.

また、本実施形態によれば、ステップS2で矩形領域が動画像中に収まるように高さと画角を調整し、ステップS6において方向角及び俯角が目標パラメータの誤差範囲になった後に、ステップS8で画角の調整を行う。これにより、目標パラメータによって車線を撮像したときに、撮像した画像の中に車線境界線の一方が写らなくなってしまう場合にも、方向角及び俯角並びに画角の調整を行うことができる。   Further, according to the present embodiment, the height and the angle of view are adjusted so that the rectangular area can be accommodated in the moving image in step S2, and after the direction angle and the depression angle are within the target parameter error range in step S6, step S8 is performed. Use to adjust the angle of view. Thereby, when one of the lane boundary lines is not captured in the captured image when the lane is imaged with the target parameter, the direction angle, the depression angle, and the angle of view can be adjusted.

以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
例えば、本実施形態では、ステップS2で矩形領域が動画像中に収まるように高さと画角を調整してからパラメータの調整を行う場合について説明したが、これに限られない。例えば、ステップS2で矩形領域の一部が動画像に収まらない場合でも、I/F部113が動画像外の座標の入力も受け付けることで、同様の処理を行うことができる。I/F部113が動画像外の座標の入力も受け付ける方法としては、例えば撮像された画像を縮小してタッチパネルに表示する方法などが挙げられる。
As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to
For example, in the present embodiment, a case has been described in which the parameters are adjusted after adjusting the height and the angle of view so that the rectangular area is included in the moving image in step S2, but the present invention is not limited to this. For example, even when a part of the rectangular area does not fit in the moving image in step S2, the same processing can be performed when the I / F unit 113 accepts input of coordinates outside the moving image. As a method for the I / F unit 113 to accept input of coordinates outside the moving image, for example, a method of reducing a captured image and displaying it on a touch panel can be cited.

また、本実施形態では、調整対象となるパラメータが、俯角、方向角、画角、高さである場合について説明したが、これに限られず、撮像画像を調整するためのカメラ側の各種設定項目であれば、他のパラメータを調整対象としても良い。パラメータの例としては、水平面上における撮像方向(左右の撮影方向)、鉛直面上における撮像方向(上下の撮影方向)、画角、カメラの設置位置、焦点距離、フォーカスの状態、絞りの状態、カメラのシャッター速度、カメラの感度、光学フィルタの特性などが挙げられる。   In this embodiment, the case where the parameters to be adjusted are the depression angle, the direction angle, the angle of view, and the height has been described. However, the present invention is not limited to this, and various setting items on the camera side for adjusting the captured image. If so, other parameters may be adjusted. Examples of parameters are the imaging direction on the horizontal plane (left and right shooting direction), the imaging direction on the vertical plane (up and down shooting direction), the angle of view, the camera installation position, the focal length, the focus state, the aperture state, Examples include camera shutter speed, camera sensitivity, and optical filter characteristics.

また、本実施形態では、提示部117が現在のパラメータと目標パラメータの差分値を提示する場合について説明したが、これに限られず、例えば現在のパラメータと目標パラメータとを並べて提示しても良いし。現在のパラメータのみを提示しても良い。また、提示部117は、現在のパラメータと目標パラメータとの比較結果を、調整すべき方向や量を矢印や文章によって提示しても良い。   In the present embodiment, the case where the presenting unit 117 presents the difference value between the current parameter and the target parameter has been described. However, the present invention is not limited to this. For example, the present parameter and the target parameter may be presented side by side. . Only the current parameters may be presented. In addition, the presentation unit 117 may present the comparison result between the current parameter and the target parameter by using an arrow or a sentence to indicate the direction or amount to be adjusted.

また、本実施形態では、認識部112が車両情報の認識に用いる設定情報として、目標パラメータにて撮像されたナンバープレート画像から切り出された文字画像である比較用テンプレートを用いる場合について説明したが、これに限られない。例えば、目標パラメータにてナンバープレートを撮像したときの文字の大きさを示す値であっても良いし、複数の比較用テンプレートを用いて機械学習したOCRの設定情報であっても良い。   In the present embodiment, the case where a comparison template that is a character image cut out from a license plate image captured with the target parameter is used as the setting information used by the recognition unit 112 to recognize vehicle information has been described. It is not limited to this. For example, it may be a value indicating the character size when the license plate is imaged with the target parameter, or may be OCR setting information that has been machine-learned using a plurality of comparison templates.

また、本実施形態では、座標特定部114が矩形領域の4点の2次元座標を特定する場合を説明したが、これに限られず、3次元座標を特定しても良い。具体的には、I/F部113が矩形の3次元CADデータを表示し、撮像画像中の矩形領域と一致するように利用者が当該CADデータを回転・移動・拡大縮小させることで、座標特定部114は、その頂点の3次元座標を特定することができる。   In the present embodiment, the case where the coordinate specifying unit 114 specifies the two-dimensional coordinates of the four points in the rectangular area has been described. However, the present invention is not limited to this, and three-dimensional coordinates may be specified. Specifically, the I / F unit 113 displays rectangular three-dimensional CAD data, and the user rotates, moves, and enlarges / reduces the CAD data so that it matches the rectangular area in the captured image. The specifying unit 114 can specify the three-dimensional coordinates of the vertex.

また、本実施形態では、本発明による撮像装置を車両情報認識装置100に実装する場合を説明したが、これに限られず、例えば測量用の撮像装置など、所定のパラメータでの設置を要する撮像装置に適用しても、同様に効果を得ることができる。   Moreover, although this embodiment demonstrated the case where the imaging device by this invention was mounted in the vehicle information recognition apparatus 100, it is not restricted to this, For example, the imaging device which requires installation with a predetermined parameter, such as an imaging device for surveying Even if applied to the above, the same effect can be obtained.

上述の各処理部の動作は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されている。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。   The operation of each processing unit described above is stored in a computer-readable recording medium in the form of a program. Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.

また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

100…車両情報認識装置 110…カメラ 111…撮像部 112…認識部 113…I/F部 114…座標特定部 115…パラメータ特定部 116…目標パラメータ記憶部 117…提示部 120…ズームレンズ 121…ズーム機構 130…三脚 131…脚部 132…カメラ支持部 133…水平回動機構 134…鉛直回動機構 135…鉛直伸縮機構   DESCRIPTION OF SYMBOLS 100 ... Vehicle information recognition apparatus 110 ... Camera 111 ... Imaging part 112 ... Recognition part 113 ... I / F part 114 ... Coordinate specific part 115 ... Parameter specific part 116 ... Target parameter memory | storage part 117 ... Presentation part 120 ... Zoom lens 121 ... Zoom Mechanism 130 ... Tripod 131 ... Leg 132 ... Camera support 133 ... Horizontal rotation mechanism 134 ... Vertical rotation mechanism 135 ... Vertical extension / contraction mechanism

Claims (8)

撮像装置の調整方法であって、
前記撮像装置の撮像部が、路面上の矩形領域の一部を含む画像を撮像する撮像ステップと、
前記撮像装置の座標特定部が、前記撮像部が撮像した画像に基づいて前記矩形領域の各頂点の座標を特定する座標特定ステップと、
前記撮像装置のパラメータ特定部が、前記座標特定部が特定した座標を結ぶ閉区間の形状に基づいて前記パラメータを特定するパラメータ特定ステップと、
前記パラメータ特定部が特定したパラメータを参照し、当該パラメータを目標パラメータに近づけるように、前記撮像装置の調整部を調整する調整ステップと
を有することを特徴とする撮像装置の調整方法。
An adjustment method for an imaging apparatus,
An imaging step in which an imaging unit of the imaging device captures an image including a part of a rectangular region on a road surface;
A coordinate specifying step in which the coordinate specifying unit of the imaging device specifies the coordinates of each vertex of the rectangular region based on the image captured by the imaging unit;
A parameter specifying step of specifying the parameter based on the shape of a closed section connecting the coordinates specified by the coordinate specifying unit;
An adjustment method for an imaging apparatus, comprising: an adjustment step of adjusting an adjustment unit of the imaging apparatus so that the parameter specified by the parameter identification section is referred to and the parameter is brought close to a target parameter.
前記矩形領域は、車線の両端の線及び当該線に直交する線を辺とする
ことを特徴とする請求項1に記載の撮像装置の調整方法。
The method for adjusting an imaging apparatus according to claim 1, wherein the rectangular area has a line at both ends of a lane and a line orthogonal to the line.
前記撮像ステップの前に、前記撮像部が撮像する画像に前記矩形領域の全部が含まれるよう前記撮像装置の調整部により画角を調整する広角化ステップを有し、
前記調整ステップでは、前記パラメータのうち方向角及び俯角を目標パラメータに近づける調整を行った後に、画角を前記目標パラメータに近づける調整を行う
ことを特徴とする請求項1または請求項2に記載の撮像装置の調整方法。
Before the imaging step, the image capturing unit has an image widening step of adjusting the angle of view by the adjustment unit of the imaging device so that the image captured by the imaging unit includes all of the rectangular area,
3. The adjustment according to claim 1, wherein, in the adjustment step, after adjusting the direction angle and the depression angle among the parameters to be close to the target parameter, the adjustment is performed so that the angle of view is close to the target parameter. Adjustment method of imaging apparatus.
路面上の矩形領域の一部を含む画像を撮像する撮像部と、
前記撮像部の撮像範囲を決定するパラメータを調整する調整部と、
前記撮像部が撮像した画像に基づいて前記矩形領域の各頂点の座標を特定する座標特定部と、
前記座標特定部が特定した座標を結ぶ閉区間の形状に基づいて前記パラメータを特定するパラメータ特定部と
を備えることを特徴とする撮像装置。
An imaging unit that captures an image including a part of a rectangular area on the road surface;
An adjustment unit for adjusting a parameter for determining an imaging range of the imaging unit;
A coordinate identifying unit that identifies the coordinates of each vertex of the rectangular region based on the image captured by the imaging unit;
An image pickup apparatus comprising: a parameter specifying unit that specifies the parameter based on a shape of a closed section connecting coordinates specified by the coordinate specifying unit.
前記目標パラメータで決定される撮像範囲を撮像したときに認識精度が最も良くなるよう設計された設定情報を用いて、前記撮像部が撮像した画像から車両情報を認識する認識部
を備えることを特徴とする請求項4に記載の撮像装置。
A recognition unit for recognizing vehicle information from an image captured by the imaging unit using setting information designed to achieve the best recognition accuracy when the imaging range determined by the target parameter is captured. The imaging device according to claim 4.
前記矩形領域は、車線の両端の線及び当該線に直交する線を辺とする
ことを特徴とする請求項4または請求項5に記載の撮像装置。
The imaging device according to claim 4, wherein the rectangular area has a line at both ends of a lane and a line orthogonal to the line as a side.
前記パラメータ特定部が特定したパラメータと所定の目標パラメータとを比較し、その比較結果を提示する提示部
を備えることを特徴とする請求項4から請求項6の何れか1項に記載の撮像装置。
The imaging apparatus according to claim 4, further comprising: a presentation unit that compares the parameter specified by the parameter specifying unit with a predetermined target parameter and presents the comparison result. .
撮像装置を、
路面上の矩形領域の一部を含む画像を撮像する撮像部、
前記撮像部が撮像した画像に基づいて前記矩形領域の各頂点の座標を特定する座標特定部、
前記座標特定部が特定した座標を結ぶ閉区間の形状に基づいて前記パラメータを特定するパラメータ特定部
として機能させるためのプログラム。
The imaging device
An imaging unit that captures an image including a part of a rectangular area on the road surface;
A coordinate identifying unit that identifies the coordinates of each vertex of the rectangular region based on the image captured by the imaging unit;
A program for functioning as a parameter specifying unit that specifies the parameter based on a shape of a closed section connecting coordinates specified by the coordinate specifying unit.
JP2012154681A 2012-07-10 2012-07-10 Imaging device adjustment method, imaging device, and program Active JP6093517B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012154681A JP6093517B2 (en) 2012-07-10 2012-07-10 Imaging device adjustment method, imaging device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012154681A JP6093517B2 (en) 2012-07-10 2012-07-10 Imaging device adjustment method, imaging device, and program

Publications (2)

Publication Number Publication Date
JP2014016878A true JP2014016878A (en) 2014-01-30
JP6093517B2 JP6093517B2 (en) 2017-03-08

Family

ID=50111480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012154681A Active JP6093517B2 (en) 2012-07-10 2012-07-10 Imaging device adjustment method, imaging device, and program

Country Status (1)

Country Link
JP (1) JP6093517B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0537937A (en) * 1991-07-31 1993-02-12 Sumitomo Electric Ind Ltd Video camera monitoring system
JP2000182182A (en) * 1998-12-14 2000-06-30 Omron Corp Vehicle image pick up device
JP2003123197A (en) * 2001-10-16 2003-04-25 Alpine Electronics Inc Recognition device for road mark or the like
JP2006090826A (en) * 2004-09-24 2006-04-06 Hitachi Ltd Display method for confirmation screen and adjustment screen for installation information of radar
JP2008269139A (en) * 2007-04-18 2008-11-06 Sanyo Electric Co Ltd Drive support system and vehicle
JP2009048261A (en) * 2007-08-14 2009-03-05 Toshiba Corp Camera system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0537937A (en) * 1991-07-31 1993-02-12 Sumitomo Electric Ind Ltd Video camera monitoring system
JP2000182182A (en) * 1998-12-14 2000-06-30 Omron Corp Vehicle image pick up device
JP2003123197A (en) * 2001-10-16 2003-04-25 Alpine Electronics Inc Recognition device for road mark or the like
JP2006090826A (en) * 2004-09-24 2006-04-06 Hitachi Ltd Display method for confirmation screen and adjustment screen for installation information of radar
JP2008269139A (en) * 2007-04-18 2008-11-06 Sanyo Electric Co Ltd Drive support system and vehicle
JP2009048261A (en) * 2007-08-14 2009-03-05 Toshiba Corp Camera system

Also Published As

Publication number Publication date
JP6093517B2 (en) 2017-03-08

Similar Documents

Publication Publication Date Title
JP7231306B2 (en) Method, Apparatus and System for Automatically Annotating Target Objects in Images
JP6100380B2 (en) Image processing method used for vision-based positioning, particularly for apparatus
CN110809786B (en) Calibration device, calibration chart, chart pattern generation device, and calibration method
JP6338021B2 (en) Image processing apparatus, image processing method, and image processing program
JP6220486B1 (en) 3D model generation system, 3D model generation method, and program
CN110300292B (en) Projection distortion correction method, device, system and storage medium
TW201709718A (en) Method and apparatus for displaying a light field based image on a user's device, and corresponding computer program product
JP6196416B1 (en) 3D model generation system, 3D model generation method, and program
CN107111880A (en) Disposal is blocked for computer vision
EP3093822B1 (en) Displaying a target object imaged in a moving picture
KR20130058424A (en) Apparatus and method for calculating 3 dimensional position of feature points
JP6096634B2 (en) 3D map display system using virtual reality
CN106095178B (en) Input equipment recognition methods and system, input instruction identification method and system
KR101875047B1 (en) System and method for 3d modelling using photogrammetry
JPWO2015098222A1 (en) Information processing apparatus, information processing method, and program
JP2016099235A (en) Normally placed image processing system and structure maintenance management business system
CN110650284B (en) Image shooting control method, device, equipment and storage medium
WO2020062699A1 (en) Systems and methods for 3-dimensional (3d) positioning of imaging device
KR101529820B1 (en) Method and apparatus for determing position of subject in world coodinate system
JP6093517B2 (en) Imaging device adjustment method, imaging device, and program
WO2018062335A1 (en) Location information identifying method, location information identifying device, and location information identifying program
US20200364933A1 (en) Image processing apparatus, image processing method and storage medium
JP6045218B2 (en) Vehicle information recognition device, method for adjusting vehicle information recognition device, and program
JP6512058B2 (en) Projector, video projection method, and computer program for video projection
JP6984583B2 (en) Information processing equipment and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150623

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20160323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20161201

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20161208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170213

R150 Certificate of patent or registration of utility model

Ref document number: 6093517

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350