JP7018372B2 - Image processing device and image processing method - Google Patents
Image processing device and image processing method Download PDFInfo
- Publication number
- JP7018372B2 JP7018372B2 JP2018161766A JP2018161766A JP7018372B2 JP 7018372 B2 JP7018372 B2 JP 7018372B2 JP 2018161766 A JP2018161766 A JP 2018161766A JP 2018161766 A JP2018161766 A JP 2018161766A JP 7018372 B2 JP7018372 B2 JP 7018372B2
- Authority
- JP
- Japan
- Prior art keywords
- line
- image processing
- candidates
- processing unit
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
開示の技術は、画像処理装置及び画像処理方法に関する。 The disclosed technique relates to an image processing apparatus and an image processing method.
カメラによって撮影された画像(以下では「撮影画像」と呼ぶことがある)には、カメラによる撮影の対象となった媒体(以下では「対象媒体」と呼ぶことがある)の画像(以下では「媒体画像」と呼ぶことがある)が含まれる。対象媒体の表面に文字が印刷されている場合に、例えばOCR(Optical Character Recognition)を用いて、媒体画像を対象にして文字認識を行うことがある。例えば対象媒体が運転免許証である場合に、運転免許証の表面に印刷された氏名、生年月日、住所、免許証番号等の個人情報を、カメラによって撮影された運転免許証の画像からOCRを用いて取得することがある。 The image taken by the camera (hereinafter sometimes referred to as "captured image") is an image of the medium (hereinafter sometimes referred to as "target medium") taken by the camera (hereinafter referred to as "target medium"). (Sometimes referred to as "medium image") is included. When characters are printed on the surface of the target medium, character recognition may be performed on the medium image by using, for example, OCR (Optical Character Recognition). For example, when the target medium is a driver's license, personal information such as name, date of birth, address, license number, etc. printed on the surface of the driver's license is OCR from the image of the driver's license taken by the camera. May be obtained using.
表面に文字が印刷された対象媒体のカメラによる撮影状況には様々な状況があるため、文字認識の対象領域を撮影画像上に設定することが困難になることがある。例えば、対象媒体を手に持って撮影を行う状況では、媒体画像の一部が手の指の画像によって隠れてしまうことがあるために、撮影画像における媒体画像の特定が困難になることがある。撮影画像における媒体画像の特定が困難になると、文字認識の対象領域を撮影画像上に設定することが困難になる。文字認識の対象領域を撮影画像上に設定することが困難になると、文字認識の認識率が低下してしまう。 Since there are various situations in which characters are printed on the surface of the target medium by the camera, it may be difficult to set the target area for character recognition on the captured image. For example, in a situation where the target medium is held in the hand for shooting, it may be difficult to identify the medium image in the shot image because a part of the medium image may be hidden by the image of the finger of the hand. .. When it becomes difficult to specify the medium image in the captured image, it becomes difficult to set the target area for character recognition on the captured image. If it becomes difficult to set the target area for character recognition on the captured image, the recognition rate of character recognition will decrease.
開示の技術は、上記に鑑みてなされたものであって、撮影画像における対象領域の設定を精度良く行うことを目的とする。 The disclosed technique has been made in view of the above, and an object thereof is to accurately set a target area in a captured image.
開示の態様では、画像処理装置は、記憶部と、画像処理部とを有する。前記記憶部は、撮影画像を記憶する。前記画像処理部は、前記撮影画像において複数の線分を検出し、前記複数の線分の相互関係に基づいて、四辺形の四辺の線分の組合せの複数の候補を検出し、前記複数の候補の各々に対する複数のスコアを算出し、前記複数のスコアに基づいて、前記複数の候補の中から何れか一つの組合せを選択し、選択した前記組合せに含まれる前記四辺の前記線分の各々を各辺とする四辺形の領域に基づいて対象領域を決定し、前記撮影画像上に前記対象領域を設定する。 In the disclosed aspect, the image processing apparatus has a storage unit and an image processing unit. The storage unit stores a photographed image. The image processing unit detects a plurality of line segments in the captured image, detects a plurality of candidates for a combination of four side lines of a quadrilateral based on the mutual relationship of the plurality of line segments, and detects the plurality of candidates. A plurality of scores for each of the candidates are calculated, one combination is selected from the plurality of candidates based on the plurality of scores, and each of the line segments on the four sides included in the selected combination. The target area is determined based on the quadrilateral area having each side, and the target area is set on the captured image.
開示の態様によれば、撮影画像における対象領域の設定を精度良く行うことができる。 According to the disclosed aspect, it is possible to accurately set the target area in the captured image.
以下に、本願の開示する画像処理装置及び画像処理方法の実施例を図面に基づいて説明する。なお、この実施例により本願の開示する画像処理装置及び画像処理方法が限定されるものではない。また、実施例において同一の機能を有する構成、及び、同一の処理を行うステップには同一の符号を付す。 Hereinafter, examples of the image processing apparatus and the image processing method disclosed in the present application will be described with reference to the drawings. It should be noted that this embodiment does not limit the image processing apparatus and image processing method disclosed in the present application. Further, in the embodiment, the same reference numerals are given to the configurations having the same functions and the steps for performing the same processing.
[実施例1]
<画像処理装置の構成>
図1は、実施例1の画像処理装置の構成例を示す図である。図1において、画像処理装置10は、制御部11と、記憶部13と、画像処理部15とを有する。画像処理部15は、制御部11による制御の下で動作する。画像処理装置10は、例えば、カメラを備える携帯端末や、カメラを備える据置型の端末に搭載されて使用される。
[Example 1]
<Configuration of image processing device>
FIG. 1 is a diagram showing a configuration example of the image processing apparatus of the first embodiment. In FIG. 1, the
記憶部13には、撮影画像が記憶されている。
The captured image is stored in the
画像処理部15は、制御部11からの指示に従って、記憶部13に記憶されている撮影画像を記憶部13から取得し、取得した撮影画像に対して以下に述べる画像処理を施す。
The
<画像処理装置の処理・動作>
図2及び図3は、実施例1の画像処理装置の処理フローの一例を示す図である。図4~図21は、実施例1の画像処理装置の動作例の説明に供する図である。
<Processing and operation of image processing equipment>
2 and 3 are diagrams showing an example of the processing flow of the image processing apparatus of the first embodiment. 4 to 21 are diagrams for explaining an operation example of the image processing apparatus of the first embodiment.
実施例1では、対象媒体が運転免許証である場合を一例に挙げて説明する。 In the first embodiment, a case where the target medium is a driver's license will be described as an example.
図2に示す処理フローは、画像処理部15が撮影画像を記憶部13から取得したときに開始される。また、画像処理部15による撮影画像の記憶部13からの取得は、制御部11からの指示に従って行われる。例えば、カメラを備える携帯端末が有するタッチパネルに表示される処理開始ボタンがタッチされたときに、制御部11は、記憶部13からの撮影画像の取得指示を画像処理部15に与える。図4に、画像処理部15が記憶部13から取得した撮影画像PIの一例を示す。図4において、撮影画像PIは、例えば、媒体画像である運転免許証の画像(以下では「免許証画像」と呼ぶことがある)DLIと、運転免許証を掴んでいる指の画像(以下では「指画像」と呼ぶことがある)FIと、背景の画像(以下では「背景画像」と呼ぶことがある)BGIとを含む。図4では、撮影画像PIにおいて、免許証画像DLIの一部が指画像FIによって隠れている。
The processing flow shown in FIG. 2 is started when the
図2において、ステップS101では、画像処理部15は、記憶部13から取得した撮影画像において、例えば近傍階調差を用いて、水平方向及び垂直方向にエッジ画素を抽出し、水平方向のエッジ画素から形成される画像(以下では「水平方向エッジ画像」と呼ぶことがある)EIH(図5)、及び、垂直方向のエッジ画素から形成される画像(以下では「垂直方向エッジ画像」と呼ぶことがある)EIV(図6)を生成する。
In FIG. 2, in step S101, the
次いで、ステップS103では、画像処理部15は、水平方向エッジ画像EIH(図5)及び垂直方向エッジ画像EIV(図6)に対して、ハフ検出及び最小二乗法を用いた線分検出を行い、検出した複数の線分から形成される画像(以下では「線分画像」と呼ぶことがある)LSD(図7)を生成する。線分画像LSDには、図7に示すように、複数の水平方向の線分(以下では「水平線分」と呼ぶことがある)から形成される画像(以下では「水平方向線分画像」と呼ぶことがある)と、複数の垂直方向の線分(以下では「垂直線分」と呼ぶことがある)から形成される画像(以下では「垂直方向線分画像」と呼ぶことがある)とが含まれる。画像処理部15は、例えば、水平方向エッジ画像EIHにおいて水平方向に相互に隣接するエッジ画素を連結して水平方向線分画像を生成するとともに、垂直方向エッジ画像EIVにおいて垂直方向に相互に隣接するエッジ画素を連結して垂直方向線分画像を生成する。
Next, in step S103, the
次いで、ステップS105では、画像処理部15は、組合せ候補検出処理を行う。
Next, in step S105, the
図3に、組合せ候補検出処理の処理フローの一例を示す。 FIG. 3 shows an example of the processing flow of the combination candidate detection process.
ここで、図8に、対象媒体である運転免許証DLの表面に引かれている複数の罫線のレイアウトに基づいて選定された罫線(以下では「選定罫線」と呼ぶことがある)の一例を示す。運転免許証DLの表面には、水平方向及び垂直方向の双方に複数の罫線がレイアウトされて引かれており、これらの複数の罫線のレイアウトに基づいて、これらの複数の罫線の中の何れかの罫線が予め選定されている。例えば、図8に示すように、水平方向では、罫線LH1~LH7の7本の罫線が予め選定され、垂直方向では、罫線LV1,LV2の2本の罫線が予め選定されている。 Here, FIG. 8 shows an example of a ruled line selected based on the layout of a plurality of ruled lines drawn on the surface of the driver's license DL, which is the target medium (hereinafter, may be referred to as “selected ruled line”). show. A plurality of ruled lines are laid out and drawn on the surface of the driver's license DL in both the horizontal direction and the vertical direction, and one of these multiple ruled lines is based on the layout of these multiple ruled lines. Ruled line is selected in advance. For example, as shown in FIG. 8, in the horizontal direction, seven ruled lines LH1 to LH7 are selected in advance, and in the vertical direction, two ruled lines LV1 and LV2 are selected in advance.
また、運転免許証DLの下辺も罫線とみなし、運転免許証DLの下辺が罫線LH8として予め選定されている。また、罫線LH1~LH8において、罫線LH1,LH2は「基準線」として選定され、罫線LH3~LH8は、基準線よりも優先度が低い「補助線」として選定されている。つまり、選定罫線は、基準線と、基準線よりも優先度が低い補助線とを含む。 Further, the lower side of the driver's license DL is also regarded as a ruled line, and the lower side of the driver's license DL is selected in advance as the ruled line LH8. Further, in the ruled lines LH1 to LH8, the ruled lines LH1 and LH2 are selected as "reference lines", and the ruled lines LH3 to LH8 are selected as "auxiliary lines" having a lower priority than the reference lines. That is, the selection ruled line includes a reference line and an auxiliary line having a lower priority than the reference line.
また、運転免許証DLを手に持って撮影を行う状況では補助線である選定罫線LH5,LH6,LH8の一部が隠れてしまうことがあるため、基準線である選定罫線LH1の上方に補助線である選定罫線LH5,LH6を設定し、基準線である選定罫線LH2の下方に補助線である選定罫線LH8を設定した。 In addition, in a situation where a driver's license DL is held in the hand for shooting, a part of the selection ruled lines LH5, LH6, and LH8, which are auxiliary lines, may be hidden. The selection ruled lines LH5 and LH6, which are lines, were set, and the selection ruled lines LH8, which was an auxiliary line, were set below the selection ruled line LH2, which was the reference line.
また、運転免許証DLの地の色と、運転免許証DLの背景の色とが類似する場合には、運転免許証DLの上辺を選定罫線LH1に、運転免許証DLの下辺を選定罫線LH2に設定してしまうと基準線が不明になる可能性がある。このため、選定罫線LH1を運転免許証DLの上辺よりも下方に、選定罫線LH2を運転免許証DLの下辺よりも上方に設定した。つまり、選定罫線LH5,LH6,LH8は、選定罫線LH1と選定罫線LH2とに挟まれた領域以外の領域に設定されている。 If the background color of the driver's license DL and the background color of the driver's license DL are similar, the upper side of the driver's license DL is selected as the selection ruled line LH1 and the lower side of the driver's license DL is selected as the ruled line LH2. If set to, the reference line may be unknown. Therefore, the selection ruled line LH1 is set below the upper side of the driver's license DL, and the selection ruled line LH2 is set above the lower side of the driver's license DL. That is, the selection ruled lines LH5, LH6, and LH8 are set in a region other than the region sandwiched between the selection ruled line LH1 and the selection ruled line LH2.
なお、基準線は「第1罫線」と呼ばれ、補助線は「第2罫線」と呼ばれることもある。 The reference line is sometimes called a "first ruled line", and the auxiliary line is sometimes called a "second ruled line".
また、図9に、罫線LH1~LH8の位置関係の一例を示す。図9に示すように、罫線LH1と罫線LH2とは距離L1だけ離れて位置し、罫線LH1と罫線LH3とは距離L2だけ離れて位置し、罫線LH1と罫線LH4とは距離L3だけ離れて位置する。また、罫線LH3と罫線LH4とは距離L4だけ離れて位置し、罫線LH1と罫線LH5とは距離L5だけ離れて位置し、罫線LH3と罫線LH5とは距離L6だけ離れて位置し、罫線LH1と罫線LH6とは距離L7だけ離れて位置する。また、罫線LH5と罫線LH6とは距離L8だけ離れて位置し、罫線LH3と罫線LH7とは距離L9だけ離れて位置し、罫線LH4と罫線LH7とは距離L10だけ離れて位置し、罫線LH2と罫線LH8とは距離L11だけ離れて位置する。 Further, FIG. 9 shows an example of the positional relationship between the ruled lines LH1 to LH8. As shown in FIG. 9, the ruled line LH1 and the ruled line LH2 are located apart by a distance L1, the ruled line LH1 and the ruled line LH3 are located separated by a distance L2, and the ruled line LH1 and the ruled line LH4 are located separated by a distance L3. do. Further, the ruled line LH3 and the ruled line LH4 are located apart by a distance L4, the ruled line LH1 and the ruled line LH5 are located separated by a distance L5, and the ruled line LH3 and the ruled line LH5 are located separated by a distance L6. It is located at a distance L7 from the ruled line LH6. Further, the ruled line LH5 and the ruled line LH6 are located apart by a distance L8, the ruled line LH3 and the ruled line LH7 are located separated by a distance L9, and the ruled line LH4 and the ruled line LH7 are located separated by a distance L10. It is located at a distance L11 from the ruled line LH8.
また、図10に、罫線の位置関係と罫線間距離との対応関係が設定された位置関係テーブルTAの一例を示す。図10における罫線間距離L1~L11は、図9における距離L1~L11に対応する。また、位置関係テーブルTAの罫線間距離L1~L11において、罫線間距離L2~L11には「±Δl」のマージンが付加されている。Δlは、例えば「1mm」である。位置関係テーブルTAは、記憶部13に予め記憶されており、画像処理部15によって参照される。
Further, FIG. 10 shows an example of the positional relationship table TA in which the correspondence relationship between the positional relationship of the ruled lines and the distance between the ruled lines is set. The distances L1 to L11 between the ruled lines in FIG. 10 correspond to the distances L1 to L11 in FIG. Further, in the distances L1 to L11 between the ruled lines of the positional relationship table TA, a margin of "± Δl" is added to the distances L2 to L11 between the ruled lines. Δl is, for example, "1 mm". The positional relationship table TA is stored in advance in the
図3に戻り、ステップS131では、画像処理部15は、水平線候補を選択する。画像処理部15は、水平線候補の選択を、基準線候補の選択(ステップS133)と、補助線候補の選択(ステップS135)とに分けて行い、2本の基準線候補を選択した後に、選択した基準線候補に基づいて補助線候補を選択する。
Returning to FIG. 3, in step S131, the
次いで、ステップS137では、画像処理部15は、2本の垂直線候補を選択する。
Next, in step S137, the
そして、ステップS139では、画像処理部15は、ステップS133で選択した2本の基準線候補と、ステップS137で選択した2本の垂直線候補とを組み合わせることにより、図11に示すような、四辺形の四辺の線分(上辺の線分:LH1C,下辺の線分:LH2C,左辺の線分:LV1C,右辺の線分:LV2C)の組合せの候補(以下では「組合せ候補」と呼ぶことがある)QRCを複数検出する。なお、組合せ候補の各線分は、四辺形の四辺の何れかの辺の一部または全部を形成する。
Then, in step S139, the
例えば、ステップS133では、画像処理部15は、線分画像LSD(図7)における水平方向線分画像に含まれる複数の水平線分の中から、罫線LH1,LH2(つまり「基準線」)のそれぞれに対応する水平線分を基準線候補LH1C,LH2Cとして選択する。例えば、画像処理部15は、水平方向のすべての線分の中で、以下の条件1~3のすべてを満たす2本の水平線分の組合せを基準線候補LH1C,LH2Cの組合せとして選択する。
<条件1>基準線候補LH1Cは、撮影画像PIの上半分の領域UPH(図4)に存在する。
<条件2>基準線候補LH2Cは、撮影画像PIの下半分の領域LOH(図4)に存在する。
<条件3>基準線候補LH1Cに対する基準線候補LH2Cの傾きは±3°以下である。
For example, in step S133, the
<
<
<Condition 3> The inclination of the reference line candidate LH2C with respect to the reference line candidate LH1C is ± 3 ° or less.
ステップS133の処理後、ステップS135では、画像処理部15は、線分画像LSD(図7)における水平方向線分画像に含まれる水平方向の複数の線分の中から、罫線LH3~LH8(つまり「補助線」)のそれぞれに対応する水平線分を補助線候補LH3C~LH8Cとして選択する。
After the processing of step S133, in step S135, the
ステップS135において、画像処理部15は、まず、条件1~3に従って選択した基準線候補LH1C,LH2Cに基づいて、水平方向のすべての線分の中で、以下の条件4,5のすべてを満たす水平線分を補助線候補LH3C~LH8Cとして選択する。画像処理部15は、補助線候補をLH3C→LH4C→LH5C→LH6C→LH7C→LH8Cの順に選択する。
<条件4>すべての近隣候補に対する傾きが±1°以下である。
<条件5>すべての近隣候補に対する相対距離のズレが±Δlmm以下である(例えばΔl=1mm)。
In step S135, the
<
<Condition 5> The deviation of the relative distance with respect to all neighboring candidates is ± Δl mm or less (for example, Δl = 1 mm).
ここで、補助線候補LH3Cに対する近隣候補は基準線候補LH1Cであり、補助線候補LH4Cに対する近隣候補は基準線候補LH1C及び補助線候補LH3Cであり、補助線候補LH5Cに対する近隣候補は基準線候補LH1C及び補助線候補LH3Cであり、補助線候補LH6Cに対する近隣候補は基準線候補LH1C及び補助線候補LH5Cであり、補助線候補LH7Cに対する近隣候補は補助線候補LH3C及び補助線候補LH4Cであり、補助線候補LH8Cに対する近隣候補は基準線候補LH2Cである。 Here, the neighborhood candidate for the auxiliary line candidate LH3C is the reference line candidate LH1C, the neighborhood candidate for the auxiliary line candidate LH4C is the reference line candidate LH1C and the auxiliary line candidate LH3C, and the neighborhood candidate for the auxiliary line candidate LH5C is the reference line candidate LH1C. And the auxiliary line candidate LH3C, the neighborhood candidates for the auxiliary line candidate LH6C are the reference line candidate LH1C and the auxiliary line candidate LH5C, and the neighborhood candidates for the auxiliary line candidate LH7C are the auxiliary line candidate LH3C and the auxiliary line candidate LH4C, and the auxiliary line candidate LH4C. The neighbor candidate for the candidate LH8C is the reference line candidate LH2C.
また、画像処理部15は、条件5における「相対距離」を、ステップS133で選択した基準線候補LH1C,LH2Cと位置関係テーブルTA(図10)とに基づいて算出する。例えば、補助線候補LH3Cに対する近隣候補は基準線候補LH1Cであるため、基準線候補LH1Cと基準線候補LH2Cとの間の距離が運転免許証DLにおける実寸相当で「Nmm」であった場合、位置関係テーブルTAの罫線間距離L1,L2に基づいて、補助線候補LH3Cについての相対距離は「N×(4/40)=N/10mm」と算出される。また例えば、補助線候補LH4Cに対する近隣候補は基準線候補LH1C及び補助線候補LH3Cであるため、基準線候補LH1Cと基準線候補LH2Cとの間の距離が運転免許証DLにおける実寸相当で「Nmm」であった場合、位置関係テーブルTAの罫線間距離L1,L3,L4に基づいて、補助線候補LH4Cについての相対距離は、「N×(8/40)=N/5mm」及び「N×(4/40)=N/10mm」と算出される。
Further, the
また、ステップS135において、画像処理部15は、次いで、補助線候補LH8Cとして選択されるべき水平線分が基準線候補LH2Cとして誤って選択されていないか否か判定する。画像処理部15は、以下の条件6~9のすべてを満たす場合に、補助線候補LH8Cとして選択されるべき水平線分が基準線候補LH2Cとして誤って選択されていると判定する。そして、画像処理部15は、以下の条件6~9のすべてを満たす基準線候補LH2Cを含む組合せを組合せ候補から除外する。
<条件6>条件1~3に従って選択した基準線候補LH2Cから上方向の相対距離以内に水平線分が存在する。
<条件7>基準線候補LH2Cに対する補助線候補LH8Cの傾きは±1°以下である。
<条件8>基準線候補LH2Cに対する補助線候補LH8Cの相対距離のズレが±Δlmm以下である(例えばΔl=1mm)。
<条件9>補助線候補LH8C上のエッジ画素の総数が、基準線候補LH2C上のエッジ画素の総数の70%以上である。
Further, in step S135, the
<Condition 6> A horizontal line segment exists within the upward relative distance from the reference line candidate LH2C selected according to
<Condition 7> The inclination of the auxiliary line candidate LH8C with respect to the reference line candidate LH2C is ± 1 ° or less.
<Condition 8> The deviation of the relative distance of the auxiliary line candidate LH8C with respect to the reference line candidate LH2C is ± Δl mm or less (for example, Δl = 1 mm).
<Condition 9> The total number of edge pixels on the auxiliary line candidate LH8C is 70% or more of the total number of edge pixels on the reference line candidate LH2C.
ここで、画像処理部15は、条件6,8における「相対距離」を、ステップS133で選択した基準線候補LH1C,LH2Cと位置関係テーブルTA(図10)とに基づいて算出する。例えば、基準線候補LH1Cと基準線候補LH2Cとの間の距離が運転免許証DLにおける実寸相当で「Nmm」であった場合、位置関係テーブルTAの罫線間距離L1,L11に基づいて、条件6,8における相対距離は「N×(3/40)=3N/40mm」と算出される。
Here, the
上記の条件1~9のうち、条件3~9には、線分画像LSD(図7)における水平方向線分画像に含まれる複数の水平線分の間の相互関係が規定されている。
Of the
次いで、ステップS137では、画像処理部15は、線分画像LSD(図7)における垂直方向線分画像に含まれる複数の垂直線分の中から、罫線LV1,LV2のそれぞれに対応する垂直線分を垂直線候補LV1C,LV2Cとして選択する。例えば、画像処理部15は、垂直方向のすべての線分の中で、以下の条件10~13のすべてを満たす2本の垂直線分の組合せを垂直線候補LV1C,LV2Cの組合せとして選択する。
<条件10>垂直線候補LV1Cは、撮影画像PIの左半分の領域LEH(図4)に存在する。
<条件11>垂直線候補LV2Cは、撮影画像PIの右半分の領域RIH(図4)に存在する。
<条件12>基準線候補LH1Cに対する垂直線候補LV1Cの傾きは90°±25°以下である。
<条件13>基準線候補LH1Cに対する垂直線候補LV2Cの傾きは90°±25°以下である。
Next, in step S137, the
<
<
<Condition 12> The inclination of the vertical line candidate LV1C with respect to the reference line candidate LH1C is 90 ° ± 25 ° or less.
<
そして、ステップS139では、画像処理部15は、ステップS133で選択した基準線候補LH1C,LH2Cと、ステップS135で選択した補助線候補(つまり、ステップS133で選択した基準線候補LH1C,LH2Cに基づいて選択した補助線候補)と、ステップS137で選択した垂直線候補LV1C,LV2Cとを組み合わせることにより、複数の組合せ候補QRCを検出する。
Then, in step S139, the
ここで、条件1~9に従って選択された基準線候補LH1C,LH2C及び補助線候補LH3C~LH8Cの一例を図12~14に示す。
Here, FIGS. 12 to 14 show an example of the reference line candidates LH1C and LH2C and the auxiliary line candidates LH3C to LH8C selected according to the
図12に示す水平線候補群LHC1には、2本の基準線候補LH1C,LH2Cと、6本の補助線候補LH3C~LH8Cとが含まれる。 The horizontal line candidate group LHC1 shown in FIG. 12 includes two reference line candidates LH1C and LH2C and six auxiliary line candidates LH3C to LH8C.
また、図13に示す水平線候補群LHC2には、2本の基準線候補LH1C,LH2Cと、5本の補助線候補LH3C~LH7Cとが含まれる一方で、補助線候補LH8Cは含まれない。水平線候補群LHC2における基準線候補LH2Cは条件6~9のすべてを満たすため、画像処理部15は、水平線候補群LHC2を組合せ候補から除外する。
Further, the horizontal line candidate group LHC2 shown in FIG. 13 includes two reference line candidates LH1C and LH2C and five auxiliary line candidates LH3C to LH7C, but does not include the auxiliary line candidate LH8C. Since the reference line candidate LH2C in the horizon candidate group LHC2 satisfies all of the conditions 6 to 9, the
また、図14に示す水平線候補群LHC3には、2本の基準線候補LH1C,LH2Cと、3本の補助線候補LH3C~LH5Cとが含まれる一方で、補助線候補LH6C~LH8Cは含まれない。画像処理部15は、基準線候補LH1C,LH2C及び補助線候補LH3C~LH8Cのうち、基準線候補LH1C,LH2Cまたは補助線候補LH3C~LH7Cの何れかを含まない組合せを組合せ候補から除外する。よって、画像処理部15は、補助線候補LH6C,LH7Cを含まない水平線候補群LHC3を組合せ候補から除外する。
Further, the horizontal line candidate group LHC3 shown in FIG. 14 includes two reference line candidates LH1C and LH2C and three auxiliary line candidates LH3C to LH5C, but does not include auxiliary line candidates LH6C to LH8C. .. The
また、水平線候補群LHC1(図12)に含まれる基準線候補LH1C,LH2Cと、条件10~13のすべてを満たす垂直線候補LV1C,LV2Cとの組合せ候補の一例を図15~図17に示す。図15に示す組合せ候補QRC1と、図16に示す組合せ候補QRC2と、図17に示す組合せ候補QRC3とでは、基準線候補LH1C,LH2Cとして選択された水平線分は同一であるが、垂直線候補LV1C,LV2Cとして選択された垂直線分が互いに異なる。
Further, FIGS. 15 to 17 show an example of a combination candidate of the reference line candidates LH1C and LH2C included in the horizontal line candidate group LHC1 (FIG. 12) and the vertical line candidates LV1C and LV2C satisfying all of the
以上にようにして、画像処理部15は、ステップS139において、例えば、組合せ候補QRC1,QRC2,QRC3の3つの組合せ候補を検出する。
As described above, the
図2に戻り、次いでステップS107では、画像処理部15は、ステップS139で検出した複数の組合せ候補に対する複数のスコアを算出する。
Returning to FIG. 2, in step S107, the
次いで、ステップS109では、画像処理部15は、ステップS107で算出したスコアに基づいて、ステップS139で検出した複数の組合せ候補の中から何れか一つの組合せを最適組合せとして選択する。例えば、画像処理部15は、ステップS139で検出した複数の組合せ候補の中から、最も大きいスコアを有する組合せ候補を最適組合せとして選択する。
Next, in step S109, the
ここで、ステップS107でのスコアの算出について、算出例1~5を挙げて説明する。 Here, the calculation of the score in step S107 will be described with reference to calculation examples 1 to 5.
<算出例1>
画像処理部15は、組合せ候補QRC(図11)の四辺の線分LH1C,LH2C,LV1C,LV2Cの各線分上のエッジ画素の総数を「基準スコア」として算出する。
<Calculation example 1>
The
<算出例2>
画像処理部15は、組合せ候補QRC(図11)の四辺の各線分LH1C,LH2C,LV1C,LV2Cにおいて、線分の端点と、他の線分(または他の線分の延長線)との間の距離の合計値を補正スコアとして算出し、算出した補正スコアを基準スコアから減算する。
<Calculation example 2>
In the line segments LH1C, LH2C, LV1C, and LV2C on the four sides of the combination candidate QRC (FIG. 11), the
例えば、画像処理部15は、図18に示すように、組合せ候補QRCが上辺の線分LH1Cと左辺の線分LV1C1とを含む場合、上辺の線分LH1Cの端点EPと左辺の線分LV1C1の延長線との間の距離d1を補正スコアとして算出する。また例えば、図18に示すように、組合せ候補QRCが上辺の線分LH1Cと左辺の線分LV1C2とを含む場合、上辺の線分LH1Cの端点EPと左辺の線分LV1C2との間の距離d2を補正スコアとして算出する。
For example, as shown in FIG. 18, when the combination candidate QRC includes the line segment LH1C on the upper side and the line segment LV1C1 on the left side, the
<算出例3>
画像処理部15は、組合せ候補QRCに含まれる補助線候補の有無に応じた係数kを基準スコアに乗算する。例えば、画像処理部15は、補助線候補LH3C~LH7Cの5本の補助線候補のすべてが組合せ候補QRCに含まれる場合には係数kを「1」に設定する一方で、補助線候補LH3C~LH7Cの何れか1本が組合せ候補QRCに含まれない場合には係数kを「0」に設定する。
<Calculation example 3>
The
例えば、組合せ候補QRC1,QRC2,QRC3(図15,16,17)は、水平線候補群LHC1に基づいて生成されたものであるため、組合せ候補QRC1,QRC2,QRC3の各々には、補助線候補LH3C~LH7Cの5本の補助線候補のすべてが含まれている。よって、画像処理部15は、組合せ候補QRC1,QRC2,QRC3の各々に対しては、係数kを「1」に設定する。
For example, since the combination candidates QRC1, QRC2, and QRC3 (FIGS. 15, 16, and 17) are generated based on the horizon candidate group LHC1, each of the combination candidates QRC1, QRC2, and QRC3 has an auxiliary line candidate LH3C. -All of the five auxiliary line candidates of LH7C are included. Therefore, the
<算出例4>
画像処理部15は、組合せ候補QRCに含まれる補助線候補上のエッジ画素の総数を補正スコアとして算出し、算出した補正スコアを基準スコアに加算する。
<Calculation example 4>
The
<算出例5>
選定罫線LH3~LH7の5本の選定罫線のそれぞれに重要度kl3~kl7が予め付与される。画像処理部15は、組合せ候補QRCにおいて、選定罫線LH3~LH7に対応する補助線候補LH3C~LH7Cの各補助線候補上のエッジ画素の数に各重要度kl3~kl7を乗算し、補助線候補LH3C~LH7Cの各乗算結果の合計値を補正スコアとして算出し、算出した補正スコアを基準スコアに加算する。
<Calculation example 5>
Importance kl3 to kl7 are given in advance to each of the five selection ruled lines LH3 to LH7. In the combination candidate QRC, the
以上、スコアの算出について、算出例1~5を説明した。画像処理部15は、算出例1を単独で採用してスコアを算出しても良く、また、算出例2~5の何れか一つまたは複数を算出例1に組み合わせてスコアを算出しても良い。例えば、画像処理部15は、以下の式(1)に従ってスコアを算出する。式(1)において、係数bは重み係数であり、例えば「2」に設定される。
スコア=基準スコア×係数k-(補正スコア×係数b) …(1)
The calculation examples 1 to 5 have been described above for the calculation of the score. The
Score = standard score x coefficient k- (correction score x coefficient b) ... (1)
ここで、組合せ候補QRC1(図15)については、基準線候補LH1C,LH2Cの検出位置が選定罫線LH1,LH2(図8)の位置と同一であり、垂直線候補LV1C,LV2Cの検出位置が選定罫線LV1,LV2(図8)の位置と同一である。また、組合せ候補QRC2(図16)については、基準線候補LH1C,LH2Cの検出位置が選定罫線LH1,LH2の位置と同一であり、垂直線候補LV1Cの検出位置が選定罫線LV1の位置と同一である一方で、垂直線候補LV2Cの検出位置が選定罫線LV2の位置と異なる。また、組合せ候補QRC3(図17)については、基準線候補LH1C,LH2Cの検出位置が選定罫線LH1,LH2の位置と同一であり、垂直線候補LV2Cの検出位置が選定罫線LV2の位置と同一である一方で、垂直線候補LV1Cの検出位置が選定罫線LV1の位置と異なる。また、組合せ候補QRC2における垂直線候補LV2Cの検出位置と選定罫線LV2の位置との相違度は、組合せ候補QRC3における垂直線候補LV1Cの検出位置と選定罫線LV1の位置との相違度よりも大きい。よって、式(1)に従って組合せ候補QRC1,QRC2,QRC3の各々のスコアを算出すると、「QRC1のスコア>QRC3のスコア>QRC2のスコア」となる。よって、画像処理部15は、ステップS139で組合せ候補QRC1,QRC2,QRC3の3つの組合せ候補を検出した場合、ステップS109では、組合せ候補QRC1,QRC2,QRC3の中から、最も大きいスコアを有する組合せ候補QRC1を最適組合せOPとして選択する。
Here, for the combination candidate QRC1 (FIG. 15), the detection positions of the reference line candidates LH1C and LH2C are the same as the positions of the selection ruled lines LH1 and LH2 (FIG. 8), and the detection positions of the vertical line candidates LV1C and LV2C are selected. It is the same as the position of the ruled lines LV1 and LV2 (FIG. 8). Regarding the combination candidate QRC2 (FIG. 16), the detection positions of the reference line candidates LH1C and LH2C are the same as the positions of the selection ruled lines LH1 and LH2, and the detection positions of the vertical line candidate LV1C are the same as the positions of the selection ruled line LV1. On the other hand, the detection position of the vertical line candidate LV2C is different from the position of the selected ruled line LV2. Regarding the combination candidate QRC3 (FIG. 17), the detection positions of the reference line candidates LH1C and LH2C are the same as the positions of the selected ruled lines LH1 and LH2, and the detection positions of the vertical line candidate LV2C are the same as the positions of the selected ruled line LV2. On the other hand, the detection position of the vertical line candidate LV1C is different from the position of the selected ruled line LV1. Further, the degree of difference between the detection position of the vertical line candidate LV2C and the position of the selected ruled line LV2 in the combination candidate QRC2 is larger than the degree of difference between the detection position of the vertical line candidate LV1C and the position of the selected ruled line LV1 in the combination candidate QRC3. Therefore, when the scores of the combination candidates QRC1, QRC2, and QRC3 are calculated according to the equation (1), "Score of QRC1> Score of QRC3> Score of QRC2" is obtained. Therefore, when the
図2に戻り、次いでステップS111では、画像処理部15は、ステップS109で選択した最適組合せOPに基づいて、四辺形領域QRを決定する。例えば、画像処理部15は、組合せ候補QRC1(図15)を最適組合せOPとして選択した場合、図19に示すように、組合せ候補QRC1に含まれる基準線候補LH1C,LH2C及び垂直線候補LV1C,LV2Cのそれぞれから形成される上辺UPS,下辺LOS,左辺LES,右辺RISを有する四辺形領域QRを決定する。基準線候補LH1Cから上辺UPSが形成され、基準線候補LH2Cから下辺LOSが形成され、垂直線候補LV1Cから左辺LESが形成され、垂直線候補LV2Cから右辺RISが形成される。画像処理部15は、基準線候補LH1C,LH2C及び垂直線候補LV1C,LV2Cのそれぞれを延長または切断することによって、四辺形領域QRの上辺UPS,下辺LOS,左辺LES,右辺RISを形成する。
Returning to FIG. 2, in step S111, the
次いで、ステップS113では、画像処理部15は、ステップS111で決定した四辺形領域QRに基づいて対象領域TRを決定する。例えば、画像処理部15は、まず、図8に示す罫線レイアウトに基づいて、周知の技術である「透視投影変換」を用いて、四辺形領域QRの形状の歪みを補正する。この補正により、四辺形領域QRの形状が矩形に補正される。次いで、画像処理部15は、図20に示すように、矩形に補正後の四辺形領域(以下では「矩形領域」と呼ぶことがある)QRAを、運転免許証DLの四辺と選定罫線LH1,LH2,LV1,LV2との位置関係(図8)に基づいた所定の比率で拡張することにより、対象領域TRを決定する。
Next, in step S113, the
次いで、ステップS115では、画像処理部15は、図21に示すように、ステップS113で決定した対象領域TRを撮影画像PI上に設定する。
Next, in step S115, the
そして、ステップS117では、画像処理部15は、撮影画像PIに設定した対象領域TR内の画像に対して、例えばOCRを用いて、文字認識を行う。
Then, in step S117, the
以上のように、実施例1では、画像処理装置10は、記憶部13と、画像処理部15とを有する。記憶部13は、撮影画像PIを記憶する。画像処理部15は、撮影画像PIにおいて複数の線分を検出し、検出した複数の線分の相互関係に基づいて、四辺形の四辺の線分の組合せの複数の候補QRC1,QRC2,QRC3を検出する。また、画像処理部15は、組合せ候補QRC1,QRC2,QRC3の各々に対する複数のスコアを算出し、算出した複数のスコアに基づいて、組合せ候補QRC1,QRC2,QRC3の中から最適組合せOPを選択する。また、画像処理部15は、最適組合せOPに含まれる四辺の線分の各々を各辺とする四辺形領域QRに基づいて対象領域TRを決定し、決定した対象領域TRを撮影画像PI上に設定する。
As described above, in the first embodiment, the
こうすることで、運転免許証DLの様々な撮影状況において、撮影画像PIにおける対象領域TRの設定を精度良く行うことができる。 By doing so, it is possible to accurately set the target area TR in the captured image PI in various shooting situations of the driver's license DL.
また、実施例1では、画像処理部15は、選定罫線LH1~LH8に基づいて、組合せ候補QRC1,QRC2,QRC3の各々における上辺の線分と下辺の線分とを決定する。
Further, in the first embodiment, the
こうすることで、組合せ候補QRC1,QRC2,QRC3の各々において、四辺形領域QRの最適な上辺の線分及び最適な下辺の線分を決定することができる。 By doing so, in each of the combination candidates QRC1, QRC2, and QRC3, the optimum upper side line segment and the optimum lower side line segment of the quadrilateral region QR can be determined.
また、実施例1では、選定罫線LH1~LH8は、基準線と、基準線よりも優先度が低い補助線とを含む。また、撮影画像PIにおいて検出された複数の線分は、基準線に対応する線分(以下では「基準線対応線分」と呼ぶことがある)と、補助線に対応する線分(以下では「補助線対応線分」と呼ぶことがある)とを含む。画像処理部15は、撮影画像PIにおいて検出した複数の線分において、基準線対応線分(LHC1,LHC2)を選択後に、選択した基準線対応線分に基づいて、補助線対応線分(LHC3~LHC8)を選択する。なお、基準線対応線分は「第1線分」と呼ばれ、補助線対応線分は「第2線分」と呼ばれることもある。
Further, in the first embodiment, the selection ruled lines LH1 to LH8 include a reference line and an auxiliary line having a lower priority than the reference line. Further, the plurality of line segments detected in the captured image PI are a line segment corresponding to the reference line (hereinafter sometimes referred to as a "reference line corresponding line segment") and a line segment corresponding to the auxiliary line (hereinafter referred to as "reference line corresponding line segment"). It may be called "auxiliary line segment"). The
こうすることで、基準線と補助線の優先度の高低に応じた互いに異なる基準にて、基準線対応線分と補助線対応線分とを選択することができる。 By doing so, it is possible to select a reference line corresponding line segment and an auxiliary line corresponding line segment according to different criteria according to the high and low priorities of the reference line and the auxiliary line.
また、実施例1では、画像処理部15は、例えば、組合せ候補QRC1,QRC2,QRC3の四辺の線分上のエッジ画素に基づいて、各組合せ候補のスコアを算出する。
Further, in the first embodiment, the
また例えば、画像処理部15は、組合せ候補QRC1,QRC2,QRC3の各線分において、線分の端点と他の線分との間の距離に基づいて、各組合せ候補のスコアを算出する。
Further, for example, the
また例えば、画像処理部15は、組合せ候補QRC1,QRC2,QRC3の各線分に補助線対応線分が含まれているか否かに基づいて、各組合せ候補のスコアを算出する。
Further, for example, the
また例えば、画像処理部15は、組合せ候補QRC1,QRC2,QRC3の各線分に含まれる補助線対応線分上のエッジ画素に基づいて、各組合せ候補のスコアを算出する。
Further, for example, the
また例えば、画像処理部15は、組合せ候補QRC1,QRC2,QRC3の各線分に含まれる補助線対応線分に設定された重要度に基づいて、各組合せ候補のスコアを算出する。
Further, for example, the
こうすることで、各組合せ候補について好適なスコアを算出することができる。 By doing so, a suitable score can be calculated for each combination candidate.
以上、実施例1について説明した。 The first embodiment has been described above.
[実施例2]
選定罫線の設定位置は図8に示すものに限定されない。例えば、図8では、運転免許証DLの下辺から上方に最初に出現する水平線を選定罫線LH2に設定している。しかし、図8において、運転免許証DLの下辺から上方に2番目または3番目に出現する水平線を選定罫線LH2に設定することも可能である。運転免許証DLの下辺から上方に2番目または3番目に出現する水平線は、運転免許証DLの「種類」の表における横罫に該当する。
[Example 2]
The setting position of the selection ruled line is not limited to that shown in FIG. For example, in FIG. 8, the horizontal line that first appears above the lower side of the driver's license DL is set as the selection ruled line LH2. However, in FIG. 8, it is also possible to set the second or third horizontal line appearing above the lower side of the driver's license DL as the selection ruled line LH2. The second or third horizontal line appearing above the bottom of the driver's license DL corresponds to the horizontal rule in the "type" table of the driver's license DL.
[実施例3]
画像処理部15は、条件1~3を満たす基準線候補が存在しない場合に、条件4,5を満たす補助線候補の何れかを基準線候補として用いても良い。
[Example 3]
When the reference line candidate satisfying the
[実施例4]
記憶部13は、ハードウェアとして、例えば、メモリにより実現される。メモリの一例として、SDRAM(Synchronous Dynamic Random Access Memory)等のRAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等が挙げられる。
[Example 4]
The
制御部11及び画像処理部15は、ハードウェアとして、例えばプロセッサにより実現される。プロセッサの一例として、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)等が挙げられる。また、制御部11及び画像処理部15は、プロセッサと周辺回路とを含むLSI(Large Scale Integrated circuit)によって実現されても良い。さらに、制御部11及び画像処理部15は、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)等を用いて実現されても良い。
The
画像処理装置10での上記説明における各処理の全部または一部は、各処理に対応するプログラムを画像処理装置10が有するプロセッサに実行させることによって実現しても良い。例えば、上記説明における各処理に対応するプログラムがメモリに記憶され、プログラムがプロセッサによってメモリから読み出されて実行されても良い。また、プログラムは、任意のネットワークを介して画像処理装置10に接続されたプログラムサーバに記憶され、そのプログラムサーバから画像処理装置10にダウンロードされて実行されたり、画像処理装置10が読み取り可能な記録媒体に記憶され、その記録媒体から読み出されて実行されても良い。画像処理装置10が読み取り可能な記録媒体には、例えば、メモリカード、USBメモリ、SDカード、フレキシブルディスク、光磁気ディスク、CD-ROM、DVD、及び、Blu-ray(登録商標)ディスク等の可搬の記憶媒体が含まれる。また、プログラムは、任意の言語や任意の記述方法にて記述されたデータ処理方法であり、ソースコードやバイナリコード等の形式を問わない。また、プログラムは必ずしも単一的に構成されるものに限られず、複数のモジュールや複数のライブラリとして分散構成されるものや、OSに代表される別個のプログラムと協働してその機能を達成するものも含む。
All or part of each process in the above description in the
画像処理装置10の分散・統合の具体的形態は図示するものに限られず、画像処理装置10の全部または一部を、各種の付加等に応じて、または、機能負荷に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
The specific form of distribution / integration of the
[実施例5]
開示の技術が適用可能な対象媒体は運転免許証に限定されない。例えば、対象媒体が帳票(例えば、請求書や納品書等)、または、図面(例えば、機械、住宅、土地等の図面)である場合にも、開示の技術を適用可能である。
[Example 5]
The target medium to which the disclosed technology is applicable is not limited to a driver's license. For example, the disclosed technology can be applied even when the target medium is a form (for example, an invoice, a delivery note, etc.) or a drawing (for example, a drawing of a machine, a house, a land, etc.).
また、対象領域内の画像に対して行われる処理は文字認識に限定されない。例えば対象媒体が図面である場合に、対象領域内の画像に対して、寸法認識を行うことも可能である。 Further, the processing performed on the image in the target area is not limited to character recognition. For example, when the target medium is a drawing, it is possible to perform dimensional recognition on the image in the target area.
10 画像処理装置
11 制御部
13 記憶部
15 画像処理部
10
Claims (7)
前記撮影画像において複数の線分を検出し、
前記複数の線分の相互関係に基づいて、四辺形の四辺の線分の組合せの複数の候補を検出し、
前記複数の候補の各々に対する複数のスコアを算出し、
前記複数のスコアに基づいて、前記複数の候補の中から何れか一つの組合せを選択し、
選択した前記組合せに含まれる前記四辺の前記線分の各々を各辺とする四辺形の領域に基づいて対象領域を決定し、
前記撮影画像上に前記対象領域を設定する画像処理部と、
を具備し、
前記画像処理部は、前記線分の端点と他の前記線分との間の距離に基づいて、前記複数のスコアを算出する、
画像処理装置。 A storage unit that stores captured images and
A plurality of line segments are detected in the captured image, and
Based on the interrelationship of the plurality of line segments, a plurality of candidates for the combination of the four side line segments of the quadrilateral are detected.
Multiple scores for each of the plurality of candidates were calculated, and
Based on the plurality of scores, any one combination from the plurality of candidates is selected.
A target area is determined based on a quadrilateral area having each of the line segments of the four sides included in the selected combination as each side.
An image processing unit that sets the target area on the captured image, and
Equipped with
The image processing unit calculates the plurality of scores based on the distance between the end point of the line segment and the other line segment.
Image processing device.
前記画像処理部は、撮影対象となる媒体表面に引かれている複数の罫線のレイアウトに基づいて選定された選定罫線に基づいて、前記複数の候補の各々における前記上辺の線分と前記下辺の線分とを決定する、
請求項1に記載の画像処理装置。 The four sides are the upper side, the lower side, the left side, and the right side.
The image processing unit is based on the selection ruled lines selected based on the layout of the plurality of ruled lines drawn on the surface of the medium to be photographed, and the line segment on the upper side and the line segment on the lower side in each of the plurality of candidates. Determine the line segment,
The image processing apparatus according to claim 1.
前記複数の線分は、前記第1罫線に対応する第1線分と、前記第2罫線に対応する第2線分とを含み、
前記画像処理部は、前記複数の線分において、前記第1線分を選択後に、選択した前記第1線分に基づいて前記第2線分を選択する、
請求項2に記載の画像処理装置。 The selected ruled line includes a first ruled line and a second ruled line having a lower priority than the first ruled line.
The plurality of line segments include a first line segment corresponding to the first ruled line and a second line segment corresponding to the second ruled line.
The image processing unit selects the first line segment in the plurality of line segments, and then selects the second line segment based on the selected first line segment.
The image processing apparatus according to claim 2.
請求項3に記載の画像処理装置。 The image processing unit calculates the plurality of scores based on whether or not the plurality of line segments include the second line segment.
The image processing apparatus according to claim 3.
請求項3に記載の画像処理装置。 The image processing unit calculates the plurality of scores based on the edge pixels on the second line segment included in the plurality of line segments.
The image processing apparatus according to claim 3.
請求項3に記載の画像処理装置。 The image processing unit calculates the plurality of scores based on the importance set for the second line segment included in the plurality of line segments.
The image processing apparatus according to claim 3.
前記複数の線分の相互関係に基づいて、四辺形の四辺の線分の組合せの複数の候補を検出し、
前記複数の候補の各々に対する複数のスコアを算出し、
前記複数のスコアに基づいて、前記複数の候補の中から何れか一つの組合せを選択し、
選択した前記組合せに含まれる前記四辺の前記線分の各々を各辺とする四辺形の領域を対象領域として決定し、
前記撮影画像上に前記対象領域を設定する画像処理方法であって、
前記線分の端点と他の前記線分との間の距離に基づいて、前記複数のスコアを算出する、
画像処理方法。 Detects multiple line segments in the captured image and
Based on the interrelationship of the plurality of line segments, a plurality of candidates for the combination of the four side line segments of the quadrilateral are detected.
Multiple scores for each of the plurality of candidates were calculated, and
Based on the plurality of scores, any one combination from the plurality of candidates is selected.
A quadrilateral region having each of the line segments of the four sides included in the selected combination as each side is determined as a target area.
An image processing method for setting the target area on the captured image.
Calculate the plurality of scores based on the distance between the end points of the line segment and the other line segments.
Image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018161766A JP7018372B2 (en) | 2018-08-30 | 2018-08-30 | Image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018161766A JP7018372B2 (en) | 2018-08-30 | 2018-08-30 | Image processing device and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020035215A JP2020035215A (en) | 2020-03-05 |
JP7018372B2 true JP7018372B2 (en) | 2022-02-10 |
Family
ID=69668214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018161766A Active JP7018372B2 (en) | 2018-08-30 | 2018-08-30 | Image processing device and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7018372B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012221118A (en) | 2011-04-06 | 2012-11-12 | Fuji Xerox Co Ltd | Image processor and program |
JP2017156920A (en) | 2016-03-01 | 2017-09-07 | 株式会社日立情報通信エンジニアリング | Image processing device and image processing program |
JP2018500703A (en) | 2015-10-30 | 2018-01-11 | シャオミ・インコーポレイテッド | Region identification method and apparatus |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6543025B2 (en) * | 2014-09-12 | 2019-07-10 | キヤノン株式会社 | Image processing apparatus and image processing method |
-
2018
- 2018-08-30 JP JP2018161766A patent/JP7018372B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012221118A (en) | 2011-04-06 | 2012-11-12 | Fuji Xerox Co Ltd | Image processor and program |
JP2018500703A (en) | 2015-10-30 | 2018-01-11 | シャオミ・インコーポレイテッド | Region identification method and apparatus |
JP2017156920A (en) | 2016-03-01 | 2017-09-07 | 株式会社日立情報通信エンジニアリング | Image processing device and image processing program |
Non-Patent Citations (1)
Title |
---|
北原亮, 外3名,"携帯端末上における幾何補正のためのリアルタイム矩形追跡手法",電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2006年11月09日,第106巻, 第353号,p.1-6 |
Also Published As
Publication number | Publication date |
---|---|
JP2020035215A (en) | 2020-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8634659B2 (en) | Image processing apparatus, computer readable medium storing program, and image processing method | |
US20190327367A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US7627148B2 (en) | Image data processing apparatus and method, and image data processing program | |
EP3940589B1 (en) | Layout analysis method, electronic device and computer program product | |
US10970845B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US8923610B2 (en) | Image processing apparatus, image processing method, and computer readable medium | |
CN106469455B (en) | Image processing method, image processing apparatus, and recording medium | |
US20150220769A1 (en) | Striped pattern image examination support device, striped pattern image examination support method and program | |
EP2639743A2 (en) | Image processing device, image processing program, and image processing method | |
JP2015121985A (en) | Object line detection device, method, and program | |
US20190005347A1 (en) | Information processing apparatus, program, and information processing method | |
JP6530432B2 (en) | Image processing apparatus, image processing method and program | |
JP2018097551A (en) | Method, program, and device for scrapping article from paper image imaged by camera of portable terminal device | |
JP2015195428A (en) | Image processing device | |
US20180061078A1 (en) | Image processing device, image processing method, and non-transitory computer-readable recording medium | |
KR20120138642A (en) | Image processing method and image processing apparatus | |
JP2018092354A (en) | Object detection apparatus and method for detecting objects | |
US10134138B2 (en) | Information processing apparatus, computer-readable storage medium, information processing method | |
JP7018372B2 (en) | Image processing device and image processing method | |
JP2015156166A (en) | Map correction method and map correction device | |
US20170039698A1 (en) | Pattern outline extraction device, pattern outline extraction method, and computer program product | |
KR20100009452A (en) | Method for image processing | |
JP5371015B2 (en) | Cross mark detection apparatus and method, and program | |
JP2002077578A (en) | Apparatus and method for correcting distortion as well as distortion correction program recording computer readable recording medium | |
JP6688091B2 (en) | Vehicle distance deriving device and vehicle distance deriving method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201012 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220131 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7018372 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |