JP2007207085A - Optical information reader - Google Patents

Optical information reader Download PDF

Info

Publication number
JP2007207085A
JP2007207085A JP2006027003A JP2006027003A JP2007207085A JP 2007207085 A JP2007207085 A JP 2007207085A JP 2006027003 A JP2006027003 A JP 2006027003A JP 2006027003 A JP2006027003 A JP 2006027003A JP 2007207085 A JP2007207085 A JP 2007207085A
Authority
JP
Japan
Prior art keywords
code
image
code image
range
reference point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006027003A
Other languages
Japanese (ja)
Inventor
Toshiji Ishibashi
利治 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2006027003A priority Critical patent/JP2007207085A/en
Publication of JP2007207085A publication Critical patent/JP2007207085A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an optical information reader for easily reading an information code displayed on the screen of portable information terminal equipment. <P>SOLUTION: In a scanner device 10, a QR code Q displayed on a liquid crystal display 103 of a portable telephone set 100 is imaged from the light reception face of an area sensor, and whether or not the whole code image of the imaged QR code Q is within the range of a pickup image specified by the light reception face of the area sensor is determined by a control circuit or the like. Then, when it is determined that the whole code image is not within the range of the pickup image by a control circuit or the like, a reference point showing the position of the code image and the XY coordinates are detected, and guide directions(up, down, right, left, upper right, upper left, lower right, and lower left) for guiding the whole QR code Q to the range of the pickup image by the control circuit based on the XY coordinates of the reference point, and displays instruction content M based on the guide direction on a liquid crystal display part 46. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、据置型で、携帯電話機等の携帯情報端末装置の画面に表示された情報コード(1次元、2次元コード等)を読み取り可能な光学情報読取装置に関するものである。   The present invention relates to an optical information reader that is stationary and capable of reading an information code (one-dimensional, two-dimensional code, etc.) displayed on a screen of a portable information terminal device such as a cellular phone.

バーコードや2次元コード等の情報コードを読み取り可能な据置型の光学情報読取装置として、例えば、下記特許文献1に開示される「2次元バーコードリーダー」がある。この従来技術によると、透明な窓を備えることにより、当該バーコードリーダーの使用者が読取対象となるバーコードの上にこの窓が位置するように使用者が目視しながら位置合わせすることによって、当該バーコードの読み取り操作を簡単にしている。
特開2002−230476号公報
As a stationary optical information reader capable of reading an information code such as a barcode or a two-dimensional code, for example, there is a “two-dimensional barcode reader” disclosed in Patent Document 1 below. According to this prior art, by providing a transparent window, the user of the barcode reader aligns while visually observing so that the window is positioned on the barcode to be read, The barcode reading operation is simplified.
JP 2002-230476 A

しかしながら、このような特許文献1などに開示される技術では、当該バーコードリーダーをバーコード等が印刷された紙等の上に置いた状態で読み取り操作を行うことを前提としている。そのため、このような紙等に接触した状態においては、当該紙面の水平方向の位置合わせは容易にはなるものの、例えば、当該バーコードリーダーを、当該紙等から離した状態、つまり当該紙面に接触しない状態(非接触状態)で位置合わせをする場合には、水平方向の位置合わせは必ずしも容易にはならないという問題がある。   However, the technique disclosed in Patent Document 1 and the like is based on the premise that the barcode reader is placed on paper or the like on which a barcode or the like is printed. For this reason, in such a state that the paper surface is in contact with the paper, the horizontal alignment of the paper surface is facilitated. For example, the barcode reader is separated from the paper, for example, in contact with the paper surface. When alignment is performed in a non-contact state (non-contact state), there is a problem that horizontal alignment is not always easy.

また、バーコードとバーコードリーダーとの位置関係を逆にして、固定されたバーコードリーダーの上に、バーコード等が印刷された紙を置いて当該バーコード等を読み取らせる場合には、当該紙をバーコードリーダーの読取開口部等に覆い被せて位置させざるを得ない。そのため、このような場合には、前述したような窓を覗くことができないばかりか、使用者の視界を当該紙が遮ってしまうことから、水平方向の位置合わせを困難にするという問題がある。   In addition, when the barcode and barcode reader are reversed and the barcode or the like is placed on a fixed barcode reader and the barcode or the like is read, The paper must be placed over the reading opening of the barcode reader. Therefore, in such a case, there is a problem that it is difficult not only to look through the window as described above but also to make horizontal alignment difficult because the paper blocks the user's field of view.

さらに、このようにバーコードとバーコードリーダーとの位置関係を逆にした構成を採る光学情報読取装置においては、バーコード等が印刷された紙やバーコード等が画面表示された携帯電話機等の携帯情報端末装置を、当該バーコードリーダーの上に置くよりも、少し離してかざすようにして非接触の状態で読み取り操作を行うことが多い。そのため、このような場合には、空間における位置把握の困難さから、さらに水平方向の位置合わせを困難にするという問題がある。   Further, in the optical information reading apparatus adopting a configuration in which the positional relationship between the barcode and the barcode reader is reversed in this way, a paper or the like on which a barcode or the like is printed or a mobile phone or the like on which a barcode or the like is displayed on the screen is displayed. Rather than placing the portable information terminal device on the barcode reader, the portable information terminal device is often held in a non-contact state by holding it a little apart. Therefore, in such a case, there is a problem that it is difficult to align in the horizontal direction due to the difficulty of grasping the position in the space.

本発明は、上述した課題を解決するためになされたものであり、その目的とするところは、携帯情報端末装置の画面に表示された情報コードの読み取りを容易にし得る光学情報読取装置を提供することにある。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an optical information reader capable of easily reading an information code displayed on a screen of a portable information terminal device. There is.

上記目的を達成するため、特許請求の範囲に記載の請求項1の光学情報読取装置では、据置型で、携帯情報端末装置の画面に表示された情報コードを当該画面に接触させることなく読み取り可能な光学情報読取装置であって、前記画面に表示された情報コードを撮像可能な受光面を有する撮像手段と、前記撮像手段により撮像された情報コードのコード画像の全体が前記撮像手段の受光面により規定される所定の範囲内にあるか否かを判断可能な判断手段と、前記判断手段により前記コード画像の全体が前記所定の範囲内にないと判断された場合、当該コード画像の位置を示す基準点とその位置を検出可能な検出手段と、前記検出手段により検出された前記基準点の位置に基づいて前記情報コードの全体が前記所定範囲内に入るように案内する案内方向を算出可能な算出手段と、前記算出手段により算出された案内方向を表示可能な表示手段と、を備えることを技術的特徴とする。   In order to achieve the above object, the optical information reader according to claim 1 described in the claims can be read stationary without touching the information code displayed on the screen of the portable information terminal device. An optical information reader, an imaging unit having a light receiving surface capable of capturing an information code displayed on the screen, and a whole code image of the information code captured by the imaging unit is a light receiving surface of the imaging unit A determination unit capable of determining whether or not the code image is within a predetermined range, and when the determination unit determines that the entire code image is not within the predetermined range, the position of the code image is determined. A reference point to be detected and detection means capable of detecting the position thereof, and guides the entire information code to fall within the predetermined range based on the position of the reference point detected by the detection means. A calculating means capable calculating the guiding direction, and technical features in that it comprises a display unit capable of displaying a guidance direction calculated by said calculating means.

特許請求の範囲に記載の請求項2の光学情報読取装置では、請求項1記載の光学情報読取装置において、前記判断手段は、前記コード画像の全体範囲を規定可能な少なくとも3点に基づいて前記コード画像の全体が前記所定範囲内にあるか否かを判断することを技術的特徴とする。   In the optical information reading device according to claim 2, the determination unit is configured to determine the entire range of the code image based on at least three points. It is a technical feature to determine whether or not the entire code image is within the predetermined range.

特許請求の範囲に記載の請求項3の光学情報読取装置では、請求項1または2記載の光学情報読取装置において、前記検出手段は、前記コード画像の全体範囲を規定可能な少なくとも3点のうちの1点以上に基づいて前記コード画像の基準点を検出することを技術的特徴とする。   In the optical information reading device according to claim 3, the detection unit is configured to include at least three points capable of defining the entire range of the code image. A technical feature is that a reference point of the code image is detected based on one or more points.

特許請求の範囲に記載の請求項4の光学情報読取装置では、請求項1〜3のいずれか一項に記載の光学情報読取装置において、前記撮像手段の受光面が固体撮像素子により構成され、前記所定の範囲が前記固体撮像素子を構成する画素による2次元配列で規定される場合、前記検出手段は、前記基準点の位置を、前記2次元配列による座標として検出することを技術的特徴とする。   In the optical information reading device according to claim 4 according to the claims, in the optical information reading device according to any one of claims 1 to 3, the light receiving surface of the imaging means is constituted by a solid-state imaging device, When the predetermined range is defined by a two-dimensional array of pixels constituting the solid-state imaging device, the detection means detects the position of the reference point as a coordinate by the two-dimensional array. To do.

特許請求の範囲に記載の請求項5の光学情報読取装置では、請求項4記載の光学情報読取装置において、前記算出手段は、現在の前記基準点の位置を、前記2次元配列による座標空間全体に対する座標として求め、この座標に基づいて前記コード画像の前記少なくとも3点が前記所定範囲内に入る方向を前記案内方向として求めることを技術的特徴とする。   5. The optical information reader according to claim 5, wherein the calculating means calculates the current position of the reference point in the entire coordinate space by the two-dimensional array. It is a technical feature that a direction in which the at least three points of the code image are within the predetermined range is obtained as the guide direction based on the coordinates.

特許請求の範囲に記載の請求項6の光学情報読取装置では、請求項4または5記載の光学情報読取装置において、前記算出手段は、現在の前記基準点の位置を、前記2次元配列による座標空間全体に対する座標として求め、この座標に基づいて前記コード画像の前記少なくとも3点が前記所定範囲内に入るまでに要する距離を求め、この距離を所定値と比較することで前記所定範囲内に入るまでの距離の大小を求め、前記表示手段は、前記算出手段により求められた距離の大小に基づいて、前記コード画像の位置ずれの度合を視覚的に把握可能に表示することを技術的特徴とする。   6. The optical information reader according to claim 6, wherein the calculating means calculates the current position of the reference point by coordinates based on the two-dimensional array. Obtained as coordinates for the entire space, and based on these coordinates, the distance required for the at least three points of the code image to fall within the predetermined range is obtained, and this distance is compared with a predetermined value to enter the predetermined range. And the display means displays the degree of positional deviation of the code image in a visually comprehensible manner based on the distance obtained by the calculation means. To do.

請求項1の発明では、撮像手段の受光面により画面に表示された情報コードを撮像し、判断手段によって、この撮像手段により撮像された情報コードのコード画像の全体が撮像手段の受光面により規定される所定の範囲内にあるか否かを判断する。そして、判断手段によりコード画像の全体が所定の範囲内にないと判断された場合、検出手段により、当該コード画像の位置を示す基準点とその位置を検出し、これにより検出された基準点の位置に基づいて算出手段により情報コードの全体が所定範囲内に入るように案内する案内方向を算出して、この算出された案内方向を表示手段により表示する。これにより、撮像手段によって撮像された情報コードのコード画像の全体が所定の範囲内にないと判断された場合には、情報コードの全体が所定範囲内に入るように案内する案内方向が表示手段により表示されるので、当該光学情報読取装置の使用者はこの表示された案内方向に従って携帯情報端末装置の位置を変更することで、所定範囲内に情報コードの全体が入るように携帯情報端末装置の位置合わせをすることができる。したがって、携帯情報端末装置の画面に表示された情報コードの読み取りを容易にすることができる。また、非接触状態で位置合わせする場合にも、このような案内方向が表示されるので、空間における位置把握の困難さを解消し情報コードの読み取りを容易にすることができる。   According to the first aspect of the present invention, the information code displayed on the screen is imaged by the light receiving surface of the image pickup means, and the entire code image of the information code imaged by the image pickup means is defined by the light receiving surface of the image pickup means. It is determined whether it is within a predetermined range. When the determining means determines that the entire code image is not within the predetermined range, the detecting means detects the reference point indicating the position of the code image and its position, and the detected reference point Based on the position, the calculation means calculates a guidance direction for guiding the entire information code to be within a predetermined range, and the calculated guidance direction is displayed by the display means. Accordingly, when it is determined that the entire code image of the information code imaged by the imaging unit is not within the predetermined range, the guidance direction for guiding the entire information code to be within the predetermined range is displayed on the display unit. Therefore, the user of the optical information reading device changes the position of the portable information terminal device in accordance with the displayed guidance direction, so that the entire information code is within a predetermined range. Can be aligned. Therefore, it is possible to easily read the information code displayed on the screen of the portable information terminal device. Further, even when alignment is performed in a non-contact state, since such a guide direction is displayed, it is possible to eliminate difficulty in grasping the position in the space and to easily read the information code.

請求項2の発明では、判断手段は、コード画像の全体範囲を規定可能な少なくとも3点に基づいてコード画像の全体が所定範囲内にあるか否かを判断する。例えば、情報コードの全体形状が矩形である場合には当該矩形の四隅のうちのいずれか3箇所、また情報コードの全体形状が三角形である場合にはそのすべての頂点、さらに情報コードの全体形状が円形である場合には当該円形の周上に位置する3点、をそれぞれ特定すれば当該情報コードのコード画像の全体範囲を規定できる。これにより、判断手段は、このような3点を特定しない場合に比べて当該コード画像が所定の範囲内にあるか否かを容易に判断することができる。   In the invention of claim 2, the judging means judges whether or not the entire code image is within the predetermined range based on at least three points that can define the entire range of the code image. For example, if the overall shape of the information code is a rectangle, any three of the four corners of the rectangle, if the overall shape of the information code is a triangle, all its vertices, and the overall shape of the information code If the circle is circular, the entire range of the code image of the information code can be defined by specifying three points located on the circumference of the circle. Thereby, the determination means can easily determine whether or not the code image is within a predetermined range as compared with the case where such three points are not specified.

請求項3の発明では、検出手段は、コード画像の全体範囲を規定可能な少なくとも3点のうちの1点以上に基づいてコード画像の基準点を検出する。例えば、情報コードの全体形状が矩形である場合には当該矩形の四隅のうちのいずれか3箇所、また情報コードの全体形状が三角形である場合にはそのすべての頂点、さらに情報コードの全体形状が円形である場合には当該円形の周上に位置する3点、をそれぞれ特定すれば当該情報コードのコード画像の全体範囲を規定でき、そのうちの1点以上に基づいてコード画像の基準点を検出する。これにより、判断手段によってコード画像の全体が所定の範囲内にないと判断された場合に、検出手段は、このような1点以上に基づいてコード画像の基準点とその位置を当該所定の範囲内で検出することで、算出手段による案内方向の演算を容易に行うことができる。   In the invention of claim 3, the detecting means detects the reference point of the code image based on at least one of at least three points that can define the entire range of the code image. For example, if the overall shape of the information code is a rectangle, any three of the four corners of the rectangle, if the overall shape of the information code is a triangle, all its vertices, and the overall shape of the information code Can be defined by specifying each of the three points located on the circumference of the circle, the entire range of the code image of the information code can be defined, and the reference point of the code image can be determined based on one or more of them. To detect. Accordingly, when the determination unit determines that the entire code image is not within the predetermined range, the detection unit determines the reference point of the code image and its position based on the one or more points. By detecting within, the calculation of the guide direction by the calculation means can be easily performed.

請求項4の発明では、撮像手段の受光面が固体撮像素子により構成され、所定の範囲が固体撮像素子を構成する画素による2次元配列で規定される場合、検出手段は、基準点の位置を2次元配列による座標として検出する。また、請求項5の発明では、算出手段は、現在の基準点の位置を、2次元配列による座標空間全体に対する座標として求め、この座標に基づいてコード画像の少なくとも3点が所定範囲内に入る方向を案内方向として求める。これにより、例えばXY平面による座標空間によって当該情報コードのコード画像の範囲および位置を把握できるので、判断手段による当該コード画像が所定の範囲内にあるか否かの判断、検出手段による基準点の位置検出や、算出手段による案内方向の算出を、コンピュータ等による情報処理手段によって容易に演算処理することができる。   In the invention of claim 4, when the light receiving surface of the image pickup means is constituted by a solid-state image pickup device and the predetermined range is defined by a two-dimensional array of pixels constituting the solid-state image pickup device, the detection means sets the position of the reference point. Detect as coordinates by two-dimensional array. In the invention of claim 5, the calculation means obtains the position of the current reference point as coordinates with respect to the entire coordinate space by the two-dimensional array, and at least three points of the code image fall within a predetermined range based on the coordinates. The direction is obtained as the guide direction. Thereby, for example, the range and position of the code image of the information code can be grasped by the coordinate space on the XY plane. Therefore, the determination unit determines whether the code image is within the predetermined range, and the detection unit determines the reference point. The position detection and the calculation of the guide direction by the calculation means can be easily processed by the information processing means such as a computer.

請求項6の発明では、算出手段は、現在の基準点の位置を、2次元配列による座標空間全体に対する座標として求め、この座標に基づいてコード画像の少なくとも3点が所定範囲内に入るまでに要する距離を求め、この距離を所定値と比較することで所定範囲内に入るまでの距離の大小を求め、表示手段は、算出手段により求められた距離の大小に基づいて、コード画像の位置ずれの度合を視覚的に把握可能に表示する。これにより、当該光学情報読取装置の使用者は、情報コードを読み取らせようとしている携帯情報端末装置の位置ずれの度合いをこのような視覚的に把握可能な表示により知ることができるので、その表示に従った位置合わせを的確に行うことが可能となる。したがって、携帯情報端末装置の画面に表示された情報コードの読み取りを一層容易にすることができる。   In the invention of claim 6, the calculation means obtains the position of the current reference point as coordinates for the entire coordinate space by the two-dimensional array, and based on these coordinates, at least three points of the code image fall within a predetermined range. The required distance is obtained, and the distance until it falls within the predetermined range is obtained by comparing this distance with a predetermined value, and the display means detects the displacement of the code image based on the distance obtained by the calculating means. The degree of is displayed visually. Thereby, the user of the optical information reading device can know the degree of positional deviation of the portable information terminal device that is about to read the information code by such visually understandable display. It is possible to accurately perform alignment according to the above. Therefore, reading of the information code displayed on the screen of the portable information terminal device can be further facilitated.

以下、本発明の光学情報読取装置を、携帯情報端末装置の画面に表示された情報コードを読み取り可能な2次元コードスキャナ装置(以下「スキャナ装置」という)に適用した実施形態を各図に基づいて説明する。なお、本実施形態では、携帯情報端末装置の一例として携帯電話機100を、また情報コードの一例としてQRコードQをそれぞれ例示して説明する。   Hereinafter, an embodiment in which the optical information reading device of the present invention is applied to a two-dimensional code scanner device (hereinafter referred to as “scanner device”) capable of reading an information code displayed on the screen of a portable information terminal device will be described with reference to the drawings. I will explain. In the present embodiment, a mobile phone 100 will be described as an example of a mobile information terminal device, and a QR code Q will be described as an example of an information code.

まず、スキャナ装置10の機械的構成および光学的構成を図1および図2を参照して説明する。図1(A) には、スキャナ装置10の平面図、図1(B) には、携帯電話機100の平面図がそれぞれ示されている。また、図2(A) には、図1(A) に示す2A−2A線によるスキャナ装置10の断面図、図2(B) は、エリアセンサによる撮像範囲の差異を示す説明図がそれぞれ図示されている。   First, the mechanical configuration and optical configuration of the scanner device 10 will be described with reference to FIGS. FIG. 1 (A) shows a plan view of the scanner device 10 and FIG. 1 (B) shows a plan view of the mobile phone 100. 2A is a cross-sectional view of the scanner device 10 taken along line 2A-2A shown in FIG. 1A, and FIG. 2B is an explanatory diagram showing the difference in imaging range by the area sensor. Has been.

図1(A) に示すように、スキャナ装置10は、ほぼ矩形状の箱体からなる筐体11により、その外観形状が構成されている。この筐体11の表面11aには、矩形状の2つの窓穴が形成されており、一方の読取窓12aは表面11aのほぼ中央に、他方の表示窓12bは表面11aのやや角隅寄りに、それぞれ位置するように配置されている。なお、図2(A) に示すように、筐体11の裏面11bには、その四隅に足13が設けられている。   As shown in FIG. 1 (A), the external appearance of the scanner device 10 is constituted by a housing 11 formed of a substantially rectangular box. Two rectangular window holes are formed on the surface 11a of the housing 11, one reading window 12a is located at the approximate center of the surface 11a, and the other display window 12b is located slightly closer to the corner of the surface 11a. , Are arranged to be located respectively. As shown in FIG. 2A, legs 13 are provided at the four corners of the back surface 11b of the housing 11.

図1(A) および図2(A) に示すように、読取窓12aは、携帯電話機100の液晶ディスプレィ103に表示されたQRコードQを読み取るための開口部として機能するもので、当該携帯電話機100の液晶ディスプレィ103をほぼ同様の矩形状またはやや小さい矩形状に形成されている。これにより、後述するように筐体11に収容される照明部21から出射される照明光Lfを当該液晶ディスプレィ103に照射可能にするとともに、当該液晶ディスプレィ103に反射した反射光Lrを筐体11に収容される結像光学部25により受光可能にしている。なお、この読取窓12aには、当該読取窓12aの全面を筐体11の内側から閉塞可能な透明板15が設けられており、外部から筐体11内への埃や塵等の異物の進入を防止している。   As shown in FIGS. 1A and 2A, the reading window 12a functions as an opening for reading the QR code Q displayed on the liquid crystal display 103 of the mobile phone 100. 100 liquid crystal displays 103 are formed in a substantially similar rectangular shape or a slightly smaller rectangular shape. As a result, the liquid crystal display 103 can be irradiated with illumination light Lf emitted from the illumination unit 21 accommodated in the housing 11 as described later, and the reflected light Lr reflected by the liquid crystal display 103 is reflected on the housing 11. The imaging optical unit 25 accommodated in the optical receiver 25 can receive light. The reading window 12a is provided with a transparent plate 15 capable of closing the entire surface of the reading window 12a from the inside of the casing 11, and foreign substances such as dust and dust enter the casing 11 from the outside. Is preventing.

表示窓12bは、後述する液晶表示部46の表示面を筐体11の外部から目視可能に当該液晶表示部46を取付可能にするもので、当該液晶表示部46よりも、ひと回り大きい矩形状に形成されている。これにより、当該スキャナ装置10の使用者は、後述するように、液晶表示部46に表示される所定の指示内容Mを視覚的に認識することが可能となる。なお、「使用者」とは、携帯電話機100の液晶ディスプレィ103に表示されているQRコードQを当該スキャナ装置10に読み取らせる操作を行う者のことをいう(以下同じ)。なお、図1(A) には、ケース裏側101bから見た携帯電話機100が図示されており、またその液晶ディスプレィ103に表示されているQRコードQも、裏側から見た概要が図示されていることに留意されたい。   The display window 12b allows the liquid crystal display unit 46 to be attached so that the display surface of the liquid crystal display unit 46, which will be described later, can be viewed from the outside of the housing 11, and has a rectangular shape that is slightly larger than the liquid crystal display unit 46. Is formed. Thereby, the user of the scanner device 10 can visually recognize the predetermined instruction content M displayed on the liquid crystal display unit 46, as will be described later. The “user” refers to a person who performs an operation for causing the scanner device 10 to read the QR code Q displayed on the liquid crystal display 103 of the mobile phone 100 (the same applies hereinafter). FIG. 1 (A) shows the cellular phone 100 as seen from the back side 101b of the case, and the QR code Q displayed on the liquid crystal display 103 is also outlined from the back side. Please note that.

図1(B) に示すように、携帯電話機100は、例えば、本体ケース101、この本体ケース101のケース表側101aに表示面を向けて設けられる液晶ディスプレィ103、ケース表側101aから押下可能に設けられる各種キースイッチ105、本体ケース101に収容される、図略の制御ユニットや無線機ユニット等からなり、液晶ディスプレィ103にQRコードQを出力可能に構成されている。本実施形態では、この液晶ディスプレィ103に表示されるQRコードQを当該スキャナ装置10による読取対象としている。なお、液晶ディスプレィ103には、その裏面側に外来光を反射可能な反射体を設けその反射光を利用して液晶表示を明瞭にする反射式のものと、裏面側に面発光可能な発光体(バックライト)を設けその発光を利用して液晶表示を明瞭にする透過式のものがある。   As shown in FIG. 1B, the mobile phone 100 is provided, for example, with a main body case 101, a liquid crystal display 103 provided with a display surface facing the case front side 101a of the main body case 101, and a pressable case from the case front side 101a. Various key switches 105 and a control unit, a radio unit, etc. (not shown) housed in the main body case 101 are configured to output a QR code Q to the liquid crystal display 103. In the present embodiment, the QR code Q displayed on the liquid crystal display 103 is to be read by the scanner device 10. The liquid crystal display 103 is provided with a reflector that can reflect extraneous light on the back side thereof, and a reflective type that makes the liquid crystal display clear by using the reflected light, and a light emitter that can emit light on the back side. There is a transmissive type in which a (backlight) is provided to make the liquid crystal display clear by using the emitted light.

図2(A) に示すように、スキャナ装置10の筐体11内には、電子部品18,19がアッセンブリされたプリント配線板16、照明部21、エリアセンサ23、結像光学部25等が収容されている。プリント配線板16は、所定の配線パターンにより電子部品18,19を電気的に接続することで後述するような機能を実現可能な電子回路を構成し得るもので、当該筐体11の内部底側に図略の取付部材を介して固定されている。   As shown in FIG. 2 (A), a printed wiring board 16, an illumination unit 21, an area sensor 23, an imaging optical unit 25, and the like on which electronic components 18 and 19 are assembled are provided in a housing 11 of the scanner device 10. Contained. The printed wiring board 16 can constitute an electronic circuit capable of realizing the functions described later by electrically connecting the electronic components 18 and 19 with a predetermined wiring pattern. It is fixed via a mounting member (not shown).

照明部21は、当該スキャナ装置10の読取対象となるQRコードQに照明光Lfを照射可能に構成される照明光源で、例えば、赤色光を発光可能な複数の発光ダイオードを矩形状や円環状等に配置して構成されるLED照明がこれに相当する。そのためこの照明部21は、発光した照明光Lfが読取窓12aを介して筐体11外に出射可能、かつ読取窓12aの正面に対して所定角度θ1で照明光Lfを出射可能に筐体11内に取り付けられている。これにより、斜め方向から当該読取窓12aを介して外部にに向けて照明光Lfを出射できるので、読取窓12aの正面の真下から照明光Lfを出射する場合に比べて広範囲に照射することが可能となる。   The illumination unit 21 is an illumination light source configured to irradiate illumination light Lf to the QR code Q to be read by the scanner device 10. For example, a plurality of light emitting diodes capable of emitting red light are rectangular or annular. The LED illumination that is arranged in a similar manner corresponds to this. Therefore, the illumination unit 21 can emit the emitted illumination light Lf to the outside of the housing 11 through the reading window 12a, and can emit the illumination light Lf at a predetermined angle θ1 with respect to the front of the reading window 12a. Installed inside. As a result, the illumination light Lf can be emitted to the outside through the reading window 12a from an oblique direction, so that the illumination light Lf can be irradiated over a wider range than when the illumination light Lf is emitted directly under the front of the reading window 12a. It becomes possible.

エリアセンサ23は、QRコードQに照射されて反射した反射光Lrを受光可能に構成される受光センサで、例えば、C−MOSやCCD等の固体撮像素子である受光素子を2次元に配置したものである。このエリアセンサ23は、結像光学部25による結像が当該エリアセンサ23の受光面23aで可能な位置に取り付けられており、後述する増幅回路31に電気的に接続されている。これにより、受光面23aで結像されたコード画像等を画像信号に変換した後、当該画像情報を増幅回路31に出力可能にしている。   The area sensor 23 is a light receiving sensor configured to be able to receive the reflected light Lr irradiated and reflected by the QR code Q. For example, a light receiving element that is a solid-state imaging element such as a C-MOS or a CCD is two-dimensionally arranged. Is. The area sensor 23 is attached at a position where image formation by the imaging optical unit 25 is possible on the light receiving surface 23a of the area sensor 23, and is electrically connected to an amplification circuit 31 described later. Thereby, after the code image formed on the light receiving surface 23 a is converted into an image signal, the image information can be output to the amplifier circuit 31.

結像光学部25は、読取対象となるQRコードQに照射された照明光Lfの反射光Lrを受光して、エリアセンサ23の受光面23aにコード画像等を結像可能にする光学部材で、結像レンズ27等を備えている。この結像光学部25も、照明部21と同様に読取窓12aの正面に対して所定角度θ2で反射光Lrを受光可能に筐体11内に取り付けられている(図2(A) に示す符号12a’は、読取窓の開口面に平行な仮想線を示す)。これにより、図2(B) に示すように、読取窓12aの正面に対して正対するように(所定角度θ2=0度)結像光学部25(結像レンズ27’)を取り付けた場合の撮像範囲Wd’,Lr’に比べて、拡大した撮像範囲Wdを得ることができる(図2(B) に示す符号103’は、液晶ディスプレィ103の表示面に平行な仮想線を示す)。   The imaging optical unit 25 is an optical member that receives the reflected light Lr of the illumination light Lf irradiated to the QR code Q to be read and enables a code image or the like to be imaged on the light receiving surface 23a of the area sensor 23. And an imaging lens 27 and the like. The imaging optical unit 25 is also mounted in the housing 11 so as to be able to receive the reflected light Lr at a predetermined angle θ2 with respect to the front surface of the reading window 12a, similarly to the illumination unit 21 (shown in FIG. 2A). Reference numeral 12a ′ indicates a virtual line parallel to the opening surface of the reading window. As a result, as shown in FIG. 2B, when the imaging optical unit 25 (imaging lens 27 ′) is attached so as to face the front of the reading window 12a (predetermined angle θ2 = 0 °). Compared with the imaging ranges Wd ′ and Lr ′, an enlarged imaging range Wd can be obtained (reference numeral 103 ′ shown in FIG. 2B indicates a virtual line parallel to the display surface of the liquid crystal display 103).

また、本実施形態では、携帯電話機100の液晶ディスプレィ103に表示されたQRコードQを読取対象としていることから、液晶ディスプレィ103の発光状態により受光する光が異なる。即ち、液晶ディスプレィ103が反射式や透過式でバックライトが発光していない場合(以下「バックライトオフ状態」という)には、照明部21から照射した照明光Lfが液晶ディスプレィ103の表面で鏡面反射する可能性が高いので、光の拡散反射成分よりも強い全反射成分を反射光Lrとして結像光学部25が受光する。   In the present embodiment, since the QR code Q displayed on the liquid crystal display 103 of the mobile phone 100 is to be read, the received light varies depending on the light emission state of the liquid crystal display 103. That is, when the liquid crystal display 103 is reflective or transmissive and the backlight does not emit light (hereinafter referred to as “backlight off state”), the illumination light Lf emitted from the illuminating unit 21 is mirrored on the surface of the liquid crystal display 103. Since the possibility of reflection is high, the imaging optical unit 25 receives the total reflection component stronger than the diffuse reflection component of the light as the reflected light Lr.

これに対し、液晶ディスプレィ103が透過式でバックライトが発光している場合(以下「バックライトオン状態」という)には、照明部21から照明光Lfを照射することなく、バックライトにより液晶ディスプレィ103が発する光(図2では反射光Lrに相当)を反射光Lrとして結像光学部25が受光する。このようにバックライトオフ状態およびオン状態というような液晶ディスプレィ103の発光状態にかかわりなく、液晶ディスプレィ103に表示されたQRコードQを読み取り可能にするため、結像光学部25を所定角度θ2で筐体11内に取り付けている。   On the other hand, when the liquid crystal display 103 is transmissive and the backlight emits light (hereinafter referred to as “backlight on state”), the backlight 21 does not irradiate the illumination light Lf, and the backlight does not irradiate the liquid crystal display. The imaging optical unit 25 receives the light emitted from 103 (corresponding to the reflected light Lr in FIG. 2) as reflected light Lr. Thus, in order to make it possible to read the QR code Q displayed on the liquid crystal display 103 regardless of the light emission state of the liquid crystal display 103 such as the backlight off state and the on state, the imaging optical unit 25 is set at a predetermined angle θ2. It is attached in the housing 11.

次に、このような機械的構成および光学的構成を持つスキャナ装置10の電気的構成を図3を参照して説明する。図3に示すように、スキャナ装置10の電気的構成は、増幅回路31、A/D変換回路33、メモリ35、アドレス発生回路36、同期信号発生回路38、制御回路40、電源スイッチ42、ブザー44、液晶表示部46、通信インタフェース48等から構成されている。   Next, an electrical configuration of the scanner apparatus 10 having such a mechanical configuration and an optical configuration will be described with reference to FIG. As shown in FIG. 3, the electrical configuration of the scanner device 10 includes an amplifier circuit 31, an A / D conversion circuit 33, a memory 35, an address generation circuit 36, a synchronization signal generation circuit 38, a control circuit 40, a power switch 42, a buzzer. 44, a liquid crystal display unit 46, a communication interface 48, and the like.

これらは、前述したプリント配線板16にアッセンブリされる電子部品18,19により、制御回路40およびメモリ35と中心に構成されるマイクロコンピュータ(以下「マイコン」という)(情報処理装置)として機能し得るもので、前述した機械的構成および光学的構成によって撮像されたQRコードQの画像信号をハードウェア的およびソフトウェア的に信号処理し得るものである。また制御回路40は、当該バーコードリーダ20の全体システムに関する制御も行っている。   These can function as a microcomputer (hereinafter referred to as a “microcomputer”) (information processing apparatus) composed mainly of the control circuit 40 and the memory 35 by the electronic components 18 and 19 assembled to the printed wiring board 16 described above. Therefore, the image signal of the QR code Q imaged by the above-described mechanical configuration and optical configuration can be processed in hardware and software. The control circuit 40 also performs control related to the entire system of the barcode reader 20.

結像光学部25によりエリアセンサ23の受光面23aに結像されたコード画像等は、当該エリアセンサ23によって画像信号(アナログ信号)に変換された後、増幅回路31に入力されることで所定ゲインで増幅され、さらにA/D変換回路33に入力される。これにより、アナログ信号からディジタル信号に変換されるため、ディジタル化された画像信号、つまり画像データは、メモリ35に入力されると、画像データ蓄積領域に蓄積される。なお、同期信号発生回路38は、受光センサ23およびアドレス発生回路36に対する同期信号を発生可能に構成されており、またアドレス発生回路36は、この同期信号発生回路38から供給される同期信号に基づいて、メモリ35に格納される画像データの格納アドレスを発生可能に構成されている。   A code image or the like imaged on the light receiving surface 23 a of the area sensor 23 by the imaging optical unit 25 is converted into an image signal (analog signal) by the area sensor 23 and then input to the amplification circuit 31 to be predetermined. Amplified by the gain and further input to the A / D conversion circuit 33. As a result, since the analog signal is converted into the digital signal, the digitized image signal, that is, the image data is stored in the image data storage area when input to the memory 35. The synchronization signal generation circuit 38 is configured to generate a synchronization signal for the light receiving sensor 23 and the address generation circuit 36. The address generation circuit 36 is based on the synchronization signal supplied from the synchronization signal generation circuit 38. Thus, the storage address of the image data stored in the memory 35 can be generated.

メモリ35は、半導体メモリ装置で、例えばRAM(DRAM、SRAM等)やROM(EPROM、EEPROM等)がこれに相当する。このメモリ35のうちのRAMには、前述した画像データ蓄積領域のほかに、制御回路40が算術演算や論理演算等の各処理時に利用する作業領域や後述する位置合わせ案内処理で用いる表示出力データ領域等も確保可能に構成されている。またROMには、後述する位置合わせ案内処理等を実行可能な所定プログラムやその他、照明光源21、エリアセンサ23等の各ハードウェアを制御可能なシステムプログラム等が予め格納されている。   The memory 35 is a semiconductor memory device, and corresponds to, for example, a RAM (DRAM, SRAM, etc.) or a ROM (EPROM, EEPROM, etc.). In addition to the above-described image data storage area, the RAM of the memory 35 includes a work area used by the control circuit 40 in each processing such as arithmetic operation and logical operation, and display output data used in an alignment guidance process described later. The area and the like can be secured. In addition, the ROM stores in advance a predetermined program that can execute an alignment guide process, which will be described later, and a system program that can control each hardware such as the illumination light source 21 and the area sensor 23.

制御回路40は、スキャナ装置10全体を制御可能なマイコンで、CPU、システムバス、入出力インタフェース等からなり、メモリ35とともに情報処理装置を構成し情報処理機能を有するものである。この制御回路40には、内蔵された入出力インタフェースを介して種々の入出力装置(周辺装置)と接続可能に構成されており、本実施形態の場合、電源スイッチ42、ブザー44、液晶表示部46、通信インタフェース48等を接続している。これにより、例えば、電源スイッチ42の監視や管理、また所定のビープ音やアラーム音を発生可能なブザー44の鳴動のオンオフ、さらには後述するように所定の指示内容Mを画面表示可能な液晶表示部46の画面制御や、外部装置とのシリアル通信を可能にする通信インタフェース48の通信制御等を可能にしている。なお、通信インタフェース48に接続される外部装置としては、例えば、当該スキャナ装置10が読み取ったQRコードQのデータを情報処理可能なホストコンピュータHSTが相当する。   The control circuit 40 is a microcomputer that can control the entire scanner device 10 and includes a CPU, a system bus, an input / output interface, and the like. The control circuit 40 constitutes an information processing device together with the memory 35 and has an information processing function. The control circuit 40 is configured to be connectable to various input / output devices (peripheral devices) via a built-in input / output interface. In the case of the present embodiment, a power switch 42, a buzzer 44, and a liquid crystal display unit. 46, a communication interface 48, and the like are connected. Thereby, for example, monitoring and management of the power switch 42, turning on / off of the buzzer 44 capable of generating a predetermined beep sound and alarm sound, and a liquid crystal display capable of displaying a predetermined instruction content M on the screen as will be described later. This enables screen control of the unit 46, communication control of the communication interface 48 enabling serial communication with an external device, and the like. The external device connected to the communication interface 48 corresponds to, for example, a host computer HST that can process data of QR code Q read by the scanner device 10.

ここで、画像データ蓄積領域に蓄積されるコード画像等およびQRコードの構成概要を図4に基づいて説明する。メモリ35の画像データ蓄積領域に蓄積されるコード画像等は、エリアセンサ23の受光面23aにより規定される撮像画像の範囲Wにおいて撮像された画像データである。そのため、例えば、当該受光面23aをX軸およびY軸によるXY空間(2次元座標空間)に表すと、図4(A) に示すように表現される。このXY空間には、エリアセンサ23で撮像されたすべての画像情報がデータとして存在するため、例えば、QRコードQのコード画像Q’以外に当該QRコードQを表示する液晶ディスプレィ103や携帯電話機100等のコード外画像100’、103’も含んでいる。   Here, the configuration outline of the code image and the QR code stored in the image data storage area will be described with reference to FIG. The code image or the like stored in the image data storage area of the memory 35 is image data captured in the captured image range W defined by the light receiving surface 23a of the area sensor 23. Therefore, for example, when the light receiving surface 23a is expressed in an XY space (two-dimensional coordinate space) by the X axis and the Y axis, it is expressed as shown in FIG. Since all image information captured by the area sensor 23 exists as data in the XY space, for example, the liquid crystal display 103 that displays the QR code Q in addition to the code image Q ′ of the QR code Q or the mobile phone 100 And the like, non-code images 100 ′ and 103 ′.

そこで、本実施形態では、このような画像データから、QRコードを構成する3つの位置検出要素パターンFPのそれぞれの中心をなす基準点α、β、γを検出することで、当該コード画像Q’の全体範囲を認識可能にしている。即ち、図4(B) に示すように、QRコードは、一般に、その左上、左下および右上の3箇所の隅に配置される位置検出要素パターンFPからなる位置検出パターンを備えていることから、本実施形態では、この3つの位置検出要素パターンFPの中心を基準点α,β,γとして検出することで、当該コード画像Q’の全体範囲であるコード領域を把握している。なお、位置検出要素パターンFPは、「ファインディングパターン」とも称する。   Therefore, in this embodiment, the code image Q ′ is detected by detecting the reference points α, β, γ that form the centers of the three position detection element patterns FP constituting the QR code from such image data. It is possible to recognize the whole range. That is, as shown in FIG. 4B, the QR code generally includes a position detection pattern composed of position detection element patterns FP arranged at three corners on the upper left, lower left, and upper right. In the present embodiment, by detecting the centers of the three position detection element patterns FP as the reference points α, β, and γ, the code area that is the entire range of the code image Q ′ is grasped. The position detection element pattern FP is also referred to as a “finding pattern”.

より具体的には、位置検出要素パターンFPは、QRコードの基本仕様(日本工業規格;JIS X 0510:2004)により、正方形状からなる、暗(黒色等)の3×3モジュールFPa、明(白色等)の5×5モジュールFPbおよび暗の7×7モジュールFPcの3個が同心正方形状が重なって構成されている。このため、この同心中心を、本実施形態では「基準点」とし、便宜的に、QRコードQ(コード画像Q’)の、左上に配置される位置検出要素パターンFPの中心を基準点α、左下に配置される位置検出要素パターンFPの中心を基準点β、右上に配置される位置検出要素パターンFPの中心を基準点γとしている。なお、ここにいう「モジュール」とは、QRコードを構成する単位セルのことで、データ1ビットに相当するものである。   More specifically, the position detection element pattern FP is a square (such as black) 3 × 3 module FPa, bright (in accordance with the basic specifications of the QR code (Japanese Industrial Standards; JIS X 0510: 2004)) Three of white 5 × 5 module FPb and dark 7 × 7 module FPc are formed by overlapping concentric squares. For this reason, this concentric center is set as a “reference point” in the present embodiment, and for convenience, the center of the position detection element pattern FP arranged at the upper left of the QR code Q (code image Q ′) is set as the reference point α, The center of the position detection element pattern FP arranged at the lower left is the reference point β, and the center of the position detection element pattern FP arranged at the upper right is the reference point γ. The “module” referred to here is a unit cell constituting a QR code and corresponds to 1 bit of data.

また、図4(B) に示す符号APは、暗の1モジュール、明の3×3モジュールおよび暗の5×5モジュールを同心正方形状に重ねて構成される、位置合わせパターン(アライメントパターン)と称されるもので、QRコードQの歪みの補正を可能にしている。さらに、同図に示す符号QZは、QRコードQの周囲を明の4モジュールで枠状に取り囲むクワイエットゾーンと称されるもので、また符号BTは、当該QRコードQを構成するデータおよび誤り訂正コードを収容するデータ領域を示すものである。   The symbol AP shown in FIG. 4B is an alignment pattern (alignment pattern) formed by concentrating a dark 1 module, a bright 3 × 3 module, and a dark 5 × 5 module in a concentric square shape. It is possible to correct the distortion of the QR code Q. Further, the code QZ shown in the figure is called a quiet zone surrounding the QR code Q in a frame shape with four bright modules, and the code BT is data and error correction constituting the QR code Q. It shows the data area that accommodates the code.

このようにハードウェア(機械的構成、光学的構成、電気的構成)が構成されるスキャナ装置10では、以下説明する位置合わせ案内処理を行う。この処理は、スキャナ装置10の使用者が、自分が手にしている携帯電話機100の液晶ディスプレィ103を当該スキャナ装置10の読取窓12aにかざしたり、液晶ディスプレィ103を読取窓12aに向けて携帯電話機100を透明板15上に置いたりした場合に、携帯電話機100の存在を検出した所定の検出プログラムが起動する。これにより、スキャナ装置10の使用者は、当該スキャナ装置10の液晶表示部46に表示される所定の指示内容Mに従うことで、自分が手にしている携帯電話機100の位置合わせ等を容易にすることが可能となる。   Thus, the scanner apparatus 10 configured with hardware (a mechanical configuration, an optical configuration, and an electrical configuration) performs an alignment guide process described below. In this process, the user of the scanner device 10 holds the liquid crystal display 103 of the mobile phone 100 held by the user over the reading window 12a of the scanner device 10 or the mobile phone with the liquid crystal display 103 facing the reading window 12a. When 100 is placed on the transparent plate 15, a predetermined detection program that detects the presence of the mobile phone 100 is activated. As a result, the user of the scanner device 10 can easily align the mobile phone 100 held by the user by following the predetermined instruction content M displayed on the liquid crystal display unit 46 of the scanner device 10. It becomes possible.

なお、この検出プログラムとしては、例えば、前述したメモリ35の画像データ蓄積領域に格納される画像データに基づいて、携帯電話機100の液晶ディスプレィ103の枠に相当する画像データが画像データ蓄積領域に格納されている場合に読取窓12aに携帯電話機100が存在していることを検出するものや、当該画像データのうち約半分以上のものに内容の変化がありその状態が1〜2秒以上継続した場合には、読取窓12aに携帯電話機100等の物体が存在していることを検出するもの、等がある。   As the detection program, for example, based on the image data stored in the image data storage area of the memory 35, image data corresponding to the frame of the liquid crystal display 103 of the mobile phone 100 is stored in the image data storage area. If it is detected that the mobile phone 100 is present in the reading window 12a, or more than about half of the image data has changed, the state has continued for more than 1-2 seconds. In some cases, there is one that detects the presence of an object such as the mobile phone 100 in the reading window 12a.

ここで、スキャナ装置10による位置合わせ案内処理の流れを図5〜図9を参照して説明する。なお、図5等に示す位置合わせ案内処理は、前述した制御回路40等により構成されるマイコンによって情報処理されるものである。また、図6〜図8には、紙面左側から順に、(1) 撮像画像の範囲W、(2) 液晶表示部46、(3) 読取窓12aと携帯電話機100の位置関係がそれぞれ図示されている。これらの図に示される(1) 撮像画像の範囲Wと(3) 読取窓12aと携帯電話機100の位置関係とは、QRコードQとそのコード画像Q’がこれらの図面上、表裏の関係に表現されているため、両者の位置関係が左右鏡面対称になることに留意されたい。   Here, the flow of the alignment guidance process by the scanner device 10 will be described with reference to FIGS. Note that the alignment guidance process shown in FIG. 5 and the like is processed by a microcomputer including the control circuit 40 described above. 6 to 8 illustrate, in order from the left side of the drawing, (1) the range W of the captured image, (2) the liquid crystal display unit 46, and (3) the positional relationship between the reading window 12a and the mobile phone 100. Yes. In these drawings, (1) the range W of the captured image, and (3) the positional relationship between the reading window 12a and the mobile phone 100, the QR code Q and its code image Q ' It should be noted that the positional relationship between the two is left-right mirror-symmetric because they are expressed.

図5に示すように、位置合わせ案内処理では、メモリ35に確保される作業領域のクリアやパラメータの設定等といった所定の初期化処理の後、まずステップS101により画像情報取得処理が行われる。この画像情報取得処理は、前述したエリアセンサ23から出力された画像信号に基づく画像データをメモリ35の画像データ蓄積領域から取得するものである。   As shown in FIG. 5, in the alignment guidance processing, after predetermined initialization processing such as clearing the work area secured in the memory 35 and setting parameters, image information acquisition processing is first performed in step S101. In this image information acquisition process, image data based on the image signal output from the area sensor 23 is acquired from the image data storage area of the memory 35.

次のステップS103では、位置検出パターンを検出する処理が行われる。既に図4(B) を参照して説明したように、QRコードの場合には、位置検出パターンは3つの位置検出要素パターンFPから構成されているため、この処理では、ステップS101により取得した画像データの中から3つの位置検出要素パターンFPを検出することで位置検出パターンを検出するとともにQRコードの範囲を検出する。これらの検出結果は、前述したXY座標を用いて数値化される。これにより、QRコードQのコード画像Q’の全体に対応するデータの範囲を検出することが可能となる。なお、本実施形態では、3つの位置検出要素パターンFPの一部(例えば1つまたは2つ)のみが検出された場合でも、検出された位置検出要素パターンFPの数とその座標を検出結果とし、またいずれの位置検出要素パターンFPも検出できなかった場合には、位置検出要素パターンFPの数として0(ゼロ)を検出結果とする。なお、このステップS103は、基準点α,β,γとその位置をXY座標で検出し得る点で、本来、ステップS107とステップS109の間に位置すべきものであるが、このような検出は、次のステップS105によるコードデータの読取処理にも必要となるものであるため、ステップS105の前で処理し、ステップS107の後で重複して処理する構成を回避している。そのため、当該ステップS103は、特許請求の範囲に記載の「検出手段」に相当し得るものである。   In the next step S103, processing for detecting a position detection pattern is performed. As already described with reference to FIG. 4B, in the case of the QR code, since the position detection pattern is composed of three position detection element patterns FP, in this process, the image acquired in step S101 is displayed. By detecting three position detection element patterns FP from the data, a position detection pattern is detected and a QR code range is detected. These detection results are digitized using the XY coordinates described above. Thereby, it is possible to detect a data range corresponding to the entire code image Q ′ of the QR code Q. In the present embodiment, even when only a part (for example, one or two) of the three position detection element patterns FP is detected, the number of detected position detection element patterns FP and their coordinates are used as detection results. If any position detection element pattern FP cannot be detected, 0 (zero) is set as the detection result as the number of position detection element patterns FP. Note that this step S103 is a point where the reference points α, β, γ and their positions can be detected by XY coordinates, and should be located between step S107 and step S109. Since it is also necessary for the code data reading process in the next step S105, a configuration in which the process is performed before step S105 and the process is repeated after step S107 is avoided. Therefore, step S103 can correspond to “detection means” described in the claims.

続くステップS105では、コードデータ読取り処理が行われる。この処理は、ステップS103により検出されたコード画像Q’のデータ範囲に基づいて、所定のアルゴリズムに従ってQRコードをデコードする。なお、このようなデコード処理としては、例えば、特許第2938338号公報等に公知のものを用いる。これにより、ステップS105では、当該QRコードを正常にデコードできた場合には、そのデコード結果をメモリ35の所定領域に格納し、また正常にデコードできた旨をデコード可否フラグに設定する。一方、当該QRコードを正常にデコードできなかった場合には、正常にデコードできなかった旨をデコード可否フラグに設定する。なお、QRコードQが正常に読み取れるか否かに基づいて当該QRコードQがエリアセンサ23の受光面23aにより規定される撮像画像の範囲W内にあるか否かを判断し得る点で、このステップS105は、次のステップS107とともに、特許請求の範囲に記載の「判断手段」に相当し得るものである。   In the subsequent step S105, a code data reading process is performed. In this process, the QR code is decoded in accordance with a predetermined algorithm based on the data range of the code image Q ′ detected in step S103. In addition, as such a decoding process, a well-known thing is used for patent 2938338 etc., for example. Thereby, in step S105, when the QR code can be normally decoded, the decoding result is stored in a predetermined area of the memory 35, and the fact that the decoding has been normally performed is set in the decode enable / disable flag. On the other hand, if the QR code could not be decoded normally, a message indicating that the QR code could not be decoded is set in the decode enable / disable flag. Note that, based on whether the QR code Q can be normally read, it can be determined whether the QR code Q is within the range W of the captured image defined by the light receiving surface 23a of the area sensor 23. Step S105, along with the next step S107, can correspond to the “determination means” recited in the claims.

ステップS107では、ステップS105によるデコード可否フラグに基づいて、当該QRコードが正常に読み取れたか(デコードできたか)否かを判断する処理が行われる。即ち、デコード可否フラグに正常にデコードできた旨が設定されている場合には、正常に読み取れたと判断する(S107;Yes)。この場合には、当該スキャナ装置10の使用者は、携帯電話機100を適正な範囲内、つまりエリアセンサ23の受光面23aにより規定される撮像画像の範囲W(所定の範囲)内にかざしているか、または置いていることになるので(図6(A) 参照)、ステップS121に処理を移行して正常メッセージ(OK)を表示出力データ領域に設定した後、ステップS151による表示処理を行う。この場合、図6(A) に示すように、スキャナ装置10の液晶表示部46には所定の指示内容Mとして、「OK」が表示される。これに対し、デコード可否フラグに正常にデコードできなかった旨が設定されている場合には、正常に読み取れなかったと判断して(S107;No)、続くステップS109に処理を移行する。なお、このステップS107は、特許請求の範囲に記載の「判断手段」に相当し得るものである。   In step S107, based on the decoding enable / disable flag in step S105, processing is performed to determine whether or not the QR code has been normally read (decoded). That is, when the fact that the decoding has been normally performed is set in the decoding enable / disable flag, it is determined that the reading has been normally performed (S107; Yes). In this case, is the user of the scanner device 10 holding the mobile phone 100 within an appropriate range, that is, within a captured image range W (predetermined range) defined by the light receiving surface 23a of the area sensor 23? Or (see FIG. 6A), the process proceeds to step S121, the normal message (OK) is set in the display output data area, and the display process in step S151 is performed. In this case, “OK” is displayed as the predetermined instruction content M on the liquid crystal display unit 46 of the scanner device 10 as shown in FIG. On the other hand, when it is set in the decode enable / disable flag that the decoding has not been performed normally, it is determined that the decoding has not been performed normally (S107; No), and the process proceeds to the subsequent step S109. This step S107 can correspond to “determination means” described in the claims.

ステップS109では、位置検出要素パターンFPの中心位置を検出できたか否かを判断する処理が行われる。この処理は、ステップS103により検出された検出結果(位置検出要素パターンFPの数)に基づいて、位置検出要素パターンFPの中心位置を検出できたか否かを判断するもので、特許請求の範囲に記載の「検出手段」に相当し得るものである。。即ち、ステップS103により検出された位置検出要素パターンFPの数が1以上である場合には、位置検出要素パターンFPの中心位置が検出できていることになるので(S109;Yes)、次のステップS111に処理を移行する。   In step S109, processing for determining whether or not the center position of the position detection element pattern FP has been detected is performed. This process determines whether or not the center position of the position detection element pattern FP has been detected based on the detection result (number of position detection element patterns FP) detected in step S103. This can correspond to the “detection means” described. . That is, when the number of the position detection element patterns FP detected in step S103 is 1 or more, the center position of the position detection element pattern FP can be detected (S109; Yes). The process proceeds to S111.

これに対し、ステップS103により検出された位置検出要素パターンFPの数が0(ゼロ)である場合には、位置検出要素パターンFPの中心位置が検出できていないことになるので(S109;No)、読取窓12aにはQRコードQが存在しない可能性が高い。この場合には、当該スキャナ装置10の使用者は、携帯電話機100を撮像画像の範囲W内にかざしていないか、または置いていないことになるので(図6(B) 参照)、ステップS123に処理を移行して異常メッセージ1(QRコードはありません)を表示出力データ領域に設定した後、ステップS151による表示処理を行う。この場合、図6(B) に示すように、スキャナ装置10の液晶表示部46には所定の指示内容Mとして、「QRコードはありません」が表示される。   On the other hand, when the number of position detection element patterns FP detected in step S103 is 0 (zero), the center position of the position detection element pattern FP cannot be detected (S109; No). There is a high possibility that the QR code Q does not exist in the reading window 12a. In this case, since the user of the scanner device 10 does not hold or place the mobile phone 100 within the captured image range W (see FIG. 6B), the process proceeds to step S123. After the process is shifted and the abnormal message 1 (no QR code) is set in the display output data area, the display process in step S151 is performed. In this case, as shown in FIG. 6B, “no QR code” is displayed as the predetermined instruction content M on the liquid crystal display unit 46 of the scanner device 10.

ステップS111では、位置検出要素パターンFPの検出数を判断する処理が行われる。この処理は、ステップS103により検出された位置検出要素パターンFPの数(1〜3)に基づいて行うもので、位置検出要素パターンFPの数が3である場合には、位置検出要素パターンFPのすべてが検出できているにもかかわらず、ステップS105によるコードデータの読み取りに失敗していることになるので(S111;3個)、読取窓12aに存在するQRコードQは、液晶ディスプレィ103等の反射の具合により読み取り難い光学条件になっている可能性、またはQRコードQの構成自体に問題がある可能性等がある。この場合には、当該スキャナ装置10の使用者は、携帯電話機100を撮像画像の範囲W内にかざして、または置いていても、読み取りエラーが生じているので(図6(C) 参照)、ステップS125に処理を移行して異常メッセージ2(読み取りエラー)を表示出力データ領域に設定した後、ステップS151による表示処理を行う。この場合、図6(C) に示すように、スキャナ装置10の液晶表示部46には所定の指示内容Mとして、「読み取りエラー」が表示される。   In step S111, processing for determining the number of detected position detection element patterns FP is performed. This process is performed based on the number (1 to 3) of position detection element patterns FP detected in step S103. When the number of position detection element patterns FP is 3, the position detection element patterns FP Even though all of the codes can be detected, reading of the code data in step S105 has failed (S111; 3), so that the QR code Q existing in the reading window 12a is displayed on the liquid crystal display 103 or the like. There is a possibility that the optical condition is difficult to read due to reflection, or that there is a problem in the structure of the QR code Q itself. In this case, even if the user of the scanner device 10 holds or places the mobile phone 100 within the captured image range W, a reading error occurs (see FIG. 6C). After the process proceeds to step S125 and abnormal message 2 (reading error) is set in the display output data area, the display process in step S151 is performed. In this case, as shown in FIG. 6C, “reading error” is displayed as the predetermined instruction content M on the liquid crystal display unit 46 of the scanner device 10.

これに対し、ステップS103により検出された位置検出要素パターンFPの数が1である場合には、位置検出パターンを構成する3つの位置検出要素パターンFPのうち、1つしか検出できていないことになるので(S111;1個)、続くステップS131に処理を移行してガイド方向を生成した後、このガイド方向に従ったガイド矢印をステップS133により設定しステップS151による表示処理を行う。   On the other hand, when the number of position detection element patterns FP detected in step S103 is 1, only one of the three position detection element patterns FP constituting the position detection pattern can be detected. Therefore (S111; one piece), the process proceeds to the subsequent step S131 to generate a guide direction, and then a guide arrow according to the guide direction is set in step S133, and the display process in step S151 is performed.

例えば、ステップS131によるガイド方向生成処理1により左下方向が生成された場合には、当該スキャナ装置10の使用者は、撮像画像の範囲W内に対して右上方向に携帯電話機100をかざしているか、または置いていることになるので(図6(D) 参照)、ステップS133に処理を移行してガイド矢印Ar3(左下向き)を表示出力データ領域に設定した後、ステップS151による表示処理を行う。この場合、図6(D) に示すように、スキャナ装置10の液晶表示部46には所定の指示内容Mとして、左下向きのガイド矢印Ar3が表示される。   For example, when the lower left direction is generated by the guide direction generation process 1 in step S131, the user of the scanner device 10 holds the mobile phone 100 in the upper right direction with respect to the range W of the captured image. Or, since it is placed (see FIG. 6D), the process proceeds to step S133, the guide arrow Ar3 (downward to the left) is set in the display output data area, and the display process in step S151 is performed. In this case, as shown in FIG. 6D, the liquid crystal display unit 46 of the scanner device 10 displays a left-downward guide arrow Ar3 as the predetermined instruction content M.

また、ステップS103により検出された位置検出要素パターンFPの数が2である場合には、位置検出パターンを構成する3つの位置検出要素パターンFPのうち、2つを検出していることになるので(S111;2個)、続くステップS141に処理を移行してガイド方向を生成した後、このガイド方向に従ったガイド矢印をステップS143により設定しステップS151による表示処理を行う。   When the number of position detection element patterns FP detected in step S103 is 2, two of the three position detection element patterns FP constituting the position detection pattern are detected. (S111; 2) After shifting to the subsequent step S141 to generate a guide direction, a guide arrow according to this guide direction is set in step S143, and the display process in step S151 is performed.

例えば、ステップS141によるガイド方向生成処理2により右方向が生成された場合には、当該スキャナ装置10の使用者は、撮像画像の範囲W内に対して左方向に携帯電話機100をかざしているか、または置いていることになるので(図6(E) 参照)、ステップS143に処理を移行してガイド矢印Ar8(右向き)を表示出力データ領域に設定した後、ステップS151による表示処理を行う。この場合、図6(E) に示すように、スキャナ装置10の液晶表示部46には所定の指示内容Mとして、右向きのガイド矢印Ar8が表示される。   For example, when the right direction is generated by the guide direction generation process 2 in step S141, the user of the scanner device 10 holds the mobile phone 100 in the left direction with respect to the range W of the captured image. Or, since it is placed (see FIG. 6E), the process proceeds to step S143, the guide arrow Ar8 (rightward) is set in the display output data area, and the display process in step S151 is performed. In this case, as shown in FIG. 6E, a right-pointing guide arrow Ar8 is displayed as the predetermined instruction content M on the liquid crystal display unit 46 of the scanner device 10.

このようにステップS151により所定の指示内容Mが液晶表示部46に表示されることによって、当該スキャナ装置10の使用者は、自分が手にしている携帯電話機100が読取窓12a上の撮像画像の範囲W内に位置合わせできているか否かを把握でき、また撮像画像の範囲W内に位置合わせできていない場合には、その範囲Wに入れるべき方向を視覚的に把握できる。これにより、例えば、携帯電話機100の液晶ディスプレィ103を読取窓12aの透明板15に接触させない「非接触読み」をさせる場合でも、携帯電話機100を把持した当該使用者の手の位置を適切に案内するので、当該液晶ディスプレィ103に表示されたQRコードQの読み取りを容易にすることができる。   In this way, the predetermined instruction content M is displayed on the liquid crystal display unit 46 in step S151, so that the user of the scanner device 10 can capture the captured image on the reading window 12a by the mobile phone 100 that he / she is holding. It is possible to grasp whether or not the position is within the range W, and when the position is not within the range W of the captured image, the direction to be included in the range W can be visually grasped. Thus, for example, even when “non-contact reading” is performed in which the liquid crystal display 103 of the mobile phone 100 is not brought into contact with the transparent plate 15 of the reading window 12a, the position of the user's hand holding the mobile phone 100 is appropriately guided. Therefore, the QR code Q displayed on the liquid crystal display 103 can be easily read.

なお、ステップS151による表示処理とともに、正常・異常のメッセージ内容に基づいてブザー44により所定音を鳴動させても良い。これにより、当該スキャナ装置10の使用者は、QRコードQの読み取りが正常にできたか否かを視覚よりも聴覚によって把握できるため、読み取りの可否をより確実に認識することが可能となる。   In addition to the display processing in step S151, a predetermined sound may be generated by the buzzer 44 based on the normal / abnormal message content. As a result, the user of the scanner device 10 can grasp whether or not the QR code Q can be read normally by hearing rather than visually, and thus can more reliably recognize whether or not the reading is possible.

ここで、ステップS131によるガイド方向生成処理1の内容を図7に基づいて説明する。なお、このステップS131は、特許請求の範囲に記載の「算出手段」に相当し得るものである。このガイド方向生成処理1は、ステップS103により検出された位置検出要素パターンFPの数が1である場合に行われるもので、例えば、図7(A) に示すように、携帯電話機100の液晶ディスプレィ103に表示されたQRコードQのうち、その右上部分(ケース裏側101b側から見て左上部分)だけが撮像画像の範囲W内に位置しているとき等に当該処理の対象となる。   Here, the content of the guide direction generation process 1 by step S131 is demonstrated based on FIG. This step S131 can correspond to “calculation means” described in the claims. This guide direction generation process 1 is performed when the number of position detection element patterns FP detected in step S103 is 1, and for example, as shown in FIG. 7A, the liquid crystal display of the mobile phone 100 is displayed. Of the QR code Q displayed in 103, only the upper right part (upper left part when viewed from the case back side 101b side) is within the range W of the picked-up image, or the like.

(A1)まず、ステップS103により検出された位置検出要素パターンFPの中心位置は、撮像画像の範囲WにおけるXY座標として数値化(例えばγ(X,Y))されているので、これを撮像画像の範囲Wの最大座標(Xmax ,Ymax )から引くことにより、原点座標(Xo,Yo)との位置関係を算出する。   (A1) First, the center position of the position detection element pattern FP detected in step S103 is digitized (for example, γ (X, Y)) as the XY coordinates in the range W of the captured image. By subtracting from the maximum coordinates (Xmax, Ymax) of the range W, the positional relationship with the origin coordinates (Xo, Yo) is calculated.

(A2)そして、次式(1) の関係を満たす場合には、当該γ(X,Y)は、撮像画像の範囲W内において左下(使用者から見て右下)に片寄って位置していることになるので、当該携帯電話機100を右上方向(使用者から見て左上)に誘導するガイド方向「左上」を生成する(図7(A) 参照)。
(Xmax−X)>X かつ (Ymax−Y)>Y …(1)
(A2) Then, when the relationship of the following expression (1) is satisfied, the γ (X, Y) is located at the lower left (lower right as viewed from the user) in the range W of the captured image. Therefore, a guide direction “upper left” for guiding the mobile phone 100 in the upper right direction (upper left as viewed from the user) is generated (see FIG. 7A).
(Xmax-X)> X and (Ymax-Y)> Y (1)

(A3)これに対し、液晶ディスプレィ103に表示されたQRコードQのうち、その左上部分(ケース裏側101b側から見て右上部分)だけが撮像画像の範囲W内に位置しているときのように、次式(2) の関係を満たす場合、α(X,Y)は、撮像画像の範囲W内において右下(使用者から見て左下)に片寄って位置していることになるので、当該携帯電話機100を左上方向(使用者から見て右上)に誘導するガイド方向「右上」を生成する(図7(B) 参照)。
(Xmax−X)<X かつ (Ymax−Y)>Y …(2)
(A3) On the other hand, of the QR code Q displayed on the liquid crystal display 103, only the upper left part (upper right part when viewed from the case back side 101b side) is located within the range W of the captured image. In addition, when satisfying the relationship of the following expression (2), α (X, Y) is located at the lower right (lower left as viewed from the user) in the captured image range W. A guide direction “upper right” for guiding the mobile phone 100 in the upper left direction (upper right as viewed from the user) is generated (see FIG. 7B).
(Xmax−X) <X and (Ymax−Y)> Y (2)

(A4)また、液晶ディスプレィ103に表示されたQRコードQのうち、その左下部分(ケース裏側101b側から見て右下部分)だけが撮像画像の範囲W内に位置しているときのように、次式(3) の関係を満たす場合、β(X,Y)は、撮像画像の範囲W内において左上(使用者から見て右上)に片寄って位置していることになるので、当該携帯電話機100を右下方向(使用者から見て左下)に誘導するガイド方向「左下」を生成する(図7(C) 参照)。
(Xmax−X)>X かつ (Ymax−Y)<Y …(3)
(A4) Further, among the QR codes Q displayed on the liquid crystal display 103, only the lower left part (the lower right part when viewed from the case back side 101b side) is located within the range W of the captured image. When β (X, Y) is satisfied when the relationship of the following expression (3) is satisfied, the mobile phone is located in the upper left (upper right as viewed from the user) in the captured image range W. A guide direction “lower left” for guiding the telephone 100 in the lower right direction (lower left as viewed from the user) is generated (see FIG. 7C).
(Xmax−X)> X and (Ymax−Y) <Y (3)

(A5) 同様に、液晶ディスプレィ103に表示されたQRコードQのうち、その左下部分(ケース裏側101b側から見て右下部分)だけが撮像画像の範囲W内に位置しているときのように、次式(4) の関係を満たす場合、β(X,Y)は、撮像画像の範囲W内において右上(使用者から見て左上)に片寄って位置していることになるので、当該携帯電話機100を左下方向(使用者から見て右下)に誘導するガイド方向「右下」を生成する(図7(D) 参照)。
(Xmax−X)<X かつ (Ymax−Y)<Y …(4)
(A5) Similarly, in the QR code Q displayed on the liquid crystal display 103, only the lower left part (the lower right part when viewed from the case back side 101b side) is located within the range W of the captured image. In addition, when satisfying the relationship of the following expression (4), β (X, Y) is located on the upper right side (upper left side when viewed from the user) in the captured image range W. A guide direction “lower right” for guiding the mobile phone 100 in the lower left direction (lower right as viewed from the user) is generated (see FIG. 7D).
(Xmax−X) <X and (Ymax−Y) <Y (4)

これにより、ガイド方向「左上」、「右上」、「左下」、「右下」のいずれかが生成されるので、このガイド方向の情報をガイド矢印1〜4設定処理(S133)に渡すことで、ガイド矢印1〜4設定処理(S133)では、それぞれの方向に対応したガイド矢印Ar1(左上)、Ar2(右上)、Ar3(左下)、Ar4(右下)を表示出力データ領域に設定する。これにより、液晶表示部46にそれぞれの方向に対応した矢印が所定の指示内容Mとして表示出力される(図7(A)〜図7(D))。   As a result, any one of the guide directions “upper left”, “upper right”, “lower left”, and “lower right” is generated. By passing this guide direction information to the guide arrows 1 to 4 setting process (S133), In the guide arrow 1-4 setting processing (S133), guide arrows Ar1 (upper left), Ar2 (upper right), Ar3 (lower left), and Ar4 (lower right) corresponding to the respective directions are set in the display output data area. As a result, arrows corresponding to the respective directions are displayed and output as predetermined instruction contents M on the liquid crystal display unit 46 (FIGS. 7A to 7D).

またここで、ステップS141によるガイド方向生成処理2の内容を図8に基づいて説明する。なお、このステップS141は、特許請求の範囲に記載の「算出手段」に相当し得るものである。このガイド方向生成処理2は、ステップS103により検出された位置検出要素パターンFPの数が2である場合に行われるもので、例えば、図8(A) や図8(B) に示すように、携帯電話機100の液晶ディスプレィ103に表示されたQRコードQの一部が撮像画像の範囲W内に位置しているとき等に当該処理の対象となる。   Here, the content of the guide direction generation processing 2 in step S141 will be described with reference to FIG. This step S141 may correspond to “calculation means” described in the claims. This guide direction generation process 2 is performed when the number of position detection element patterns FP detected in step S103 is 2, for example, as shown in FIGS. 8A and 8B, The processing is performed when a part of the QR code Q displayed on the liquid crystal display 103 of the mobile phone 100 is located within the range W of the captured image.

(B1)まず、ステップS103により検出された2つの位置検出要素パターンFPの中心位置は、撮像画像の範囲WにおけるXY座標として、いずれも数値化されている。例えば、図8(A) の場合、基準点αは、(X2,Y2)、基準点γは(X1,Y1)、また図8(B) の場合、基準点αは、(X1,Y1)、基準点βは(X2,Y2)である。このため、これら2つの基準点間(|X1−X2|,|Y1−Y2|)の距離を求め、X軸方向の距離、Y軸方向の距離の大小関係から次式(5) ,(6) に従ってXMまたはYMを求める。   (B1) First, the center positions of the two position detection element patterns FP detected in step S103 are both digitized as XY coordinates in the range W of the captured image. For example, in the case of FIG. 8A, the reference point α is (X2, Y2), the reference point γ is (X1, Y1), and in the case of FIG. 8B, the reference point α is (X1, Y1). The reference point β is (X2, Y2). Therefore, the distance between these two reference points (| X1-X2 |, | Y1-Y2 |) is obtained, and the following equations (5), (6) are obtained from the magnitude relationship between the distance in the X-axis direction and the distance in the Y-axis direction. ) To obtain XM or YM.

|X1−X2|>|Y1−Y2| ならば YM=(Y1+Y2)/2 …(5)
|X1−X2|<|Y1−Y2| ならば XM=(X1+X2)/2 …(6)
例えば、図8(A) に示す場合には、上式(5) の関係を満たすので、YMを求め、図8(B) に示す場合には、上式(6) の関係を満たすので、XMを求める。
If | X1-X2 |> | Y1-Y2 |, then YM = (Y1 + Y2) / 2 (5)
If | X1-X2 | <| Y1-Y2 |, then XM = (X1 + X2) / 2 (6)
For example, in the case shown in FIG. 8 (A), since the relationship of the above equation (5) is satisfied, YM is obtained, and in the case shown in FIG. 8 (B), the relationship of the above equation (6) is satisfied. Find XM.

(B2)そして、上式(5) の関係を満たす場合には、さらに次式(7) ,(8) に基づいてガイド方向「上」または「下」を生成する。
(Ymax−YM)<YM …(7)
(Ymax−YM)>YM …(8)
(B2) When the relationship of the above equation (5) is satisfied, the guide direction “up” or “down” is further generated based on the following equations (7) and (8).
(Ymax−YM) <YM (7)
(Ymax−YM)> YM (8)

即ち、上式(5) で求めたYMは、Y1とY2との中間点のY軸座標に相当するので、このYMの位置から式(7) を満たす場合には、コード画像Q’(QRコードQ)は、撮像画像の範囲W内において上に片寄って位置していることになるので、当該携帯電話機100を下方向に誘導するガイド方向「下」を生成する(図9(A) 参照)。これに対し、式(8) を満たす場合には、コード画像Q’(QRコードQ)は、撮像画像の範囲W内において下に片寄って位置していることになるので、当該携帯電話機100を上方向に誘導するガイド方向「上」を生成する(図9(B) 参照)。なお、図9(A) ,図9(B) に示されるコード画像Q’は、X軸、Y軸に対して斜めではなく、ほぼ平行に位置しているが、このような場合にも、上式(5) ,(6) を適用して式(7) ,(8) に従った処理を行う。   That is, YM obtained by the above equation (5) corresponds to the Y-axis coordinate of the intermediate point between Y1 and Y2, and therefore when the equation (7) is satisfied from the position of YM, the code image Q ′ (QR Since the code Q) is shifted upward in the range W of the captured image, the guide direction “down” for guiding the mobile phone 100 downward is generated (see FIG. 9A). ). On the other hand, when the expression (8) is satisfied, the code image Q ′ (QR code Q) is positioned downward in the captured image range W. A guide direction “up” for guiding upward is generated (see FIG. 9B). The code image Q ′ shown in FIGS. 9 (A) and 9 (B) is not inclined with respect to the X axis and the Y axis, but is substantially parallel, but in such a case, Applying the above equations (5) and (6), the processing according to equations (7) and (8) is performed.

(B3)一方、上式(6) の関係を満たす場合には、次式(9) ,(10)に基づいてガイド方向「左」または「右」を生成する。
(Xmax−XM)>XM …(9)
(Xmax−XM)<XM …(10)
(B3) On the other hand, when the relationship of the above equation (6) is satisfied, the guide direction “left” or “right” is generated based on the following equations (9) and (10).
(Xmax−XM)> XM (9)
(Xmax−XM) <XM (10)

即ち、上式(6) で求めたXMは、X1とX2との中間点のX軸座標に相当するので、このXMの位置から式(9) を満たす場合には、コード画像Q’(QRコードQ)は、撮像画像の範囲W内において左(使用者から見て右)に片寄って位置していることになるので、当該携帯電話機100を右方向(使用者から見て左方向)に誘導するガイド方向「左」を生成する(図9(C) 参照)。これに対し、式(10)を満たす場合には、コード画像Q’(QRコードQ)は、撮像画像の範囲W内において右(使用者から見て左)に片寄って位置していることになるので、当該携帯電話機100を左方向(使用者から見て右方向)に誘導するガイド方向「右」を生成する(図9(D) 参照)。なお、図9(C) ,図9(D) に示されるコード画像Q’は、X軸、Y軸に対して斜めではなく、ほぼ平行に位置しているが、このような場合にも、上式(5) ,(6) を適用して式(9) ,(10)に従った処理を行う。   That is, the XM obtained by the above equation (6) corresponds to the X-axis coordinate of the intermediate point between X1 and X2, and therefore when the equation (9) is satisfied from the position of this XM, the code image Q ′ (QR Since the code Q) is located offset to the left (right when viewed from the user) within the range W of the captured image, the mobile phone 100 is directed to the right (left when viewed from the user). The guiding direction “Left” to be guided is generated (see FIG. 9C). On the other hand, when the expression (10) is satisfied, the code image Q ′ (QR code Q) is shifted to the right (left as viewed from the user) in the captured image range W. Therefore, a guide direction “right” for guiding the mobile phone 100 in the left direction (right direction as viewed from the user) is generated (see FIG. 9D). The code image Q ′ shown in FIGS. 9 (C) and 9 (D) is not inclined with respect to the X-axis and Y-axis, but is almost parallel. Applying the above equations (5) and (6), the processing according to equations (9) and (10) is performed.

これにより、ガイド方向「下」、「上」、「左」、「右」のいずれかが生成されるので、このガイド方向の情報をガイド矢印5〜8設定処理(S143)に渡すことで、ガイド矢印5〜8設定処理(S143)では、それぞれの方向に対応したガイド矢印Ar5(下)、Ar6(上)、Ar7(左)、Ar8(右)を表示出力データ領域に設定する。これにより、液晶表示部46にそれぞれの方向に対応した矢印が所定の指示内容Mとして表示出力される(図9(A)〜図9(D))。   As a result, any one of the guide directions “down”, “up”, “left”, and “right” is generated. By passing this guide direction information to the guide arrows 5 to 8 setting process (S143), In the guide arrows 5 to 8 setting process (S143), guide arrows Ar5 (down), Ar6 (up), Ar7 (left), and Ar8 (right) corresponding to the respective directions are set in the display output data area. As a result, arrows corresponding to the respective directions are displayed and output as predetermined instruction contents M on the liquid crystal display unit 46 (FIGS. 9A to 9D).

以上説明したように、本実施形態に係るスキャナ装置10によると、エリアセンサ23の受光面23aにより、携帯電話機100の液晶ディスプレィ103に表示されたQRコードQを撮像し、制御回路40およびメモリ35によって、このエリアセンサ23により撮像されたQRコードQのコード画像Q’の全体がエリアセンサ23の受光面23aにより規定される撮像画像の範囲W内にあるか否かを判断する(S105、S107)。そして、制御回路40等によりコード画像Q’の全体が撮像画像の範囲W内にないと判断された場合(S107;No)、制御回路40等により、当該コード画像Q’の位置を示す基準点α,β,γとその位置を示すXY座標を検出し(S103、S109)、これにより検出された基準点α,β,γのXY座標に基づいて制御回路40等によりQRコードQの全体が撮像画像の範囲W内に入るように案内するガイド方向(上、下、左、右、左上、右上、左下、右下)を算出して、この算出されたガイド方向を液晶表示部46により表示する(S151)。   As described above, according to the scanner device 10 according to the present embodiment, the QR code Q displayed on the liquid crystal display 103 of the mobile phone 100 is imaged by the light receiving surface 23a of the area sensor 23, and the control circuit 40 and the memory 35 are captured. Thus, it is determined whether or not the entire code image Q ′ of the QR code Q imaged by the area sensor 23 is within the captured image range W defined by the light receiving surface 23a of the area sensor 23 (S105, S107). ). When the control circuit 40 or the like determines that the entire code image Q ′ is not within the captured image range W (S107; No), the control circuit 40 or the like indicates a reference point indicating the position of the code image Q ′. XY coordinates indicating α, β, γ and their positions are detected (S103, S109), and the entire QR code Q is detected by the control circuit 40 or the like based on the XY coordinates of the reference points α, β, γ detected thereby. A guide direction (up, down, left, right, upper left, upper right, lower left, lower right) for guiding the user to enter the range W of the captured image is calculated, and the calculated guide direction is displayed on the liquid crystal display unit 46. (S151).

これにより、エリアセンサ23によって撮像されたQRコードQのコード画像Q’の全体が撮像画像の範囲W内にないと判断された場合には(S107;No)、QRコードQの全体が撮像画像の範囲W内に入るように案内するガイド方向が液晶表示部46により表示されるので、当該スキャナ装置10の使用者はこの表示されたガイド方向に従って携帯電話機100の位置を変更することで、撮像画像の範囲W内にQRコードQの全体が入るように携帯電話機100の位置合わせをすることができる。したがって、携帯電話機100の液晶ディスプレィ103に表示されたQRコードQの読み取りを容易にすることができる。また、非接触状態で位置合わせする場合にも、このようなガイド方向が表示されるので、空間における位置把握の困難さを解消しQRコードQの読み取りを容易にすることができる。   Thereby, when it is determined that the entire code image Q ′ of the QR code Q captured by the area sensor 23 is not within the captured image range W (S107; No), the entire QR code Q is captured image. Since the guide direction for guiding the user to enter the range W is displayed on the liquid crystal display unit 46, the user of the scanner device 10 changes the position of the mobile phone 100 in accordance with the displayed guide direction, thereby imaging. The cellular phone 100 can be aligned so that the entire QR code Q falls within the range W of the image. Therefore, the QR code Q displayed on the liquid crystal display 103 of the mobile phone 100 can be easily read. Further, even when alignment is performed in a non-contact state, such a guide direction is displayed, so that difficulty in grasping the position in the space can be eliminated and QR code Q can be easily read.

なお、以上説明した実施形態では、案内方向を示すガイド矢印Ar1〜Ar8の長さを一定長さのものを例示して説明したが、例えば、図10に示すように、撮像画像の範囲W内に導く距離の大小に基づいてコード画像Q’の位置ずれの度合をガイド矢印Ar4L,Ar4M,Ar4Sの長さで表現しても良い。   In the embodiment described above, the length of the guide arrows Ar1 to Ar8 indicating the guide direction has been described as an example of a certain length. However, for example, as shown in FIG. The degree of positional deviation of the code image Q ′ may be expressed by the lengths of the guide arrows Ar4L, Ar4M, and Ar4S based on the magnitude of the distance to be led to.

例えば、ガイド方向「右下」を案内するガイド矢印Ar4が表示される場合には、前掲の式(4) を満たす必要があるが、これに加え、基準点βの座標(X,Y)が次式(11),(12),(13)のいずれを満たすかによって、長さの異なるガイド矢印Ar4L,Ar4M,Ar4Sを表示する。なお、xL,xL’,xM,xM’,xS,xS’は、xL’>xL>xM’>xM>xS’>xSの大小関係を満たす任意の正の整数である。   For example, when the guide arrow Ar4 for guiding the guide direction “lower right” is displayed, it is necessary to satisfy Equation (4) above, but in addition to this, the coordinates (X, Y) of the reference point β are Depending on which of the following formulas (11), (12), and (13) is satisfied, guide arrows Ar4L, Ar4M, and Ar4S having different lengths are displayed. Note that xL, xL ′, xM, xM ′, xS, and xS ′ are arbitrary positive integers that satisfy the magnitude relationship of xL ′> xL> xM ′> xM> xS ′> xS.

xL<X<xL’ かつ yL<Y<yL’ …(11)
を満たす場合には、長さ「大」のガイド矢印Ar4Lを表示する(図10(A) 参照)。
xL <X <xL ′ and yL <Y <yL ′ (11)
When the condition is satisfied, a guide arrow Ar4L having a length of “large” is displayed (see FIG. 10A).

xM<X<xM’ かつ yM<Y<yM’ …(12)
を満たす場合には、長さ「中」のガイド矢印Ar4Mを表示する(図10(B) 参照)。
xM <X <xM ′ and yM <Y <yM ′ (12)
When the condition is satisfied, a guide arrow Ar4M having a length of “medium” is displayed (see FIG. 10B).

xS<X<xS’ かつ yS<Y<yS’ …(13)
を満たす場合には、長さ「小」のガイド矢印Ar4Sを表示する(図10(C) 参照)。
xS <X <xS ′ and yS <Y <yS ′ (13)
When the condition is satisfied, a guide arrow Ar4S having a length of “small” is displayed (see FIG. 10C).

これにより、当該スキャナ装置10の使用者は、QRコードQを読み取らせようとしている携帯電話機100の位置ずれの度合いをこのような視覚的に把握可能なガイド矢印Ar4L(大),Ar4M(中),Ar4S(小)により知ることができるので、その表示に従った位置合わせを的確に行うことが可能となる(図10(D) 参照)。したがって、携帯電話機100の液晶ディスプレィ103に表示されたQRコードQの読み取りを一層容易にすることができる。なお、この例では、ガイド方向「右下」を案内するガイド矢印Ar4の場合を説明したが、これまでに説明した各ガイド方向(左上、右上、左下、下、上、左、右)についても適用できる。   As a result, the user of the scanner device 10 can visually grasp the degree of positional deviation of the mobile phone 100 about to read the QR code Q, such as guide arrows Ar4L (large), Ar4M (middle). , Ar4S (small), it is possible to accurately perform alignment according to the display (see FIG. 10D). Accordingly, it is possible to further easily read the QR code Q displayed on the liquid crystal display 103 of the mobile phone 100. In this example, the guide arrow Ar4 that guides the guide direction “lower right” has been described. However, the guide directions (upper left, upper right, lower left, lower, upper, left, right) described so far are also described. Applicable.

このように、制御回路40等は、現在の基準点α,β,γのいずれかの位置を、2次元配列によるXY座標空間全体に対する座標として求め(S103)、これに基づいてxL,xL’,xM,xM’,xS,xS’と比較することで(式(11),(12),(13))、撮像画像の範囲W内に入るまでコード画像の位置ずれの度合をガイド矢印の長さ(Ar4L(大),Ar4M(中),Ar4S(小))で視覚的に把握可能に表示したが、XY座標に基づいてコード画像Q’の少なくとも基準点α,β,γの3点が撮像画像の範囲W内に入るまでに要する距離を求め、この距離を所定値と比較することで撮像画像の範囲W内に入るまでの距離の大小を求めて、これにより求められた距離の大小に基づいて、コード画像Q’の位置ずれの度合をガイド矢印の長さ(Ar4L(大),Ar4M(中),Ar4S(小))で視覚的に把握可能に表示しても良い。   Thus, the control circuit 40 or the like obtains the position of any of the current reference points α, β, γ as coordinates for the entire XY coordinate space by the two-dimensional array (S103), and based on this, xL, xL ′ , XM, xM ′, xS, xS ′ (Equations (11), (12), (13)), the degree of position deviation of the code image is indicated by the guide arrow until it falls within the range W of the captured image. Although the length (Ar4L (large), Ar4M (medium), and Ar4S (small)) is displayed so that it can be visually grasped, at least three reference points α, β, γ of the code image Q ′ based on the XY coordinates The distance required to enter the range W of the captured image is obtained, and the distance to enter the range W of the captured image is obtained by comparing this distance with a predetermined value. Based on the size, the degree of misalignment of the code image Q ′ is determined by the length of the guide arrow (Ar4 (Large), Ar4M (medium), Ar4S (small)) in may be visually grasp to be able to display.

これらにより、当該スキャナ装置10の使用者は、QRコードQを読み取らせようとしている携帯電話機100の位置ずれの度合いを、矢印が長ければ位置ずれの度合いが大きく、矢印が短ければ位置ずれの度合いが小さいといった具合に、ガイド矢印の長さにより位置ずれ度合いを知ることができるので、移動方向と移動量がわかる表示に従うことで位置合わせを的確に行うことが可能となる。したがって、携帯電話機100の液晶ディスプレィ103に表示されたQRコードQの読み取りを一層容易にすることができる。   Accordingly, the user of the scanner device 10 can determine the degree of positional deviation of the mobile phone 100 to read the QR code Q. If the arrow is long, the degree of positional deviation is large, and if the arrow is short, the degree of positional deviation. Since the position deviation degree can be known from the length of the guide arrow, for example, the position can be accurately adjusted by following the display showing the movement direction and the movement amount. Accordingly, it is possible to further easily read the QR code Q displayed on the liquid crystal display 103 of the mobile phone 100.

また、以上説明した実施形態では、情報コードとして、QRコードQを例示して説明したが、例えば、これに限られることはなく、他の2次元コード(PDF417、データマトリックス、マキシコード、RSSコンポジット等)や1次元コード(EAN/UPC、インターリーブド2オブ5、コーダバー、コード39/128、スタンダード2オブ5、RSS等)にも上述したスキャナ装置10は適用できる。   In the embodiment described above, the QR code Q is exemplified as the information code. However, for example, the information code is not limited to this, and other two-dimensional codes (PDF417, data matrix, maxi code, RSS composite) Etc.) and one-dimensional codes (EAN / UPC, interleaved 2 of 5, coder bar, code 39/128, standard 2 of 5, RSS, etc.) can also be applied.

なお、このような各情報コードにおいては、QRコードのように、コード領域の隅に、位置検出要素パターンFPを備えていないため、図4に示す位置合わせ案内処理の位置検出パターン検出処理(S103)では、図11に示すように四隅を検出する。   Note that each information code like this does not include the position detection element pattern FP at the corner of the code area unlike the QR code, so the position detection pattern detection process (S103) of the alignment guidance process shown in FIG. ), Four corners are detected as shown in FIG.

例えば、図11(A) に示すように、情報コードがデータマトリックスDMの場合には、当該データマトリックスDMのコード領域(枠)を公知のアルゴリズムによって検出し、そのコード領域枠Jの四隅DMα、DMβ、DMγ、DMδを前述の位置検出要素パターンFPの基準点α、β、γと同様にそれぞれ基準点(DMα、DMβ、DMγ)として処理する。情報コードがバーコードBCの場合にも、図11(B) に示すように同様に、当該バーコードBCのコード領域を検出しそのコード領域枠Kの四隅BCα、BCβ、BCγ、BCδを前述の位置検出要素パターンFPの基準点α、β、γと同様に処理する。   For example, as shown in FIG. 11A, when the information code is a data matrix DM, a code area (frame) of the data matrix DM is detected by a known algorithm, and the four corners DMα of the code area frame J are detected. DMβ, DMγ, and DMδ are processed as reference points (DMα, DMβ, DMγ), respectively, similarly to the reference points α, β, γ of the position detection element pattern FP described above. Similarly, when the information code is a barcode BC, the code area of the barcode BC is detected and the four corners BCα, BCβ, BCγ, BCδ of the code area frame K are similarly detected as shown in FIG. Processing is performed in the same manner as the reference points α, β, γ of the position detection element pattern FP.

また、情報コードがデータマトリックスDMの場合には、当該コードの仕様上、L字状の直交する2本の直線部分がコード領域の境界に存在する。そのため、コード領域枠を生成することなく四隅を検出する場合の例として、この2本の直線L1,L2を検出した後、当該2本の直線L1,L2の交点を基準点DMβとし、また直線L1の端部を基準点DMα、直線L2の端部を基準点DMδとし、さらに基準点DMαから直線L1に直交する直線L3と基準点DMδから直線L2に直交する直線L4との交点を基準点DMγとしても良い。これにより、前述の位置検出要素パターンFPの基準点α、β、γと同様に処理することができる。   Further, when the information code is the data matrix DM, two L-shaped orthogonal straight line portions exist at the boundary of the code area due to the specification of the code. Therefore, as an example of detecting the four corners without generating the code area frame, after detecting the two straight lines L1 and L2, the intersection of the two straight lines L1 and L2 is set as the reference point DMβ, The end of L1 is the reference point DMα, the end of the straight line L2 is the reference point DMδ, and the intersection of the straight line L3 orthogonal to the straight line L1 from the reference point DMα and the straight line L4 orthogonal to the straight line L2 from the reference point DMδ is the reference point DMγ may also be used. Thereby, it is possible to perform the same processing as the reference points α, β, γ of the position detection element pattern FP described above.

上述した実施形態では、制御回路40等は、コード画像Q’のコード領域(全体範囲)を規定可能な少なくとも基準点α,β,γの3点に基づいて、当該コード画像Q’の読み取りができたか否かによって、コード画像Q’の全体が撮像画像の範囲W内にあるか否かを判断した(S105、S107)。QRコードやデータマトリックスあるいは1次元のバーコードのように情報コードの全体形状が矩形である場合には、当該矩形の四隅のうちのいずれか3箇所を検出しこれに基づいて当該コードの領域をしたが、例えば、情報コードの全体形状が三角形である場合にはそのすべての頂点、さらに情報コードの全体形状が円形である場合には当該円形の周上に位置する3点、をそれぞれ特定することで、矩形状の場合と同様に、当該情報コードのコード画像の全体範囲を検出することが可能となる。   In the embodiment described above, the control circuit 40 or the like can read the code image Q ′ based on at least three reference points α, β, and γ that can define the code area (entire range) of the code image Q ′. Whether or not the entire code image Q ′ is within the range W of the captured image is determined based on whether or not it has been completed (S105, S107). When the overall shape of the information code is a rectangle, such as a QR code, a data matrix, or a one-dimensional barcode, any three of the four corners of the rectangle are detected, and the area of the code is determined based on this. However, for example, when the overall shape of the information code is a triangle, all vertices thereof are specified, and when the overall shape of the information code is a circle, three points located on the circumference of the circle are specified. Thus, as in the case of the rectangular shape, the entire range of the code image of the information code can be detected.

図1(A) は、本発明の一実施形態に係るスキャナ装置の機械的、光学的構成例を示す平面図で、図1(B) は図1(A) に示す携帯電話機のケース表側を示す平面図である。FIG. 1A is a plan view showing an example of the mechanical and optical configuration of a scanner device according to an embodiment of the present invention, and FIG. 1B shows the case front side of the mobile phone shown in FIG. FIG. 図2(A) は、図1(A) に示す2A−2A線による本スキャナ装置の断面図で、図2(B) は、エリアセンサによる撮像範囲の差異を示す説明図である。2A is a cross-sectional view of the scanner device taken along line 2A-2A shown in FIG. 1A, and FIG. 2B is an explanatory diagram showing a difference in imaging range by the area sensor. 本スキャナ装置の電気的、光学的構成例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of an electrical and optical configuration of the scanner device. 図4(A) は、撮像画像の範囲を規定した例を示す説明図で、図4(B) は、QRコードの例を示す説明図である。FIG. 4A is an explanatory diagram illustrating an example in which the range of a captured image is defined, and FIG. 4B is an explanatory diagram illustrating an example of a QR code. 本スキャナ装置による位置合わせ案内処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the alignment guidance process by this scanner apparatus. 図5に示す位置合わせ案内処理の説明を補助する説明図で、図6(A) は正常メッセージを表示する場合の例、図6(B) は異常メッセージ1を表示する場合の例、図6(C) は異常メッセージ2を表示する場合の例、図6(D) はガイド矢印3を表示する場合の例、図6(E) はガイド矢印8を表示する場合の例、である。6A and 6B are explanatory diagrams for assisting the description of the alignment guidance processing, in which FIG. 6A is an example in which a normal message is displayed, FIG. 6B is an example in which an abnormal message 1 is displayed, and FIG. FIG. 6C shows an example in which the abnormal message 2 is displayed, FIG. 6D shows an example in which the guide arrow 3 is displayed, and FIG. 6E shows an example in which the guide arrow 8 is displayed. 図5に示す位置合わせ案内処理中のガイド方向生成処理1の説明を補助する説明図で、図7(A) はガイド矢印1を表示する場合の例、図7(B) はガイド矢印2を表示する場合の例、図7(C) はガイド矢印3を表示する場合の例、図7(D) はガイド矢印4を表示する場合の例、である。7A and 7B are explanatory diagrams for assisting the description of the guide direction generation process 1 during the alignment guide process shown in FIG. 5. FIG. 7A shows an example in which a guide arrow 1 is displayed, and FIG. 7B shows a guide arrow 2. FIG. 7C shows an example in the case of displaying the guide arrow 3, and FIG. 7D shows an example in the case of displaying the guide arrow 4. 図5に示す位置合わせ案内処理中のガイド方向生成処理2の説明を補助する説明図で、図8(A) はコード画像の基準点α,γが|X1−X2|>|Y1−Y2|の関係にある場合の例、図8(B) はコード画像の基準点α,βが|X1−X2|<|Y1−Y2|の関係にある場合の例、である。FIG. 8A is an explanatory diagram for assisting the description of the guide direction generation process 2 during the alignment guide process shown in FIG. 5, and FIG. 8A shows that the reference points α and γ of the code image are | X 1 −X 2 | FIG. 8B shows an example in which the reference points α and β of the code image have a relationship of | X1-X2 | <| Y1-Y2 |. 図5に示す位置合わせ案内処理中のガイド方向生成処理2の説明を補助する説明図で、図9(A) はガイド矢印5を表示する場合の例、図9(B) はガイド矢印6を表示する場合の例、図9(C) はガイド矢印7を表示する場合の例、図9(D) はガイド矢印8を表示する場合の例、である。9A and 9B are explanatory diagrams for assisting the description of the guide direction generation process 2 during the alignment guide process shown in FIG. 5, in which FIG. 9A shows an example in which a guide arrow 5 is displayed, and FIG. 9B shows a guide arrow 6. 9C shows an example in which the guide arrow 7 is displayed, and FIG. 9D shows an example in which the guide arrow 8 is displayed. 図5に示す位置合わせ案内処理中のガイド方向生成処理1の改変例の説明を補助する説明図で、図10(A) はガイド矢印Ar4Lを表示する場合の例、図10(B) はガイド矢印Ar4Mを表示する場合の例、図10(C) はガイド矢印Ar4Sを表示する場合の例、図10(D) は正常メッセージを表示する場合の例、である。FIG. 10A is an explanatory diagram for assisting the description of the modified example of the guide direction generation process 1 during the alignment guide process shown in FIG. 5, FIG. 10A is an example in the case of displaying a guide arrow Ar4L, and FIG. FIG. 10C shows an example in the case of displaying an arrow Ar4M, FIG. 10C shows an example in the case of displaying a guide arrow Ar4S, and FIG. 10D shows an example in the case of displaying a normal message. 図5に示す位置合わせ案内処理中の位置検出パターン検出処理の改変例の説明を補助する説明図で、図11(A) はデータマトリックスにおいてコード領域枠を生成して四隅を検出する場合の例、図11(B) は1次元のバーコードにおいてコード領域枠を生成して四隅を検出する場合の例、図11(C) はデータマトリックスにおいてコード領域枠を生成することなく四隅を検出する場合の例、である。FIG. 11A is an explanatory diagram for assisting in explaining a modification of the position detection pattern detection process during the alignment guidance process shown in FIG. 5, and FIG. 11A shows an example in which a code area frame is generated in the data matrix and four corners are detected. FIG. 11B shows an example in which a code area frame is generated in a one-dimensional barcode and four corners are detected, and FIG. 11C shows a case in which four corners are detected without generating a code area frame in a data matrix. Example.

符号の説明Explanation of symbols

10…スキャナ装置(光学情報読取装置)
12a…読取窓
21…照明部
23…エリアセンサ(撮像手段)
23a…受光面
25…結像光学部
35…メモリ(判断手段、検出手段、算出手段)
40…制御回路(判断手段、検出手段、算出手段)
46…液晶表示部(表示手段)
100…携帯電話機(携帯情報端末装置)
103…液晶ディスプレィ(画面)
Ar1,Ar2,Ar3,Ar4,Ar5,Ar6,Ar7,Ar8…ガイド矢印
BC…バーコード(情報コード)
DM…データマトリックス(情報コード)
Q…QRコード(情報コード)
Q’…コード画像
FP…位置検出要素パターン
Lf…照明光
Lr…反射光
W…撮像画像の範囲(所定の範囲)
α,β,γ…基準点
S105,S107(判断手段)
S103,S109(検出手段)
S131,S141(算出手段)
10: Scanner device (optical information reader)
12a ... Reading window 21 ... Illumination unit 23 ... Area sensor (imaging means)
23a ... light receiving surface 25 ... imaging optical part 35 ... memory (determination means, detection means, calculation means)
40. Control circuit (determination means, detection means, calculation means)
46 ... Liquid crystal display (display means)
100: Mobile phone (personal digital assistant)
103 ... Liquid crystal display (screen)
Ar1, Ar2, Ar3, Ar4, Ar5, Ar6, Ar7, Ar8 ... Guide arrow BC ... Bar code (information code)
DM: Data matrix (information code)
Q ... QR code (information code)
Q '... code image FP ... position detection element pattern Lf ... illumination light Lr ... reflected light W ... range of captured image (predetermined range)
α, β, γ ... reference points S105, S107 (determination means)
S103, S109 (detection means)
S131, S141 (calculation means)

Claims (6)

据置型で、携帯情報端末装置の画面に表示された情報コードを当該画面に接触させることなく読み取り可能な光学情報読取装置であって、
前記画面に表示された情報コードを撮像可能な受光面を有する撮像手段と、
前記撮像手段により撮像された情報コードのコード画像の全体が前記撮像手段の受光面により規定される所定の範囲内にあるか否かを判断可能な判断手段と、
前記判断手段により前記コード画像の全体が前記所定の範囲内にないと判断された場合、当該コード画像の位置を示す基準点とその位置を検出可能な検出手段と、
前記検出手段により検出された前記基準点の位置に基づいて前記情報コードの全体が前記所定範囲内に入るように案内する案内方向を算出可能な算出手段と、
前記算出手段により算出された案内方向を表示可能な表示手段と、
を備えることを特徴とする光学情報読取装置。
An optical information reader that is stationary and can read an information code displayed on a screen of a portable information terminal device without contacting the screen,
Imaging means having a light receiving surface capable of imaging the information code displayed on the screen;
Determination means capable of determining whether or not the entire code image of the information code imaged by the imaging means is within a predetermined range defined by the light receiving surface of the imaging means;
When the determination means determines that the entire code image is not within the predetermined range, a reference point indicating the position of the code image and detection means capable of detecting the position;
Calculation means capable of calculating a guidance direction for guiding the entire information code to fall within the predetermined range based on the position of the reference point detected by the detection means;
Display means capable of displaying the guidance direction calculated by the calculation means;
An optical information reading apparatus comprising:
前記判断手段は、前記コード画像の全体範囲を規定可能な少なくとも3点に基づいて前記コード画像の全体が前記所定範囲内にあるか否かを判断することを特徴とする請求項1記載の光学情報読取装置。   2. The optical apparatus according to claim 1, wherein the determination unit determines whether or not the entire code image is within the predetermined range based on at least three points that can define the entire range of the code image. Information reader. 前記検出手段は、前記コード画像の全体範囲を規定可能な少なくとも3点のうちの1点以上に基づいて前記コード画像の基準点を検出することを特徴とする請求項1または2記載の光学情報読取装置。   The optical information according to claim 1, wherein the detection unit detects a reference point of the code image based on at least one of at least three points that can define the entire range of the code image. Reader. 前記撮像手段の受光面が固体撮像素子により構成され、前記所定の範囲が前記固体撮像素子を構成する画素による2次元配列で規定される場合、
前記検出手段は、前記基準点の位置を、前記2次元配列による座標として検出することを特徴とする請求項1〜3のいずれか一項に記載の光学情報読取装置。
When the light receiving surface of the image pickup unit is configured by a solid-state image sensor, and the predetermined range is defined by a two-dimensional array of pixels constituting the solid-state image sensor,
The optical information reading apparatus according to claim 1, wherein the detection unit detects the position of the reference point as coordinates based on the two-dimensional array.
前記算出手段は、現在の前記基準点の位置を、前記2次元配列による座標空間全体に対する座標として求め、この座標に基づいて前記コード画像の前記少なくとも3点が前記所定範囲内に入る方向を前記案内方向として求めることを特徴とする請求項4記載の光学情報読取装置。   The calculation means obtains the current position of the reference point as coordinates with respect to the entire coordinate space by the two-dimensional array, and based on the coordinates, the direction in which the at least three points of the code image are within the predetermined range is determined. 5. The optical information reader according to claim 4, wherein the optical information reader is obtained as a guide direction. 前記算出手段は、現在の前記基準点の位置を、前記2次元配列による座標空間全体に対する座標として求め、この座標に基づいて前記コード画像の前記少なくとも3点が前記所定範囲内に入るまでに要する距離を求め、この距離を所定値と比較することで前記所定範囲内に入るまでの距離の大小を求め、
前記表示手段は、前記算出手段により求められた距離の大小に基づいて、前記コード画像の位置ずれの度合を視覚的に把握可能に表示することを特徴とする請求項4または5記載の光学情報読取装置。
The calculation means obtains the current position of the reference point as coordinates for the entire coordinate space of the two-dimensional array, and it is necessary for the at least three points of the code image to fall within the predetermined range based on the coordinates. Find the distance, find the magnitude of the distance to enter the predetermined range by comparing this distance with a predetermined value,
6. The optical information according to claim 4, wherein the display means displays the degree of positional deviation of the code image so as to be visually comprehensible based on the distance obtained by the calculation means. Reader.
JP2006027003A 2006-02-03 2006-02-03 Optical information reader Pending JP2007207085A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006027003A JP2007207085A (en) 2006-02-03 2006-02-03 Optical information reader

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006027003A JP2007207085A (en) 2006-02-03 2006-02-03 Optical information reader

Publications (1)

Publication Number Publication Date
JP2007207085A true JP2007207085A (en) 2007-08-16

Family

ID=38486484

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006027003A Pending JP2007207085A (en) 2006-02-03 2006-02-03 Optical information reader

Country Status (1)

Country Link
JP (1) JP2007207085A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010231436A (en) * 2009-03-26 2010-10-14 Toshiba Tec Corp Code symbol reader
CN102163275A (en) * 2010-02-15 2011-08-24 东芝泰格有限公司 Code symbol reading apparatus and reading method
CN102163274A (en) * 2010-02-15 2011-08-24 东芝泰格有限公司 Reading apparatus and reading method
JP2012161399A (en) * 2011-02-04 2012-08-30 Sammy Corp Game machine
JP2012161400A (en) * 2011-02-04 2012-08-30 Sammy Corp Game machine
JP2012185842A (en) * 2012-05-11 2012-09-27 Toshiba Tec Corp Scanner
WO2014002000A1 (en) * 2012-06-25 2014-01-03 Tak Wai Lau Image acquisition apparatus and process
JP2014044570A (en) * 2012-08-27 2014-03-13 Denso Wave Inc Optical information reading device
JP2014056382A (en) * 2012-09-12 2014-03-27 Mitsubishi Electric Corp Two-dimensional code reader and two-dimensional code reading method
CN103969262A (en) * 2014-05-20 2014-08-06 杨征 Liquid detection diagnosis system
KR101445502B1 (en) * 2013-12-09 2014-09-29 주식회사트레디오 Apparatus for detecting 2d code
WO2014134637A3 (en) * 2013-02-28 2014-10-23 Azoteq (Pty) Ltd Intelligent lighting apparatus
WO2014184646A1 (en) * 2013-05-17 2014-11-20 Moorecroft Llp Method for finding an object
JP2016170599A (en) * 2015-03-12 2016-09-23 株式会社デンソーウェーブ Information code reading device
WO2017017898A1 (en) * 2015-07-28 2017-02-02 パナソニックIpマネジメント株式会社 Movement direction determination method and movement direction determination device
JP2018174386A (en) * 2017-03-31 2018-11-08 日本電気株式会社 Image input apparatus and image input method
JP2020512081A (en) * 2016-12-13 2020-04-23 サノフィ−アベンティス・ドイチュラント・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Data collection from drug delivery devices
CN111144154A (en) * 2019-12-30 2020-05-12 张兆明 Intelligent channel management system for guiding personnel to adjust position of code scanning equipment
JP2020077209A (en) * 2018-11-07 2020-05-21 日立オムロンターミナルソリューションズ株式会社 Image reading device and method
JP2021140649A (en) * 2020-03-09 2021-09-16 セイコーソリューションズ株式会社 Information processing apparatus and information processing program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6391254A (en) * 1986-10-04 1988-04-21 ハイデルベルガー ドルックマシーネン アクチエンゲゼルシャフト Method and device for correcting registration
JPH0696244A (en) * 1992-09-10 1994-04-08 Olympus Optical Co Ltd Bar code symbol reader
JP2001043307A (en) * 1999-05-26 2001-02-16 Denso Corp Information code picture fetching device, optical information reader and picture fetching timing setting system
JP2003196586A (en) * 2001-12-28 2003-07-11 Oki Electric Ind Co Ltd Optical qr-code recognition device and method therefor
JP2005250858A (en) * 2004-03-04 2005-09-15 Oki Electric Ind Co Ltd Optical information reading device and automatic transaction device equipped therewith

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6391254A (en) * 1986-10-04 1988-04-21 ハイデルベルガー ドルックマシーネン アクチエンゲゼルシャフト Method and device for correcting registration
JPH0696244A (en) * 1992-09-10 1994-04-08 Olympus Optical Co Ltd Bar code symbol reader
JP2001043307A (en) * 1999-05-26 2001-02-16 Denso Corp Information code picture fetching device, optical information reader and picture fetching timing setting system
JP2003196586A (en) * 2001-12-28 2003-07-11 Oki Electric Ind Co Ltd Optical qr-code recognition device and method therefor
JP2005250858A (en) * 2004-03-04 2005-09-15 Oki Electric Ind Co Ltd Optical information reading device and automatic transaction device equipped therewith

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010231436A (en) * 2009-03-26 2010-10-14 Toshiba Tec Corp Code symbol reader
CN102163275A (en) * 2010-02-15 2011-08-24 东芝泰格有限公司 Code symbol reading apparatus and reading method
CN102163274A (en) * 2010-02-15 2011-08-24 东芝泰格有限公司 Reading apparatus and reading method
JP2011165139A (en) * 2010-02-15 2011-08-25 Toshiba Tec Corp Code symbol reading apparatus and control program
JP2011165140A (en) * 2010-02-15 2011-08-25 Toshiba Tec Corp Code symbol reader and control program therefor
US8579199B2 (en) 2010-02-15 2013-11-12 Toshiba Tec Kabushiki Kaisha Code symbol reading apparatus and reading method
JP2012161399A (en) * 2011-02-04 2012-08-30 Sammy Corp Game machine
JP2012161400A (en) * 2011-02-04 2012-08-30 Sammy Corp Game machine
JP2012185842A (en) * 2012-05-11 2012-09-27 Toshiba Tec Corp Scanner
WO2014002000A1 (en) * 2012-06-25 2014-01-03 Tak Wai Lau Image acquisition apparatus and process
JP2014044570A (en) * 2012-08-27 2014-03-13 Denso Wave Inc Optical information reading device
JP2014056382A (en) * 2012-09-12 2014-03-27 Mitsubishi Electric Corp Two-dimensional code reader and two-dimensional code reading method
WO2014134637A3 (en) * 2013-02-28 2014-10-23 Azoteq (Pty) Ltd Intelligent lighting apparatus
WO2014184646A1 (en) * 2013-05-17 2014-11-20 Moorecroft Llp Method for finding an object
KR101445502B1 (en) * 2013-12-09 2014-09-29 주식회사트레디오 Apparatus for detecting 2d code
CN103969262A (en) * 2014-05-20 2014-08-06 杨征 Liquid detection diagnosis system
JP2016170599A (en) * 2015-03-12 2016-09-23 株式会社デンソーウェーブ Information code reading device
WO2017017898A1 (en) * 2015-07-28 2017-02-02 パナソニックIpマネジメント株式会社 Movement direction determination method and movement direction determination device
CN107004111A (en) * 2015-07-28 2017-08-01 松下知识产权经营株式会社 Moving direction determines method and moving direction determining device
US20170330334A1 (en) * 2015-07-28 2017-11-16 Panasonic Intellectual Property Management Co., Ltd. Movement direction determination method and movement direction determination device
JPWO2017017898A1 (en) * 2015-07-28 2018-05-10 パナソニックIpマネジメント株式会社 Moving direction determining method and moving direction determining apparatus
JP7008720B2 (en) 2016-12-13 2022-01-25 サノフィ-アベンティス・ドイチュラント・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Data collection from drug delivery devices
JP2020512081A (en) * 2016-12-13 2020-04-23 サノフィ−アベンティス・ドイチュラント・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Data collection from drug delivery devices
US11504480B2 (en) 2016-12-13 2022-11-22 Sanofi-Aventis Deutschland Gmbh Data collection from a medicament delivery device
JP2018174386A (en) * 2017-03-31 2018-11-08 日本電気株式会社 Image input apparatus and image input method
JP2020077209A (en) * 2018-11-07 2020-05-21 日立オムロンターミナルソリューションズ株式会社 Image reading device and method
JP7164405B2 (en) 2018-11-07 2022-11-01 日立チャネルソリューションズ株式会社 Image reader and method
CN111144154A (en) * 2019-12-30 2020-05-12 张兆明 Intelligent channel management system for guiding personnel to adjust position of code scanning equipment
JP2021140649A (en) * 2020-03-09 2021-09-16 セイコーソリューションズ株式会社 Information processing apparatus and information processing program

Similar Documents

Publication Publication Date Title
JP2007207085A (en) Optical information reader
JP4635889B2 (en) Portable two-dimensional code reader
US10489621B2 (en) Reading device and mobile terminal
KR20200101158A (en) An electronic apparatus comprinsing a fingerprint sensor
JP4968093B2 (en) Optical information reader
JP2007265354A (en) Method for displaying two-dimensional code, qr code, display medium, program and two-dimensional code reader
JP4047822B2 (en) Electronics
CN118095309A (en) Indicia reader acoustic enclosure for multiple mounting locations
JP5556684B2 (en) Information code reader
EP3296918B1 (en) Reading device and portable device
JP2007066000A (en) Personal digital assistance and image processing method
JP4650138B2 (en) Optical information reader
CN110945530A (en) Two-dimensional code and two-dimensional code reading device
JP2016192179A (en) RFID tag and RFID tag system
JP2014044741A (en) Portable terminal device, and program
TWI696955B (en) QR code
JP6881167B2 (en) Information code reading system
JP4378491B2 (en) Code image output device
JP2010097316A (en) Optical information reader
JP2009069957A (en) Optical information reading device
JP5413057B2 (en) Portable terminal device and program
JP2004207852A (en) Image communication system
JP6930252B2 (en) Optical information reader
JP4063021B2 (en) Optical information reader
JP2008033466A (en) Optical reader

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100506

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100706