JP7036874B2 - Code recognition device - Google Patents

Code recognition device Download PDF

Info

Publication number
JP7036874B2
JP7036874B2 JP2020146696A JP2020146696A JP7036874B2 JP 7036874 B2 JP7036874 B2 JP 7036874B2 JP 2020146696 A JP2020146696 A JP 2020146696A JP 2020146696 A JP2020146696 A JP 2020146696A JP 7036874 B2 JP7036874 B2 JP 7036874B2
Authority
JP
Japan
Prior art keywords
barcode
area
code
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020146696A
Other languages
Japanese (ja)
Other versions
JP2020194594A (en
Inventor
和樹 平
徳政 有賀
真明 安永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2020146696A priority Critical patent/JP7036874B2/en
Publication of JP2020194594A publication Critical patent/JP2020194594A/en
Priority to JP2022032739A priority patent/JP7304992B2/en
Application granted granted Critical
Publication of JP7036874B2 publication Critical patent/JP7036874B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、コード認識装置に関する。 Embodiments of the present invention relate to a code recognition device.

倉庫や店舗などの空間内、例えば商品棚などに広範囲に複数配置されたバーコードから、効率良くバーコード情報を読み取ることが求められている。通常、複数箇所に配置されたバーコードからバーコード情報を読み取る場合には、個々のバーコードに対してバーコード認識装置の読取部をかざす必要がある。このため、多くのバーコード情報を全て読み取るのに時間が掛かってしまう。 It is required to efficiently read barcode information from a plurality of barcodes arranged in a wide range in a space such as a warehouse or a store, for example, a product shelf. Normally, when reading barcode information from barcodes arranged at a plurality of locations, it is necessary to hold the reading unit of the barcode recognition device over each barcode. Therefore, it takes time to read all the barcode information.

一方、複数のバーコードが含まれる領域を撮影して、撮影した画像から複数のバーコードのバーコード情報を一括して読取る方法もある。この方法の場合、バーコードから離れた場所から撮影し、バーコードを認識可能な画像を得る必要があるため、例えば2次元撮像素子を用いた読取部の場合、受光素子を高解像度、かつ大面積にする必要があった。しかし、十分な解像度を有していない読取部を設けたバーコード認識装置では、撮影した画像中のバーコードの品質が悪く、バーコード情報を認識することができない場合があった。また、バーコードから離れた位置から撮影をするため、撮影時の状況によっては品質の良い画像が撮影されず、画像中からバーコード情報を認識することができない場合があった。 On the other hand, there is also a method of photographing an area including a plurality of barcodes and collectively reading the barcode information of the plurality of barcodes from the photographed image. In the case of this method, it is necessary to take a picture from a place away from the barcode and obtain an image in which the barcode can be recognized. Therefore, for example, in the case of a reading unit using a two-dimensional image sensor, the light receiving element has a high resolution and a large size. It had to be an area. However, in a barcode recognition device provided with a reading unit that does not have sufficient resolution, the quality of the barcode in the captured image is poor, and the barcode information may not be recognized. Further, since the image is taken from a position away from the barcode, a high-quality image may not be captured depending on the situation at the time of shooting, and the barcode information may not be recognized from the image.

特開平9-022437号公報Japanese Unexamined Patent Publication No. 9-022437

本発明が解決しようとする課題は、複数箇所に配置されたバーコードを離れた位置から検知し、効率良くバーコード情報を読み取ることが可能なコード認識装置を提供することである。 An object to be solved by the present invention is to provide a code recognition device capable of detecting barcodes arranged at a plurality of locations from distant positions and efficiently reading barcode information.

実施形態によれば、コード認識装置は、読取手段、領域検出手段、位置検出手段、第1抽出手段、第2抽出手段とを有する。読取手段は、パン・チルト機能を備えたカメラにより読取の対象とするコード画像を含む撮影範囲に向けて撮影する。領域検出手段は、前記読取手段により撮影されたコード画像から前記コード画像に含まれるコード領域と文字領域を検出する。位置検出手段は、前記コード画像中の前記コード領域の位置と、前記パン・チルト機能により調整される前記カメラの向きを示すパン・チルト情報をもとに、前記コード領域の位置を検出する。第1抽出手段は、前記コード領域から前記コード画像が表す第1コード情報を抽出する。第2抽出手段は、前記第1抽出手段による前記第1コード情報の抽出と並行して、前記文字領域から前記コード画像が表す第2コード情報を抽出する。前記領域検出手段は、複数の異なる位置において、前記読取手段により前記カメラの向きを前記パン・チルト機能により調整して、それぞれ撮影された複数のコード画像から前記コード領域を検出する。前記位置検出手段は、前記複数のコード画像から検出された前記コード領域の位置と、前記複数の異なる位置における撮影時の前記カメラの向きを示すパン・チルト情報をもとに、前記コード領域の3次元空間における位置を検出する。 According to the embodiment, the code recognition device includes a reading means, a region detecting means, a position detecting means, a first extraction means, and a second extraction means. The reading means uses a camera equipped with a pan / tilt function to shoot toward a shooting range including a code image to be read. The area detecting means detects the code area and the character area included in the code image from the code image captured by the reading means. The position detecting means detects the position of the code area based on the position of the code area in the code image and the pan / tilt information indicating the direction of the camera adjusted by the pan / tilt function. The first extraction means extracts the first code information represented by the code image from the code area. The second extraction means extracts the second code information represented by the code image from the character area in parallel with the extraction of the first code information by the first extraction means. The area detecting means adjusts the direction of the camera by the reading means at a plurality of different positions by the pan / tilt function, and detects the code area from a plurality of code images captured respectively. The position detecting means of the code area is based on the position of the code area detected from the plurality of code images and the pan / tilt information indicating the orientation of the camera at the time of shooting at the plurality of different positions. Detects the position in the three-dimensional space.

第1実施形態におけるバーコード認識装置の外観図。The external view of the bar code recognition apparatus in 1st Embodiment. 第1実施形態におけるバーコード認識装置のデバイス構成を示すブロック図。The block diagram which shows the device configuration of the bar code recognition apparatus in 1st Embodiment. 第1実施形態におけるバーコード読取部による読取範囲(被撮影領域)を示す図。The figure which shows the reading range (photographed area) by the bar code reading part in 1st Embodiment. 第1実施形態におけるバーコード読取部の詳細構成を模式的に示した図。The figure which schematically showed the detailed structure of the bar code reading part in 1st Embodiment. 第1実施形態における撮影画像に含まれるバーコードに相当するバーコード画像を探索するための方法を模式的に示した図。The figure which showed schematically the method for searching the bar code image corresponding to the bar code included in the photographed image in 1st Embodiment. 第1実施形態のバーコード認識装置によりバーコードを読取る第1の方法について示すフローチャート。The flowchart which shows the 1st method of reading a bar code by the bar code recognition apparatus of 1st Embodiment. 第1実施形態のバーコード認識装置によりバーコードを読取る第2の方法について示すフローチャート。The flowchart which shows the 2nd method of reading a bar code by the bar code recognition apparatus of 1st Embodiment. 第1実施形態のバーコード認識装置によりバーコードを読取る第3の方法について示すフローチャート。The flowchart which shows the 3rd method of reading a bar code by the bar code recognition apparatus of 1st Embodiment. 第1実施形態のバーコード認識装置によりバーコードを読取る第4の方法について示すフローチャート。The flowchart which shows the 4th method of reading a bar code by the bar code recognition apparatus of 1st Embodiment. 第1実施形態におけるバーコード画像の一例を示す図。The figure which shows an example of the bar code image in 1st Embodiment. 第1実施形態における撮影画像に含まれるラベルに相当するラベル画像を探索するための方法を模式的に示した図。The figure which showed schematically the method for searching the label image corresponding to the label included in the photographed image in 1st Embodiment. 第1実施形態のバーコード認識装置によりバーコードを読取る第5の方法について示すフローチャート。The flowchart which shows the 5th method of reading a bar code by the bar code recognition apparatus of 1st Embodiment. 第2実施形態におけるバーコード認識装置のデバイス構成を示すブロック図。The block diagram which shows the device configuration of the bar code recognition apparatus in 2nd Embodiment. 第2実施形態におけるバーコード領域や文字領域が含まれる商品棚などを撮影するための撮影装置の外観図を示す図。The figure which shows the external view of the photographing apparatus for photographing the product shelf which contains the bar code area and the character area in 2nd Embodiment. 第2実施形態におけるバーコードが配置されている棚基準面と撮影装置及び撮影パラメータから得られる撮影時の視野基準面との位置関係を示した図。The figure which showed the positional relationship between the shelf reference plane in which a bar code is arranged in 2nd Embodiment, and the visual field reference plane at the time of shooting obtained from a shooting apparatus and a shooting parameter. 第2実施形態における棚基準面上にバーコードを配置した場合、視野範囲における図15に示した各パラメータとの関係を示した図。The figure which showed the relationship with each parameter shown in FIG. 15 in the field of view when the bar code is arranged on the shelf reference plane in 2nd Embodiment. 図15及び図16に示す関係を更に一般的に表した図。The figure which showed the relationship shown in FIG. 15 and FIG. 16 more generally. 第2実施形態のバーコード認識装置によりバーコードを読取る方法について示すフローチャート。The flowchart which shows the method of reading the barcode by the barcode recognition apparatus of 2nd Embodiment. 第2実施形態のバーコード認識装置によりバーコードを読取る第1の変形例について示すフローチャート。The flowchart which shows the 1st modification which reads the barcode by the barcode recognition apparatus of 2nd Embodiment. 第2実施形態のバーコード認識装置によりバーコードを読取る第2の変形例について示す図。The figure which shows the 2nd modification which reads the barcode by the barcode recognition apparatus of 2nd Embodiment.

以下、本実施形態について、図面を参照しながら説明する。
(第1実施形態)
図1は、第1実施形態におけるバーコード認識装置1の外観図である。図1に示すバーコード認識装置1は、使用者が手に持って操作することが可能な、所謂ハンドヘルド型端末である。バーコード認識装置1は、倉庫や店舗などの空間内、例えば商品棚や商品に対して付されたコードを光学的に検出して、コードが表すコード情報を読取る装置である。第1実施形態では、例えばコードとしてバーコードを対象とし、バーコードが表すバーコード情報を読取るものとして説明する。一般に、バーコードは、縞模様状の複数の太さの異なる線から構成される縞状パターン(バーコードパターン)と、バーコードパターンが表すバーコード情報を示す文字列(数字列)が含まれる。なお、バーコード認識装置1は、バーコードに限らず、2次元コードや幾何学図形の組み合わせなどによって表される各種コードを対象として認識をするようにしても良い。
Hereinafter, this embodiment will be described with reference to the drawings.
(First Embodiment)
FIG. 1 is an external view of the barcode recognition device 1 according to the first embodiment. The barcode recognition device 1 shown in FIG. 1 is a so-called handheld terminal that can be held and operated by the user. The barcode recognition device 1 is a device that optically detects a code attached to a space such as a warehouse or a store, for example, a product shelf or a product, and reads the code information represented by the code. In the first embodiment, for example, a bar code is targeted as a code, and the bar code information represented by the bar code is read. Generally, the barcode includes a striped pattern (barcode pattern) composed of a plurality of striped lines of different thicknesses and a character string (numeric string) indicating the barcode information represented by the barcode pattern. .. The barcode recognition device 1 may recognize not only a barcode but also various codes represented by a combination of a two-dimensional code or a geometric figure.

バーコード認識装置1には、バーコードを撮影するためのバーコード読取部2、バーコードの読取の状態や操作情報、読取結果などを表示する表示部3、操作命令などを入力する入力部4を備えている。操作者は、バーコード認識装置1の筐体を保持し、バーコード読取部2を、読取の対象とするバーコードを含む撮影範囲(被撮影領域)に向けて、入力部4に対する操作により撮影(バーコードの読取)を指示することができる。バーコード認識装置1は、例えば商品棚などの複数の商品が陳列され、それぞれの商品の陳列位置に付された複数のバーコードを撮影範囲とすることで、複数のバーコードを一括して読み取ることができる。 The barcode recognition device 1 has a barcode reading unit 2 for photographing a barcode, a display unit 3 for displaying a barcode reading status, operation information, reading results, etc., and an input unit 4 for inputting operation commands and the like. It is equipped with. The operator holds the housing of the barcode recognition device 1 and directs the barcode reading unit 2 to the photographing range (photographed area) including the barcode to be read by operating the input unit 4. (Reading of barcode) can be instructed. The barcode recognition device 1 displays a plurality of products such as product shelves, and reads a plurality of barcodes at once by setting a plurality of barcodes attached to the display positions of the products as a shooting range. be able to.

図2は、第1実施形態におけるバーコード認識装置1のデバイス構成を示すブロック図である。図2に示すように、バーコード読取部2、表示部3、入力部4は、データバス10を介して互いに接続される。更にプログラムやデータを記録するROM5、一時的に情報を記録するRAM7、中央処理プロセッサでありプログラムを演算処理するCPU6、装置外部との通信を行うための通信部8、装置外部との接続インタフェース(I/F)となるI/F部9がデータバス10を介して互いに接続される。ROM5に記録されるプログラムには、バーコード読取部2により撮影された画像からバーコード情報を読み取るバーコード認識プログラムが含まれる。CPU6は、バーコード認識プログラムを実行することにより、バーコード読取部2により撮影された画像からバーコードに含まれるバーコード領域と文字領域を検出する領域検出機能、バーコード領域からバーコード情報を抽出する第1抽出機能、文字領域からバーコード情報を抽出する第2抽出機能を実現する。 FIG. 2 is a block diagram showing a device configuration of the barcode recognition device 1 according to the first embodiment. As shown in FIG. 2, the barcode reading unit 2, the display unit 3, and the input unit 4 are connected to each other via the data bus 10. Further, a ROM 5 for recording programs and data, a RAM 7 for temporarily recording information, a CPU 6 for processing programs as a central processing processor, a communication unit 8 for communicating with the outside of the device, and a connection interface with the outside of the device ( The I / F unit 9 that becomes the I / F) is connected to each other via the data bus 10. The program recorded in the ROM 5 includes a barcode recognition program that reads barcode information from an image taken by the barcode reader 2. The CPU 6 has an area detection function for detecting a barcode area and a character area included in a barcode from an image taken by the barcode reader 2 by executing a barcode recognition program, and barcode information from the barcode area. The first extraction function for extracting and the second extraction function for extracting barcode information from the character area are realized.

図3は、第1実施形態におけるバーコード認識装置1を用いてバーコードを読み取る際のバーコード読取部2による読取範囲(被撮影領域11)を示す図である。バーコード認識装置1は、空間内に配置されたバーコード12から離れた位置で、バーコード読取部2の撮影方向をバーコード12に向けてバーコード読取を実行する。バーコード読取部2による被撮影領域11には、空間内に配置された複数のバーコード12を含めることができる。被撮影領域11の範囲を表す撮影領域境界13は、使用者が容易に判別できるよう、バーコード認識装置1から照射されるレーザなどのマーカーによって明示的に示される。 FIG. 3 is a diagram showing a reading range (photographed area 11) by the barcode reading unit 2 when reading a barcode using the barcode recognition device 1 in the first embodiment. The bar code recognition device 1 executes bar code reading with the shooting direction of the bar code reading unit 2 directed toward the bar code 12 at a position away from the bar code 12 arranged in the space. The imaged area 11 by the barcode reading unit 2 can include a plurality of barcodes 12 arranged in the space. The imaging region boundary 13 representing the range of the imaging region 11 is explicitly indicated by a marker such as a laser emitted from the barcode recognition device 1 so that the user can easily identify the imaging region boundary 13.

図4は、第1実施形態におけるバーコード読取部2の詳細構成を模式的に示した図である。バーコード読取部2は、例えば撮影を行うための撮影レンズ16と2次元イメージセンサ15、照明用LED光源17、レーザポインタ19を有している。照明用LED光源17は、被撮影領域11に対して撮影に必要十分な照度で照明するため、例えば近赤外光(IR光)18を出力する。レーザポインタ19は、赤色など可視レーザ光20をバーコード読取部2による撮影方向に照射し、被撮影領域11の範囲を使用者が把握できるように撮影領域境界線13を表示する。 FIG. 4 is a diagram schematically showing a detailed configuration of the barcode reading unit 2 in the first embodiment. The barcode reading unit 2 has, for example, a photographing lens 16 for photographing, a two-dimensional image sensor 15, an LED light source for illumination 17, and a laser pointer 19. The lighting LED light source 17 outputs, for example, near-infrared light (IR light) 18 in order to illuminate the area to be imaged 11 with an illuminance necessary and sufficient for photographing. The laser pointer 19 irradiates the visible laser light 20 such as red in the photographing direction by the barcode reading unit 2, and displays the photographing area boundary line 13 so that the user can grasp the range of the imaged area 11.

図5(A)(B)は、第1実施形態におけるバーコード読取部2により撮影された撮影画像21に含まれるバーコード12に相当するバーコード画像12a(コード画像)を探索するための方法を模式的に示した図である。撮影画像21は、バーコード12に相当するバーコード画像12aを取得可能な解像度、例えば約200dpi以上で撮影される。バーコード画像12aは、縞模様状の複数の太さの異なる線から構成される縞状パターン(バーコードパターン)を含む。 5 (A) and 5 (B) are methods for searching for a barcode image 12a (code image) corresponding to a barcode 12 included in a captured image 21 captured by the barcode reading unit 2 in the first embodiment. Is a diagram schematically showing. The captured image 21 is captured at a resolution at which the barcode image 12a corresponding to the barcode 12 can be acquired, for example, about 200 dpi or more. The barcode image 12a includes a striped pattern (barcode pattern) composed of a plurality of striped lines having different thicknesses.

CPU6は、図5(A)に示すように、撮影画像21に対して小面積となる探索領域24を設定し、撮影画像21を水平方向24H及び垂直方向24Vに順次走査する。ここで、バーコードは、例えばEAN(European Article Number)コードやJAN(Japanese Article Number)コードであり、1次元バーコード(バーコードパターン)と、1次元バーコードが表す数字列(デコード情報)が併記されているものとする。数字列には、正誤確認を行うチェックサムが含まれているものとする。 As shown in FIG. 5A, the CPU 6 sets a search area 24 having a small area with respect to the captured image 21, and sequentially scans the captured image 21 in the horizontal direction 24H and the vertical direction 24V. Here, the barcode is, for example, an EAN (European Article Number) code or a JAN (Japanese Article Number) code, and a one-dimensional barcode (bar code pattern) and a number string represented by the one-dimensional barcode (decoding information) are used. It shall be written together. It is assumed that the number string contains a checksum for confirming correctness.

CPU6は、探索領域24により走査することで、図5(B)に示すように、バーコード画像12aに含まれる1次元バーコード(バーコードパターン)に相当するバーコード領域22と、数字列に相当する文字領域23のそれぞれの候補を抽出する。バーコード領域22と文字領域23の候補を検出する検出機能(検出器)は、バーコード、文字の特徴的なパターンを記述する特徴点を選択し、機械学習の技術を利用して教師データと反教師データの学習により作成した辞書と識別器から構成される。なお、バーコード領域22の候補を検出する検出機能(検出器)は、パターンの垂直成分と水平成分の周期に着目し、学習を行わないルールベースで検出する構成することも可能である。探索領域24による走査において、バーコード領域22の候補あるいは文字領域23の候補として抽出された領域は、バーコードパターン及び数字列方向を考慮しながら結合され、バーコード領域22の候補、文字領域23の候補として、撮影画像21内における位置情報(座標位置)と共に抽出される。 By scanning with the search area 24, the CPU 6 has a bar code area 22 corresponding to the one-dimensional bar code (bar code pattern) included in the bar code image 12a and a numerical string as shown in FIG. 5 (B). Each candidate of the corresponding character area 23 is extracted. The detection function (detector) that detects candidates for the barcode area 22 and the character area 23 selects feature points that describe characteristic patterns of barcodes and characters, and uses machine learning technology to create teacher data. It consists of a dictionary and a detector created by learning anti-teacher data. The detection function (detector) for detecting the candidate of the barcode region 22 can be configured to pay attention to the period of the vertical component and the horizontal component of the pattern and detect it on a rule basis without learning. In the scanning by the search area 24, the areas extracted as the candidates of the barcode area 22 or the candidates of the character area 23 are combined while considering the barcode pattern and the direction of the digit string, and the candidates of the barcode area 22 and the character area 23 are combined. As a candidate for, it is extracted together with the position information (coordinate position) in the captured image 21.

次に、第1実施形態におけるバーコード認識装置1の動作について、図6、図7、図8、図9に示すフローチャートを参照しながら説明する。
図6は、第1実施形態のバーコード認識装置1によりバーコードを読取る第1の方法について示すフローチャートである。
Next, the operation of the barcode recognition device 1 in the first embodiment will be described with reference to the flowcharts shown in FIGS. 6, 7, 8, and 9.
FIG. 6 is a flowchart showing a first method of reading a barcode by the barcode recognition device 1 of the first embodiment.

CPU6は、利用者による操作に応じて、バーコード読取部2により被撮影領域11の撮影を実行させる(ActA1)。CPU6は、バーコード読取部2の撮影により、図5に示すような撮影画像21を取得し、バーコード領域22の探索を行う(ActA2)。 The CPU 6 causes the barcode reading unit 2 to take a picture of the imaged area 11 in response to an operation by the user (ActA1). The CPU 6 acquires the captured image 21 as shown in FIG. 5 by photographing the barcode reading unit 2, and searches for the barcode area 22 (ActA2).

次に、CPU6は、バーコード領域22の候補(バーコード候補領域)として抽出された領域について、更に最近傍探索などにより詳細探索を行うことでバーコード領域22を矩形画像として切出す(ActA3)。なお、撮影画像21が斜めから撮影されるなどしてバーコード領域22が幾何学的に歪んでいる場合は、射影変換などによる切出し領域歪補正を行うようにしても良い(ActA4)。その後、CPU6は、バーコード領域22に含まれるバーコードパターンについてデコード処理を行う(ActA5)。ここで、所定のバーコード規約に従いデコードできた場合は、CPU6は、チェックサムの確認後に(ActA6、OK)、デコード情報(バーコード情報)をバーコードの位置情報と共に出力する(ActA7)。 Next, the CPU 6 cuts out the barcode area 22 as a rectangular image by further performing a detailed search on the area extracted as a candidate (bar code candidate area) of the barcode area 22 by a nearest neighbor search or the like (ActA3). .. If the barcode region 22 is geometrically distorted due to the captured image 21 being captured from an angle, the cutout region distortion may be corrected by projective transformation or the like (ActA4). After that, the CPU 6 performs a decoding process on the barcode pattern included in the barcode area 22 (ActA5). Here, if decoding can be performed according to a predetermined barcode convention, the CPU 6 outputs the decoding information (bar code information) together with the barcode position information after confirming the checksum (ActA6, OK) (ActA7).

一方、バーコードパターンについてデコード処理において、デコードに失敗した場合は(ActA6、NG)、CPU6は、バーコード領域22の周辺近傍に存在する近傍文字領域候補を探索し(ActA8)、文字領域23の候補(文字候補領域)として切出す(ActA9)。なお、CPU6は、バーコード領域22の歪補正と同様に、必要に応じて文字候補領域について幾何学的な歪を補正するための切出し領域歪補正処理を行うようにしても良い(ActA10)。 On the other hand, if decoding fails in the decoding process for the barcode pattern (ActA6, NG), the CPU 6 searches for nearby character area candidates existing in the vicinity of the periphery of the barcode area 22 (ActA8), and the character area 23 Cut out as a candidate (character candidate area) (ActA9). Note that the CPU 6 may perform cutout region distortion correction processing for correcting geometric distortion in the character candidate region, if necessary, as in the case of distortion correction of the barcode region 22 (ActA10).

CPU6は、文字領域候補からバーコードパターンを除去する処理をした後、OCR処理を実行して文字領域候補内の文字列を認識する(ActA10)。すなわち、バーコード情報を表す数字列の取得を試みる。CPU6は、OCR処理により得られた数字列について、バーコードパターンについてのデコードと同様にチェックサムを行った結果、バーコード規約を満たす場合は(ActA11、OK)、得られた数字列をバーコードのデコード情報(バーコード情報)として位置情報と共に出力する(ActA7)。なお、チェックサムを行った結果、デコード失敗と判別される場合(ActA11、NG)、CPU6は、リードエラー処理を実行する(ActA12)。 The CPU 6 performs an OCR process after performing a process of removing the barcode pattern from the character area candidate, and recognizes the character string in the character area candidate (ActA10). That is, an attempt is made to acquire a numeric string representing the barcode information. The CPU 6 performs a checksum on the digit string obtained by the OCR process in the same manner as the decoding of the barcode pattern, and if the barcode convention is satisfied (ActA11, OK), the obtained digit string is used as a barcode. It is output together with the position information as the decoding information (bar code information) of (ActA7). If it is determined that the decoding has failed as a result of performing the checksum (ActA11, NG), the CPU 6 executes read error processing (ActA12).

CPU6は、撮影画像21において、複数のバーコード画像12aが探索された場合、各バーコード画像12aに対して前述した処理(ActA2~A7)を繰り返して実行する。これにより、バーコード認識装置1は、バーコード読取部2により1度撮影した撮影画像21から、一括して複数のバーコード12からバーコード情報を読取ることができる。 When a plurality of barcode images 12a are searched for in the captured image 21, the CPU 6 repeatedly executes the above-described processing (ActA2 to A7) for each barcode image 12a. As a result, the barcode recognition device 1 can collectively read barcode information from a plurality of barcodes 12 from the captured image 21 once captured by the barcode reading unit 2.

以上の処理を行うことで、例えば、図10(A)に示すように、バーコード領域22のバーコードパターンが鮮明である場合には、バーコードパターンに対するデコード処理によってバーコード情報を出力することができる。一方、図10(B)に示すように、バーコード領域22のバーコードパターンがデコード処理に不十分な解像度や鮮明度であったとしても、文字領域23を対象としたOCR処理によってバーコード情報を正確に取得することが可能となる。一般に、バーコードのデコードに必要な解像度に対し、数字列のOCRに必要な解像度は低くても良い場合が多い。このため、デコードができないような解像度や鮮明度によりバーコード12が撮影された場合、例えばバーコードまでの距離が遠い位置において被撮影領域11の撮影がされた場合であっても、正しいバーコード情報を取得することが可能となる。あるいは、バーコード読取部2に高解像度、かつ大面積のイメージセンサ15が搭載されていなくても、バーコード12の読取が可能となるため、バーコード認識装置1の低コスト化が可能となる。 By performing the above processing, for example, as shown in FIG. 10A, when the barcode pattern in the barcode area 22 is clear, the barcode information is output by the decoding process for the barcode pattern. Can be done. On the other hand, as shown in FIG. 10B, even if the barcode pattern in the barcode area 22 has a resolution and sharpness insufficient for the decoding process, the barcode information is obtained by the OCR process for the character area 23. Can be obtained accurately. In general, the resolution required for OCR of a numeric string may be lower than the resolution required for decoding a barcode. Therefore, even if the barcode 12 is photographed with a resolution or sharpness that cannot be decoded, for example, even if the imaged area 11 is photographed at a position far from the barcode, the correct barcode is used. It becomes possible to acquire information. Alternatively, since the barcode 12 can be read even if the barcode reading unit 2 is not equipped with the image sensor 15 having a high resolution and a large area, the cost of the barcode recognition device 1 can be reduced. ..

こうして、第1実施形態の第1の方法では、バーコード領域22の周辺近傍に配置された、バーコード情報と等価な情報を表す数字列(文字列)をOCR処理によって読取ることにより、バーコード領域22からデコード情報を取得できなかった場合に補完的に利用することができる。これにより、複数箇所に配置されたバーコードを離れた位置から検知し、効率良くバーコード情報を読み取ることが可能となる。第1実施形態では、以下に説明する第2~第4の方法によって同様にしてバーコード情報を読取ることができる。 In this way, in the first method of the first embodiment, the bar code is read by the OCR process to read the numerical string (character string) representing the information equivalent to the bar code information arranged in the vicinity of the periphery of the bar code area 22. It can be used complementarily when the decoding information cannot be acquired from the area 22. This makes it possible to detect barcodes arranged at a plurality of locations from distant positions and efficiently read barcode information. In the first embodiment, the barcode information can be read in the same manner by the second to fourth methods described below.

図7は、第1実施形態のバーコード認識装置1によりバーコードを読取る第2の方法について示すフローチャートである。なお、第2の方法については、図6に示す第1の方法と異なる処理について説明する。
第1の方法では、バーコードパターン(バーコード領域22)のデコード処理に失敗した場合に、バーコード領域22の周辺近傍に存在する近傍文字領域候補を探索している。第2の方法では、バーコード領域22の候補(バーコード候補領域)を切り出す際に(ActB3)、バーコード領域22の周辺近傍に存在する近傍文字領域探索を実行し(ActB3a)、文字領域候補を含まない領域をバーコード領域22として確定して切出す処理を行う。その際、CPU6は、検出した文字候補領域を示す位置(座標)/サイズ情報をRAM7(メモリバッファ)へ一時的に記録しておく。
FIG. 7 is a flowchart showing a second method of reading a barcode by the barcode recognition device 1 of the first embodiment. The second method will be described as a process different from that of the first method shown in FIG.
In the first method, when the decoding process of the bar code pattern (bar code area 22) fails, the neighborhood character area candidates existing in the vicinity of the periphery of the bar code area 22 are searched. In the second method, when the candidate (bar code candidate area) of the barcode area 22 is cut out (ActB3), the neighborhood character area search existing in the vicinity of the periphery of the barcode area 22 is executed (ActB3a), and the character area candidate is executed. The area that does not include the above is determined as the bar code area 22 and cut out. At that time, the CPU 6 temporarily records the position (coordinates) / size information indicating the detected character candidate area in the RAM 7 (memory buffer).

CPU6は、第1の方法と同様に、バーコード領域22のデコード処理に失敗した場合に(ActB6、NG)、RAM7に記録された位置/サイズ情報を用いて文字候補領域を切り出す文字領域切出し処理を実行する(ActB8)。第2の方法では、バーコード領域22の周辺を探索する処理を、バーコード領域22を切り出す際(ActB3)と、文字領域23を切り出す際(ActB8)のそれぞれにおいて繰り返して実行しないので、さらに効率的なバーコード認識処理が実現可能となる。 Similar to the first method, the CPU 6 cuts out a character candidate area using the position / size information recorded in the RAM 7 when the decoding process of the barcode area 22 fails (ActB6, NG). Is executed (ActB8). In the second method, the process of searching around the barcode area 22 is not repeated in each of the time of cutting out the barcode area 22 (ActB3) and the time of cutting out the character area 23 (ActB8), so that it is more efficient. Bar code recognition processing becomes feasible.

図8は、第1実施形態のバーコード認識装置1によりバーコードを読取る第3の方法について示すフローチャートである。なお、第3の方法については、図6に示す第1の方法と異なる処理について説明する。
第3の方法では、バーコード読取部2の撮影による撮影画像21の取得後に、撮影画像21の全画面を対象とする画像領域探索処理を実行し(ActC3)、バーコード領域22及び文字領域23の両方についての探索を一括して行う。CPU6は、画像領域探索処理により検出されたバーコード候補領域と文字候補領域のそれぞれについて、位置/サイズ情報をRAM7(メモリバッファ)に記録しておく。
FIG. 8 is a flowchart showing a third method of reading a barcode by the barcode recognition device 1 of the first embodiment. The third method will be described as a process different from that of the first method shown in FIG.
In the third method, after the captured image 21 is acquired by the barcode reading unit 2, an image area search process for the entire screen of the captured image 21 is executed (ActC3), and the barcode area 22 and the character area 23 are executed. Search for both of them at once. The CPU 6 records position / size information in the RAM 7 (memory buffer) for each of the barcode candidate area and the character candidate area detected by the image area search process.

CPU6は、バーコード領域22の切出しをする際に、RAM7に記録されたバーコード候補領域の位置/サイズ情報を用いて、バーコード領域22を切り出す(ActC3)。また、CPU6は、文字領域23の切出しをする際に、RAM7に記録された文字候補領域の位置/サイズ情報を用いて、文字領域23を切り出す(ActC8)。 When cutting out the barcode area 22, the CPU 6 cuts out the barcode area 22 by using the position / size information of the barcode candidate area recorded in the RAM 7 (ActC3). Further, when cutting out the character area 23, the CPU 6 cuts out the character area 23 by using the position / size information of the character candidate area recorded in the RAM 7 (ActC8).

第3の方法では、一度の画面内全探索により、検出されたバーコード候補領域と文字候補領域の両方について位置/サイズ情報を一括して記録しておくので、画面内探索処理の回数を減らし、さらに効率的なバーコード認識処理が実現可能となる。 In the third method, the position / size information is collectively recorded for both the bar code candidate area and the character candidate area detected by the entire in-screen search at one time, so that the number of in-screen search processes is reduced. , More efficient barcode recognition processing can be realized.

図9は、第1実施形態のバーコード認識装置1によりバーコードを読取る第4の方法について示すフローチャートである。
第4の方法では、バーコード領域22の切出しからデコード情報(バーコード情報)の出力処理(ActD3~D7)と、文字領域23の切出しからデコード情報(バーコード情報)の出力処理(ActD8~D12)とを並列化して実行し、それぞれのデコード結果を統合して出力する。CPU6は、第3の方法と同様に画像領域探索処理を実行して、バーコード候補領域と文字候補領域のそれぞれについて位置/サイズ情報を記録する(ActD2)。CPU6は、バーコード領域切出し(ActD3)と、文字候補領域の切出し(ActD8)において、それぞれについての位置/サイズ情報を用いて処理する。
FIG. 9 is a flowchart showing a fourth method of reading a barcode by the barcode recognition device 1 of the first embodiment.
In the fourth method, the output processing (ActD3 to D7) of the decoded information (barcode information) from the cutout of the barcode area 22 and the output processing (ActD8 to D12) of the decoded information (barcode information) from the cutout of the character area 23 are performed. ) And are executed in parallel, and each decoding result is integrated and output. The CPU 6 executes the image area search process in the same manner as in the third method, and records the position / size information for each of the barcode candidate area and the character candidate area (ActD2). The CPU 6 processes the barcode area cutout (ActD3) and the character candidate area cutout (ActD8) by using the position / size information for each.

CPU6は、バーコード領域22を対象としたデコード処理により出力されるバーコードデコード情報(第1バーコード情報)と、文字領域23を対象としたデコード処理(OCR処理)により出力されるOCRデコード情報(第2バーコード情報)を、バーコード領域22と文字領域23についての位置/サイズ情報をもとに統合するためのデコード情報統合処理を実行する(ActD13)。 The CPU 6 has bar code decoding information (first barcode information) output by the decoding process for the barcode area 22 and OCR decoding information output by the decoding process (OCR processing) for the character area 23. Decode information integration processing for integrating (second barcode information) based on the position / size information about the barcode area 22 and the character area 23 is executed (ActD13).

デコード情報統合処理では、CPU6は、バーコード領域22と文字領域23のそれぞれに対応するデコード情報が得られた場合には、位置/サイズ情報をもとに、バーコード領域22と文字領域23とが1つのバーコード12に含まれるか否かを判別する。1つのバーコード12に含まれると判別された場合、CPU6は、バーコード領域22と文字領域23の何れか一方を対象として出力されたバーコード情報を排除する。また、デコード情報統合処理では、CPU6は、バーコード領域22と文字領域23の何れか一方についてのみデコード情報が得られた場合には、そのデコード情報を位置/サイズ情報が示すバーコード12の読み取り結果とする。CPU6は、被撮影領域11から検出される複数のバーコード12のそれぞれについて、前述した処理を繰り返して実行する。 In the decoding information integration process, when the decoding information corresponding to each of the barcode area 22 and the character area 23 is obtained, the CPU 6 sets the barcode area 22 and the character area 23 based on the position / size information. Is included in one barcode 12 or not. When it is determined that the barcode is included in one barcode 12, the CPU 6 excludes the barcode information output for either the barcode area 22 or the character area 23. Further, in the decoding information integration process, when the decoding information is obtained only for either the barcode area 22 or the character area 23, the CPU 6 reads the decoding information of the barcode 12 indicated by the position / size information. As a result. The CPU 6 repeatedly executes the above-described processing for each of the plurality of barcodes 12 detected from the imaged area 11.

第4の方法では、バーコード領域22と文字領域23のそれぞれについて並行してデコードして、その結果を統合することにより、何らかの原因でバーコード領域22が検出できない場合であっても、文字領域23を対象としたOCR処理によって、バーコード12が表すデコード情報(バーコード情報)を補完的に得ることが可能となる。 In the fourth method, the barcode area 22 and the character area 23 are decoded in parallel, and the results are integrated. Therefore, even if the barcode area 22 cannot be detected for some reason, the character area 22 is detected. By the OCR processing for 23, it becomes possible to obtain the decoding information (bar code information) represented by the bar code 12 in a complementary manner.

次に、前述したバーコード画像12aとは異なるコード画像を処理対象とする例について説明する。ここでは、例えば商品の値札など、商品や物品を陳列した棚を管理するための管理札として付されるラベルを対象として説明する。ラベルは、例えば所定のフォーマットにより印刷されて、商品や陳列棚に掲示される。 Next, an example in which a code image different from the bar code image 12a described above is processed will be described. Here, a label attached as a management tag for managing a shelf on which a product or an article is displayed, such as a price tag of a product, will be described. Labels are printed, for example, in a predetermined format and posted on goods or display shelves.

図11(A)(B)は、第1実施形態におけるバーコード読取部2により撮影された撮影画像21に含まれるラベルに相当するラベル画像25aを探索するための方法を模式的に示した図である。図5(B)に示すバーコード画像12aでは、バーコード領域22の周辺近傍に文字領域23が設けられているが、図11(B)に示すラベル画像25aでは、バーコード領域22Aから離れた位置に文字領域23Aが設けられている。ラベル画像25aには、バーコード領域22Aと文字領域23Aの他に、ラベル情報26が含まれている。 11 (A) and 11 (B) are diagrams schematically showing a method for searching for a label image 25a corresponding to a label included in a captured image 21 captured by the barcode reading unit 2 in the first embodiment. Is. In the bar code image 12a shown in FIG. 5 (B), the character area 23 is provided near the periphery of the bar code area 22, but in the label image 25a shown in FIG. 11 (B), the character area 23 is separated from the bar code area 22A. A character area 23A is provided at the position. The label image 25a includes label information 26 in addition to the barcode area 22A and the character area 23A.

CPU6は、図11(A)に示すように、前述と同様にして、撮影画像21に対して小面積となる探索領域24を設定し、撮影画像21を水平方向24H及び垂直方向24Vに順次走査し、図11(B)に示すフォーマットのラベル領域を検出する。 As shown in FIG. 11A, the CPU 6 sets a search area 24 having a small area with respect to the captured image 21 in the same manner as described above, and sequentially scans the captured image 21 in the horizontal direction 24H and the vertical direction 24V. Then, the label area of the format shown in FIG. 11B is detected.

図12は、第1実施形態のバーコード認識装置1によりバーコードを読取る第5の方法について示すフローチャートである。第5の方法では、図11(B)に示すように、ラベル画像25a内で離間して設けられたバーコード領域22Aと文字領域23Aを読み取る処理を示している。なお、第5の方法については、図6に示す第1の方法と異なる処理について説明する。 FIG. 12 is a flowchart showing a fifth method of reading a barcode by the barcode recognition device 1 of the first embodiment. In the fifth method, as shown in FIG. 11B, a process of reading the barcode area 22A and the character area 23A provided apart from each other in the label image 25a is shown. The fifth method will be described as a process different from the first method shown in FIG.

ラベル画像25aでは、文字領域23Aがバーコード領域22Aに対して近接して配置されていないが、ラベル画像25a内の所定位置に配置されていることを利用する。すなわち、CPU6は、バーコード領域22Aの候補と文字領域23Aの候補の配置関係が図11(B)に示すフォーマットに相当する場合にラベル画像25aに相当するラベル領域として検出する(ActE2)。CPU6は、検出したラベル領域を示す位置/サイズ情報をRAM7(メモリバッファ)にラベル領域情報として一時記録しておく(ActE3)。CPU6は、撮影画像21に含まれる複数のラベル画像25aのそれぞれについて、ラベル領域切出しの処理を繰り返す(ActE2,E3)。 In the label image 25a, although the character area 23A is not arranged close to the barcode area 22A, it is utilized that the character area 23A is arranged at a predetermined position in the label image 25a. That is, when the arrangement relationship between the candidate of the barcode area 22A and the candidate of the character area 23A corresponds to the format shown in FIG. 11B, the CPU 6 detects it as a label area corresponding to the label image 25a (ActE2). The CPU 6 temporarily records the position / size information indicating the detected label area in the RAM 7 (memory buffer) as the label area information (ActE3). The CPU 6 repeats the process of cutting out the label area for each of the plurality of label images 25a included in the captured image 21 (ActE2, E3).

次に、CPU6は、検出されたラベル領域情報を元に、ラベル画像25aからバーコード領域22Aを探索し、バーコード領域22Aのバーコード(バーコードパターン)をデコードする(ActE4~E7)。バーコードのデコード結果がチェックサムNGとなった場合は(ActE8、NG)、CPU6は、文字領域23Aの切出しをする際に、RAM7に記録されたラベル領域情報として記録された位置/サイズ情報を用いて、ラベル画像25aについて文字領域23Aを探索し(ActE10)、文字領域23Aを切り出す(ActE11)。 Next, the CPU 6 searches the barcode area 22A from the label image 25a based on the detected label area information, and decodes the barcode (bar code pattern) of the barcode area 22A (ActE4 to E7). If the barcode decoding result is checksum NG (ActE8, NG), the CPU 6 uses the position / size information recorded as the label area information recorded in the RAM 7 when cutting out the character area 23A. The character area 23A is searched for the label image 25a (ActE10), and the character area 23A is cut out (ActE11).

こうして、文字領域23Aを探索する際に、ラベル領域情報を活用することで、効率よく文字領域23Aを探索することが可能となる。このように、撮影画像21から所定のラベル画像25a(ラベル領域)を検出する前処理を行うことで、バーコード領域22Aと文字領域23Aとが離間していても、効率よく、且つ高精度に、バーコード領域22Aと文字領域23Aを探索することが可能となる。また、バーコード領域22の候補や文字領域23の候補がラベル内にあるか否かの内外判定が可能となり、特に無関係なバーコードが一緒に撮影されてしまう場合などに検出精度向上が図れる。 In this way, when searching for the character area 23A, it is possible to efficiently search for the character area 23A by utilizing the label area information. By performing the preprocessing for detecting the predetermined label image 25a (label area) from the captured image 21 in this way, even if the barcode area 22A and the character area 23A are separated from each other, it is efficient and highly accurate. , The barcode area 22A and the character area 23A can be searched. Further, it is possible to determine whether or not the candidate of the barcode area 22 and the candidate of the character area 23 are in the label, and it is possible to improve the detection accuracy especially when an unrelated barcode is photographed together.

(第2実施形態)
第2実施形態のバーコード認識装置1Aは、第1実施形態と同様にして、バーコード領域22と文字領域23を対象としてバーコード情報を読取る。さらに、バーコード認識装置1Aは、第1実施形態におけるバーコード読取部2に代えて、設置場所が固定された撮像装置2Aを、バーコード画像等を含む画像を撮影する読取装置として使用することで、バーコード12の3次元空間における位置(3次元位置座標)を検出する。図14は、第2実施形態において、バーコード領域22や文字領域23が含まれる商品棚などを撮影するための撮影装置2Aの外観図を示している。
(Second Embodiment)
The barcode recognition device 1A of the second embodiment reads barcode information for the barcode area 22 and the character area 23 in the same manner as in the first embodiment. Further, in the barcode recognition device 1A, instead of the barcode reading unit 2 in the first embodiment, the image pickup device 2A having a fixed installation location is used as a reading device for capturing an image including a barcode image or the like. Detects the position (three-dimensional position coordinates) of the barcode 12 in the three-dimensional space. FIG. 14 shows an external view of a photographing device 2A for photographing a product shelf or the like including a barcode area 22 and a character area 23 in the second embodiment.

撮影装置2Aは、カメラを水平方向に回転させるパン(P)機能(パターンユニット2A1)、及び、垂直方向に回転させるチルト(T)機能(チルトユニット2A2)を有する、所謂パン・チルトカメラ(PTカメラ)である。パン・チルトの回転中心は共通となっており、任意の回転角(θ,φ)にカメラ方向を設定しても、カメラの視点位置が一点に固定されている。パン・チルト機能は、天井などに固定的に取り付けられた防犯カメラなどの監視カメラに多く採用されており、同様にして撮影装置2Aに適用することができる。また、パン・チルト機能に加えてズーム(Z)機能を備えている撮影装置、すなわちパン・チルト・ズームカメラ(PTZカメラ)を利用することも可能である。 The photographing device 2A has a pan (P) function (pattern unit 2A1) for rotating the camera in the horizontal direction and a tilt (T) function (tilt unit 2A2) for rotating the camera in the vertical direction, so-called pan / tilt camera (PT). Camera). The center of rotation of pan / tilt is common, and even if the camera direction is set to an arbitrary rotation angle (θ, φ), the viewpoint position of the camera is fixed at one point. The pan / tilt function is often used in surveillance cameras such as security cameras fixedly mounted on the ceiling or the like, and can be similarly applied to the photographing device 2A. It is also possible to use a photographing device having a zoom (Z) function in addition to the pan / tilt function, that is, a pan / tilt / zoom camera (PTZ camera).

図13は、第2実施形態におけるバーコード認識装置1Aのデバイス構成を示すブロック図である。図13に示すように、撮影装置2Aは、図2に示すバーコード読取部2に相当している。また、バーコード認識装置1Aは、複数の撮影装置2A,2Bを設けることも可能である。バーコード認識装置1Aは、図2に示すCPUやRAM、通信部などのデバイス機能1Bに相当するシステム構成は、ローカル接続のパーソナルコンピュータ(PC)や、オンプレミスサーバ、あるいはクラウド上に構築することが可能である。デバイス機能1Bの詳細については第1実施形態とほぼ同じものとして説明を省略する。デバイス機能1Bは、撮影装置2A,2Bにより撮影された画像を入力して、以下に説明する処理を実行する。 FIG. 13 is a block diagram showing a device configuration of the barcode recognition device 1A according to the second embodiment. As shown in FIG. 13, the photographing apparatus 2A corresponds to the barcode reading unit 2 shown in FIG. Further, the barcode recognition device 1A can be provided with a plurality of photographing devices 2A and 2B. In the barcode recognition device 1A, the system configuration corresponding to the device function 1B such as the CPU, RAM, and communication unit shown in FIG. 2 can be constructed on a locally connected personal computer (PC), an on-premises server, or the cloud. It is possible. The details of the device function 1B are almost the same as those of the first embodiment, and the description thereof will be omitted. The device function 1B inputs images taken by the photographing devices 2A and 2B and executes the process described below.

図15(A)(B)は、撮影対象の基準面とする、例えば商品棚のラベル表示面(棚基準面31)が、撮影装置2A(PT(PTZ)カメラ)の撮影条件に対して、幾何学的にどのような関係にあるかを示した図である。図15では、直交座標系のx軸、y軸を棚基準面31上に取り、簡単のため撮影装置2Aはz軸上にあり、チルト角θは0とした。 15 (A) and 15 (B) show a reference surface to be photographed, for example, the label display surface (shelf reference surface 31) of the product shelf is subject to the photographing conditions of the photographing apparatus 2A (PT (PTZ) camera). It is a figure which showed what kind of relationship is geometrically. In FIG. 15, the x-axis and y-axis of the orthogonal coordinate system are set on the shelf reference plane 31, the photographing device 2A is on the z-axis for simplicity, and the tilt angle θ is set to 0.

撮影装置2Aの設置基準位置とする視点28は、直交座標系原点からのz軸上座標、すなわち棚から距離棚-カメラ間基準距離(zs)の位置に配置し、パン方向の角度φをφ0にした。撮影装置2Aの撮影水平画角を2ω0、カメラの軸上から棚までの距離、すなわち棚-カメラ間距離をz0とすると、撮影装置2Aの撮影水平画角境界及び光軸と棚基準面31の交点位置及び距離は、図15(B)に示した通りとなる。また、視野基準面32(幅2W)に投影される棚形状は、棚が直方体であると仮定すると、図15(A)に示す棚-視野基準投影面33のように台形形状に歪む。図15(A)に示す棚-視野基準投影面33の右辺YRと左辺YLは、それぞれ以下の式で表される。 The viewpoint 28, which is the installation reference position of the photographing device 2A, is arranged at the z-axis coordinate from the origin of the orthogonal coordinate system, that is, at the position of the distance shelf-camera reference distance (zs) from the shelf, and the angle φ in the pan direction is φ0. I made it. Assuming that the shooting horizontal angle of view of the shooting device 2A is 2ω0 and the distance from the camera axis to the shelf, that is, the distance between the shelf and the camera is z0, the shooting horizontal angle of view boundary of the shooting device 2A and the optical axis and the shelf reference surface 31 The intersection positions and distances are as shown in FIG. 15 (B). Further, the shelf shape projected on the visual field reference surface 32 (width 2W) is distorted into a trapezoidal shape like the shelf-visual field reference projection surface 33 shown in FIG. 15A, assuming that the shelf is a rectangular parallelepiped. The right side YR and the left side YL of the shelf-field reference projection surface 33 shown in FIG. 15A are represented by the following equations, respectively.

Figure 0007036874000001
Figure 0007036874000001

図16(A)(B)は、棚基準面31上にバーコード12を配置した場合、視野範囲34における図15に示した各パラメータとの関係を示した図である。図16から、棚-カメラ間基準距離(zs)、パン方向角度φ0及び撮影水平画角ω0が分かれば、これらのパラメータと、撮影した視野基準面32内における光軸からバーコード12までの距離wとの関係が示され、棚基準面31におけるx軸上の座標が復元できることが分かる。すなわち、撮影装置2Aによる撮影画像におけるバーコード12の位置情報から、実際の棚における3次元空間におけるバーコード12の位置情報を算出することが可能である。 16 (A) and 16 (B) are views showing the relationship with each parameter shown in FIG. 15 in the visual field range 34 when the barcode 12 is arranged on the shelf reference surface 31. If the reference distance (zs) between the shelf and the camera, the pan direction angle φ0, and the shooting horizontal angle of view ω0 are known from FIG. 16, these parameters and the distance from the optical axis in the field-of-view reference plane 32 to the bar code 12 are obtained. The relationship with w is shown, and it can be seen that the coordinates on the x-axis of the shelf reference plane 31 can be restored. That is, it is possible to calculate the position information of the barcode 12 in the three-dimensional space on the actual shelf from the position information of the barcode 12 in the image captured by the photographing device 2A.

図17は、図15及び図16に示す関係を更に一般的に表した図である。撮影装置2A(視点28)は、棚基準面31に存在する直交座標(x,y,z)において(0,0,-zs)に存在し、視野基準面32のローカル座標系XY2次元平面の基準座標及びバーコード12の位置は、y軸をz軸方向に平行移動したy'軸における単位球面座標系(θ,φ)で表現される。例えば、図17に示す例では、バーコード12の位置は(θ0,φ0+ω)であり、先に述べた視野基準面32のローカル座標系XY直交軸上の位置から、最終的に棚基準面31の座標系に投影することが可能である。なお、棚-カメラ間基準距離(zs)は予め設定値として固定的に与えても良いし、レーザ距離計のように光学的な計測手段を設けても良い。また、撮影装置2A(カメラ)のレンズ条件及びピント位置から距離を間接的に推測することも可能である。同様に、撮影装置2A(カメラ)からバーコード12までの距離も先に述べた方法で直接あるいは間接的に計測することが可能であるため、バーコード12の位置情報を棚基準面における2次元座標上にマッピングするのみならず、3次元座標上にマッピングすることも可能である。 FIG. 17 is a more general representation of the relationships shown in FIGS. 15 and 16. The photographing device 2A (viewpoint 28) exists at (0,0, −zs) in the Cartesian coordinates (x, y, z) existing on the shelf reference plane 31, and is located on the local coordinate system XY two-dimensional plane of the viewing reference plane 32. The reference coordinates and the position of the bar code 12 are represented by a unit spherical coordinate system (θ, φ) on the y'axis in which the y-axis is moved in parallel in the z-axis direction. For example, in the example shown in FIG. 17, the position of the barcode 12 is (θ0, φ0 + ω), and the shelf reference plane 31 is finally reached from the position on the local coordinate system XY orthogonal axis of the visual field reference plane 32 described above. It is possible to project onto the coordinate system of. The reference distance (zs) between the shelf and the camera may be fixedly given as a preset value, or an optical measuring means such as a laser range finder may be provided. It is also possible to indirectly estimate the distance from the lens conditions and the focus position of the photographing apparatus 2A (camera). Similarly, since the distance from the photographing device 2A (camera) to the barcode 12 can be directly or indirectly measured by the method described above, the position information of the barcode 12 can be measured two-dimensionally on the shelf reference plane. It is possible not only to map on the coordinates but also to map on the three-dimensional coordinates.

図18は、第2実施形態のバーコード認識装置1Aによりバーコードを読取る方法について示すフローチャートである。第2実施形態では、バーコード候補領域を粗探索する前段の処理(ActF1~F4)(粗探索処理S1)と、粗探索処理S1により検出されたバーコード位置情報に基づき、近傍領域を撮影して詳細探索を行う後段の処理(ActF6~F9)(詳細探索処理S2)の二段階に分けて撮影を行う。 FIG. 18 is a flowchart showing a method of reading a barcode by the barcode recognition device 1A of the second embodiment. In the second embodiment, the vicinity area is photographed based on the processing (ActF1 to F4) (coarse search processing S1) in the previous stage of the rough search for the barcode candidate area and the barcode position information detected by the rough search processing S1. The shooting is performed in two stages of the subsequent processing (ActF6 to F9) (detailed search processing S2).

CPU6は、粗探索処理S1において、撮影装置2Aの撮影方向(カメラ向き条件)を設定して撮影を実行し(ActF2,F3)、撮影画像からバーコード画像(バーコード領域22)を対象として探索を実行する(ActF4)。ここでは、正確な探索ではなく、処理負担が軽いバーコード領域の候補を探索する粗探索を実行して、バーコード領域の候補とする場所を示すバーコード候補位置(位置/サイズ情報)をRAM7に記録しておく(ActF5)。CPU6は、撮影装置2Aの撮影方向を変更しながら撮影し、それぞれの撮影画像から探索されバーコード領域の候補について、撮影バーコード候補位置を記録する(ActF2~F4)。 In the rough search process S1, the CPU 6 sets the shooting direction (camera orientation condition) of the shooting device 2A and executes shooting (ActF2, F3), and searches the shot image for the barcode image (barcode area 22). Is executed (ActF4). Here, instead of performing an accurate search, a rough search for searching for a candidate for a barcode area with a light processing load is executed, and a barcode candidate position (position / size information) indicating a location to be a candidate for the barcode area is set in the RAM 7. Record in (ActF5). The CPU 6 shoots while changing the shooting direction of the shooting device 2A, searches from each shot image, and records the shooting barcode candidate positions for the candidates of the barcode region (Act F2 to F4).

次に、CPU6は、詳細探索処理S2において、撮影装置2Aの撮影方向(カメラ向き)を、粗探索処理S1でのカメラ向き条件設定に応じて設定して撮影を実行する(ActF6,F7)。CPU6は、各バーコード領域の候補に対応する撮影バーコード候補位置を用いて、第1実施形態と同様にして、バーコード領域22と文字領域23とを対象としたバーコード情報の読取を実行する(ActF9)。なお、ActF9の処理は、図6の破線内に示す第1実施形態におけるActA2~A11の処理を実行するものとして説明を省略する。 Next, in the detailed search process S2, the CPU 6 sets the shooting direction (camera orientation) of the photographing device 2A according to the camera orientation condition setting in the rough search process S1 and executes shooting (Act F6, F7). The CPU 6 uses the shooting bar code candidate positions corresponding to the candidates of each bar code area to read the bar code information for the bar code area 22 and the character area 23 in the same manner as in the first embodiment. (ActF9). It should be noted that the processing of ActF9 will not be described as the processing of ActA2 to A11 in the first embodiment shown in the broken line of FIG.

こうして、第2実施形態では、粗探索処理S1によって探索されたバーコード候補位置を対象として、バーコード領域22と文字領域23を対象とする詳細探索処理S2を実行するので、撮影及び探索時間の効率化による処理時間の短縮を図ることができる。 In this way, in the second embodiment, the detailed search process S2 for the barcode area 22 and the character area 23 is executed for the barcode candidate position searched by the rough search process S1, so that the shooting and search time can be increased. It is possible to shorten the processing time by improving efficiency.

また、第2実施形態では、ズーム(Z)機能を備えたパン・チルト・ズームカメラ(PTZカメラ)を撮影装置2Aとして用いることも可能である。この場合、粗探索処理S1において、粗探索に必要な品質のバーコード画像が得られるように、撮影装置2Aに対してカメラズーム初期設定を実行して(ActF1)、撮影を実行させる。また、CPU6は、詳細探索処理S2において、粗探索処理S1よりも精細なバーコード画像が得られるようにカメラズーム設定をして撮影を実行させる(ActF7)。すなわち、ズーム(Z)撮影機能を利用することで、詳細探索処理S2において高精細のバーコード画像を対象としてバーコード情報を認識するので、認識精度の向上が期待できる。 Further, in the second embodiment, it is also possible to use a pan / tilt / zoom camera (PTZ camera) having a zoom (Z) function as the photographing device 2A. In this case, in the rough search process S1, the camera zoom initial setting is executed for the photographing device 2A (ActF1) so that the bar code image of the quality required for the rough search can be obtained, and the photographing is executed. Further, in the detailed search process S2, the CPU 6 sets the camera zoom so that a bar code image finer than that in the rough search process S1 can be obtained, and executes shooting (ActF7). That is, by using the zoom (Z) shooting function, the barcode information is recognized for the high-definition barcode image in the detailed search process S2, so that the recognition accuracy can be expected to be improved.

図19は、第2実施形態のバーコード認識装置1Aによりバーコードを読取る第1の変形例について示すフローチャートである。図19に示す処理は、図18に示す処理を基本として、さらにバーコードが付される商品棚に関する商品棚マスター情報(プラノグラム)と、実際に撮影された画像から読み取られたバーコードの位置情報とを比較参照した結果をレポートとして出力する処理を設けている。商品棚マスター情報(プラノグラム)は、例えば商品棚割り計画のデータベースであり、商品棚の何れの位置にどの商品を収容するかなどを示す情報である。 FIG. 19 is a flowchart showing a first modification of reading a barcode by the barcode recognition device 1A of the second embodiment. The process shown in FIG. 19 is based on the process shown in FIG. 18, and further includes the product shelf master information (planogram) regarding the product shelf to which the barcode is attached and the position of the barcode read from the actually captured image. A process is provided to output the result of comparison and reference with the information as a report. The product shelf master information (planogram) is, for example, a database of a product shelf allocation plan, and is information indicating which product is stored in which position on the product shelf.

ここでは、例えば商品棚に掲示されたバーコードの情報が大幅に変わらないことを前提として、定期的に複数回の棚情報照合処理を行うことを想定する。CPU6は、商品棚に付されたバーコードのバーコード情報を初めて読取る場合、あるいは前回の読取結果をリセットして、再度、読取る場合には(ActG1、Yes)、図18に示す粗探索処理S1によりバーコード候補位置を検出して(ActG2)、RAM7にバーコード候補位置情報(H1)として記録する(ActG3)。 Here, for example, on the premise that the barcode information posted on the product shelves does not change significantly, it is assumed that the shelf information collation processing is periodically performed a plurality of times. When the CPU 6 reads the barcode information of the barcode attached to the product shelf for the first time, or when the previous reading result is reset and read again (ActG1, Yes), the rough search process S1 shown in FIG. 18 The barcode candidate position is detected (ActG2) and recorded in the RAM 7 as barcode candidate position information (H1) (ActG3).

CPU6は、2回目以降の読取を実行する場合(ActG1、No)、バーコード位置情報(H1)を参照して、図18に示す詳細探索処理S2による情報取得処理を実行する(ActG4)。ActG4では、CPU6は、対象領域の全撮影、粗探索処理S1(ActG2)を実行せずに、後段のバーコード候補領域の撮影と詳細探索処理S2(ActG4)を開始することが可能となる。 When executing the second and subsequent readings (ActG1, No), the CPU 6 refers to the barcode position information (H1) and executes the information acquisition process by the detailed search process S2 shown in FIG. 18 (ActG4). In ActG4, the CPU 6 can start shooting the barcode candidate area in the subsequent stage and detailed search processing S2 (ActG4) without executing the entire shooting of the target area and the rough search processing S1 (ActG2).

バーコード候補領域の撮影と情報取得処理(ActG4)において、より適切なバーコード位置情報が得られた場合は、CPU6は、バーコード位置情報をバーコード候補位置情報(H1)に書き込むことで更新処理を行う。一方、CPU6は、バーコード候補領域の撮影と情報取得処理(ActG4)の結果として得られたバーコード候補領域についてのバーコード位置・デコード情報をRAM7に記録しておく。 When more appropriate barcode position information is obtained in the shooting of the barcode candidate area and the information acquisition process (ActG4), the CPU 6 updates the barcode position information by writing the barcode position information in the barcode candidate position information (H1). Perform processing. On the other hand, the CPU 6 records in the RAM 7 the barcode position / decoding information for the barcode candidate area obtained as a result of shooting the barcode candidate area and the information acquisition process (ActG4).

CPU6は、バーコード位置・デコード情報と、商品棚マスター情報(プラノグラム)(H2)とを比較照合する棚情報照合処理を実行する(ActG5)。棚情報照合処理では、CPU6は、撮影した画像から読み取られたバーコード位置情報とバーコード情報とが、商品棚マスター情報と一致するかを判別する。一致すると判別された場合、CPU6は、実際の商品棚の棚割りが正しく計画通りに行われていることを確認し、不一致部分について警告を表示し、その結果をまとめてレポート(H3)として出力する。 The CPU 6 executes a shelf information collation process for comparing and collating the barcode position / decoding information with the product shelf master information (planogram) (H2) (ActG5). In the shelf information collation process, the CPU 6 determines whether the barcode position information and the barcode information read from the captured image match the product shelf master information. If it is determined that they match, the CPU 6 confirms that the actual shelving allocation of the product shelves is performed correctly and as planned, displays a warning about the mismatched parts, and outputs the results together as a report (H3). do.

このようにして、バーコードの位置情報(バーコード位置・デコード情報)を検出することで、商品棚マスター情報との比較を可能とし、物品や棚の位置情報とバーコード情報との対応付けが必要な棚卸作業や検品作業を容易にすることができる。撮影装置2Aは、設置した場所から全方位撮影をすることができるため、撮影装置2Aの周囲の商品棚について自動に分析作業をすることができ、省人化・省力化が可能となる。 By detecting the barcode position information (barcode position / decode information) in this way, it is possible to compare with the product shelf master information, and the correspondence between the position information of goods and shelves and the barcode information can be achieved. The necessary inventory work and inspection work can be facilitated. Since the photographing device 2A can take omnidirectional photography from the place where the photographing device 2A is installed, it is possible to automatically analyze the product shelves around the photographing device 2A, and it is possible to save labor and labor.

図20は、第2実施形態のバーコード認識装置1Aによりバーコードを読取る第2の変形例について示す図である。図20では、複数台(図20では2台)の撮影装置2A,2Bを用いて、それぞれ共通する範囲を撮影する。図20では、撮影装置2Aと撮影装置2Bの設置位置の距離をRとしている。バーコード認識装置1Aは、第1のカメラ撮影位置である視点28(撮影装置2A)で撮影した撮影画像を対象として、前述した処理に基づきバーコード位置の探索とデコード処理を行った後、第2のカメラ撮影位置である視点29(撮影装置2B)において、同様にバーコード位置の探索とデコード処理を行う。 FIG. 20 is a diagram showing a second modification of reading a barcode by the barcode recognition device 1A of the second embodiment. In FIG. 20, a plurality of (two in FIG. 20) photographing devices 2A and 2B are used to photograph a common range. In FIG. 20, the distance between the photographing device 2A and the installation position of the photographing device 2B is R. The bar code recognition device 1A searches for and decodes the bar code position based on the above-mentioned processing for the image taken by the viewpoint 28 (shooting device 2A) which is the first camera shooting position, and then the first At the viewpoint 29 (shooting device 2B), which is the camera shooting position of 2, the barcode position is similarly searched and decoded.

このような処理を行うと、あるバーコード12は、第1の視点28に基づくローカル座標系(x1,y1,z1)での位置座標(r1,θ1,φ1)と、第2の視点29に基づくローカル座標系(x2,y2,z2)での位置座標(r2,θ2,φ2)のうち、少なくとも単位球面座標上の成分(θ1,φ1)、(θ2,φ2)の値を求めることが可能である。ここで、第1の視点28と、第2の視点29の距離Rと方向が既知であれば、第2の視点29の第1の視点28に対する座標(xc,yc,zc)が分かるので、2つの視点におけるローカル座標で得られたバーコードの位置座標(θ1,φ1)、(θ2,φ2)の値から、例えば複数のバーコード12における位置座標成分の組を用いて未知の距離成分r1、r2を求め、最終的にグローバル座標系におけるバーコードの3次元位置座標を求めることが可能となる。 When such processing is performed, a certain bar code 12 becomes the position coordinates (r1, θ1, φ1) in the local coordinate system (x1, y1, z1) based on the first viewpoint 28 and the second viewpoint 29. Of the position coordinates (r2, θ2, φ2) in the local coordinate system (x2, y2, z2) based on, it is possible to obtain at least the values of the components (θ1, φ1) and (θ2, φ2) on the unit spherical coordinates. Is. Here, if the distance R and the direction between the first viewpoint 28 and the second viewpoint 29 are known, the coordinates (xc, yc, zc) of the second viewpoint 29 with respect to the first viewpoint 28 can be known. From the values of the position coordinates (θ1, φ1) and (θ2, φ2) of the bar code obtained from the local coordinates at the two viewpoints, for example, an unknown distance component r1 using a set of position coordinate components in a plurality of bar codes 12. , R2, and finally the three-dimensional position coordinates of the bar code in the global coordinate system can be obtained.

ここでは、第1の視点28と第2の視点29の相対的な位置座標(xc,yc,zc)が既知であり、各々のローカル座標におけるバーコード12の距離成分r1、r2が未知であるとしたが、撮影装置2A,2B(カメラ)からバーコード12までの距離rをカメラの撮影パラメータ、あるいはレーザ測距などの距離計測手段により既知とすることも可能であるから、複数のバーコード12のローカル位置座標(r1,θ1,φ1)と(r2,θ2,φ2)の組から第2の視点29の第1の視点28に対する位置座標(xc,yc,zc)を求めることができる。すなわち、第2の視点29の位置が未知であっても各々のバーコード12の3次元位置座標を求めることも可能である。また、バーコード12の距離成分r1、r2および位置座標(xc,yc,zc)が未知であっても多数のバーコード12について2点間の(θ1,φ1)、(θ2,φ2)の位置座標の組から各々の3次元位置座標を同定することが可能である。 Here, the relative position coordinates (xc, yc, zc) of the first viewpoint 28 and the second viewpoint 29 are known, and the distance components r1 and r2 of the barcode 12 in each local coordinate are unknown. However, since the distance r from the photographing devices 2A and 2B (camera) to the barcode 12 can be known by the photographing parameters of the camera or the distance measuring means such as laser ranging, a plurality of barcodes can be obtained. From the set of the local position coordinates (r1, θ1, φ1) and (r2, θ2, φ2) of 12, the position coordinates (xc, yc, zc) of the second viewpoint 29 with respect to the first viewpoint 28 can be obtained. That is, even if the position of the second viewpoint 29 is unknown, it is possible to obtain the three-dimensional position coordinates of each barcode 12. Further, even if the distance components r1 and r2 of the bar code 12 and the position coordinates (xc, yc, zc) are unknown, the positions (θ1, φ1) and (θ2, φ2) between the two points for a large number of bar codes 12 It is possible to identify each three-dimensional position coordinate from a set of coordinates.

図20に示した2点あるいは複数地点でのカメラ撮影方法としては、同種の撮影装置2A,2Bを2台用いて撮影視野を一部重複させながら各々固定的な視点から撮影を行う方法と、1つの撮影装置2Aを2つの視点間で移動させ、各々撮影する方法に大別される。前者の例としては、複数の監視カメラを天井に備えておき、各々の監視画像を用いてバーコード12の探索とデコードを行う方法が挙げられる。また、後者の例としては、人為的に2つの撮影位置を都度与えて測定を行う方法の他に、自律移動ロボットや移動台車などの移動体にカメラを搭載し、一部の撮影範囲を重複させながら移動撮影を繰り返す方法が挙げられる。後者の場合には、2つ以上の視点、例えば3つの視点から同一のバーコードを撮影しておき、そのバーコードデコード情報あるいは周辺の画像情報から同一のバーコードであることを同定しつつ3組のローカル方向座標成分からグローバル座標系における3次元位置座標を求めることが可能となる。 As a method of shooting with a camera at two points or a plurality of points shown in FIG. 20, a method of shooting from a fixed viewpoint while partially overlapping the shooting fields of view using two shooting devices 2A and 2B of the same type is used. One imaging device 2A is moved between two viewpoints and is roughly classified into a method of photographing each. An example of the former is a method in which a plurality of surveillance cameras are provided on the ceiling and the barcode 12 is searched and decoded using each surveillance image. In addition, as an example of the latter, in addition to the method of artificially giving two shooting positions each time to perform measurement, a camera is mounted on a moving object such as an autonomous mobile robot or a mobile trolley, and a part of the shooting range is overlapped. There is a method of repeating the moving shooting while letting it move. In the latter case, the same barcode is photographed from two or more viewpoints, for example, three viewpoints, and the same barcode is identified from the barcode decoding information or the surrounding image information. It is possible to obtain the three-dimensional position coordinates in the global coordinate system from the set of local directional coordinate components.

こうして、複数位置において撮影された撮影画像を対象としてバーコードを読取り、バーコード位置を検出することにより、例えば倉庫や店舗などの空間内に、広範囲に複数配置されたバーコード12を離れた位置から検知し、効率良くバーコード情報を読み取ることが可能なバーコード認識装置を提供することが可能となる。更に、バーコード情報の読み取りと共に、バーコードの空間内位置情報を得ることが可能な物品管理システムを提供することが可能となる。 In this way, by reading the bar code for the shot images taken at the plurality of positions and detecting the bar code position, for example, in a space such as a warehouse or a store, a plurality of bar codes 12 arranged in a wide range are separated from each other. It is possible to provide a bar code recognition device capable of detecting from the bar code and efficiently reading the bar code information. Further, it becomes possible to provide an article management system capable of obtaining information on the position of the barcode in space as well as reading the barcode information.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

また、前述した実施の形態において記載した処理は、コンピュータに実行させることのできるプログラムとして、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD-ROM、DVD等)、半導体メモリなどの記録媒体に書き込んで各種装置に提供することができる。また、通信媒体により伝送して各種装置に提供することも可能である。コンピュータは、記録媒体に記録されたプログラムを読み込み、または通信媒体を介してプログラムを受信し、このプログラムによって動作が制御されることにより、上述した処理を実行する。 Further, the process described in the above-described embodiment is a recording medium such as a magnetic disk (flexible disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), a semiconductor memory, etc., as a program that can be executed by a computer. Can be provided to various devices by writing to. It is also possible to transmit it through a communication medium and provide it to various devices. The computer reads the program recorded on the recording medium or receives the program via the communication medium, and the operation is controlled by the program to execute the above-mentioned processing.

1…バーコード認識装置、2…バーコード読取部、3…表示部、4…入力部、5…ROM、6…CPU、7…RAM、8…通信部、9…I/F部。 1 ... Bar code recognition device, 2 ... Bar code reading unit, 3 ... Display unit, 4 ... Input unit, 5 ... ROM, 6 ... CPU, 7 ... RAM, 8 ... Communication unit, 9 ... I / F unit.

Claims (4)

パン・チルト機能を備えたカメラにより読取の対象とするコード画像を含む撮影範囲に向けて撮影するための読取手段と、
前記読取手段により撮影されたコード画像から前記コード画像に含まれるコード領域と文字領域を検出する領域検出手段と、
前記コード画像中の前記コード領域の位置と、前記パン・チルト機能により調整される前記カメラの向きを示すパン・チルト情報をもとに、前記コード領域の位置を検出する位置検出手段と、
前記コード領域から前記コード画像が表す第1コード情報を抽出する第1抽出手段と、 前記第1抽出手段による前記第1コード情報の抽出と並行して、前記文字領域から前記コード画像が表す第2コード情報を抽出する第2抽出手段とを有し、
前記領域検出手段は、複数の異なる位置において、前記読取手段により前記カメラの向きを前記パン・チルト機能により調整して、それぞれ撮影された複数のコード画像から前記コード領域を検出し、
前記位置検出手段は、前記複数のコード画像から検出された前記コード領域の位置と、前記複数の異なる位置における撮影時の前記カメラの向きを示すパン・チルト情報をもとに、前記コード領域の3次元空間における位置を検出するコード認識装置。
A reading means for shooting toward a shooting range including a code image to be read by a camera equipped with a pan / tilt function, and
An area detecting means for detecting a code area and a character area included in the code image from the code image captured by the reading means, and
A position detecting means for detecting the position of the code area based on the position of the code area in the code image and the pan / tilt information indicating the direction of the camera adjusted by the pan / tilt function.
In parallel with the first extraction means for extracting the first code information represented by the code image from the code area and the extraction of the first code information by the first extraction means, the code image represents from the character area. It has a second extraction means for extracting 2 code information, and has
The area detecting means adjusts the direction of the camera by the reading means at a plurality of different positions by the pan / tilt function, and detects the code area from a plurality of code images taken respectively.
The position detecting means of the code area is based on the position of the code area detected from the plurality of code images and the pan / tilt information indicating the orientation of the camera at the time of shooting at the plurality of different positions. A code recognition device that detects a position in a three-dimensional space .
前記第1コード情報と前記第2コード情報を統合する情報統合手段をさらに有する請求項1記載のコード認識装置。 The code recognition device according to claim 1, further comprising an information integration means for integrating the first code information and the second code information. 前記情報統合手段は、前記コード画像に対応して抽出された、前記第1コード情報と前記第2コード情報の何れか一方を出力する請求項2記載のコード認識装置。 The code recognition device according to claim 2, wherein the information integrating means outputs either one of the first code information and the second code information extracted corresponding to the code image. パン・チルト機能を備えたカメラのパン・チルトの回転中心は共通とする請求項1記載のコード認識装置。 The code recognition device according to claim 1, wherein the center of rotation of the pan / tilt of the camera having the pan / tilt function is common.
JP2020146696A 2020-09-01 2020-09-01 Code recognition device Active JP7036874B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020146696A JP7036874B2 (en) 2020-09-01 2020-09-01 Code recognition device
JP2022032739A JP7304992B2 (en) 2020-09-01 2022-03-03 code recognizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020146696A JP7036874B2 (en) 2020-09-01 2020-09-01 Code recognition device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016077536A Division JP2017187988A (en) 2016-04-07 2016-04-07 Code recognition device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022032739A Division JP7304992B2 (en) 2020-09-01 2022-03-03 code recognizer

Publications (2)

Publication Number Publication Date
JP2020194594A JP2020194594A (en) 2020-12-03
JP7036874B2 true JP7036874B2 (en) 2022-03-15

Family

ID=73547933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020146696A Active JP7036874B2 (en) 2020-09-01 2020-09-01 Code recognition device

Country Status (1)

Country Link
JP (1) JP7036874B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113312937A (en) * 2021-06-25 2021-08-27 展讯通信(上海)有限公司 Bar code identification method and device, storage medium and computer equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040218783A1 (en) 2002-12-24 2004-11-04 Mampe John J. Method and system for image processing
JP2007101276A (en) 2005-09-30 2007-04-19 Topcon Corp Three-dimensional measuring projector and system
JP2008210693A (en) 2007-02-27 2008-09-11 Canon Inc Slip ring of universal head device
JP2011150460A (en) 2010-01-20 2011-08-04 Hitachi Information & Control Solutions Ltd System and method for managing warehousing/shipping
JP2012164686A (en) 2009-06-16 2012-08-30 Sharp Corp Optical sensor and display device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06103400A (en) * 1992-09-22 1994-04-15 Hitachi Electron Eng Co Ltd Bar-code checking method for ocr
JPH09237312A (en) * 1996-02-29 1997-09-09 Toshiba Corp Optical character reader
JP3340612B2 (en) * 1996-03-11 2002-11-05 株式会社日立製作所 Mail address recognition and sorting device
BR112013013425B1 (en) * 2011-05-31 2021-03-02 Rakuten, Inc. image processing device, image processing method, and computer-readable storage medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040218783A1 (en) 2002-12-24 2004-11-04 Mampe John J. Method and system for image processing
JP2007101276A (en) 2005-09-30 2007-04-19 Topcon Corp Three-dimensional measuring projector and system
JP2008210693A (en) 2007-02-27 2008-09-11 Canon Inc Slip ring of universal head device
JP2012164686A (en) 2009-06-16 2012-08-30 Sharp Corp Optical sensor and display device
JP2011150460A (en) 2010-01-20 2011-08-04 Hitachi Information & Control Solutions Ltd System and method for managing warehousing/shipping

Also Published As

Publication number Publication date
JP2020194594A (en) 2020-12-03

Similar Documents

Publication Publication Date Title
JP2017187988A (en) Code recognition device
EP3163497B1 (en) Image transformation for indicia reading
US10360247B2 (en) System and method for telecom inventory management
JP5580164B2 (en) Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program
JP4739004B2 (en) Information processing apparatus and information processing method
JP2019200697A (en) Shelf management system and program
JP2007164631A (en) Indicator identification method and indicator identification device
US9639725B1 (en) Tracking associate for factory and warehousing optimization
JP2010267113A (en) Component management method, device, program and recording medium
JP7036874B2 (en) Code recognition device
JP5700220B2 (en) Marker generation device, marker generation detection system, marker generation detection device, marker, marker generation method and program thereof
EP1638048A1 (en) Information presentation apparatus and information presentation method
JP5674933B2 (en) Method and apparatus for locating an object in a warehouse
JP2019012546A (en) Information processing device, image processing method and program, and pos terminal device
JP7304992B2 (en) code recognizer
JP2007200364A (en) Stereo calibration apparatus and stereo image monitoring apparatus using the same
AU2021202205B2 (en) Using barcodes to determine item dimensions
JP2019091339A (en) Image collection device, program, and method
JPWO2014024599A1 (en) Arrangement information registration device, arrangement information registration method, and arrangement information registration program
JP2005309717A (en) Marker processing method, marker processor, program and recording medium
KR101802918B1 (en) Apparatus for Scanning 3D Images and Operating Method thereof
US20180129843A1 (en) Method for obtaining information from a coding body, system comprising a coding body, computer program product and data storage means
CN113330275B (en) Camera information calculation device, camera information calculation system, camera information calculation method, and recording medium
CN214101601U (en) Information processing system
CN116362274B (en) High-speed bar code reader

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200901

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220303

R150 Certificate of patent or registration of utility model

Ref document number: 7036874

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150