JP2020027317A - Portable terminal, system, character information acquisition method and program - Google Patents

Portable terminal, system, character information acquisition method and program Download PDF

Info

Publication number
JP2020027317A
JP2020027317A JP2018150135A JP2018150135A JP2020027317A JP 2020027317 A JP2020027317 A JP 2020027317A JP 2018150135 A JP2018150135 A JP 2018150135A JP 2018150135 A JP2018150135 A JP 2018150135A JP 2020027317 A JP2020027317 A JP 2020027317A
Authority
JP
Japan
Prior art keywords
image
unit
character information
code
code image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018150135A
Other languages
Japanese (ja)
Other versions
JP7181724B2 (en
Inventor
和之 淺沼
Kazuyuki Asanuma
和之 淺沼
誠 新本
Makoto Shinmoto
誠 新本
通孝 河野
Michitaka Kono
通孝 河野
雅宣 田邊
Masanobu Tanabe
雅宣 田邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furuno Electric Co Ltd
Original Assignee
Furuno Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furuno Electric Co Ltd filed Critical Furuno Electric Co Ltd
Priority to JP2018150135A priority Critical patent/JP7181724B2/en
Publication of JP2020027317A publication Critical patent/JP2020027317A/en
Application granted granted Critical
Publication of JP7181724B2 publication Critical patent/JP7181724B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Scanning Arrangements (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

To provide a portable terminal capable of improving reliability of acquiring character information related to a code image.SOLUTION: A portable terminal includes a scanner unit that generates a scan image, a position detection unit that detects an own position, an acquisition unit that acquires a code image corresponding to the own position, an addition unit that adds the code image to the scan image, and a decode unit that decodes character image represented by the code image from the scan image with code image added.SELECTED DRAWING: Figure 5

Description

本発明は、携帯端末、システム、文字情報取得方法、及びプログラムに関する。   The present invention relates to a mobile terminal, a system, a character information obtaining method, and a program.

スーパーマーケットやコンビニエンスストア、物流倉庫などにおいて、バーコードは広く利用されている。バーコードはラベルに印刷され、商品の包装材や陳列棚、倉庫棚などに貼付されて、バーコードスキャナにより読み込まれる。   Barcodes are widely used in supermarkets, convenience stores, distribution warehouses, and the like. The barcode is printed on a label, affixed to a packaging material, a display shelf, a warehouse shelf, or the like, and read by a barcode scanner.

ところで、従来技術では、バーコードが印刷されたラベルの表面が汚れると誤読が発生する等の課題がある。   By the way, in the related art, there is a problem that if the surface of the label on which the barcode is printed becomes dirty, erroneous reading occurs.

本発明は、上記課題に鑑みてなされたものであり、その主な目的は、コード画像に係る文字情報の取得確実性の向上を図ることが可能な携帯端末、システム、文字情報取得方法、及びプログラムを提供することにある。   The present invention has been made in view of the above problems, and a main object of the present invention is to provide a portable terminal, a system, a character information obtaining method, and a mobile terminal capable of improving the reliability of obtaining character information related to a code image. To provide a program.

上記課題を解決するため、本発明の一の態様の携帯端末は、スキャン画像を生成するスキャナ部と、自機の位置を検出する位置検出部と、自機の位置に対応するコード画像を取得する取得部と、前記スキャン画像に前記コード画像を付加する付加部と、前記コード画像が付加された前記スキャン画像から、前記コード画像が表す文字情報をデコードするデコード部と、を備える。   In order to solve the above problem, a portable terminal according to one embodiment of the present invention acquires a scanner unit that generates a scan image, a position detection unit that detects a position of the own device, and a code image corresponding to the position of the own device. An acquisition unit that adds the code image to the scan image, and a decoding unit that decodes character information represented by the code image from the scan image to which the code image is added.

また、本発明の他の態様の携帯端末は、スキャン画像を生成するスキャナ部と、自機の位置を検出する位置検出部と、前記スキャン画像に含まれるコード画像が表す文字情報をデコードするデコード部と、前記スキャン画像から文字情報がデコードされない場合に、自機の位置に対応する文字情報を取得する取得部と、を備える。   According to another aspect of the present invention, there is provided a mobile terminal including a scanner unit configured to generate a scan image, a position detection unit configured to detect a position of the mobile terminal, and a decode unit configured to decode character information represented by a code image included in the scan image. And an acquisition unit that acquires character information corresponding to the position of the own device when character information is not decoded from the scan image.

また、本発明の他の態様のシステムは、携帯端末と、位置とコード画像とを対応付けて記憶する記憶部にアクセス可能なサーバと、を備え、前記携帯端末は、スキャン画像を生成するスキャナ部と、自機の位置を検出する位置検出部と、自機の位置に対応するコード画像を前記サーバから取得する取得部と、前記スキャン画像に前記コード画像を付加する付加部と、前記コード画像が付加された前記スキャン画像から、前記コード画像が表す文字情報をデコードするデコード部と、を備える。   A system according to another aspect of the present invention includes a portable terminal, and a server that can access a storage unit that stores a position and a code image in association with each other, wherein the portable terminal includes a scanner that generates a scan image. Unit, a position detecting unit that detects the position of the own device, an obtaining unit that obtains a code image corresponding to the position of the own device from the server, an adding unit that adds the code image to the scanned image, and the code A decoding unit that decodes character information represented by the code image from the scan image to which the image has been added.

また、本発明の他の態様のシステムは、携帯端末と、位置と文字情報とを対応付けて記憶する記憶部にアクセス可能なサーバと、を備え、前記携帯端末は、スキャン画像を生成するスキャナ部と、自機の位置を検出する位置検出部と、前記スキャン画像に含まれるコード画像が表す文字情報をデコードするデコード部と、前記スキャン画像から文字情報がデコードされない場合に、自機の位置に対応する文字情報を前記サーバから取得する取得部と、を備える。   A system according to another aspect of the present invention includes a portable terminal, and a server that can access a storage unit that stores a position and character information in association with each other, wherein the portable terminal includes a scanner that generates a scanned image. Unit, a position detection unit that detects the position of the own device, a decoding unit that decodes character information represented by a code image included in the scan image, and a position of the own device when character information is not decoded from the scan image. And an acquisition unit that acquires character information corresponding to the above from the server.

また、本発明の他の態様の文字情報取得方法は、スキャン画像を生成し、携帯端末の位置に対応するコード画像を取得し、前記スキャン画像に前記コード画像を付加し、前記コード画像が付加された前記スキャン画像から、前記コード画像が表す文字情報をデコードする。   Further, according to another aspect of the present invention, there is provided a character information obtaining method, wherein a scan image is generated, a code image corresponding to a position of a mobile terminal is obtained, the code image is added to the scan image, and the code image is added. The character information represented by the code image is decoded from the scanned image.

また、本発明の他の態様の文字情報取得方法は、スキャン画像を生成し、前記スキャン画像に含まれるコード画像が表す文字情報をデコードし、前記スキャン画像から文字情報がデコードされない場合に、自機の位置に対応する文字情報を取得する。   A character information obtaining method according to another aspect of the present invention generates a scan image, decodes character information represented by a code image included in the scan image, and automatically decodes the character information when the character information is not decoded from the scan image. Get character information corresponding to the machine position.

また、本発明の他の態様のプログラムは、スキャン画像を生成するスキャナ部と、自機の位置を検出する位置検出部と、を備える携帯端末のコンピュータを、自機の位置に対応するコード画像を取得する取得部、前記スキャン画像に前記コード画像を付加する付加部、及び、前記コード画像が付加された前記スキャン画像から、前記コード画像が表す文字情報をデコードするデコード部、として機能させる。   According to another aspect of the present invention, there is provided a program that stores a computer of a portable terminal including a scanner unit that generates a scan image and a position detection unit that detects a position of the own device, into a code image corresponding to the position of the own device. , An adding unit that adds the code image to the scanned image, and a decoding unit that decodes character information represented by the code image from the scanned image to which the code image is added.

また、本発明の他の態様のプログラムは、スキャン画像を生成するスキャナ部と、自機の位置を検出する位置検出部と、を備える携帯端末のコンピュータを、前記スキャン画像に含まれるコード画像が表す文字情報をデコードするデコード部、及び、前記スキャン画像から文字情報がデコードされない場合に、自機の位置に対応する文字情報を取得する取得部、として機能させる。   A program according to another aspect of the present invention includes a computer of a portable terminal including a scanner unit that generates a scan image and a position detection unit that detects a position of the own device. The decoding unit functions as a decoding unit that decodes character information to be represented and an acquisition unit that acquires character information corresponding to the position of the own device when the character information is not decoded from the scanned image.

本発明によれば、コード画像に係る文字情報の取得確実性の向上を図ることが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to aim at improvement of the acquisition reliability of the character information regarding a code image.

実施形態に係るシステムの構成例を示す図である。FIG. 1 is a diagram illustrating a configuration example of a system according to an embodiment. 実施形態に係る携帯端末の外観例を示す正面図である。It is a front view showing the example of appearance of the personal digital assistant concerning an embodiment. 携帯端末の外観例を示す側面図である。It is a side view which shows the example of an external appearance of a portable terminal. 携帯端末の構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of a mobile terminal. コードデータベースの内容例を示す図である。It is a figure showing the example of contents of a code database. 携帯端末の機能構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration example of a mobile terminal. 実施形態に係る文字情報取得方法の手順例を示すフロー図である。It is a flowchart which shows the example of a procedure of the character information acquisition method which concerns on embodiment. コード画像を付加したスキャン画像の例を示す図である。FIG. 4 is a diagram illustrating an example of a scan image to which a code image is added. コード画像を付加したスキャン画像の例を示す図である。FIG. 4 is a diagram illustrating an example of a scan image to which a code image is added. コード画像を付加されないスキャン画像の例を示す図である。FIG. 4 is a diagram illustrating an example of a scanned image to which a code image is not added. 表示部に表示される画像の例を示す図である。FIG. 4 is a diagram illustrating an example of an image displayed on a display unit. 仮想3次元空間の例を示す図である。FIG. 3 is a diagram illustrating an example of a virtual three-dimensional space. 優先リストの例を示す図である。It is a figure showing an example of a priority list. 仮想カメラの配置例を示す図である。It is a figure showing an example of arrangement of a virtual camera. コード画像の付加例を示す図である。It is a figure showing the example of addition of a code picture. 仮想カメラの配置例を示す図である。It is a figure showing an example of arrangement of a virtual camera. コード画像の付加例を示す図である。It is a figure showing the example of addition of a code picture. 携帯端末の他の機能構成例を示すブロック図である。It is a block diagram which shows the other example of a function structure of a portable terminal. 文字情報取得方法の他の手順例を示すフロー図である。It is a flowchart which shows the other example of a procedure of the character information acquisition method.

以下、本発明の好ましい実施の形態を、図面を参照しながら説明する。なお、以下に示す各実施の形態は、本発明の技術的思想を具体化するための方法及び装置を例示するものであって、本発明の技術的思想は下記のものに限定されるわけではない。本発明の技術的思想は、特許請求の範囲に記載された技術的範囲内において種々の変更を加えることができる。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. Each of the embodiments described below exemplifies a method and an apparatus for embodying the technical idea of the present invention, and the technical idea of the present invention is not limited to the following. Absent. Various changes can be made to the technical idea of the present invention within the technical scope described in the claims.

図1は、システム100の構成例を示す図である。システム100は、携帯端末1及びサーバ2を備えている。携帯端末1とサーバ2とは、ネットワークNWを介して相互に通信可能である。サーバ2は、データベース3にアクセス可能である。データベース3は、サーバ2の内部に設けられてもよいし、サーバ2の外部に設けられてもよい。   FIG. 1 is a diagram illustrating a configuration example of a system 100. The system 100 includes a mobile terminal 1 and a server 2. The mobile terminal 1 and the server 2 can communicate with each other via a network NW. The server 2 can access the database 3. The database 3 may be provided inside the server 2 or may be provided outside the server 2.

携帯端末1は、例えばバーコード又はQRコード(登録商標)等のコードを読み取り可能なハンディターミナルである。これに限らず、携帯端末1は、例えばスマートフォン又はタブレット型コンピュータ等であってもよい。   The mobile terminal 1 is a handy terminal that can read a code such as a barcode or a QR code (registered trademark). Not limited to this, the mobile terminal 1 may be, for example, a smartphone or a tablet computer.

携帯端末1は、例えば倉庫又は店舗等の棚Sに配置される物品Bを管理するために用いられる。棚Sには物品Bに対応するコードが印刷されたラベルLが貼付されており、ユーザが携帯端末1をラベルLに近づけると、携帯端末1によってコードが読み取られる。   The mobile terminal 1 is used for managing an article B arranged on a shelf S such as a warehouse or a store. A label L on which a code corresponding to the article B is printed is attached to the shelf S, and when the user brings the mobile terminal 1 close to the label L, the code is read by the mobile terminal 1.

データベース3は、物品Bの在庫を管理するための在庫データベース(DB)31と、コード情報を管理するためのコードデータベース(DB)32とを含んでいる。コードDB32の詳細は後述する。   The database 3 includes an inventory database (DB) 31 for managing inventory of the article B, and a code database (DB) 32 for managing code information. Details of the code DB 32 will be described later.

ところで、上記のようにコードを印刷したラベルLを用いる場合、ラベルLの表面が汚れてコードの誤読が発生するおそれがある。そこで、本実施形態では、以下に説明するAR(拡張現実)的手法によってコード情報の取得を可能としている。   By the way, when the label L on which the code is printed as described above is used, there is a possibility that the surface of the label L becomes dirty and erroneous reading of the code occurs. Therefore, in the present embodiment, code information can be obtained by an AR (augmented reality) method described below.

図2A及び図2Bは、携帯端末1の外観例を示す正面図及び側面図である。図3は、携帯端末1の構成例を示すブロック図である。携帯端末1は、制御部10、スキャナ部11、入力部12、通信I/F13、位置検出部14、姿勢検出部15、及び表示部16を備えている。   FIG. 2A and FIG. 2B are a front view and a side view showing an example of the appearance of the portable terminal 1. FIG. 3 is a block diagram illustrating a configuration example of the mobile terminal 1. The mobile terminal 1 includes a control unit 10, a scanner unit 11, an input unit 12, a communication I / F 13, a position detection unit 14, a posture detection unit 15, and a display unit 16.

制御部10は、CPU、RAM、ROM、不揮発性メモリ及び入出力インターフェース等を含むコンピュータである。CPUは、ROM又は不揮発性メモリからRAMにロードされたプログラムに従って情報処理を実行する。プログラムは、例えば光ディスク又はメモリカード等の情報記憶媒体を介して供給されてもよいし、例えばインターネット等の通信ネットワークを介して供給されてもよい。   The control unit 10 is a computer including a CPU, a RAM, a ROM, a nonvolatile memory, an input / output interface, and the like. The CPU executes information processing according to a program loaded from the ROM or the nonvolatile memory into the RAM. The program may be supplied via an information storage medium such as an optical disk or a memory card, or may be supplied via a communication network such as the Internet.

スキャナ部11は、例えばCMOSイメージセンサ等のイメージセンサからなり、被写体を撮影してスキャン画像を生成し、制御部10に出力する。スキャナ部11は、携帯端末1の背面の上部に設けられている(図2B参照)   The scanner unit 11 includes an image sensor such as a CMOS image sensor, for example, captures a subject, generates a scan image, and outputs the scan image to the control unit 10. The scanner unit 11 is provided at an upper portion on the back surface of the mobile terminal 1 (see FIG. 2B).

入力部12は、例えば複数のキーボタンからなる。入力部12は、携帯端末1の正面の下部に設けられている(図2A参照)。これに限らず、入力部12は、例えばタッチパネル等であってもよい。   The input unit 12 includes, for example, a plurality of key buttons. The input unit 12 is provided at a lower part on the front of the mobile terminal 1 (see FIG. 2A). Not limited to this, the input unit 12 may be, for example, a touch panel or the like.

通信I/F13は、無線LAN等の無線通信を実現する通信インターフェースである。これに限らず、通信I/F13は、有線通信を実現する通信インターフェースであってもよい。   The communication I / F 13 is a communication interface that realizes wireless communication such as a wireless LAN. Not limited to this, the communication I / F 13 may be a communication interface that realizes wired communication.

位置検出部14は、自機の位置を検出し、制御部10に出力する。位置検出部14としては、携帯端末1の実3次元空間内の位置(2次元平面位置だけでなく高さも含む)を検出可能なものが好ましい。位置検出部14は、例えば発信器A(図1参照)から発信されるBLE(Bluetooth Low Energy)を利用したビーコンを受信する受信器からなる。これに限らず、位置検出部14はGNSS受信機などであってもよい。   The position detection unit 14 detects the position of the own device and outputs the position to the control unit 10. It is preferable that the position detection unit 14 can detect the position of the mobile terminal 1 in the actual three-dimensional space (including not only the two-dimensional plane position but also the height). The position detection unit 14 includes, for example, a receiver that receives a beacon using BLE (Bluetooth Low Energy) transmitted from the transmitter A (see FIG. 1). However, the position detector 14 may be a GNSS receiver or the like.

姿勢検出部15は、自機の姿勢を検出し、制御部10に出力する。姿勢検出部15は、例えばジャイロセンサからなる。   The posture detection unit 15 detects the posture of the own device and outputs the detected posture to the control unit 10. The posture detection unit 15 is composed of, for example, a gyro sensor.

表示部16は、例えば液晶表示パネル又は有機EL表示パネル等である。表示部16は、携帯端末1の正面上部に設けられており、スキャナ部11の反対側に位置している(図2A及び図2B参照)。   The display unit 16 is, for example, a liquid crystal display panel or an organic EL display panel. The display unit 16 is provided on the front upper part of the mobile terminal 1 and is located on the opposite side of the scanner unit 11 (see FIGS. 2A and 2B).

図4は、コードDB32の内容例を示す図である。コードDB32は、「ID」、「種別」、「コード画像」、「文字情報」、「位置」、「方向」、「大きさ」のフィールドを有している。   FIG. 4 is a diagram illustrating an example of the contents of the code DB 32. The code DB 32 has fields of “ID”, “type”, “code image”, “character information”, “position”, “direction”, and “size”.

「ID」は、コード情報の識別番号を表す。「種別」は、コードの種別を表す。コードの種別は、例えばJAN、CODE39、CODE128、NW-7等のバーコード(1次元コード)の種別や、QR、DataMatrix等の2次元コードの種別である。   “ID” represents the identification number of the code information. “Type” indicates the type of the code. The type of code is, for example, the type of a barcode (one-dimensional code) such as JAN, CODE39, CODE128, or NW-7, or the type of two-dimensional code such as QR or DataMatrix.

「コード画像」及び「文字情報」は、コード情報を表す。「コード画像」は、バーコード等のコードを示す画像を表す。「コード画像」には、コード画像の保存場所及びファイル名が記述される。「文字情報」は、コード画像に対応する文字情報、すなわちコード画像をデコードすることにより得られる文字情報を表す。「文字情報」は、例えばASCIIデータである。   “Code image” and “character information” represent code information. "Code image" represents an image indicating a code such as a barcode. In the “code image”, a storage location and a file name of the code image are described. “Character information” represents character information corresponding to the code image, that is, character information obtained by decoding the code image. “Character information” is, for example, ASCII data.

「位置」、「方向」、「大きさ」は、仮想3次元空間内におけるコード画像の位置、方向及び大きさを表す。「位置」には、コード画像の仮想3次元空間内の位置が3次元座標で記述される。「方向」は、コード画像のコードを表示する表面の向きを表す。   “Position”, “direction”, and “size” represent the position, direction, and size of the code image in the virtual three-dimensional space. In the “position”, the position of the code image in the virtual three-dimensional space is described by three-dimensional coordinates. "Direction" indicates the direction of the surface on which the code of the code image is displayed.

[第1実施形態]
図5は、携帯端末1の機能構成例を示すブロック図である。携帯端末1の制御部10は、取得部101、付加部102及びデコード部103を含んでいる。これらの機能部は、制御部10のCPUがROM又は不揮発性メモリからRAMにロードされたプログラムに従って情報処理を実行することによって実現する。
[First Embodiment]
FIG. 5 is a block diagram illustrating a functional configuration example of the mobile terminal 1. The control unit 10 of the mobile terminal 1 includes an acquisition unit 101, an addition unit 102, and a decoding unit 103. These functional units are realized by the CPU of the control unit 10 executing information processing according to a program loaded from the ROM or the nonvolatile memory into the RAM.

取得部101は、位置検出部14から自機の位置を取得し、姿勢検出部15から自機の姿勢を取得して、自機の位置及び姿勢に対応するコード画像をサーバ2から取得し、取得したコード画像を付加部102に出力する。なお、自機の姿勢は省略されてもよい。   The acquiring unit 101 acquires the position of the own device from the position detecting unit 14, acquires the posture of the own device from the posture detecting unit 15, acquires the code image corresponding to the position and the posture of the own device from the server 2, The acquired code image is output to the adding unit 102. In addition, the attitude of the own device may be omitted.

付加部102は、スキャナ部11からスキャン画像を取得し、取得部101からコード画像を取得して、スキャン画像にコード画像を付加し、コード画像が付加されたスキャン画像をデコード部103に出力する。   The adding unit 102 acquires a scanned image from the scanner unit 11, acquires a code image from the acquiring unit 101, adds a code image to the scanned image, and outputs the scanned image with the code image added to the decoding unit 103. .

デコード部103は、付加部102からコード画像が付加されたスキャン画像を取得し、コード画像が付加されたスキャン画像から、コード画像が表す文字情報をデコードし、デコードされた文字情報を表示部16に出力する。   The decoding unit 103 acquires the scan image to which the code image is added from the addition unit 102, decodes the character information represented by the code image from the scan image to which the code image is added, and displays the decoded character information on the display unit 16 Output to

図6は、文字情報取得方法の手順例を示すフロー図である。携帯端末1の制御部10は、同図に示す情報処理をプログラムに従って実行することにより、取得部101、付加部102及びデコード部103として機能する。   FIG. 6 is a flowchart illustrating a procedure example of the character information acquisition method. The control unit 10 of the mobile terminal 1 functions as the acquisition unit 101, the addition unit 102, and the decoding unit 103 by executing the information processing illustrated in FIG.

まず、制御部10は、スキャナ部11からスキャン画像を取得する(S11)。   First, the control unit 10 acquires a scanned image from the scanner unit 11 (S11).

次に、制御部10は、位置検出部14から自機の位置を取得し、姿勢検出部15から自機の姿勢を取得し(S12)、自機の位置及び姿勢に対応するコード画像をサーバ2から取得する(S13、取得部101としての処理)。コード画像の取得については、詳細を後述する。   Next, the control unit 10 acquires the position of the own device from the position detecting unit 14, acquires the posture of the own device from the posture detecting unit 15 (S12), and stores the code image corresponding to the position and the posture of the own device in the server. 2 (S13, processing as the acquisition unit 101). Details of acquiring the code image will be described later.

次に、制御部10は、スキャン画像にコード画像を付加する(S14、付加部102としての処理)。   Next, the control unit 10 adds a code image to the scanned image (S14, processing as the adding unit 102).

図7に示す例のように、コード画像5は、スキャン画像4上に重ねられ、スキャン画像4の一部を覆う。これに限らず、コード画像5はスキャン画像4の全部を覆ってもよい。コード画像5は、スキャン画像4の中央部等の所定位置に配置される。これに限らず、コード画像5は、仮想3次元空間内の位置に対応するスキャン画像4内の位置に配置されてもよい。   As in the example shown in FIG. 7, the code image 5 is superimposed on the scan image 4 and covers a part of the scan image 4. Not limited to this, the code image 5 may cover the entirety of the scanned image 4. The code image 5 is arranged at a predetermined position such as the center of the scan image 4. Not limited to this, the code image 5 may be arranged at a position in the scan image 4 corresponding to a position in the virtual three-dimensional space.

図6の説明に戻り、次に、制御部10は、コード画像が付加されたスキャン画像から、コード画像が表す文字情報をデコードする(S15、デコード部103としての処理)。コード画像が付加されたスキャン画像をデコードすることにより、コード画像が表す文字情報が例えばASCIIデータとして出力される。   Returning to the description of FIG. 6, next, the control unit 10 decodes the character information represented by the code image from the scan image to which the code image has been added (S15, processing as the decoding unit 103). By decoding the scan image to which the code image is added, character information represented by the code image is output as, for example, ASCII data.

なお、図8に示す例のように、ラベルLを撮影することによりスキャン画像4に実際のコード画像(以下、実コード画像41という)が含まれる場合であっても、サーバ2から取得したコード画像5をスキャン画像4に付加することで、実コード画像41の一部又は全部がコード画像5に覆われ、コード画像5の方がデコードの対象となり易くなる。   As shown in the example of FIG. 8, even when the scanned image 4 includes an actual code image (hereinafter, referred to as an actual code image 41) by capturing the label L, the code acquired from the server 2 is used. By adding the image 5 to the scanned image 4, a part or the whole of the actual code image 41 is covered by the code image 5, and the code image 5 becomes easier to be decoded.

一方、図9に示す例のように、ラベルLを撮影することによりスキャン画像4に実コード画像41が含まれ、且つサーバ2からコード画像5が取得されず、スキャン画像4にコード画像5が付加されない場合には、スキャン画像4に含まれる実コード画像41がデコードの対象となる。すなわち、従来のバーコードスキャナと同様に動作する。   On the other hand, as in the example shown in FIG. 9, the actual image code 41 is included in the scan image 4 by photographing the label L, and the code image 5 is not acquired from the server 2; If not added, the actual code image 41 included in the scanned image 4 is to be decoded. That is, it operates similarly to the conventional barcode scanner.

図6の説明に戻り、次に、制御部10は、デコードされた文字情報を含む画像を表示部16に出力する(S16)。なお、文字情報の出力先は、表示部16に限らず、例えばアプリケーションプログラムにより制御部10において実現する、メッセージングアプリ等のアプリケーション実行部などであってもよい。   Returning to the description of FIG. 6, next, the control unit 10 outputs an image including the decoded character information to the display unit 16 (S16). The output destination of the character information is not limited to the display unit 16, but may be an application execution unit such as a messaging application realized in the control unit 10 by an application program.

図10に示す例のように、表示部16に表示される画像7には、デコードされた文字情報を表す文字列71が含まれている。文字列71は、例えば物品の名称等を表す。また、画像7には、文字列71に対応する物品の在庫情報を取得するための在庫確認ボタン72と、文字列71に対応する物品の数量を入力するための数量入力ボタン73とが含まれている。   As in the example shown in FIG. 10, the image 7 displayed on the display section 16 includes a character string 71 representing decoded character information. The character string 71 represents, for example, the name of the article. Further, the image 7 includes a stock confirmation button 72 for acquiring stock information of the article corresponding to the character string 71 and a quantity input button 73 for inputting the quantity of the article corresponding to the character string 71. ing.

在庫確認ボタン72が選択されると、制御部10は、在庫DB31(図1参照)にアクセスし、文字列71に対応する物品の在庫情報を表す在庫確認画面(不図示)を生成、出力する。数量入力ボタン73が選択されると、制御部10は、文字列71に対応する物品の入庫数量又は出庫数量を入力するための数量入力画面(不図示)を生成、出力する。   When the stock confirmation button 72 is selected, the control unit 10 accesses the stock DB 31 (see FIG. 1), and generates and outputs a stock confirmation screen (not shown) representing stock information of the article corresponding to the character string 71. . When the quantity input button 73 is selected, the control unit 10 generates and outputs a quantity input screen (not shown) for inputting the incoming quantity or outgoing quantity of the article corresponding to the character string 71.

以上に説明した第1実施形態によれば、コード画像が付加されたスキャン画像から、コード画像が表す文字情報をデコードすることで、ラベルの汚れに起因する誤読の問題を解消することが可能となる。   According to the first embodiment described above, by decoding the character information represented by the code image from the scan image to which the code image has been added, it is possible to eliminate the problem of misreading due to stain on the label. Become.

また、第1実施形態によれば、スキャン画像にサーバ2から取得したコード画像が付加されない場合には、従来のバーコードスキャナと同様に利用することが可能である。言い換えると、コード画像を取得・付加する構成(取得部101及び付加部102)以外は、従来のバーコードスキャナの構成を流用することが可能である。   Further, according to the first embodiment, when the code image acquired from the server 2 is not added to the scanned image, it can be used in the same manner as a conventional barcode scanner. In other words, the configuration of the conventional barcode scanner can be used other than the configuration for obtaining and adding the code image (the obtaining unit 101 and the adding unit 102).

また、第1実施形態によれば、スキャナ部11による照準合わせの時間を省略することが可能である。さらに、第1実施形態によれば、コードDB32の内容を更新することで、コード情報を動的に変化させることも可能である。   Further, according to the first embodiment, it is possible to omit the time for aiming by the scanner unit 11. Further, according to the first embodiment, by updating the contents of the code DB 32, the code information can be dynamically changed.

[コード画像の取得]
以下、コード画像の具体的な取得手法について説明する。コードDB32において、コード情報(コード画像及び文字情報)は、仮想3次元空間内における位置、方向及び大きさが対応付けられている(図4参照)、すなわち仮想3次元空間にマッピングされている。
[Acquisition of code image]
Hereinafter, a specific method of acquiring a code image will be described. In the code DB 32, the code information (code image and character information) is associated with the position, direction, and size in the virtual three-dimensional space (see FIG. 4), that is, mapped in the virtual three-dimensional space.

図11に示す例のように、仮想3次元空間61には、複数のコード画像5が配置されている。各々のコード画像5は、コードを表示する表面を有している。図中の矢印は、コード画像5の表面の向きを表している。同図に示す例では、複数のコード画像5が水平に一列で並んでおり、表面の向きが交互に入れ替わっている。   As in the example shown in FIG. 11, a plurality of code images 5 are arranged in the virtual three-dimensional space 61. Each code image 5 has a surface for displaying a code. The arrow in the figure indicates the direction of the surface of the code image 5. In the example shown in the figure, a plurality of code images 5 are horizontally arranged in a line, and the directions of the surfaces are alternately switched.

仮想3次元空間61には仮想カメラ62が配置される。仮想カメラ62の撮影方向には視野63が形成される。仮想3次元空間61内の仮想カメラ62の位置は、実3次元空間内の携帯端末1の位置に対応する。また、仮想カメラ62の撮影方向は、携帯端末1の姿勢、具体的にはスキャナ部11の撮影方向に対応する。   A virtual camera 62 is arranged in the virtual three-dimensional space 61. A field of view 63 is formed in the shooting direction of the virtual camera 62. The position of the virtual camera 62 in the virtual three-dimensional space 61 corresponds to the position of the mobile terminal 1 in the real three-dimensional space. The shooting direction of the virtual camera 62 corresponds to the attitude of the mobile terminal 1, specifically, the shooting direction of the scanner unit 11.

仮想3次元空間61に配置された複数のコード画像5のうち、仮想カメラ62の視野63に含まれるコード画像5が取得の候補となる。このとき、表面の向きが仮想カメラ62の撮影方向と向かい合うコード画像5は優先順位が高くなり、表面の向きが仮想カメラ62の撮影方向と向かい合わないコード画像5は優先順位が低くなる又は候補から外れる。また、仮想カメラ62の視野63に含まれるコード画像5のうち、視野63の中央に近いコード画像5ほど優先順位を高くし、視野63の中央から遠いコード画像5ほど優先順位を低くしてもよい。   Of the plurality of code images 5 arranged in the virtual three-dimensional space 61, the code images 5 included in the visual field 63 of the virtual camera 62 are candidates for acquisition. At this time, the code image 5 whose surface direction faces the shooting direction of the virtual camera 62 has a higher priority, and the code image 5 whose surface direction does not face the shooting direction of the virtual camera 62 has a lower priority or has a lower priority. Come off. Further, among the code images 5 included in the visual field 63 of the virtual camera 62, the code image 5 closer to the center of the visual field 63 has higher priority, and the code image 5 farther from the center of the visual field 63 has lower priority. Good.

このように、仮想カメラ62の視野63に基づいて、取得の候補となるコード画像5及びその優先順位が決定され、図12に示すようなコード画像5の優先順位を表す優先リストが作成される。   In this way, the code images 5 to be acquired and their priorities are determined based on the visual field 63 of the virtual camera 62, and a priority list indicating the priorities of the code images 5 as shown in FIG. 12 is created. .

制御部10は、優先リストに含まれるコード画像5をサーバ2から取得し、スキャン画像に付加する。ここでは、優先順位が最も高い1つのコード画像5のみが取得されてもよいし、所定以上の優先順位の複数のコード画像5が取得されてもよい。   The control unit 10 acquires the code image 5 included in the priority list from the server 2 and adds the code image 5 to the scan image. Here, only one code image 5 having the highest priority may be obtained, or a plurality of code images 5 having a predetermined or higher priority may be obtained.

複数のコード画像5が取得される場合、スキャン画像4に付加するコード画像5の位置又は大きさを優先順位に応じて変化させてもよい。例えば、優先順位が高いコード画像5ほどスキャン画像4の中央に近くなるように配置してもよいし、優先順位が高いコード画像5ほど大きくなるように配置してもよいし、優先順位が高いコード画像5ほどレイヤーを高く(看者側に)してもよい。これにより、優先順位が高いコード画像5ほどデコードされ易くなる。   When a plurality of code images 5 are acquired, the position or size of the code image 5 to be added to the scan image 4 may be changed according to the priority. For example, a code image 5 with a higher priority may be arranged closer to the center of the scanned image 4, a code image 5 with a higher priority may be arranged so as to be larger, or a higher priority is used. The layer may be higher (to the viewer side) as the code image 5 is. As a result, the code image 5 having a higher priority is more easily decoded.

また、図13A〜図14Bの例に示すように、仮想カメラ62とコード画像5との距離に応じて、スキャン画像4に付加するコード画像5の位置又は大きさを変化させてもよい。図13A及び図13Bは、仮想カメラ62とコード画像5との距離が比較的大きい場合を示し、図14A及び図14Bは、仮想カメラ62とコード画像5との距離が比較的小さい場合を示している。   13A to 14B, the position or the size of the code image 5 to be added to the scan image 4 may be changed according to the distance between the virtual camera 62 and the code image 5. 13A and 13B show a case where the distance between the virtual camera 62 and the code image 5 is relatively large, and FIGS. 14A and 14B show a case where the distance between the virtual camera 62 and the code image 5 is relatively small. I have.

これらの図に示す例では、仮想カメラ62とコード画像5との距離が小さくなるほど、スキャン画像4に付加するコード画像5が大きくなっている。また、例えば、仮想カメラ62とコード画像5との距離が小さくなるほど、コード画像5がスキャン画像4の中央に近くなるように配置してもよいし、コード画像5のレイヤーを高くしてもよい。これにより、仮想カメラ62に近いコード画像5ほどデコードされ易くなる。   In the examples shown in these figures, the smaller the distance between the virtual camera 62 and the code image 5 is, the larger the code image 5 added to the scan image 4 is. Further, for example, as the distance between the virtual camera 62 and the code image 5 becomes smaller, the code image 5 may be arranged closer to the center of the scan image 4 or the layer of the code image 5 may be made higher. . As a result, the code image 5 closer to the virtual camera 62 is more easily decoded.

なお、以上に説明した、携帯端末1の位置及び方向を検出してからコード画像5を取得するまでの間に実行される計算、すなわち仮想3次元空間61における仮想カメラ62の視野63に基づきコード画像5の優先順位を決定するための計算は、携帯端末1で実行されてもよいし、サーバ2で実行されてもよいし、携帯端末1とサーバ2とで分散して実行されてもよい。   Note that the above-described calculation performed between the detection of the position and the direction of the mobile terminal 1 and the acquisition of the code image 5, that is, the code based on the visual field 63 of the virtual camera 62 in the virtual three-dimensional space 61. The calculation for determining the priority of the image 5 may be performed by the mobile terminal 1, may be performed by the server 2, or may be performed by the mobile terminal 1 and the server 2 in a distributed manner. .

[第2実施形態]
以下、第2実施形態について説明する。上記第1実施形態と重複する構成については、同番号を付すことで詳細な説明を省略する。
[Second embodiment]
Hereinafter, the second embodiment will be described. The same components as those in the first embodiment are denoted by the same reference numerals, and detailed description is omitted.

図15は、携帯端末1の他の機能構成例を示すブロック図である。携帯端末1の制御部10は、取得部101及びデコード部103を含んでいる。これらの機能部は、制御部10のCPUがROM又は不揮発性メモリからRAMにロードされたプログラムに従って情報処理を実行することによって実現する。   FIG. 15 is a block diagram illustrating another example of a functional configuration of the mobile terminal 1. The control unit 10 of the mobile terminal 1 includes an acquisition unit 101 and a decoding unit 103. These functional units are realized by the CPU of the control unit 10 executing information processing according to a program loaded from the ROM or the nonvolatile memory into the RAM.

デコード部103は、スキャナ部11から取得したスキャン画像から文字情報をデコードする。スキャン画像から文字情報がデコードされた場合、デコード部103は、デコードされた文字情報を表示部16に出力する。一方、スキャン画像から文字情報がデコードされない場合、デコード部103は、取得部101にその旨を通知する。   The decoding unit 103 decodes character information from the scanned image acquired from the scanner unit 11. When the character information is decoded from the scanned image, the decoding unit 103 outputs the decoded character information to the display unit 16. On the other hand, when the character information is not decoded from the scanned image, the decoding unit 103 notifies the obtaining unit 101 of the fact.

取得部101は、スキャン画像から文字情報がデコードされない旨の通知を受けると、位置検出部14から自機の位置を取得し、姿勢検出部15から自機の姿勢を取得して、自機の位置及び姿勢に対応する文字情報をサーバ2から取得し、取得した文字情報を表示部16に出力する。   Upon receiving the notification that the character information is not decoded from the scanned image, the obtaining unit 101 obtains the position of the own device from the position detecting unit 14, obtains the posture of the own device from the position detecting unit 15, and Character information corresponding to the position and orientation is obtained from the server 2 and the obtained character information is output to the display unit 16.

図16は実施形態文字情報取得方法の他の手順例を示すフロー図である。携帯端末1の制御部10は、同図に示す情報処理をプログラムに従って実行することにより、取得部101及びデコード部103として機能する。   FIG. 16 is a flowchart illustrating another example of the procedure of the character information acquiring method according to the embodiment. The control unit 10 of the mobile terminal 1 functions as the acquisition unit 101 and the decoding unit 103 by executing the information processing illustrated in FIG.

まず、制御部10は、スキャナ部11からスキャン画像を取得する(S21)。   First, the control unit 10 acquires a scanned image from the scanner unit 11 (S21).

次に、制御部10は、スキャン画像から文字情報をデコードする(S22、デコード部103としての処理)。ここでは、スキャン画像に実際のコード画像が含まれ、且つそれが読み取り可能である場合には文字情報がデコードされ、スキャン画像に実際のコード画像が含まれても、それが読み取り不能である場合や、スキャン画像に実際のコード画像が含まれない場合には、文字情報がデコードされない。   Next, the control unit 10 decodes the character information from the scanned image (S22, processing as the decoding unit 103). Here, if the scanned image contains the actual code image and it is readable, the character information is decoded. If the scanned image contains the actual code image but it is not readable, If the actual code image is not included in the scanned image, the character information is not decoded.

スキャン画像から文字情報がデコードされた場合(S23:YES)、制御部10は、デコードされた文字情報を含む画像を表示部16に出力する(S26)。   When the character information is decoded from the scanned image (S23: YES), the control unit 10 outputs an image including the decoded character information to the display unit 16 (S26).

一方、スキャン画像から文字情報がデコードされなかった場合(S23:NO)、制御部10は、位置検出部14から自機の位置を取得し、姿勢検出部15から自機の姿勢を取得し(S24)、自機の位置及び姿勢に対応する文字情報をサーバ2から取得し(S25、取得部101としての処理)、取得された文字情報を含む画像を表示部16に出力する(S26)。   On the other hand, if the character information is not decoded from the scanned image (S23: NO), the control unit 10 acquires the position of the own device from the position detecting unit 14 and acquires the posture of the own device from the posture detecting unit 15 ( (S24) Character information corresponding to the position and orientation of the own device is acquired from the server 2 (S25, processing as the acquisition unit 101), and an image including the acquired character information is output to the display unit 16 (S26).

文字情報の取得については、上述したコード画像の取得と同様の手法で行われるため、説明を省略する。   The acquisition of the character information is performed by the same method as that of the above-described acquisition of the code image, and thus the description is omitted.

以上に説明した第2実施形態によれば、スキャン画像から文字情報がデコードされなかった場合であっても、文字情報を取得することが可能となる。   According to the second embodiment described above, it is possible to acquire character information even when character information is not decoded from a scanned image.

また、第2実施形態によれば、スキャン画像から文字情報がデコードされる限り、従来のバーコードスキャナと同様に利用することが可能である。特に、第2実施形態は、スキャン画像を生成・デコードする構成(スキャナ部11及びデコード部103)が一体的に設けられたバーコードスキャナへの適用が容易である。   Further, according to the second embodiment, as long as character information is decoded from a scanned image, it can be used in the same manner as a conventional barcode scanner. In particular, the second embodiment can be easily applied to a barcode scanner in which a configuration for generating and decoding a scanned image (the scanner unit 11 and the decoding unit 103) is integrally provided.

1 携帯端末、2 サーバ、3 データベース(DB)、31 在庫DB、32 コードDB、10 制御部、11 スキャナ部、12 入力部、13 通信I/F、14 位置検出部、15 姿勢検出部、16 表示部、4 スキャン画像、41 実コード画像、5 コード画像、61 仮想3次元空間、62 仮想カメラ、63 視野、7 画像、71 文字列、72 在庫確認ボタン、73 数量入力ボタン、100 システム、101 取得部、102 付加部、103 デコード部、NW ネットワーク、A 発信器、B 物品、S 棚、L ラベル

Reference Signs List 1 mobile terminal, 2 server, 3 database (DB), 31 inventory DB, 32 code DB, 10 control unit, 11 scanner unit, 12 input unit, 13 communication I / F, 14 position detection unit, 15 posture detection unit, 16 Display part, 4 scan images, 41 real code images, 5 code images, 61 virtual three-dimensional space, 62 virtual cameras, 63 fields of view, 7 images, 71 character strings, 72 stock confirmation buttons, 73 quantity input buttons, 100 systems, 101 Acquisition unit, 102 addition unit, 103 decoding unit, NW network, A transmitter, B article, S shelf, L label

Claims (13)

スキャン画像を生成するスキャナ部と、
自機の位置を検出する位置検出部と、
自機の位置に対応するコード画像を取得する取得部と、
前記スキャン画像に前記コード画像を付加する付加部と、
前記コード画像が付加された前記スキャン画像から、前記コード画像が表す文字情報をデコードするデコード部と、
を備える、携帯端末。
A scanner unit for generating a scanned image;
A position detection unit for detecting the position of the own device,
An acquisition unit that acquires a code image corresponding to the position of the own device,
An adding unit that adds the code image to the scanned image,
From the scan image to which the code image is added, a decoding unit that decodes character information represented by the code image,
A mobile terminal comprising:
自機の姿勢を検出する姿勢検出部をさらに備え、
前記取得部は、自機の位置及び姿勢に対応するコード画像を取得する、
請求項1に記載の携帯端末。
It further includes an attitude detection unit that detects the attitude of the own machine,
The acquisition unit acquires a code image corresponding to the position and orientation of the own device,
The mobile terminal according to claim 1.
前記取得部は、自機の実3次元空間内の位置に対応する仮想3次元空間内の位置に基づいて、前記仮想3次元空間内に対応付けられた複数のコード画像から一部のコード画像を選択する、
請求項1または2に記載の携帯端末。
The acquisition unit is configured to, based on a position in the virtual three-dimensional space corresponding to the position of the own device in the real three-dimensional space, obtain a partial code image from a plurality of code images associated in the virtual three-dimensional space Select the
The mobile terminal according to claim 1.
自機の姿勢を検出する姿勢検出部をさらに備え、
前記取得部は、自機の姿勢に対応する前記仮想3次元空間内の方向に基づいて、前記仮想3次元空間内で方向を持つ複数のコード画像から一部のコード画像を選択する、
請求項3に記載の携帯端末。
It further includes an attitude detection unit that detects the attitude of the own machine,
The acquiring unit selects a part of the code images from a plurality of code images having directions in the virtual three-dimensional space based on a direction in the virtual three-dimensional space corresponding to a posture of the own device.
The mobile terminal according to claim 3.
前記付加部は、前記仮想3次元空間内の位置とコード画像との距離に応じて、前記スキャン画像に付加する前記コード画像の位置又は大きさを設定する、
請求項3または4に記載の携帯端末。
The adding unit sets a position or a size of the code image to be added to the scan image according to a distance between the position in the virtual three-dimensional space and the code image.
The mobile terminal according to claim 3.
スキャン画像を生成するスキャナ部と、
自機の位置を検出する位置検出部と、
前記スキャン画像に含まれるコード画像が表す文字情報をデコードするデコード部と、
前記スキャン画像から文字情報がデコードされない場合に、自機の位置に対応する文字情報を取得する取得部と、
を備える、携帯端末。
A scanner unit for generating a scanned image;
A position detection unit for detecting the position of the own device,
A decoding unit for decoding character information represented by a code image included in the scan image;
When character information is not decoded from the scan image, an acquisition unit that acquires character information corresponding to the position of the own device,
A mobile terminal comprising:
自機の姿勢を検出する姿勢検出部をさらに備え、
前記取得部は、自機の位置及び姿勢に対応する文字情報を取得する、
請求項6に記載の携帯端末。
It further includes an attitude detection unit that detects the attitude of the own machine,
The acquisition unit acquires character information corresponding to the position and orientation of the own device,
The mobile terminal according to claim 6.
携帯端末と、
位置とコード画像とを対応付けて記憶する記憶部にアクセス可能なサーバと、
を備え、
前記携帯端末は、
スキャン画像を生成するスキャナ部と、
自機の位置を検出する位置検出部と、
自機の位置に対応するコード画像を前記サーバから取得する取得部と、
前記スキャン画像に前記コード画像を付加する付加部と、
前記コード画像が付加された前記スキャン画像から、前記コード画像が表す文字情報をデコードするデコード部と、
を備える、システム。
Mobile devices,
A server that can access a storage unit that stores the position and the code image in association with each other;
With
The mobile terminal,
A scanner unit for generating a scanned image;
A position detection unit for detecting the position of the own device,
An acquisition unit that acquires a code image corresponding to the position of the own device from the server,
An adding unit that adds the code image to the scanned image,
From the scan image to which the code image is added, a decoding unit that decodes character information represented by the code image,
A system comprising:
携帯端末と、
位置と文字情報とを対応付けて記憶する記憶部にアクセス可能なサーバと、
を備え、
前記携帯端末は、
スキャン画像を生成するスキャナ部と、
自機の位置を検出する位置検出部と、
前記スキャン画像に含まれるコード画像が表す文字情報をデコードするデコード部と、
前記スキャン画像から文字情報がデコードされない場合に、自機の位置に対応する文字情報を前記サーバから取得する取得部と、
を備える、システム。
Mobile devices,
A server that can access a storage unit that stores the position and the character information in association with each other;
With
The mobile terminal,
A scanner unit for generating a scanned image;
A position detection unit for detecting the position of the own device,
A decoding unit for decoding character information represented by a code image included in the scan image;
When character information is not decoded from the scan image, an acquisition unit that acquires character information corresponding to the position of the own device from the server,
A system comprising:
スキャン画像を生成し、
携帯端末の位置に対応するコード画像を取得し、
前記スキャン画像に前記コード画像を付加し、
前記コード画像が付加された前記スキャン画像から、前記コード画像が表す文字情報をデコードする、
文字情報取得方法。
Generate a scanned image,
Get the code image corresponding to the location of the mobile device,
Adding the code image to the scanned image,
Decoding the character information represented by the code image from the scan image to which the code image is added,
Character information acquisition method.
スキャン画像を生成し、
前記スキャン画像に含まれるコード画像が表す文字情報をデコードし、
前記スキャン画像から文字情報がデコードされない場合に、自機の位置に対応する文字情報を取得する、
文字情報取得方法。
Generate a scanned image,
Decoding the character information represented by the code image included in the scan image,
When character information is not decoded from the scanned image, character information corresponding to the position of the own device is obtained.
Character information acquisition method.
スキャン画像を生成するスキャナ部と、自機の位置を検出する位置検出部と、を備える携帯端末のコンピュータを、
自機の位置に対応するコード画像を取得する取得部、
前記スキャン画像に前記コード画像を付加する付加部、及び、
前記コード画像が付加された前記スキャン画像から、前記コード画像が表す文字情報をデコードするデコード部、
として機能させるプログラム。
A computer of a mobile terminal including a scanner unit that generates a scan image and a position detection unit that detects the position of the own device,
An acquisition unit that acquires a code image corresponding to the position of the own device,
An adding unit that adds the code image to the scanned image; and
From the scan image to which the code image is added, a decoding unit that decodes character information represented by the code image,
A program to function as
スキャン画像を生成するスキャナ部と、自機の位置を検出する位置検出部と、を備える携帯端末のコンピュータを、
前記スキャン画像に含まれるコード画像が表す文字情報をデコードするデコード部、及び、
前記スキャン画像から文字情報がデコードされない場合に、自機の位置に対応する文字情報を取得する取得部、
として機能させるためのプログラム。

A computer of a mobile terminal including a scanner unit that generates a scan image and a position detection unit that detects the position of the own device,
A decoding unit that decodes character information represented by a code image included in the scan image, and
When character information is not decoded from the scanned image, an acquiring unit that acquires character information corresponding to the position of the own device,
Program to function as

JP2018150135A 2018-08-09 2018-08-09 Mobile terminal, system, character information acquisition method, and program Active JP7181724B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018150135A JP7181724B2 (en) 2018-08-09 2018-08-09 Mobile terminal, system, character information acquisition method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018150135A JP7181724B2 (en) 2018-08-09 2018-08-09 Mobile terminal, system, character information acquisition method, and program

Publications (2)

Publication Number Publication Date
JP2020027317A true JP2020027317A (en) 2020-02-20
JP7181724B2 JP7181724B2 (en) 2022-12-01

Family

ID=69620118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018150135A Active JP7181724B2 (en) 2018-08-09 2018-08-09 Mobile terminal, system, character information acquisition method, and program

Country Status (1)

Country Link
JP (1) JP7181724B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005043454A1 (en) * 2003-10-30 2005-05-12 Nec Mobiling, Ltd. Two-dimensional code transmitting method, system and mobile terminal
JP2009008905A (en) * 2007-06-28 2009-01-15 Ricoh Co Ltd Information display apparatus and information display system
JP2014182479A (en) * 2013-03-18 2014-09-29 Kddi Corp Information terminal, system, program, and method for controlling display of augmented reality by attitude
JP2016119052A (en) * 2014-12-23 2016-06-30 東芝テック株式会社 Image recognition apparatus and commodity information processing apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005043454A1 (en) * 2003-10-30 2005-05-12 Nec Mobiling, Ltd. Two-dimensional code transmitting method, system and mobile terminal
JP2009008905A (en) * 2007-06-28 2009-01-15 Ricoh Co Ltd Information display apparatus and information display system
JP2014182479A (en) * 2013-03-18 2014-09-29 Kddi Corp Information terminal, system, program, and method for controlling display of augmented reality by attitude
JP2016119052A (en) * 2014-12-23 2016-06-30 東芝テック株式会社 Image recognition apparatus and commodity information processing apparatus

Also Published As

Publication number Publication date
JP7181724B2 (en) 2022-12-01

Similar Documents

Publication Publication Date Title
US9165279B2 (en) System and method for calibration and mapping of real-time location data
JP6441932B2 (en) Eye level scanner and display pointer tracking
US9818011B2 (en) Method and device for identifying two-dimensional barcodes
US9013275B2 (en) Portable encoded information reading terminal configured to adjust transmit power level
US11948042B2 (en) System and method for configuring an ID reader using a mobile device
US10037510B2 (en) System and method for calibration and mapping of real-time location data
KR20100108537A (en) Optically readable tag
US20130126596A1 (en) Methods and apparatus for detecting indicia and projecting images related to the detected indicia
KR20190091229A (en) Package Shipping System by Using characteristic Identifier data and Method thereof
US10025968B2 (en) Initial point establishment using an image of a portion of an object
US9813567B2 (en) Mobile device and method for controlling the same
KR101116582B1 (en) Application download method using two dimensional code
JP2020027317A (en) Portable terminal, system, character information acquisition method and program
Nassar et al. An augmented reality exhibition guide for the iPhone
US11755859B2 (en) Apparatus and method for enabling decoding of remotely sourced and visually presented encoded data markers
JP2019061430A (en) Image forming apparatus and system
JP2013054010A (en) Position detecting device and program
Leeladevi et al. Indoor location identification with better outlook through Augmented Reality
KR20150045542A (en) Method for providing map information based upon reverse generation of 2 dimensional bar code
KR20230101781A (en) Apparatus and system for providing logistics management services based on QR code
JP2018073232A (en) Information processing equipment, code reading method, and program
JP2009015646A (en) Information reading system and program
KR20120044859A (en) Contact details acquisition apparatus and method using identification code

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221118

R150 Certificate of patent or registration of utility model

Ref document number: 7181724

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150