JP6879329B2 - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP6879329B2
JP6879329B2 JP2019075354A JP2019075354A JP6879329B2 JP 6879329 B2 JP6879329 B2 JP 6879329B2 JP 2019075354 A JP2019075354 A JP 2019075354A JP 2019075354 A JP2019075354 A JP 2019075354A JP 6879329 B2 JP6879329 B2 JP 6879329B2
Authority
JP
Japan
Prior art keywords
display
image
identification code
user
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019075354A
Other languages
Japanese (ja)
Other versions
JP2019160326A (en
Inventor
和記 土持
和記 土持
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2019075354A priority Critical patent/JP6879329B2/en
Publication of JP2019160326A publication Critical patent/JP2019160326A/en
Application granted granted Critical
Publication of JP6879329B2 publication Critical patent/JP6879329B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、画像処理装置、画像処理方法、及び、プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.

特許文献1及び2に関連する技術が開示されている。 Techniques related to Patent Documents 1 and 2 are disclosed.

特許文献1には、ヘッドマウントディスプレイと、撮像装置と、画像処理部と、商品情報取得部と、情報表示部とを有する商品処理装置が開示されている。 Patent Document 1 discloses a product processing device having a head-mounted display, an image pickup device, an image processing unit, a product information acquisition unit, and an information display unit.

ヘッドマウントディスプレイは、眼鏡のフレーム状に形成された保持部材を備える。保持部材は、商品に付けられたコード情報を目視可能とする光透過性部材を保持する。光透過性部材の一部分はモニタ表示可能となっている。 The head-mounted display includes a holding member formed in the shape of a frame of eyeglasses. The holding member holds a light transmitting member that makes the code information attached to the product visible. A part of the light transmissive member can be displayed on a monitor.

撮像装置は、少なくとも商品に付けられたコード情報を撮像する。画像処理部は、撮像装置の撮像により取得された画像データを光透過性部材のモニタ表示可能な部分に表示する。また、画像処理部は、画像データを画像処理し、コード情報に含まれる商品のコードを解読する。 The image pickup device captures at least the code information attached to the product. The image processing unit displays the image data acquired by the imaging of the imaging device on the monitor displayable portion of the light transmissive member. In addition, the image processing unit performs image processing on the image data and decodes the code of the product included in the code information.

商品情報取得部は、画像処理部により解読された商品コードに基づいて商品の情報を取得する。情報表示部は、少なくとも商品情報取得部により取得された商品の情報をヘッドマウントディスプレイのモニタ表示部に表示する。 The product information acquisition unit acquires product information based on the product code decoded by the image processing unit. The information display unit displays at least the product information acquired by the product information acquisition unit on the monitor display unit of the head-mounted display.

特許文献2には、撮像画像に複数のバーコードが含まれる場合、それら各々を処理対象として認識処理を行う読取装置が開示されている。 Patent Document 2 discloses a reading device that performs recognition processing for each of a plurality of barcodes as a processing target when the captured image contains a plurality of barcodes.

特開2009−93489号公報Japanese Unexamined Patent Publication No. 2009-93489 特開平9−114913号公報Japanese Unexamined Patent Publication No. 9-114913

特許文献1に開示の技術において、光透過性部材の一部に画像データをモニタ表示している際、ユーザの視野には、(1)光透過性部材の一部にモニタ表示された画像と、(2)光透過性部材の他の部分を透過して見えるユーザの前方の景色と、が含まれることとなる。(1)の画像には、ユーザの前方を撮像した撮像画像に含まれる商品、及び、当該商品に付されているコード情報を読み取ることで得られた商品情報が表示される。 In the technique disclosed in Patent Document 1, when the image data is displayed on a part of the light transmissive member on the monitor, the user's field of view is (1) the image displayed on the part of the light transmissive member on the monitor. , (2) The view in front of the user that can be seen through other parts of the light transmissive member. In the image (1), the product included in the captured image captured in front of the user and the product information obtained by reading the code information attached to the product are displayed.

ユーザの前方に1つの商品のみが存在する場合、ユーザは、(2)の景色内に存在するその商品と、(1)の画像内で表示されている商品及び商品情報とを対応付けることができる。しかし、ユーザの前方に複数の商品が存在する場合、ユーザは、(1)の画像内で表示されている商品及び商品情報が、(2)の景色内に存在する複数の商品のいずれに対応するのか特定できない。特許文献2に開示の技術は、当該問題を解決できない。 When there is only one product in front of the user, the user can associate the product existing in the scenery of (2) with the product and product information displayed in the image of (1). .. However, when a plurality of products exist in front of the user, the user corresponds to any of the plurality of products existing in the scenery of (2) with the product and product information displayed in the image of (1). I can't specify whether to do it. The technique disclosed in Patent Document 2 cannot solve the problem.

本発明は、識別コードが含まれ得る撮像画像を解析し、結果をユーザに向けて提供する装置において、提供された解析結果がどの識別コードに対応するものか、ユーザが容易に把握できるようにするための技術を提供することを課題とする。 The present invention allows the user to easily grasp which identification code the provided analysis result corresponds to in the device that analyzes the captured image that may include the identification code and provides the result to the user. The challenge is to provide the technology to do so.

本発明によれば、
ユーザの視野に重ねて表示画像を表示する表示手段と、
ユーザの視野を含むように撮像画像を生成する撮像手段と、
前記撮像画像に含まれる識別コードを特定し、特定した前記識別コードに対して認識する処理を行う認識手段と、
を有し、
前記表示手段は、特定されかつ認識された前記識別コードと、特定されかつ認識されなかった前記識別コードと、特定されなかった前記識別コードとを区別可能な前記表示画像を表示する画像処理装置が提供される。
According to the present invention
A display means for displaying a display image over the user's field of view,
An imaging means that generates an captured image so as to include the user's field of view,
A recognition means that identifies an identification code included in the captured image and performs a process of recognizing the identified identification code.
Have,
The display means is an image processing device that displays the display image capable of distinguishing the specified and recognized identification code, the specified and unrecognized identification code, and the unspecified identification code. Provided.

また、本発明によれば、
コンピュータが、
ユーザの視野に重ねて表示画像を表示する表示工程と、
ユーザの視野を含むように撮像画像を生成する撮像工程と、
前記撮像画像に含まれる識別コードを特定し、特定した前記識別コードに対して認識する処理を行う認識工程と、
を実行し、
前記表示工程では、特定されかつ認識された前記識別コードと、特定されかつ認識されなかった前記識別コードと、特定されなかった前記識別コードとを区別可能な前記表示画像を表示する画像処理方法が提供される。
Further, according to the present invention.
The computer
A display process that displays a display image overlaid on the user's field of view,
An imaging process that generates an image to include the user's field of view,
A recognition step of identifying an identification code included in the captured image and performing a process of recognizing the identified identification code.
And
In the display step, an image processing method for displaying the display image capable of distinguishing the specified and recognized identification code, the specified and unrecognized identification code, and the unspecified identification code is provided. Provided.

また、本発明によれば、
コンピュータを、
ユーザの視野に重ねて表示画像を表示する表示手段、
ユーザの視野を含むように撮像画像を生成する撮像手段、
前記撮像画像に含まれる識別コードを特定し、特定した前記識別コードに対して認識する処理を行う認識手段、
として機能させ、
前記表示手段は、特定されかつ認識された前記識別コードと、特定されかつ認識されなかった前記識別コードと、特定されなかった前記識別コードとを区別可能な前記表示画像を表示するプログラムが提供される。
Further, according to the present invention.
Computer,
A display means that displays a display image over the user's field of view,
An imaging means that generates an image to include the user's field of view,
A recognition means that identifies an identification code included in the captured image and performs a process of recognizing the identified identification code.
To function as
The display means is provided with a program for displaying the display image capable of distinguishing the specified and recognized identification code, the specified and unrecognized identification code, and the unspecified identification code. To.

また、本発明によれば、
コンピュータが、
表示画像を生成する表示画像生成工程と、
ユーザの視野に重ねて前記表示画像を表示する表示工程と、
ユーザの視野を含むように撮像画像を生成する撮像工程と、
前記撮像画像を解析し、前記撮像画像に含まれる識別コードを特定し、特定した前記識別コードに対して認識する処理を行う認識工程と、
を実行し、
前記表示画像生成工程では、
ユーザの視野において、認識された前記識別コードに対応する位置、又は、認識されなかった前記識別コードに対応する位置に強調情報が表示される前記表示画像を生成する画像処理方法が提供される。
Further, according to the present invention.
The computer
Display image generation process to generate display image and
A display process for displaying the display image over the user's field of view, and
An imaging process that generates an image to include the user's field of view,
A recognition step of analyzing the captured image, identifying an identification code included in the captured image, and performing a process of recognizing the identified identification code.
And
In the display image generation step,
An image processing method for generating the display image in which the highlighted information is displayed at the position corresponding to the recognized identification code or the unrecognized position corresponding to the identification code is provided in the user's field of view.

また、本発明によれば、
コンピュータを、
表示画像を生成する表示画像生成手段、
ユーザの視野に重ねて前記表示画像を表示する表示手段、
ユーザの視野を含むように撮像画像を生成する撮像手段、
前記撮像画像を解析し、前記撮像画像に含まれる識別コードを特定し、特定した前記識別コードに対して認識する処理を行う認識手段、
として機能させ、
前記表示画像生成手段に、
ユーザの視野において、認識された前記識別コードに対応する位置、又は、認識されなかった前記識別コードに対応する位置に強調情報が表示される前記表示画像を生成させるプログラムが提供される。
Further, according to the present invention.
Computer,
Display image generation means for generating display images,
A display means for displaying the display image over the user's field of view,
An imaging means that generates an image to include the user's field of view,
A recognition means that analyzes the captured image, identifies an identification code included in the captured image, and performs a process of recognizing the identified identification code.
To function as
In the display image generation means,
A program is provided that generates a display image in which highlighted information is displayed at a position corresponding to the recognized identification code or a position corresponding to the unrecognized identification code in the user's field of view.

本発明によれば、識別コードが含まれ得る撮像画像を解析し、結果をユーザに向けて提供する装置において、提供された解析結果がどの識別コードに対応するものか、ユーザが容易に把握できるようなる。 According to the present invention, in a device that analyzes a captured image that may include an identification code and provides the result to the user, the user can easily grasp which identification code the provided analysis result corresponds to. Will be.

本実施形態の装置のハードウエア構成の一例を概念的に示す図である。It is a figure which conceptually shows an example of the hardware composition of the apparatus of this embodiment. 本実施形態の画像処理装置の機能ブロック図の一例である。This is an example of a functional block diagram of the image processing apparatus of this embodiment. 本実施形態の画像処理装置の適用例を示す図である。It is a figure which shows the application example of the image processing apparatus of this embodiment. 本実施形態の画像処理装置による表示の作用効果を説明するための図である。It is a figure for demonstrating the action effect of the display by the image processing apparatus of this embodiment. 本実施形態の画像処理装置の処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow of the image processing apparatus of this embodiment. 本実施形態の画像処理装置による表示の作用効果を説明するための図である。It is a figure for demonstrating the action effect of the display by the image processing apparatus of this embodiment. 本実施形態の画像処理装置の処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow of the image processing apparatus of this embodiment. 本実施形態の画像処理装置による表示の作用効果を説明するための図である。It is a figure for demonstrating the action effect of the display by the image processing apparatus of this embodiment. 本実施形態の画像処理装置による表示の作用効果を説明するための図である。It is a figure for demonstrating the action effect of the display by the image processing apparatus of this embodiment. 本実施形態の画像処理装置の機能ブロック図の一例である。This is an example of a functional block diagram of the image processing apparatus of this embodiment. 本実施形態の画像処理装置による表示の作用効果を説明するための図である。It is a figure for demonstrating the action effect of the display by the image processing apparatus of this embodiment.

まず、本実施形態の装置のハードウエア構成の一例について説明する。本実施形態の装置が備える各部は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされるプログラム、そのプログラムを格納するハードディスク等の記憶ユニット(あらかじめ装置を出荷する段階から格納されているプログラムのほか、CD(Compact Disc)等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムをも格納できる)、ネットワーク接続用インタフェイスを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。 First, an example of the hardware configuration of the apparatus of this embodiment will be described. Each part included in the device of the present embodiment is stored in a storage unit (stored from the stage of shipping the device in advance) such as a CPU (Central Processing Unit) of an arbitrary computer, a memory, a program loaded in the memory, and a hard disk for storing the program. In addition to the programs provided, it can also store programs downloaded from storage media such as CDs (Compact Discs) and servers on the Internet), and by any combination of hardware and software centered on the network connection interface. It will be realized. And, it is understood by those skilled in the art that there are various modifications of the realization method and the device.

図1は、本実施形態の装置のハードウエア構成の一例を概念的に示す図である。図示するように、本実施形態の装置は、例えば、バス11Aで相互に接続されるCPU1A、RAM(Random Access Memory)2A、ROM(Read Only Memory)3A、表示制御部4A、ディスプレイ5A、操作受付部6A、操作部7A、通信部8A、補助記憶装置9A、カメラ10A等を有する。なお、図示しないが、その他、外部機器と有線で接続される入出力インタフェイス、マイク、スピーカ等の他の要素を備えてもよい。 FIG. 1 is a diagram conceptually showing an example of the hardware configuration of the device of the present embodiment. As shown in the figure, the apparatus of the present embodiment is, for example, a CPU 1A, a RAM (Random Access Memory) 2A, a ROM (Read Only Memory) 3A, a display control unit 4A, a display 5A, and an operation reception desk connected to each other by a bus 11A. It has a unit 6A, an operation unit 7A, a communication unit 8A, an auxiliary storage device 9A, a camera 10A, and the like. Although not shown, other elements such as an input / output interface, a microphone, and a speaker that are connected to an external device by wire may be provided.

CPU1Aは各要素とともに装置のコンピュータ全体を制御する。ROM3Aは、コンピュータを動作させるためのプログラムや各種アプリケーションプログラム、それらのプログラムが動作する際に使用する各種設定データなどを記憶する領域を含む。RAM2Aは、プログラムが動作するための作業領域など一時的にデータを記憶する領域を含む。補助記憶装置9Aは、例えばHDD(Hard Disc Drive)であり、大容量のデータを記憶可能である。 The CPU 1A controls the entire computer of the device together with each element. The ROM 3A includes an area for storing a program for operating a computer, various application programs, various setting data used when the program operates, and the like. The RAM 2A includes an area for temporarily storing data such as a work area for operating a program. The auxiliary storage device 9A is, for example, an HDD (Hard Disc Drive) and can store a large amount of data.

ディスプレイ5Aは、例えば、光透過性部材で構成された透過型ディスプレイ(透明ディスプレイ)である。すなわち、ディスプレイ5Aの向こうの景色が透けて見える。このようなディスプレイ5Aに表示画像を表示すると、ディスプレイ5Aを観察するユーザの視野において、ディスプレイ5Aの向こうの景色の前に表示画像が重なった状態となる。なお、ディスプレイ5Aは、ヘッドマウントディスプレイであってもよい。この場合、ゴーグルや眼鏡のレンズ部分に透過型ディスプレイが設けられる。 The display 5A is, for example, a transmissive display (transparent display) composed of a light transmissive member. That is, the scenery beyond the display 5A can be seen through. When the display image is displayed on the display 5A, the display image is overlapped in front of the scenery beyond the display 5A in the field of view of the user observing the display 5A. The display 5A may be a head-mounted display. In this case, a transmissive display is provided on the lens portion of the goggles or eyeglasses.

表示制御部4Aは、VRAM(Video RAM)に記憶されたデータを読み出し、読み出したデータに対して所定の処理を施した後、ディスプレイ5Aに送って各種画面表示を行う。操作受付部6Aは、操作部7Aを介して各種操作を受付ける。操作部7Aは、操作キー、操作ボタン、スイッチ、ジョグダイヤルなどを含む。なお、操作受付部6Aは、カメラ10Aの前方で行われる所定のジェスチャを、所定の操作として受付けてもよい。 The display control unit 4A reads the data stored in the VRAM (Video RAM), performs predetermined processing on the read data, and then sends the data to the display 5A to display various screens. The operation reception unit 6A receives various operations via the operation unit 7A. The operation unit 7A includes operation keys, operation buttons, switches, a jog dial, and the like. The operation reception unit 6A may accept a predetermined gesture performed in front of the camera 10A as a predetermined operation.

通信部8Aは、有線及び/または無線で、インターネット、LAN(Local Area Network)等のネットワークに接続し、他の電子機器と通信する。 The communication unit 8A connects to a network such as the Internet or a LAN (Local Area Network) by wire and / or wirelessly, and communicates with other electronic devices.

以下、本実施の形態について説明する。なお、以下の実施形態の説明において利用する機能ブロック図は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。これらの図においては、各装置は1つの機器により実現されるよう記載されているが、その実現手段はこれに限定されない。すなわち、物理的に分かれた構成であっても、論理的に分かれた構成であっても構わない。なお、同一の構成要素には同一の符号を付し、適宜説明を省略する。 Hereinafter, the present embodiment will be described. The functional block diagram used in the description of the following embodiment shows the block of the functional unit, not the configuration of the hardware unit. In these figures, each device is described as being realized by one device, but the means for realizing the device is not limited thereto. That is, it may be a physically separated configuration or a logically separated configuration. The same components are designated by the same reference numerals, and the description thereof will be omitted as appropriate.

<第1の実施形態>
まず、本実施形態の概要について説明する。本実施形態の画像処理装置は、ユーザの視野を含むように撮像された撮像画像を解析し、図形等で表現された所定の識別コードを検索する。そして、画像処理装置は、撮像画像内で識別コードを特定すると、特定した識別コードをユーザに通知する。
<First Embodiment>
First, the outline of the present embodiment will be described. The image processing apparatus of the present embodiment analyzes the captured image captured so as to include the user's field of view, and searches for a predetermined identification code represented by a graphic or the like. Then, when the image processing device identifies the identification code in the captured image, the image processing device notifies the user of the identified identification code.

本実施形態の通知手段においては、透過型ディスプレイを用いる。透過型ディスプレイはユーザの前方に位置し、ユーザの視野に重ねて所定の画像を表示可能になっている。かかる場合、ユーザの視野において、ユーザの前方の景色に、透過型ディスプレイに表示された所定の画像が重なる。画像処理装置は、ユーザの視野において、特定した識別コードに対応する位置に強調情報(例:所定のマーク)が表示されるような表示画像を透過型ディスプレイに表示する。 In the notification means of the present embodiment, a transmissive display is used. The transmissive display is located in front of the user and can display a predetermined image on the user's field of view. In such a case, a predetermined image displayed on the transmissive display overlaps the scenery in front of the user in the user's field of view. The image processing device displays a display image on the transmissive display such that the highlighted information (eg, a predetermined mark) is displayed at a position corresponding to the specified identification code in the user's field of view.

このような画像処理装置によれば、ユーザは、視野内の情報、すなわち、視野内に存在する識別マークと強調情報との対応関係に基づいて、画像処理装置が特定している識別コードを容易に把握することができる。 According to such an image processing device, the user can easily obtain an identification code specified by the image processing device based on the information in the visual field, that is, the correspondence between the identification mark existing in the visual field and the emphasis information. Can be grasped.

次に、本実施形態の画像処理装置10の構成について詳細に説明する。図2に、本実施形態の画像処理装置10の機能ブロック図の一例を示す。図示するように、画像処理装置10は、表示画像生成部11と、表示部12と、撮像部13と、認識部14とを有する。 Next, the configuration of the image processing device 10 of the present embodiment will be described in detail. FIG. 2 shows an example of a functional block diagram of the image processing device 10 of the present embodiment. As shown in the figure, the image processing device 10 includes a display image generation unit 11, a display unit 12, an imaging unit 13, and a recognition unit 14.

表示部12は、ユーザの視野に重ねて表示画像を表示する。具体的には、表示部12は、ユーザの視野に存在する前方景色に重ねて、表示画像を表示する。表示部12は、透過型ディスプレイを備える。そして、表示部12は、ユーザの前方に位置する当該透過型ディスプレイに表示画像を表示する。このようにすれば、ユーザの視野において、ユーザの視野に存在する前方の景色に表示画像が重なる。 The display unit 12 displays the displayed image on the user's field of view. Specifically, the display unit 12 displays the displayed image by superimposing it on the front view existing in the user's field of view. The display unit 12 includes a transmissive display. Then, the display unit 12 displays the display image on the transmissive display located in front of the user. In this way, in the user's field of view, the displayed image overlaps the front view existing in the user's field of view.

透過型ディスプレイは、ユーザに装着されるウェアラブル装置、例えばヘッドマウントディスプレイであってもよい。図3に一例を模式的に示す。図3には、眼鏡型のヘッドマウントディスプレイが示されている。レンズ部分20が透過型ディスプレイとなっている。 The transmissive display may be a wearable device worn by the user, such as a head-mounted display. An example is schematically shown in FIG. FIG. 3 shows a spectacle-shaped head-mounted display. The lens portion 20 is a transmissive display.

図2に戻り、表示画像生成部11は、表示画像を生成する。詳細は以下で説明するが、認識部14による画像解析の結果が表示画像生成部11に入力される。表示画像生成部11は、当該結果に基づき、表示画像を生成する。表示画像生成部11が生成した表示画像は表示部12に入力される。そして、表示部12は、当該表示画像をユーザの視野に重ねて表示する。 Returning to FIG. 2, the display image generation unit 11 generates a display image. Details will be described below, but the result of image analysis by the recognition unit 14 is input to the display image generation unit 11. The display image generation unit 11 generates a display image based on the result. The display image generated by the display image generation unit 11 is input to the display unit 12. Then, the display unit 12 superimposes the display image on the user's field of view and displays the display image.

図3の例の場合、例えば、処理装置22内に位置するコンピュータにより、表示画像生成部11が構成されてもよい。表示画像生成部11及び表示部12間の通信は、有線及び/又は無線での任意の通信規格で実現される。 In the case of the example of FIG. 3, for example, the display image generation unit 11 may be configured by a computer located in the processing device 22. Communication between the display image generation unit 11 and the display unit 12 is realized by an arbitrary communication standard by wire and / or wireless.

図2に戻り、撮像部13は、ユーザの視野を含むように撮像画像を生成する。撮像部13(カメラ)は、ユーザの前方(顔が向く方向)を撮像するように構成される。例えば、撮像部13は、レンズがユーザの前方を向くように構成される。また、撮像部13は、ユーザの顔の向きの変化に応じて、レンズの向きが変化するよう構成される。 Returning to FIG. 2, the imaging unit 13 generates an captured image so as to include the user's field of view. The imaging unit 13 (camera) is configured to capture an image in front of the user (direction in which the face faces). For example, the imaging unit 13 is configured so that the lens faces the front of the user. Further, the imaging unit 13 is configured so that the orientation of the lens changes according to the change in the orientation of the user's face.

例えば、ユーザの顔より上に装着される物体に所定の向きでカメラを取り付けることで、上述のような構成を実現できる。図3の例の場合、ユーザの顔に装着されるヘッドマウントディスプレイに、カメラ21を取り付けている。カメラ21は、ユーザの前方(顔が向く方向)を撮像するように取り付けられている。この例の場合、ユーザの顔の向きが変化すると、それに応じて、カメラ21のレンズの向きも同じ方向を向くように変化する。 For example, the above configuration can be realized by attaching the camera to an object mounted above the user's face in a predetermined orientation. In the case of the example of FIG. 3, the camera 21 is attached to the head-mounted display mounted on the user's face. The camera 21 is attached so as to capture an image in front of the user (direction in which the face faces). In the case of this example, when the direction of the user's face changes, the direction of the lens of the camera 21 also changes so as to face the same direction.

図2に戻り、認識部14は、撮像部13が撮像した撮像画像を解析し、撮像画像に含まれる(写っている)識別コードを特定する。撮像画像に複数の識別コードが存在する場合、認識部14は、複数の識別コードを特定することができる。図3の例の場合、例えば、処理装置22内に位置するコンピュータにより、認識部14が構成されてもよい。撮像部13及び認識部14間の通信は、有線及び/又は無線での任意の通信規格で実現される。 Returning to FIG. 2, the recognition unit 14 analyzes the captured image captured by the imaging unit 13 and identifies the identification code included (in the image) in the captured image. When a plurality of identification codes are present in the captured image, the recognition unit 14 can identify the plurality of identification codes. In the case of the example of FIG. 3, for example, the recognition unit 14 may be configured by a computer located in the processing device 22. Communication between the image pickup unit 13 and the recognition unit 14 is realized by an arbitrary communication standard by wire and / or wireless.

検査対象の物体各々には、図形等で表現された識別コードが付される。例えば、バーコード等の一次元コードや、QRコード(登録商標)等の二次元コードが検査対象に付される。このような検査対象を撮像した撮像画像には、図形等で表現された識別コードが含まれる。認識部14は、予め、図形等で表現された識別コードの外観の特徴を保持しておく。そして、認識部14は、撮像画像内で当該特徴があらわれている箇所を特定する。 An identification code represented by a figure or the like is attached to each object to be inspected. For example, a one-dimensional code such as a bar code or a two-dimensional code such as a QR code (registered trademark) is attached to the inspection target. The captured image obtained by capturing such an inspection target includes an identification code represented by a graphic or the like. The recognition unit 14 holds in advance the appearance characteristics of the identification code represented by a figure or the like. Then, the recognition unit 14 identifies a portion in the captured image in which the feature appears.

識別コードの外観は、各規格に従った特有なものとなっている。そして、規格の要件を満たしつつ、細部において各々異なる外観を有することで、各々が区別可能となっている。このように、複数の識別コードの外観には、共通する特徴と、互いに異なる特徴とが存在する。撮像画像に含まれる識別コードを特定する処理に用いられる特徴は、複数の識別コードに共通の特徴とすることができる。 The appearance of the identification code is unique according to each standard. And each can be distinguished by having different appearances in each detail while satisfying the requirements of the standard. As described above, the appearance of the plurality of identification codes has common features and features different from each other. The feature used in the process of identifying the identification code included in the captured image can be a feature common to a plurality of identification codes.

認識部14は、撮像画像の解析結果、すなわち、特定した識別コード各々の撮像画像内の位置を示す情報を、表示画像生成部11に入力する。 The recognition unit 14 inputs the analysis result of the captured image, that is, the information indicating the position in the captured image of each of the specified identification codes to the display image generation unit 11.

表示画像生成部11は、認識部14から入力された上記情報に基づき、表示画像を生成する。具体的には、表示画像生成部11は、ユーザの視野において、特定された識別コードに対応する位置に強調情報が表示される表示画像を生成する。認識部14が複数の識別コードを特定した場合、表示画像生成部11は、複数の識別コード各々に対応する位置に強調情報が表示される表示画像を生成する。 The display image generation unit 11 generates a display image based on the above information input from the recognition unit 14. Specifically, the display image generation unit 11 generates a display image in which the highlighted information is displayed at a position corresponding to the specified identification code in the user's field of view. When the recognition unit 14 identifies a plurality of identification codes, the display image generation unit 11 generates a display image in which the highlighted information is displayed at a position corresponding to each of the plurality of identification codes.

表示部12が表示画像を表示すると、ユーザの視野において、ユーザの前方の景色に、表示画像が重なる。ユーザの視野には、前方に実在する識別コードと、表示画像として表示されている強調情報とが含まれる。強調情報が表示される「特定された識別コードに対応する位置」は、ユーザが、視野内の情報に基づき、特定された識別コードとその強調情報とが対応すると直感的に把握できるあらゆる位置を含む。例えば、視野内において、識別コードと強調情報とが重なる位置に表示してもよいし、識別コードの周囲に強調情報が位置するように表示してもよい。 When the display unit 12 displays the display image, the display image overlaps the scenery in front of the user in the user's field of view. The user's field of view includes an identification code that actually exists in front and highlighted information that is displayed as a display image. The "position corresponding to the identified identification code" in which the highlighted information is displayed is any position that the user can intuitively grasp based on the information in the field of view that the identified identification code and the highlighted information correspond to each other. Including. For example, it may be displayed at a position where the identification code and the highlighted information overlap in the visual field, or may be displayed so that the highlighted information is located around the identification code.

強調情報は、ユーザの視野内で強調できるものであればよく、例えば、矢印、他の図形、記号、文字、数字、マーク、写真等で構成することができる。 The emphasis information may be any information that can be emphasized within the user's field of view, and may be composed of, for example, arrows, other figures, symbols, characters, numbers, marks, photographs, and the like.

表示画像生成部11は、予め、撮像部13が撮像した撮像画像内の座標を透過型ディスプレイに表示される表示画像内の座標に変換するための変換ルール(例:行列等で構成された変換式等)を保持しておく。そして、認識部14から特定した識別コード各々の撮像画像内の位置を示す情報を取得すると、当該変換ルールに従い識別コード各々の位置を表示画像内の座標に変換する。そして、表示画像生成部11は、変換後の座標に対応する位置に強調情報を配置した表示画像を生成する。 The display image generation unit 11 converts the coordinates in the captured image captured by the imaging unit 13 into the coordinates in the display image displayed on the transmissive display in advance (example: conversion composed of a matrix or the like). The formula etc.) is retained. Then, when the information indicating the position in the captured image of each of the identified identification codes is acquired from the recognition unit 14, the position of each identification code is converted into the coordinates in the display image according to the conversion rule. Then, the display image generation unit 11 generates a display image in which the emphasis information is arranged at the position corresponding to the converted coordinates.

変換ルールは、撮像部13(カメラ)のレンズの向きやレンズの歪み、透過型ディスプレイ(ヘッドマウントディスプレイのレンズ部分20)の向き、撮像部13と透過型ディスプレイとの相対的な位置関係、透過型ディスプレイとユーザの目との相対的な位置関係等のパラメータに基づき、生成できる。図3に示すヘッドマウントディスプレイの場合、これらのパラメータが予め定まる。このため、変換ルールを予め作成し、表示画像生成部11に保持させておくことができる。なお、撮像画像内の座標を表示画像内の座標に変換する手段は、従来技術に準じて実現できるので、ここでの詳細な説明は省略する。 The conversion rules include the lens orientation and lens distortion of the imaging unit 13 (camera), the orientation of the transmissive display (lens portion 20 of the head-mounted display), the relative positional relationship between the imaging unit 13 and the transmissive display, and transmission. It can be generated based on parameters such as the relative positional relationship between the type display and the user's eyes. In the case of the head-mounted display shown in FIG. 3, these parameters are predetermined. Therefore, a conversion rule can be created in advance and stored in the display image generation unit 11. Since the means for converting the coordinates in the captured image to the coordinates in the display image can be realized according to the prior art, detailed description here will be omitted.

ここで、図3及び図4を用いて、表示画像生成部11が生成する表示画像、及び、表示部12による表示画像の表示の一例を説明する。 Here, an example of the display image generated by the display image generation unit 11 and the display of the display image by the display unit 12 will be described with reference to FIGS. 3 and 4.

図4(1)は、表示画像が表示されていない状態における透視型ディスプレイ越しのユーザの視野を示す。これは、図3のユーザの視野に相当する。ユーザの視野には、作業台と、当該作業台の上に置かれた4つの検査対象とが存在する。4つの検査対象各々には、図形等で表現された識別コード(バーコード)Aが付されている。 FIG. 4 (1) shows the user's field of view through the fluoroscopic display in a state where the display image is not displayed. This corresponds to the user's field of view in FIG. In the user's field of view, there is a work table and four inspection targets placed on the work table. An identification code (bar code) A represented by a figure or the like is attached to each of the four inspection targets.

図4(2)は、表示画像生成部11が生成した表示画像である。当該例では、強調情報Bとして、四角形状の図形が表示されている。表示画像において、強調情報Bが表示される部分以外は透明となる。当該表示画像が、透視型ディスプレイ、すなわち図3のレンズ部分20に表示される。 FIG. 4 (2) is a display image generated by the display image generation unit 11. In this example, a square figure is displayed as the emphasis information B. In the displayed image, the part other than the portion where the highlighted information B is displayed is transparent. The display image is displayed on the fluoroscopic display, that is, the lens portion 20 of FIG.

図4(3)は、表示画像が表示されている状態における透視型ディスプレイ越しのユーザの視野を示す。ユーザの前方の景色(図4(1))に表示画像(図4(2))が重なっている。そして、強調情報Bが識別コードAに対応する位置に存在する。 FIG. 4 (3) shows the user's field of view through the fluoroscopic display in the state where the display image is displayed. The displayed image (FIG. 4 (2)) overlaps the scenery in front of the user (FIG. 4 (1)). Then, the emphasized information B exists at a position corresponding to the identification code A.

図4(3)のような視野に基づき、ユーザは、前方に存在する4つの検査対象すべての識別コードAが、画像処理装置10により特定されていることを直感的に把握できる。 Based on the visual field as shown in FIG. 4 (3), the user can intuitively grasp that the identification codes A of all four inspection targets existing in front are specified by the image processing device 10.

なお、上述の通り、強調情報Bが表示される識別コードAに対応する位置は、ユーザが直感的に、対応する強調情報Bと識別コードAとを把握できるものであればよい。図4(3)に示すように、強調情報Bが識別コードAを内包してもよいし、強調情報Bが識別コードAと重なってもよい。また、強調情報Bが識別コードAの周囲に位置してもよい。その他、強調情報Bは、識別コードAの強調表示に加えて、識別コードAを付された検査対象を強調表示してもよい(図11参照)。これらの前提は以下のすべての実施形態において同様である。また、強調情報Bに対するこれらの前提は、第2の実施形態で説明する強調情報Cにおいても同様である。 As described above, the position corresponding to the identification code A on which the emphasis information B is displayed may be such that the user can intuitively grasp the corresponding emphasis information B and the identification code A. As shown in FIG. 4 (3), the emphasized information B may include the identification code A, or the emphasized information B may overlap with the identification code A. Further, the emphasized information B may be located around the identification code A. In addition to the highlighting of the identification code A, the highlighting information B may highlight the inspection target to which the identification code A is attached (see FIG. 11). These assumptions are the same in all of the following embodiments: Further, these assumptions for the emphasis information B are the same for the emphasis information C described in the second embodiment.

次に、図5のフローチャートを用いて、本実施形態の画像処理装置10の処理の流れの一例を説明する。 Next, an example of the processing flow of the image processing apparatus 10 of the present embodiment will be described with reference to the flowchart of FIG.

撮像部13がユーザの前方(顔が向く方向)を撮像し、ユーザの視野を含むように撮像画像を生成すると(S10)、認識部14は、撮像画像を画像解析し、図形等で表現された識別コードを特定する処理を行う(S11)。撮像画像内に識別コードがない場合(S12のNo)、S15に進む。 When the imaging unit 13 images the front of the user (direction in which the face faces) and generates an image to include the user's field of view (S10), the recognition unit 14 analyzes the captured image and represents it as a graphic or the like. A process for specifying the identification code is performed (S11). If there is no identification code in the captured image (No in S12), the process proceeds to S15.

撮像画像内に識別コードがある場合(S12のYes)、認識部14は、特定した識別コード各々の撮像画像内の位置を示す情報を表示画像生成部11に入力する。表示画像生成部11は、当該情報に基づき、ユーザの視野において、特定された識別コードに対応する位置に強調情報が表示される表示画像を生成する(S13)。そして、表示部12は、S13で生成された表示画像をユーザの視野に重ねて表示する(S14)。その後、S15に進む。 When there is an identification code in the captured image (Yes in S12), the recognition unit 14 inputs information indicating the position in the captured image of each of the identified identification codes to the display image generation unit 11. Based on the information, the display image generation unit 11 generates a display image in which the highlighted information is displayed at a position corresponding to the specified identification code in the user's field of view (S13). Then, the display unit 12 superimposes the display image generated in S13 on the user's field of view (S14). Then, the process proceeds to S15.

S15では、処理を終了する入力がなされたか否かを判断する。入力されていない場合(S15のNo)、S10に戻り、次の撮像画像を取得して同様の処理を繰り返す。一方、入力されている場合(S15のYes)、処理を終了する。 In S15, it is determined whether or not the input for ending the process has been made. If no input is made (No in S15), the process returns to S10, the next captured image is acquired, and the same process is repeated. On the other hand, if it is input (Yes in S15), the process ends.

以上説明した本実施形態の画像処理装置10は、透視型ディスプレイを用い、ユーザの視野に重ねて表示画像を表示することができる。かかる場合、ユーザの視野において、ユーザの前方の景色に、透過型ディスプレイに表示された表示画像が重なる。そして、画像処理装置10は、ユーザの前方(顔が向く方向)を撮像し、ユーザの視野を含むように生成された撮像画像内で識別コードを特定すると、特定した識別コードに対応する位置に強調情報が表示される表示画像を生成し、透視型ディスプレイに表示することができる。 The image processing device 10 of the present embodiment described above uses a fluoroscopic display and can display a displayed image over the user's field of view. In such a case, the display image displayed on the transmissive display overlaps the scenery in front of the user in the user's field of view. Then, when the image processing device 10 images the front of the user (the direction in which the face faces) and specifies the identification code in the captured image generated so as to include the user's field of view, the image processing device 10 is positioned at a position corresponding to the specified identification code. A display image in which the highlight information is displayed can be generated and displayed on a fluoroscopic display.

このような画像処理装置10によれば、前方の景色と表示画像とが重なったユーザの視野において、特定した識別コードを強調表示することができる。このため、ユーザは、自分の視野内の情報から、直感的に、画像処理装置10により特定された識別コードを把握することができる。 According to such an image processing device 10, the specified identification code can be highlighted in the user's field of view in which the front view and the displayed image overlap. Therefore, the user can intuitively grasp the identification code specified by the image processing device 10 from the information in his / her field of view.

また、本実施形態の画像処理装置10は、撮像画像内に複数の識別コードが存在する場合、それらを特定し、各々に対して認識処理を行うことができる。そして、特定した識別コード各々を強調表示することができる。このように、複数の識別コードをまとめて処理できる本実施形態によれば、作業効率が向上する。また、本実施形態の場合、ユーザの前方に複数の識別コードが存在する場合であっても、画像処理装置10の解析結果がどの識別コードの対応するものか、ユーザは直感的に把握できる。 Further, when a plurality of identification codes are present in the captured image, the image processing device 10 of the present embodiment can identify them and perform recognition processing for each of them. Then, each of the identified identification codes can be highlighted. As described above, according to the present embodiment capable of collectively processing a plurality of identification codes, work efficiency is improved. Further, in the case of the present embodiment, even when a plurality of identification codes exist in front of the user, the user can intuitively grasp which identification code the analysis result of the image processing apparatus 10 corresponds to.

このように、本実施形態の画像処理装置10によれば、識別コードが含まれ得る撮像画像を解析し、結果をユーザに向けて提供する装置において、提供された解析結果がどの識別コードに対応するものか、ユーザが容易に把握できるようになる。 As described above, according to the image processing device 10 of the present embodiment, in the device that analyzes the captured image that may include the identification code and provides the result to the user, the provided analysis result corresponds to which identification code. It will be easy for the user to understand what to do.

<第2の実施形態>
本実施形態の画像処理装置10は、特定した識別コードに対する認識結果を区別可能に表示する点で、第1の実施形態と異なる。その他の構成は第1の実施形態と同様である。
<Second embodiment>
The image processing device 10 of the present embodiment is different from the first embodiment in that the recognition result for the specified identification code is displayed in a distinguishable manner. Other configurations are the same as in the first embodiment.

本実施形態の画像処理装置10の機能ブロック図は、第1の実施形態同様、図2で示される。表示部12及び撮像部13の構成は、第1の実施形態と同様である。 The functional block diagram of the image processing apparatus 10 of the present embodiment is shown in FIG. 2 as in the first embodiment. The configuration of the display unit 12 and the imaging unit 13 is the same as that of the first embodiment.

認識部14は、第1の実施形態で説明したように、撮像画像に写っている図形等で表現された識別コードを特定する。そして、認識部14は、特定した識別コード各々を解読する。すなわち、認識部14は、図形等で表現された識別コードのパターンを解読し、当該パターンに対応する情報(例:数字や文字の組み合わせからなる識別コード)を認識する。撮像画像に複数の識別コードが写っている場合、認識部14は、複数の識別コードを特定し、各々に対して認識する処理を行う。 As described in the first embodiment, the recognition unit 14 identifies the identification code represented by the figure or the like shown in the captured image. Then, the recognition unit 14 decodes each of the identified identification codes. That is, the recognition unit 14 decodes the pattern of the identification code represented by a figure or the like, and recognizes the information corresponding to the pattern (eg, the identification code composed of a combination of numbers and characters). When a plurality of identification codes are shown in the captured image, the recognition unit 14 identifies the plurality of identification codes and performs a process of recognizing each of the plurality of identification codes.

認識部14は、特定した識別コード各々の撮像画像内の位置を示す情報に、識別コードが認識されたか否かを示す情報を対応付けて、表示画像生成部11に入力する。 The recognition unit 14 associates the information indicating the position in the captured image of each of the identified identification codes with the information indicating whether or not the identification code has been recognized, and inputs the information to the display image generation unit 11.

「識別コードを認識された」とは、図形等で表現された識別コードを解読し、パターンに対応する情報を認識できたことを意味する。「識別コードを認識されなかった」とは、図形等で表現された識別コードに対し解読する処理を行ったが、パターンに対応する情報を認識できなかったことを意味する。例えば、「撮像画像に写っている識別コードが小さく、細部のパターンが不明瞭」、「他の物体が重なることによりパターンの一部が撮像画像中に写っていない」、「光の反射具合によりパターンが不明瞭になっている部分が存在する」等の理由により、識別コードを認識できない状態となり得る。 "The identification code is recognized" means that the identification code represented by a figure or the like can be deciphered and the information corresponding to the pattern can be recognized. "The identification code was not recognized" means that the information corresponding to the pattern could not be recognized even though the processing for decoding the identification code represented by a figure or the like was performed. For example, "the identification code shown in the captured image is small and the detailed pattern is unclear", "a part of the pattern is not shown in the captured image due to overlapping of other objects", and "depending on the degree of light reflection". The identification code may not be recognized due to reasons such as "there is a part where the pattern is unclear".

表示画像生成部11は、第1の実施形態同様、ユーザの視野において、特定された識別コードに対応する位置に強調情報が表示される表示画像を生成する。そして、表示画像生成部11は、認識部14により認識された識別コード、及び、認識されなかった識別コードを区別可能な表示画像を生成する。これらの識別コードを区別可能に表示する手法は特段制限されない。 Similar to the first embodiment, the display image generation unit 11 generates a display image in which the highlighted information is displayed at a position corresponding to the specified identification code in the user's field of view. Then, the display image generation unit 11 generates a display image capable of distinguishing the identification code recognized by the recognition unit 14 and the unrecognized identification code. The method for displaying these identification codes in a distinguishable manner is not particularly limited.

ここで、図6を用いて、表示画像生成部11が生成する表示画像、及び、表示部12による表示画像の表示の一例を説明する。 Here, an example of the display image generated by the display image generation unit 11 and the display of the display image by the display unit 12 will be described with reference to FIG.

図6(1)は、表示画像が表示されていない状態における透視型ディスプレイ越しのユーザの視野を示す。これは、図3のユーザの視野に相当する。ユーザの視野には、作業台と、当該作業台の上に置かれた4つの検査対象とが存在する。4つの検査対象各々には、図形等で表現された識別コード(バーコード)Aが付されている。 FIG. 6 (1) shows the user's field of view through the fluoroscopic display in a state where the display image is not displayed. This corresponds to the user's field of view in FIG. In the user's field of view, there is a work table and four inspection targets placed on the work table. An identification code (bar code) A represented by a figure or the like is attached to each of the four inspection targets.

図6(2)は、表示画像生成部11が生成した表示画像である。当該例では、互いに区別可能な強調情報B及び強調情報Cが表示されている。強調情報Bは実線の四角であるのに対し、強調情報Cは点線の四角となっている。強調情報Bは、認識部14により認識された識別コードAに対応する位置に表示される。一方、強調情報Cは、認識部14により特定されたが、認識されなかった識別コードAに対応する位置に表示される。 FIG. 6 (2) is a display image generated by the display image generation unit 11. In this example, emphasized information B and emphasized information C that can be distinguished from each other are displayed. The emphasis information B is a solid square, while the emphasis information C is a dotted square. The highlighted information B is displayed at a position corresponding to the identification code A recognized by the recognition unit 14. On the other hand, the emphasized information C is displayed at a position corresponding to the identification code A which is specified by the recognition unit 14 but is not recognized.

表示画像において、強調情報B及び強調情報Cが表示される部分以外は透明となる。当該表示画像が、透視型ディスプレイ、すなわち図3のレンズ部分20に表示される。 In the displayed image, the parts other than the portion where the highlighted information B and the highlighted information C are displayed are transparent. The display image is displayed on the fluoroscopic display, that is, the lens portion 20 of FIG.

図6(3)は、表示画像が表示されている状態における透視型ディスプレイ越しのユーザの視野を示す。ユーザの前方の景色(図6(1))に表示画像(図6(2))が重なっている。そして、強調情報B及び強調情報Cが識別コードAに対応する位置に存在する。なお、強調情報Bは、認識部14により認識された識別コードに対応する位置に、強調情報Cは、認識部14により認識されなかった識別コードに対応する位置に表示される。 FIG. 6 (3) shows the user's field of view through the fluoroscopic display in the state where the display image is displayed. The displayed image (FIG. 6 (2)) overlaps the scenery in front of the user (FIG. 6 (1)). Then, the emphasized information B and the emphasized information C exist at positions corresponding to the identification code A. The emphasized information B is displayed at a position corresponding to the identification code recognized by the recognition unit 14, and the emphasis information C is displayed at a position corresponding to the identification code not recognized by the recognition unit 14.

図6(3)のような視野に基づき、ユーザは、前方に存在する4つの検査対象すべての識別コードAが、画像処理装置10により特定されていることを直感的に把握できる。また、強調情報Cに対応する右奥の識別コードAは画像処理装置10により認識されておらず、強調情報Bに対応する他の識別コードAは画像処理装置10により認識されたことを、直感的に把握できる。 Based on the visual field as shown in FIG. 6 (3), the user can intuitively grasp that the identification codes A of all four inspection targets existing in front are specified by the image processing device 10. Further, it is intuitive that the identification code A on the far right corresponding to the emphasis information C is not recognized by the image processing device 10, and the other identification code A corresponding to the emphasis information B is recognized by the image processing device 10. Can be grasped.

次に、図7のフローチャートを用いて、本実施形態の画像処理装置10の処理の流れの一例を説明する。 Next, an example of the processing flow of the image processing apparatus 10 of the present embodiment will be described with reference to the flowchart of FIG. 7.

撮像部13がユーザの前方(顔が向く方向)を撮像し、ユーザの視野を含むように撮像画像を生成すると(S20)、認識部14は、撮像画像を画像解析し、図形等で表現された識別コードを特定する処理を行う(S21)。撮像画像内に識別コードがない場合(S22のNo)、S26に進む。 When the imaging unit 13 images the front of the user (direction in which the face faces) and generates an image to include the user's field of view (S20), the recognition unit 14 analyzes the captured image and represents it as a graphic or the like. A process for specifying the identification code is performed (S21). If there is no identification code in the captured image (No in S22), the process proceeds to S26.

撮像画像内に識別コードがある場合(S22のYes)、認識部14は、特定した識別コードに対して認識する処理を行う(S23)。そして、認識部14は、特定した識別コード各々の撮像画像内の位置を示す情報に、識別コードが認識されたか否かを示す情報を対応付けて、表示画像生成部11に入力する。表示画像生成部11は、当該情報に基づき、ユーザの視野において、特定された識別コードに対応する位置に強調情報が表示されるとともに、認識された識別コードと認識されなかった識別コードとを区別可能な表示画像を生成する(S24)。 When there is an identification code in the captured image (Yes in S22), the recognition unit 14 performs a process of recognizing the specified identification code (S23). Then, the recognition unit 14 associates the information indicating the position in the captured image of each of the identified identification codes with the information indicating whether or not the identification code has been recognized, and inputs the information to the display image generation unit 11. Based on the information, the display image generation unit 11 displays the highlighted information at the position corresponding to the specified identification code in the user's field of view, and distinguishes between the recognized identification code and the unrecognized identification code. Generate a possible display image (S24).

そして、表示部12は、S24で生成された表示画像をユーザの視野に重ねて表示する(S25)。その後、S26に進む。 Then, the display unit 12 superimposes the display image generated in S24 on the user's field of view (S25). Then, the process proceeds to S26.

S26では、処理を終了する入力がなされたか否かを判断する。入力されていない場合(S26のNo)、S20に戻り、次の撮像画像を取得して同様の処理を繰り返す。一方、入力されている場合(S26のYes)、処理を終了する。 In S26, it is determined whether or not the input for ending the process has been made. If no input is made (No in S26), the process returns to S20, the next captured image is acquired, and the same process is repeated. On the other hand, if it is input (Yes in S26), the process ends.

以上説明した本実施形態によれば、第1の実施形態と同様な作用効果を実現できる。また、本実施形態によれば、ユーザは、視野に存在する識別コード各々が、画像処理装置10により認識されたのか否かを直感的に把握できる。 According to the present embodiment described above, the same effects as those of the first embodiment can be realized. Further, according to the present embodiment, the user can intuitively grasp whether or not each of the identification codes existing in the visual field is recognized by the image processing device 10.

このため、ユーザは、認識された識別コードが付された検査対象、すなわち、情報を読み込み済みの検査対象を作業台から移動させ、認識されなかった識別コードが付された検査対象のみを作業対に残し、再度認識処理を行わせることができる。また、ユーザは、認識されなかった識別コードが付された検査対象を撮像しやすい位置に移動させ、再度、認識処理を行わせることができる。結果、認識されなかった識別コードを次の処理で認識させることが可能となる。 Therefore, the user moves the inspection target with the recognized identification code, that is, the inspection target whose information has been read from the workbench, and works only on the inspection target with the unrecognized identification code. It can be left in the box and the recognition process can be performed again. In addition, the user can move the inspection target to which the unrecognized identification code is attached to a position where it is easy to take an image, and cause the recognition process to be performed again. As a result, the unrecognized identification code can be recognized by the next process.

このように、本実施形態によれば、ユーザは、認識された識別コードが付された検査対象と、認識されなかった識別コードが付された検査対象とを直感的に把握し、各々に対して適切な対応をとることができる。結果、検査効率が向上する。 As described above, according to the present embodiment, the user intuitively grasps the inspection target to which the recognized identification code is attached and the inspection target to which the unrecognized identification code is attached, and for each of them. Can take appropriate measures. As a result, inspection efficiency is improved.

<第3の実施形態>
本実施形態の画像処理装置10は、認識された識別コードのみを強調表示する点で、第1及び第2の実施形態と異なる。その他の構成は、第1及び第2の実施形態と同様である。
<Third embodiment>
The image processing device 10 of the present embodiment is different from the first and second embodiments in that only the recognized identification code is highlighted. Other configurations are the same as those of the first and second embodiments.

本実施形態の画像処理装置10の機能ブロック図は、第1及び第2の実施形態同様、図2で示される。表示部12及び撮像部13の構成は、第1及び第2の実施形態と同様である。 The functional block diagram of the image processing apparatus 10 of the present embodiment is shown in FIG. 2 as in the first and second embodiments. The configuration of the display unit 12 and the imaging unit 13 is the same as that of the first and second embodiments.

認識部14は、第1の実施形態で説明したように、撮像画像に写っている図形等で表現された識別コードを特定する。また、認識部14は、第2の実施形態で説明したように、特定した識別コードに対して認識する処理を行う。撮像画像に複数の識別コードが写っている場合、認識部14は、複数の識別コードを特定し、各々に対して認識する処理を行う。 As described in the first embodiment, the recognition unit 14 identifies the identification code represented by the figure or the like shown in the captured image. Further, the recognition unit 14 performs a process of recognizing the specified identification code as described in the second embodiment. When a plurality of identification codes are shown in the captured image, the recognition unit 14 identifies the plurality of identification codes and performs a process of recognizing each of the plurality of identification codes.

認識部14は、特定し、認識した識別コード各々の撮像画像内の位置を示す情報を表示画像生成部11に入力する。なお、認識部14は、第2の実施形態で説明したように、特定した識別コード各々の撮像画像内の位置を示す情報に、識別コードが認識されたか否かを示す情報を対応付けて、表示画像生成部11に入力してもよい。 The recognition unit 14 inputs information indicating the position in the captured image of each of the identified and recognized identification codes to the display image generation unit 11. As described in the second embodiment, the recognition unit 14 associates the information indicating the position in the captured image of each of the identified identification codes with the information indicating whether or not the identification code is recognized. It may be input to the display image generation unit 11.

表示画像生成部11は、ユーザの視野において、認識部14により認識された識別コードに対応する位置に強調情報が表示される表示画像を生成する。認識部14により特定されたが、認識されなかった識別コードに対応する位置には強調情報が表示されない。 The display image generation unit 11 generates a display image in which the highlighted information is displayed at a position corresponding to the identification code recognized by the recognition unit 14 in the user's field of view. Highlighted information is not displayed at the position corresponding to the identification code identified by the recognition unit 14, but not recognized.

ここで、図8を用いて、表示画像生成部11が生成する表示画像、及び、表示部12による表示画像の表示の一例を説明する。 Here, an example of the display image generated by the display image generation unit 11 and the display of the display image by the display unit 12 will be described with reference to FIG.

図8(1)は、表示画像が表示されていない状態における透視型ディスプレイ越しのユーザの視野を示す。これは、図3のユーザの視野に相当する。ユーザの視野には、作業台と、当該作業台の上に置かれた4つの検査対象とが存在する。4つの検査対象各々には、図形等で表現された識別コード(バーコード)Aが付されている。 FIG. 8 (1) shows the user's field of view through the fluoroscopic display in a state where the display image is not displayed. This corresponds to the user's field of view in FIG. In the user's field of view, there is a work table and four inspection targets placed on the work table. An identification code (bar code) A represented by a figure or the like is attached to each of the four inspection targets.

図8(2)は、表示画像生成部11が生成した表示画像である。当該例では、強調情報Bが表示されている。強調情報Bは、認識部14により認識された識別コードAに対応する位置に表示される。表示画像において、強調情報Bが表示される部分以外は透明となる。当該表示画像が、透視型ディスプレイ、すなわち図3のレンズ部分20に表示される。 FIG. 8 (2) is a display image generated by the display image generation unit 11. In this example, the highlighted information B is displayed. The highlighted information B is displayed at a position corresponding to the identification code A recognized by the recognition unit 14. In the displayed image, the part other than the portion where the highlighted information B is displayed is transparent. The display image is displayed on the fluoroscopic display, that is, the lens portion 20 of FIG.

図8(3)は、表示画像が表示されている状態における透視型ディスプレイ越しのユーザの視野を示す。ユーザの前方の景色(図8(1))に表示画像(図8(2))が重なっている。そして、強調情報Bが、認識部14により認識された識別コードAに対応する位置に存在する。 FIG. 8 (3) shows the user's field of view through the fluoroscopic display in the state where the display image is displayed. The displayed image (FIG. 8 (2)) overlaps the scenery in front of the user (FIG. 8 (1)). Then, the emphasized information B exists at a position corresponding to the identification code A recognized by the recognition unit 14.

図8(3)のような視野に基づき、ユーザは、前方に存在する4つの検査対象の内、強調情報Bに対応する3つの識別コードAが、画像処理装置10により認識されたことを直感的に把握できる。 Based on the visual field as shown in FIG. 8 (3), the user intuitively realizes that the image processing device 10 has recognized three identification codes A corresponding to the emphasis information B among the four inspection targets existing in front. Can be grasped.

次に、図7のフローチャートを用いて、本実施形態の画像処理装置10の処理の流れの一例を説明する。 Next, an example of the processing flow of the image processing apparatus 10 of the present embodiment will be described with reference to the flowchart of FIG. 7.

撮像部13がユーザの前方(顔が向く方向)を撮像し、ユーザの視野を含むように撮像画像を生成すると(S20)、認識部14は、撮像画像を画像解析し、図形等で表現された識別コードを特定する処理を行う(S21)。撮像画像内に識別コードがない場合(S22のNo)、S26に進む。 When the imaging unit 13 images the front of the user (direction in which the face faces) and generates an image to include the user's field of view (S20), the recognition unit 14 analyzes the captured image and represents it as a graphic or the like. A process for specifying the identification code is performed (S21). If there is no identification code in the captured image (No in S22), the process proceeds to S26.

撮像画像内に識別コードがある場合(S22のYes)、認識部14は、特定した識別コードに対して認識する処理を行う(S23)。そして、認識部14は、例えば、認識した識別コード各々の撮像画像内の位置を示す情報を表示画像生成部11に入力する。表示画像生成部11は、当該情報に基づき、ユーザの視野において、認識された識別コードに対応する位置に強調情報が表示される表示画像を生成する(S24)。 When there is an identification code in the captured image (Yes in S22), the recognition unit 14 performs a process of recognizing the specified identification code (S23). Then, the recognition unit 14 inputs, for example, information indicating the position in the captured image of each of the recognized identification codes into the display image generation unit 11. Based on the information, the display image generation unit 11 generates a display image in which the highlighted information is displayed at a position corresponding to the recognized identification code in the user's field of view (S24).

そして、表示部12は、S24で生成された表示画像をユーザの視野に重ねて表示する(S25)。その後、S26に進む。 Then, the display unit 12 superimposes the display image generated in S24 on the user's field of view (S25). Then, the process proceeds to S26.

S26では、処理を終了する入力がなされたか否かを判断する。入力されていない場合(S26のNo)、S20に戻り、次の撮像画像を取得して同様の処理を繰り返す。一方、入力されている場合(S26のYes)、処理を終了する。 In S26, it is determined whether or not the input for ending the process has been made. If no input is made (No in S26), the process returns to S20, the next captured image is acquired, and the same process is repeated. On the other hand, if it is input (Yes in S26), the process ends.

以上説明した本実施形態によれば、第1及び第2の実施形態と同様な作用効果を実現できる。また、本実施形態によれば、ユーザは、視野に存在する識別コードの内、いずれが画像処理装置10により認識されたかを直感的に把握できる。 According to the present embodiment described above, the same effects as those of the first and second embodiments can be realized. Further, according to the present embodiment, the user can intuitively grasp which of the identification codes existing in the visual field is recognized by the image processing device 10.

このため、ユーザは、認識された識別コードが付された検査対象、すなわち、情報を読み込み済みの検査対象を作業台から移動させ、認識されなかった識別コードが付された検査対象のみを作業対に残し、再度認識処理を行わせることができる。また、ユーザは、認識されなかった識別コードが付された検査対象を撮像しやすい位置に移動させ、再度、認識処理を行わせることができる。結果、認識されなかった識別コードを次の処理で認識させることが可能となる。 Therefore, the user moves the inspection target with the recognized identification code, that is, the inspection target whose information has been read from the workbench, and works only on the inspection target with the unrecognized identification code. It can be left in the box and the recognition process can be performed again. In addition, the user can move the inspection target to which the unrecognized identification code is attached to a position where it is easy to take an image, and cause the recognition process to be performed again. As a result, the unrecognized identification code can be recognized by the next process.

このように、本実施形態によれば、ユーザは、認識された識別コードが付された検査対象と、認識されなかった識別コードが付された検査対象とを直感的に把握し、各々に対して適切な対応をとることができる。結果、検査効率が向上する。 As described above, according to the present embodiment, the user intuitively grasps the inspection target to which the recognized identification code is attached and the inspection target to which the unrecognized identification code is attached, and for each of them. Can take appropriate measures. As a result, inspection efficiency is improved.

<第4の実施形態>
本実施形態の画像処理装置10は、認識できなかった識別コードのみを強調表示する点で、第1乃至第3の実施形態と異なる。その他の構成は、第1乃至第3の実施形態と同様である。
<Fourth Embodiment>
The image processing device 10 of the present embodiment is different from the first to third embodiments in that only the unrecognizable identification code is highlighted. Other configurations are the same as those of the first to third embodiments.

本実施形態の画像処理装置10の機能ブロック図は、第1乃至第3の実施形態同様、図2で示される。表示部12及び撮像部13の構成は、第1乃至第3の実施形態と同様である。 The functional block diagram of the image processing apparatus 10 of the present embodiment is shown in FIG. 2 as in the first to third embodiments. The configuration of the display unit 12 and the imaging unit 13 is the same as that of the first to third embodiments.

認識部14は、第1の実施形態で説明したように、撮像画像に写っている図形等で表現された識別コードを特定する。また、認識部14は、第2の実施形態で説明したように、特定した識別コードに対して認識する処理を行う。撮像画像に複数の識別コードが写っている場合、認識部14は、複数の識別コードを特定し、各々に対して認識する処理を行う。 As described in the first embodiment, the recognition unit 14 identifies the identification code represented by the figure or the like shown in the captured image. Further, the recognition unit 14 performs a process of recognizing the specified identification code as described in the second embodiment. When a plurality of identification codes are shown in the captured image, the recognition unit 14 identifies the plurality of identification codes and performs a process of recognizing each of the plurality of identification codes.

認識部14は、特定したが、認識されなかった識別コード各々の撮像画像内の位置を示す情報を表示画像生成部11に入力する。なお、認識部14は、第2の実施形態で説明したように、特定した識別コード各々の撮像画像内の位置を示す情報に、識別コードが認識されたか否かを示す情報を対応付けて、表示画像生成部11に入力してもよい。 The recognition unit 14 inputs information indicating the position in the captured image of each of the identified but not recognized identification codes to the display image generation unit 11. As described in the second embodiment, the recognition unit 14 associates the information indicating the position in the captured image of each of the identified identification codes with the information indicating whether or not the identification code is recognized. It may be input to the display image generation unit 11.

表示画像生成部11は、ユーザの視野において、認識部14により特定されたが認識されなかった識別コードに対応する位置に強調情報が表示される表示画像を生成する。認識部14により特定され、かつ、認識された識別コードに対応する位置には強調情報が表示されない。 The display image generation unit 11 generates a display image in which the highlighted information is displayed at a position corresponding to the identification code identified by the recognition unit 14 but not recognized in the user's field of view. The highlighted information is not displayed at the position corresponding to the identification code specified by the recognition unit 14 and recognized.

ここで、図9を用いて、表示画像生成部11が生成する表示画像、及び、表示部12による表示画像の表示の一例を説明する。 Here, an example of the display image generated by the display image generation unit 11 and the display of the display image by the display unit 12 will be described with reference to FIG.

図9(1)は、表示画像が表示されていない状態における透視型ディスプレイ越しのユーザの視野を示す。これは、図3のユーザの視野に相当する。ユーザの視野には、作業台と、当該作業台の上に置かれた4つの検査対象とが存在する。4つの検査対象各々には、図形等で表現された識別コード(バーコード)Aが付されている。 FIG. 9 (1) shows the user's field of view through the fluoroscopic display in a state where the display image is not displayed. This corresponds to the user's field of view in FIG. In the user's field of view, there is a work table and four inspection targets placed on the work table. An identification code (bar code) A represented by a figure or the like is attached to each of the four inspection targets.

図9(2)は、表示画像生成部11が生成した表示画像である。当該例では、強調情報Bが表示されている。強調情報Bは、認識部14により特定されたが、認識されなかった識別コードAに対応する位置に表示される。表示画像において、強調情報Bが表示される部分以外は透明となる。当該表示画像が、透視型ディスプレイ、すなわち図3のレンズ部分20に表示される。 FIG. 9 (2) is a display image generated by the display image generation unit 11. In this example, the highlighted information B is displayed. The highlighted information B is displayed at a position corresponding to the identification code A which is specified by the recognition unit 14 but is not recognized. In the displayed image, the part other than the portion where the highlighted information B is displayed is transparent. The display image is displayed on the fluoroscopic display, that is, the lens portion 20 of FIG.

図9(3)は、表示画像が表示されている状態における透視型ディスプレイ越しのユーザの視野を示す。ユーザの前方の景色(図9(1))に表示画像(図9(2))が重なっている。そして、強調情報Bが、認識部14により特定されたが認識されなかった識別コードAに対応する位置に存在する。 FIG. 9 (3) shows the user's field of view through the fluoroscopic display in the state where the display image is displayed. The displayed image (FIG. 9 (2)) overlaps the scenery in front of the user (FIG. 9 (1)). Then, the emphasized information B exists at a position corresponding to the identification code A identified by the recognition unit 14 but not recognized.

図9(3)のような視野に基づき、ユーザは、前方に存在する4つの検査対象の内、強調情報Bに対応する1つの識別コードAが、画像処理装置10により特定されたが、認識されなかったことを直感的に把握できる。 Based on the visual field as shown in FIG. 9 (3), the user recognizes that one identification code A corresponding to the emphasis information B among the four inspection targets existing in front is identified by the image processing device 10. You can intuitively understand what was not done.

次に、図7のフローチャートを用いて、本実施形態の画像処理装置10の処理の流れの一例を説明する。 Next, an example of the processing flow of the image processing apparatus 10 of the present embodiment will be described with reference to the flowchart of FIG. 7.

撮像部13がユーザの前方(顔が向く方向)を撮像し、ユーザの視野を含むように撮像画像を生成すると(S20)、認識部14は、撮像画像を画像解析し、図形等で表現された識別コードを特定する処理を行う(S21)。撮像画像内に識別コードがない場合(S22のNo)、S26に進む。 When the imaging unit 13 images the front of the user (direction in which the face faces) and generates an image to include the user's field of view (S20), the recognition unit 14 analyzes the captured image and represents it as a graphic or the like. A process for specifying the identification code is performed (S21). If there is no identification code in the captured image (No in S22), the process proceeds to S26.

撮像画像内に識別コードがある場合(S22のYes)、認識部14は、特定した識別コードに対して認識する処理を行う(S23)。そして、認識部14は、例えば、特定したが、認識されなかった識別コード各々の撮像画像内の位置を示す情報を表示画像生成部11に入力する。表示画像生成部11は、当該情報に基づき、ユーザの視野において、特定されたが認識されなかった識別コードに対応する位置に強調情報が表示される表示画像を生成する(S24)。 When there is an identification code in the captured image (Yes in S22), the recognition unit 14 performs a process of recognizing the specified identification code (S23). Then, the recognition unit 14 inputs, for example, information indicating the position in the captured image of each of the identified but not recognized identification codes into the display image generation unit 11. Based on the information, the display image generation unit 11 generates a display image in which the highlighted information is displayed at a position corresponding to the identified but unrecognized identification code in the user's field of view (S24).

そして、表示部12は、S24で生成された表示画像をユーザの視野に重ねて表示する(S25)。その後、S26に進む。 Then, the display unit 12 superimposes the display image generated in S24 on the user's field of view (S25). Then, the process proceeds to S26.

S26では、処理を終了する入力がなされたか否かを判断する。入力されていない場合(S26のNo)、S20に戻り、次の撮像画像を取得して同様の処理を繰り返す。一方、入力されている場合(S26のYes)、処理を終了する。 In S26, it is determined whether or not the input for ending the process has been made. If no input is made (No in S26), the process returns to S20, the next captured image is acquired, and the same process is repeated. On the other hand, if it is input (Yes in S26), the process ends.

以上説明した本実施形態によれば、第1乃至第3の実施形態と同様な作用効果を実現できる。また、本実施形態によれば、ユーザは、視野に存在する識別コードの内、いずれが画像処理装置10により特定されたが、認識されなかったかを直感的に把握できる。 According to the present embodiment described above, the same effects as those of the first to third embodiments can be realized. Further, according to the present embodiment, the user can intuitively grasp which of the identification codes existing in the visual field is identified by the image processing device 10 but is not recognized.

このため、ユーザは、認識されなかった識別コードが付された検査対象を撮像しやすい位置に移動させ、再度、認識処理を行わせることができる。結果、認識されなかった識別コードを次の処理で認識させることが可能となる。 Therefore, the user can move the inspection target to which the unrecognized identification code is attached to a position where it is easy to take an image, and perform the recognition process again. As a result, the unrecognized identification code can be recognized by the next process.

このように、本実施形態によれば、ユーザは、認識されなかった識別コードが付された検査対象を直感的に把握し、適切な対応をとることができる。結果、検査効率が向上する。 As described above, according to the present embodiment, the user can intuitively grasp the inspection target to which the unrecognized identification code is attached and take an appropriate response. As a result, inspection efficiency is improved.

<第5の実施形態>
本実施形態の画像処理装置10は、ユーザからの指示入力に応じて、撮像画像の生成、撮像画像の解析、表示画像の生成、表画像の表示という一連の処理を行う点で、第1乃至第4の実施形態と異なる。その他の構成は、第1乃至第4の実施形態と同様である。
<Fifth Embodiment>
The image processing device 10 of the present embodiment is the first to the first in that it performs a series of processes such as generation of a captured image, analysis of a captured image, generation of a display image, and display of a table image in response to an instruction input from a user. It is different from the fourth embodiment. Other configurations are the same as those of the first to fourth embodiments.

図10に、本実施形態の画像処理装置10の機能ブロック図の一例を示す。図示するように、画像処理装置10は、表示画像生成部11と、表示部12と、撮像部13と、認識部14と、入力受付部15とを有する。 FIG. 10 shows an example of a functional block diagram of the image processing device 10 of the present embodiment. As shown in the figure, the image processing device 10 includes a display image generation unit 11, a display unit 12, an imaging unit 13, a recognition unit 14, and an input reception unit 15.

入力受付部15は、ユーザから開始指示入力を受付ける。入力受付部15は、所定の操作ボタンの押下により開始指示入力を受付けてもよいし、カメラ(撮像部13)の前での所定のジェスチャにより開始指示入力を受付けてもよい。その他、マイクを介した所定の発言内容の入力により、開始指示入力を受付けてもよい。 The input receiving unit 15 receives a start instruction input from the user. The input receiving unit 15 may receive the start instruction input by pressing a predetermined operation button, or may receive the start instruction input by a predetermined gesture in front of the camera (imaging unit 13). In addition, the start instruction input may be accepted by inputting a predetermined remark content through the microphone.

撮像部13は、入力受付部15が受付けた開始指示入力に応じて、撮像画像の生成を開始する。認識部14は、撮像部13による撮像画像の生成に応じて、当該撮像画像の解析を開始する。表示画像生成部11は、認識部14による撮像画像の解析の結果の生成に応じて、表示画像の生成を開始する。表示部12は、表示画像生成部11による表示画像の生成に応じて、表示画像の表示を開始する。表示画像生成部11、表示部12、撮像部13及び認識部14の他の構成は、第1乃至第4の実施形態と同様である。 The imaging unit 13 starts generating an captured image in response to the start instruction input received by the input receiving unit 15. The recognition unit 14 starts the analysis of the captured image in response to the generation of the captured image by the imaging unit 13. The display image generation unit 11 starts generating a display image according to the generation of the result of the analysis of the captured image by the recognition unit 14. The display unit 12 starts displaying the display image in response to the generation of the display image by the display image generation unit 11. Other configurations of the display image generation unit 11, the display unit 12, the imaging unit 13, and the recognition unit 14 are the same as those in the first to fourth embodiments.

以上説明した本実施形態によれば、第1乃至第4の実施形態と同様な作用効果を実現できる。また、本実施形態によれば、常時表示画像が表示されるのでなく、ユーザからの指示に応じて表示画像の表示を行うことができる。このため、ユーザは、表示画像が必要なタイミングで表示画像を表示させ、不要なタイミングでは非表示とすることができる。結果、表示画像がユーザの他の作業の邪魔になる不都合を軽減できる。 According to the present embodiment described above, the same effects as those of the first to fourth embodiments can be realized. Further, according to the present embodiment, the display image is not always displayed, but the display image can be displayed according to an instruction from the user. Therefore, the user can display the display image at a required timing and hide it at an unnecessary timing. As a result, the inconvenience that the displayed image interferes with other work of the user can be reduced.

以下、参考形態の例を付記する。
1. 表示画像を生成する表示画像生成手段と、
ユーザの視野に重ねて前記表示画像を表示する表示手段と、
ユーザの視野を含むように撮像画像を生成する撮像手段と、
前記撮像画像を解析し、前記撮像画像に含まれる識別コードを特定する認識手段と、
を有し、
前記表示画像生成手段は、
ユーザの視野において、特定された前記識別コードに対応する位置に強調情報が表示される前記表示画像を生成する画像処理装置。
2. 1に記載の画像処理装置において、
前記認識手段は、特定した前記識別コードに対して認識する処理を行い、
前記表示画像生成手段は、
認識された前記識別コード、及び、認識されなかった前記識別コードを区別可能な前記表示画像を生成する画像処理装置。
3. 1または2に記載の画像処理装置において、
前記認識手段は、前記撮像画像に複数の識別コードが含まれる場合、複数の前記識別コードを特定し、
前記表示画像生成手段は、ユーザの視野において、特定された複数の前記識別コード各々に対応する位置に前記強調情報が表示される前記表示画像を生成する画像処理装置。
4. 表示画像を生成する表示画像生成手段と、
ユーザの視野に重ねて前記表示画像を表示する表示手段と、
ユーザの視野を含むように撮像画像を生成する撮像手段と、
前記撮像画像を解析し、前記撮像画像に含まれる識別コードを特定し、特定した前記識別コードに対して認識する処理を行う認識手段と、
を有し、
前記表示画像生成手段は、
ユーザの視野において、認識された前記識別コードに対応する位置、又は、認識されなかった前記識別コードに対応する位置に強調情報が表示される前記表示画像を生成する画像処理装置。
5. 4に記載の画像処理装置において、
前記認識手段は、前記撮像画像に複数の識別コードが含まれる場合、複数の前記識別コードを特定し、各々に対して認識する処理を行い、
前記表示画像生成手段は、ユーザの視野において、認識された複数の前記識別コード各々に対応する位置、又は、認識されなかった複数の前記識別コード各々に対応する位置に前記強調情報が表示される前記表示画像を生成する画像処理装置。
6. 1から5のいずれかに記載の画像処理装置において、
ユーザから開始指示入力を受付ける入力受付手段をさらに有し、
前記撮像手段は、前記開始指示入力に応じて、前記撮像画像の生成を開始し、
前記認識手段は、前記撮像画像の生成に応じて、前記撮像画像の解析を開始し、
前記表示画像生成手段は、前記撮像画像の解析の結果の生成に応じて、前記表示画像の生成を開始し、
前記表示手段は、前記表示画像の生成に応じて、前記表示画像の表示を開始する画像処理装置。
7. 1から6のいずれかに記載の画像処理装置において、
前記表示手段は、透過型ディスプレイを備え、当該透過型ディスプレイに前記表示画像を表示する画像処理装置。
8. 1から7のいずれかに記載の画像処理装置において、
前記表示手段は、ヘッドマウントディスプレイを備え、当該ヘッドマウントディスプレイに前記表示画像を表示する画像処理装置。
9. コンピュータが、
表示画像を生成する表示画像生成工程と、
ユーザの視野に重ねて前記表示画像を表示する表示工程と、
ユーザの視野を含むように撮像画像を生成する撮像工程と、
前記撮像画像を解析し、前記撮像画像に含まれる識別コードを特定する認識工程と、
を実行し、
前記表示画像生成工程では、
ユーザの視野において、特定された前記識別コードに対応する位置に強調情報が表示される前記表示画像を生成する画像処理方法。
9−2. 9に記載の画像処理方法において、
前記認識工程では、特定した前記識別コードに対して認識する処理を行い、
前記表示画像生成工程では、
認識された前記識別コード、及び、認識されなかった前記識別コードを区別可能な前記表示画像を生成する画像処理方法。
9−3. 9または9−2に記載の画像処理方法において、
前記認識工程では、前記撮像画像に複数の識別コードが含まれる場合、複数の前記識別コードを特定し、
前記表示画像生成工程では、ユーザの視野において、特定された複数の前記識別コード各々に対応する位置に前記強調情報が表示される前記表示画像を生成する画像処理方法。
9−4. 9から9−3のいずれかに記載の画像処理方法において、
前記コンピュータが、ユーザから開始指示入力を受付ける入力受付工程をさらに実行し、
前記撮像工程では、前記開始指示入力に応じて、前記撮像画像の生成を開始し、
前記認識工程では、前記撮像画像の生成に応じて、前記撮像画像の解析を開始し、
前記表示画像生成工程では、前記撮像画像の解析の結果の生成に応じて、前記表示画像の生成を開始し、
前記表示工程では、前記表示画像の生成に応じて、前記表示画像の表示を開始する画像処理方法。
9−5. 9から9−4のいずれかに記載の画像処理方法において、
前記表示工程では、透過型ディスプレイに前記表示画像を表示する画像処理方法。
9−6. 9から9−5のいずれかに記載の画像処理方法において、
前記表示工程では、ヘッドマウントディスプレイに前記表示画像を表示する画像処理方法。
10. コンピュータを、
表示画像を生成する表示画像生成手段、
ユーザの視野に重ねて前記表示画像を表示する表示手段、
ユーザの視野を含むように撮像画像を生成する撮像手段、
前記撮像画像を解析し、前記撮像画像に含まれる識別コードを特定する認識手段、
として機能させ、
前記表示画像生成手段に、
ユーザの視野において、特定された前記識別コードに対応する位置に強調情報が表示される前記表示画像を生成させるプログラム。
10−2. 10に記載のプログラムにおいて、
前記認識手段に、特定した前記識別コードに対して認識する処理を行わせ、
前記表示画像生成手段に、
認識された前記識別コード、及び、認識されなかった前記識別コードを区別可能な前記表示画像を生成させるプログラム。
10−3. 10または10−2に記載のプログラムにおいて、
前記認識手段に、前記撮像画像に複数の識別コードが含まれる場合、複数の前記識別コードを特定させ、
前記表示画像生成手段に、ユーザの視野において、特定された複数の前記識別コード各々に対応する位置に前記強調情報が表示される前記表示画像を生成させるプログラム。
10−4. 10から10−3のいずれかに記載のプログラムにおいて、
前記コンピュータを、ユーザから開始指示入力を受付ける入力受付手段としてさらに機能させ、
前記撮像手段に、前記開始指示入力に応じて、前記撮像画像の生成を開始させ、
前記認識手段に、前記撮像画像の生成に応じて、前記撮像画像の解析を開始させ、
前記表示画像生成手段に、前記撮像画像の解析の結果の生成に応じて、前記表示画像の生成を開始させ、
前記表示手段に、前記表示画像の生成に応じて、前記表示画像の表示を開始させるプログラム。
10−5. 10から10−4のいずれかに記載のプログラムにおいて、
前記表示手段に、透過型ディスプレイに前記表示画像を表示させるプログラム。
10−6. 10から10−5のいずれかに記載のプログラムにおいて、
前記表示手段に、ヘッドマウントディスプレイに前記表示画像を表示させるプログラム。
11. コンピュータが、
表示画像を生成する表示画像生成工程と、
ユーザの視野に重ねて前記表示画像を表示する表示工程と、
ユーザの視野を含むように撮像画像を生成する撮像工程と、
前記撮像画像を解析し、前記撮像画像に含まれる識別コードを特定し、特定した前記識別コードに対して認識する処理を行う認識工程と、
を実行し、
前記表示画像生成工程では、
ユーザの視野において、認識された前記識別コードに対応する位置、又は、認識されなかった前記識別コードに対応する位置に強調情報が表示される前記表示画像を生成する画像処理方法。
11−2. 11に記載の画像処理方法において、
前記認識工程では、前記撮像画像に複数の識別コードが含まれる場合、複数の前記識別コードを特定し、各々に対して認識する処理を行い、
前記表示画像生成工程では、ユーザの視野において、認識された複数の前記識別コード各々に対応する位置、又は、認識されなかった複数の前記識別コード各々に対応する位置に前記強調情報が表示される前記表示画像を生成する画像処理方法。
11−3. 11又は11−2に記載の画像処理方法において、
前記コンピュータが、ユーザから開始指示入力を受付ける入力受付工程をさらに実行し、
前記撮像工程では、前記開始指示入力に応じて、前記撮像画像の生成を開始し、
前記認識工程では、前記撮像画像の生成に応じて、前記撮像画像の解析を開始し、
前記表示画像生成工程では、前記撮像画像の解析の結果の生成に応じて、前記表示画像の生成を開始し、
前記表示工程では、前記表示画像の生成に応じて、前記表示画像の表示を開始する画像処理方法。
11−4. 11から11−3のいずれかに記載の画像処理方法において、
前記表示工程では、透過型ディスプレイに前記表示画像を表示する画像処理方法。
11−5. 11から11−4のいずれかに記載の画像処理方法において、
前記表示工程では、ヘッドマウントディスプレイに前記表示画像を表示する画像処理方法。
12. コンピュータを、
表示画像を生成する表示画像生成手段、
ユーザの視野に重ねて前記表示画像を表示する表示手段、
ユーザの視野を含むように撮像画像を生成する撮像手段、
前記撮像画像を解析し、前記撮像画像に含まれる識別コードを特定し、特定した前記識別コードに対して認識する処理を行う認識手段、
として機能させ、
前記表示画像生成手段に、
ユーザの視野において、認識された前記識別コードに対応する位置、又は、認識されなかった前記識別コードに対応する位置に強調情報が表示される前記表示画像を生成させるプログラム。
12−2. 12に記載のプログラムにおいて、
前記認識手段に、前記撮像画像に複数の識別コードが含まれる場合、複数の前記識別コードを特定し、各々に対して認識する処理を行わせ、
前記表示画像生成手段に、ユーザの視野において、認識された複数の前記識別コード各々に対応する位置、又は、認識されなかった複数の前記識別コード各々に対応する位置に前記強調情報が表示される前記表示画像を生成させるプログラム。
12−3. 12又は12−3に記載のプログラムにおいて、
前記コンピュータを、ユーザから開始指示入力を受付ける入力受付手段としてさらに機能させ、
前記撮像手段に、前記開始指示入力に応じて、前記撮像画像の生成を開始させ、
前記認識手段に、前記撮像画像の生成に応じて、前記撮像画像の解析を開始させ、
前記表示画像生成手段に、前記撮像画像の解析の結果の生成に応じて、前記表示画像の生成を開始させ、
前記表示手段に、前記表示画像の生成に応じて、前記表示画像の表示を開始させるプログラム。
12−4. 12から12−3のいずれかに記載のプログラムにおいて、
前記表示手段に、透過型ディスプレイに前記表示画像を表示させるプログラム。
12−5. 12から12−4のいずれかに記載のプログラムにおいて、
前記表示手段に、ヘッドマウントディスプレイに前記表示画像を表示させるプログラム。
Hereinafter, an example of the reference form will be added.
1. 1. Display image generation means for generating display images and
A display means for displaying the display image over the user's field of view, and
An imaging means that generates an captured image so as to include the user's field of view,
A recognition means that analyzes the captured image and identifies an identification code included in the captured image.
Have,
The display image generation means
An image processing device that generates the display image in which the highlighted information is displayed at a position corresponding to the specified identification code in the user's field of view.
2. In the image processing apparatus according to 1.
The recognition means performs a process of recognizing the specified identification code, and performs a process of recognizing the identified code.
The display image generation means
An image processing device that generates the display image capable of distinguishing the recognized identification code and the unrecognized identification code.
3. 3. In the image processing apparatus according to 1 or 2.
When the captured image contains a plurality of identification codes, the recognition means identifies the plurality of identification codes.
The display image generation means is an image processing device that generates the display image in which the emphasis information is displayed at a position corresponding to each of the plurality of specified identification codes in the user's field of view.
4. Display image generation means for generating display images and
A display means for displaying the display image over the user's field of view, and
An imaging means that generates an captured image so as to include the user's field of view,
A recognition means that analyzes the captured image, identifies an identification code included in the captured image, and performs a process of recognizing the identified identification code.
Have,
The display image generation means
An image processing device that generates the display image in which emphasis information is displayed at a position corresponding to the recognized identification code or a position corresponding to the unrecognized identification code in the user's field of view.
5. In the image processing apparatus according to 4.
When the captured image contains a plurality of identification codes, the recognition means identifies the plurality of identification codes and performs a process of recognizing each of the identification codes.
The display image generation means displays the highlighted information at a position corresponding to each of the plurality of recognized identification codes or a position corresponding to each of the plurality of unrecognized identification codes in the user's field of view. An image processing device that generates the display image.
6. In the image processing apparatus according to any one of 1 to 5,
It also has an input receiving means for receiving start instruction input from the user.
The imaging means starts generating the captured image in response to the start instruction input.
The recognition means starts the analysis of the captured image in response to the generation of the captured image.
The display image generation means starts generating the display image in response to the generation of the analysis result of the captured image.
The display means is an image processing device that starts displaying the display image in response to the generation of the display image.
7. In the image processing apparatus according to any one of 1 to 6,
The display means is an image processing device including a transmissive display and displaying the displayed image on the transmissive display.
8. In the image processing apparatus according to any one of 1 to 7.
The display means is an image processing device including a head-mounted display and displaying the displayed image on the head-mounted display.
9. The computer
Display image generation process to generate display image and
A display process for displaying the display image over the user's field of view, and
An imaging process that generates an image to include the user's field of view,
A recognition step of analyzing the captured image and identifying an identification code included in the captured image,
And
In the display image generation step,
An image processing method for generating the display image in which the highlighted information is displayed at a position corresponding to the specified identification code in the user's field of view.
9-2. In the image processing method according to 9.
In the recognition step, a process of recognizing the specified identification code is performed.
In the display image generation step,
An image processing method for generating the display image capable of distinguishing the recognized identification code and the unrecognized identification code.
9-3. In the image processing method described in 9 or 9-2,
In the recognition step, when the captured image contains a plurality of identification codes, the plurality of identification codes are identified.
In the display image generation step, an image processing method for generating the display image in which the emphasis information is displayed at a position corresponding to each of the plurality of specified identification codes in the user's field of view.
9-4. In the image processing method according to any one of 9 to 9-3,
The computer further executes an input receiving process of receiving a start instruction input from the user.
In the imaging step, the generation of the captured image is started in response to the start instruction input.
In the recognition step, the analysis of the captured image is started in response to the generation of the captured image.
In the display image generation step, generation of the display image is started according to the generation of the analysis result of the captured image.
In the display step, an image processing method that starts displaying the display image in response to the generation of the display image.
9-5. In the image processing method according to any one of 9 to 9-4,
In the display step, an image processing method for displaying the displayed image on a transmissive display.
9-6. In the image processing method according to any one of 9 to 9-5,
In the display step, an image processing method for displaying the displayed image on a head-mounted display.
10. Computer,
Display image generation means for generating display images,
A display means for displaying the display image over the user's field of view,
An imaging means that generates an image to include the user's field of view,
A recognition means that analyzes the captured image and identifies an identification code included in the captured image.
To function as
In the display image generation means,
A program that generates a display image in which highlighted information is displayed at a position corresponding to the specified identification code in the user's field of view.
10-2. In the program described in 10.
The recognition means is made to perform a process of recognizing the specified identification code.
In the display image generation means,
A program that generates the display image that can distinguish the recognized identification code and the unrecognized identification code.
10-3. In the program described in 10 or 10-2
When the recognition means includes a plurality of identification codes in the captured image, the recognition means is made to identify the plurality of identification codes.
A program that causes the display image generation means to generate the display image in which the emphasis information is displayed at a position corresponding to each of the plurality of specified identification codes in the user's field of view.
10-4. In the program described in any of 10 to 10-3,
The computer is further made to function as an input receiving means for receiving a start instruction input from the user.
The imaging means is started to generate the captured image in response to the start instruction input.
The recognition means is made to start the analysis of the captured image in response to the generation of the captured image.
The display image generation means is started to generate the display image according to the generation of the analysis result of the captured image.
A program that causes the display means to start displaying the display image in response to the generation of the display image.
10-5. In the program described in any of 10 to 10-4,
A program that causes the display means to display the displayed image on a transmissive display.
10-6. In the program described in any of 10 to 10-5,
A program that causes the display means to display the display image on a head-mounted display.
11. The computer
Display image generation process to generate display image and
A display process for displaying the display image over the user's field of view, and
An imaging process that generates an image to include the user's field of view,
A recognition step of analyzing the captured image, identifying an identification code included in the captured image, and performing a process of recognizing the identified identification code.
And
In the display image generation step,
An image processing method for generating the display image in which highlighted information is displayed at a position corresponding to the recognized identification code or a position corresponding to the unrecognized identification code in the user's field of view.
11-2. In the image processing method according to 11.
In the recognition step, when a plurality of identification codes are included in the captured image, a process of identifying the plurality of identification codes and recognizing each of the identification codes is performed.
In the display image generation step, the highlighted information is displayed at a position corresponding to each of the plurality of recognized identification codes or a position corresponding to each of the plurality of unrecognized identification codes in the user's field of view. An image processing method for generating the display image.
11-3. In the image processing method according to 11 or 11-2,
The computer further executes an input receiving process of receiving a start instruction input from the user.
In the imaging step, the generation of the captured image is started in response to the start instruction input.
In the recognition step, the analysis of the captured image is started in response to the generation of the captured image.
In the display image generation step, generation of the display image is started according to the generation of the analysis result of the captured image.
In the display step, an image processing method that starts displaying the display image in response to the generation of the display image.
11-4. In the image processing method according to any one of 11 to 11-3,
In the display step, an image processing method for displaying the displayed image on a transmissive display.
11-5. In the image processing method according to any one of 11 to 11-4,
In the display step, an image processing method for displaying the displayed image on a head-mounted display.
12. Computer,
Display image generation means for generating display images,
A display means for displaying the display image over the user's field of view,
An imaging means that generates an image to include the user's field of view,
A recognition means that analyzes the captured image, identifies an identification code included in the captured image, and performs a process of recognizing the identified identification code.
To function as
In the display image generation means,
A program that generates a display image in which highlighted information is displayed at a position corresponding to the recognized identification code or a position corresponding to the unrecognized identification code in the user's field of view.
12-2. In the program described in 12.
When the recognition means includes a plurality of identification codes in the captured image, the recognition means is made to identify the plurality of identification codes and perform a process of recognizing each of the identification codes.
In the display image generation means, the highlighted information is displayed at a position corresponding to each of the plurality of recognized identification codes or a position corresponding to each of the plurality of unrecognized identification codes in the user's field of view. A program that generates the display image.
12-3. In the program described in 12 or 12-3
The computer is further made to function as an input receiving means for receiving a start instruction input from the user.
The imaging means is started to generate the captured image in response to the start instruction input.
The recognition means is made to start the analysis of the captured image in response to the generation of the captured image.
The display image generation means is started to generate the display image according to the generation of the analysis result of the captured image.
A program that causes the display means to start displaying the display image in response to the generation of the display image.
12-4. In the program described in any of 12 to 12-3,
A program that causes the display means to display the displayed image on a transmissive display.
12-5. In the program described in any of 12 to 12-4,
A program that causes the display means to display the display image on a head-mounted display.

1A CPU
2A RAM
3A ROM
4A 表示制御部
5A ディスプレイ
6A 操作受付部
7A 操作部
8A 通信部
9A 補助記憶装置
10A カメラ
11A バス
10 画像処理装置
11 表示画像生成部
12 表示部
13 撮像部
14 認識部
15 入力受付部
20 レンズ部分
21 カメラ
22 処理装置
A 識別コード
B 強調情報
C 強調情報
1A CPU
2A RAM
3A ROM
4A Display control unit 5A Display 6A Operation reception unit 7A Operation unit 8A Communication unit 9A Auxiliary storage device 10A Camera 11A Bus 10 Image processing device 11 Display image generation unit 12 Display unit 13 Imaging unit 14 Recognition unit 15 Input reception unit 20 Lens part 21 Camera 22 Processing device A Identification code B Highlight information C Highlight information

Claims (8)

ユーザの視野に重ねて表示画像を表示する表示手段と、
ユーザの視野を含むように撮像画像を生成する撮像手段と、
前記撮像画像に含まれる識別コードを特定し、特定した前記識別コードに対して認識する処理を行う認識手段と、
を有し、
前記表示手段は、特定されかつ認識された前記識別コードと、特定されかつ認識されなかった前記識別コードと、特定されなかった前記識別コードとを区別可能な前記表示画像を表示する画像処理装置。
A display means for displaying a display image over the user's field of view,
An imaging means that generates an captured image so as to include the user's field of view,
A recognition means that identifies an identification code included in the captured image and performs a process of recognizing the identified identification code.
Have,
The display means is an image processing device that displays the display image capable of distinguishing the specified and recognized identification code, the specified and unrecognized identification code, and the unspecified identification code.
請求項1に記載の画像処理装置において、
前記表示手段は、ユーザの視野において、認識された前記識別コードに対応する位置、又は、認識されなかった前記識別コードに対応する位置に強調情報を表示する画像処理装置。
In the image processing apparatus according to claim 1,
The display means is an image processing device that displays highlighted information at a position corresponding to the recognized identification code or a position corresponding to the unrecognized identification code in the user's field of view.
請求項2に記載の画像処理装置において、
前記認識手段は、前記撮像画像に複数の識別コードが含まれる場合、複数の前記識別コードを特定し、各々に対して認識する処理を行い、
前記表示手段は、ユーザの視野において、認識された複数の前記識別コード各々に対応する位置、又は、認識されなかった複数の前記識別コード各々に対応する位置に前記強調情報を表示する画像処理装置。
In the image processing apparatus according to claim 2,
When the captured image contains a plurality of identification codes, the recognition means identifies the plurality of identification codes and performs a process of recognizing each of the identification codes.
The display means is an image processing device that displays the highlighted information at a position corresponding to each of the plurality of recognized identification codes or a position corresponding to each of the plurality of unrecognized identification codes in the user's field of view. ..
請求項2又は3に記載の画像処理装置において、
ユーザから開始指示入力を受付ける入力受付手段と、
前記表示画像を生成する表示画像生成手段と、をさらに有し、
前記撮像手段は、前記開始指示入力に応じて、前記撮像画像の生成を開始し、
前記認識手段は、前記撮像画像の生成に応じて、前記撮像画像の解析を開始し、
前記表示画像生成手段は、前記撮像画像の解析の結果の生成に応じて、前記表示画像の生成を開始し、
前記表示手段は、前記表示画像の生成に応じて、前記表示画像の表示を開始する画像処理装置。
In the image processing apparatus according to claim 2 or 3.
Input receiving means for receiving start instruction input from the user,
Further having a display image generation means for generating the display image,
The imaging means starts generating the captured image in response to the start instruction input.
The recognition means starts the analysis of the captured image in response to the generation of the captured image.
The display image generation means starts generating the display image in response to the generation of the analysis result of the captured image.
The display means is an image processing device that starts displaying the display image in response to the generation of the display image.
請求項1から4のいずれか1項に記載の画像処理装置において、
前記表示手段は、透過型ディスプレイを備え、当該透過型ディスプレイに前記表示画像を表示する画像処理装置。
In the image processing apparatus according to any one of claims 1 to 4.
The display means is an image processing device including a transmissive display and displaying the displayed image on the transmissive display.
請求項1から5のいずれか1項に記載の画像処理装置において、
前記表示手段は、ヘッドマウントディスプレイを備え、当該ヘッドマウントディスプレイに前記表示画像を表示する画像処理装置。
In the image processing apparatus according to any one of claims 1 to 5,
The display means is an image processing device including a head-mounted display and displaying the displayed image on the head-mounted display.
コンピュータが、
ユーザの視野に重ねて表示画像を表示する表示工程と、
ユーザの視野を含むように撮像画像を生成する撮像工程と、
前記撮像画像に含まれる識別コードを特定し、特定した前記識別コードに対して認識する処理を行う認識工程と、
を実行し、
前記表示工程では、特定されかつ認識された前記識別コードと、特定されかつ認識されなかった前記識別コードと、特定されなかった前記識別コードとを区別可能な前記表示画像を表示する画像処理方法。
The computer
A display process that displays a display image overlaid on the user's field of view,
An imaging process that generates an image to include the user's field of view,
A recognition step of identifying an identification code included in the captured image and performing a process of recognizing the identified identification code.
And
In the display step, an image processing method for displaying the display image capable of distinguishing the specified and recognized identification code, the specified and unrecognized identification code, and the unspecified identification code.
コンピュータを、
ユーザの視野に重ねて表示画像を表示する表示手段、
ユーザの視野を含むように撮像画像を生成する撮像手段、
前記撮像画像に含まれる識別コードを特定し、特定した前記識別コードに対して認識する処理を行う認識手段、
として機能させ、
前記表示手段は、特定されかつ認識された前記識別コードと、特定されかつ認識されなかった前記識別コードと、特定されなかった前記識別コードとを区別可能な前記表示画像を表示するプログラム。
Computer,
A display means that displays a display image over the user's field of view,
An imaging means that generates an image to include the user's field of view,
A recognition means that identifies an identification code included in the captured image and performs a process of recognizing the identified identification code.
To function as
The display means is a program that displays the display image capable of distinguishing the specified and recognized identification code, the specified and unrecognized identification code, and the unspecified identification code.
JP2019075354A 2019-04-11 2019-04-11 Image processing device, image processing method, and program Active JP6879329B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019075354A JP6879329B2 (en) 2019-04-11 2019-04-11 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019075354A JP6879329B2 (en) 2019-04-11 2019-04-11 Image processing device, image processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015059088A Division JP6511893B2 (en) 2015-03-23 2015-03-23 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2019160326A JP2019160326A (en) 2019-09-19
JP6879329B2 true JP6879329B2 (en) 2021-06-02

Family

ID=67994056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019075354A Active JP6879329B2 (en) 2019-04-11 2019-04-11 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6879329B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001028033A (en) * 1999-07-14 2001-01-30 Oki Electric Ind Co Ltd Display method for bar code recognition result and bar code recognition device
JP2011134079A (en) * 2009-12-24 2011-07-07 Panasonic Corp Collation inspection device and collation inspection method
JP2015141215A (en) * 2014-01-27 2015-08-03 村田機械株式会社 Head-mounted display device

Also Published As

Publication number Publication date
JP2019160326A (en) 2019-09-19

Similar Documents

Publication Publication Date Title
WO2016152891A1 (en) Image processing device, image processing method, and program
US11257143B2 (en) Method and device for simulating a virtual out-of-box experience of a packaged product
US10176521B2 (en) Augmented reality virtual product for display
JP4192847B2 (en) Code reader and program
JP4588098B2 (en) Image / sound monitoring system
US9251411B2 (en) Augmented-reality signature capture
US20160180594A1 (en) Augmented display and user input device
US20160042241A1 (en) Interactive indicia reader
JP6439566B2 (en) Multilingual display device, multilingual display system, multilingual display method, and multilingual display program
EP4303758A2 (en) Mobile device having an improved user interface for reading code symbols
CN107273004B (en) Image display device, image display control method, and recording medium
US20060238550A1 (en) Hands-free data acquisition system
JP2023001179A (en) Method for processing multiple decodable indicia
US20190197275A1 (en) Eye gaze detection controlled indicia scanning system and method
JP6662264B2 (en) Display system
JP5215328B2 (en) Label display device, label display method, and program thereof
JP6879329B2 (en) Image processing device, image processing method, and program
JP2020095537A (en) Learning dataset automatic generation system, server, and learning dataset automatic generation program
JP2011048426A (en) Cooking auxiliary terminal and program
JP5310040B2 (en) Imaging processing apparatus and program
JP6404526B2 (en) Captured image sharing system, captured image sharing method, and program
JP7333971B2 (en) Function execution system
WO2016135471A1 (en) Interactive information system
GB2535727A (en) Interactive information system
JP4474348B2 (en) Information processing apparatus, information processing method, program, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190411

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200710

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210208

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210208

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210215

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210412

R150 Certificate of patent or registration of utility model

Ref document number: 6879329

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150