JP2017049680A - Object indication system, object indication method, and program - Google Patents

Object indication system, object indication method, and program Download PDF

Info

Publication number
JP2017049680A
JP2017049680A JP2015170898A JP2015170898A JP2017049680A JP 2017049680 A JP2017049680 A JP 2017049680A JP 2015170898 A JP2015170898 A JP 2015170898A JP 2015170898 A JP2015170898 A JP 2015170898A JP 2017049680 A JP2017049680 A JP 2017049680A
Authority
JP
Japan
Prior art keywords
image
instruction
unit
instruction information
object image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015170898A
Other languages
Japanese (ja)
Inventor
秀行 増井
Hideyuki Masui
秀行 増井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2015170898A priority Critical patent/JP2017049680A/en
Publication of JP2017049680A publication Critical patent/JP2017049680A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To allow an indication image to be displayed and superposed adequately on an object image even if the object image in a photographic image moves in a system that gives an instruction on work or the like by displaying and superposing the indication image to give an instruction on the work or the like on the object image in the photographic image obtained by photographing an object with a camera or the like.SOLUTION: An object indication system 1 comprises: a photographing unit 2 for photographing an object and outputting an object image; an image display unit 7 for displaying the object image output by the photographing unit 2; an indication information creation unit 4 for creating indication information to give an instruction to the object image; an image superposition unit 5 for making display by superposing an indication image based on the indication information created by the indication information creation unit 4 on the object image displayed on the image display unit 7; and an indication image moving unit 6 for moving the indication image in response to the movement of the object image displayed on the image display unit 7.SELECTED DRAWING: Figure 1

Description

本発明は、対象物を撮影して得られた画像に対して、指示を与えることができる対象物指示システム、対象物指示方法及びプログラムに関するものである。   The present invention relates to an object instruction system, an object instruction method, and a program capable of giving an instruction to an image obtained by photographing an object.

作業現場にいる作業者に対して、管理センター等から指示を与える場合、携帯電話等を使用して音声により指示を与えるのが一般的である。
ところが、近年の画像処理技術やコンピュータ・通信技術等の発達により、作業現場において作業等の対象物をカメラで撮影し、得られた対象物の画像を管理センター等に送信し、管理センター側で受信した画像に指示を施し、指示を施した画像を作業者の携帯端末等に送信することにより指示を与えることも行われるようになった。
例えば、特開2007−72733号公報(特許文献1)には、ビデオカメラで作業対象を撮影し、撮影された撮影画像の情報を遠隔端末に送信し、遠隔端末でなされた撮影画像に基づく指示に応じたアノテーション画像がプロジェクタから作業対象に投影されると共に、上記撮影画像の情報は作業者が所有する携帯端末にも送信され、大型装置や生産設備などに対する作業を遠隔地から支援する遠隔支援システムが開示されている。
また、最近では、身につけて持ち歩くことができるコンピュータ、いわゆるウエアラブルコンピュータが普及し始めているが、このウエアラブルコンピュータの中には、カメラを搭載したヘッドマウントディスプレイ、あるいは、スマートグラスと呼ばれるメガネ型コンピュータがある。
そして、このヘッドマウントディスプレイやスマートグラス等のウエアラブルコンピュータを利用した作業指示も提案されている。
例えば、特開2013−16020号公報(特許文献2)には、作業者がヘッドマウントディスプレイ装置を装着し、このヘッドマウントディスプレイ装置に搭載されたカメラが撮影した作業者の視線方向の撮影画像に、指示ポインタ画像を重畳した指示画像をヘッドマウントディスプレイ装置に表示し、作業者に指示を与える作業支援システムが開示されている。
When giving an instruction from a management center or the like to an operator at a work site, the instruction is generally given by voice using a mobile phone or the like.
However, due to recent developments in image processing technology, computer / communication technology, etc., an object such as work is photographed with a camera at the work site, and an image of the obtained object is transmitted to a management center or the like. An instruction is also given by giving an instruction to the received image and transmitting the instructed image to an operator's portable terminal or the like.
For example, in Japanese Patent Application Laid-Open No. 2007-72733 (Patent Document 1), a work target is photographed by a video camera, information on the photographed photographed image is transmitted to a remote terminal, and an instruction based on the photographed image made by the remote terminal is disclosed. An annotation image corresponding to the image is projected from the projector onto the work target, and the information of the photographed image is also transmitted to the portable terminal owned by the worker, so that remote support for supporting work on a large apparatus or production facility from a remote location A system is disclosed.
Recently, computers that can be worn and carried, so-called wearable computers, have begun to spread. Among these wearable computers, there are head mounted displays equipped with cameras, or eyeglass computers called smart glasses. is there.
Work instructions using wearable computers such as head-mounted displays and smart glasses have also been proposed.
For example, in JP2013-16020A (Patent Document 2), an image of a worker's line-of-sight direction captured by a camera mounted on a head-mounted display device and photographed by a camera mounted on the head-mounted display device is disclosed. A work support system that displays an instruction image on which an instruction pointer image is superimposed on a head-mounted display device and gives an instruction to an operator is disclosed.

しかしながら、特許文献1の遠隔支援システムにおいては、カメラで撮影した撮影画像に基づく指示に応じたアノテーション画像が作業対象に投影され後に、作業対象が移動した場合、作業対象とアノテーション画像の相対位置がずれ、アノテーション画像による指示が的確に行えないという問題がある。
また、特許文献2の作業支援システムにおいても、撮影画像に指示ポインタ画像を重畳した指示画像をヘッドマウントディスプレイ装置に表示した後、撮影画像中の対象物が移動したり、カメラ自体が移動した場合、指示画像中の対象物だけが移動して指示ポインタ画像は移動しないため、両者の相対位置がずれ、指示ポインタ画像による指示が的確に行えないという問題がある。
However, in the remote support system of Patent Document 1, when the work target moves after the annotation image according to the instruction based on the photographed image taken by the camera is projected on the work target, the relative position between the work target and the annotation image is determined. There is a problem that the instruction by the annotation image cannot be accurately performed.
Also in the work support system of Patent Document 2, when an instruction image in which an instruction pointer image is superimposed on a captured image is displayed on the head mounted display device, an object in the captured image moves or the camera itself moves. Since only the object in the instruction image moves and the instruction pointer image does not move, there is a problem in that the relative position of the two shifts and the instruction by the instruction pointer image cannot be performed accurately.

特開2007−72733号公報JP 2007-72733 A 特開2013−16020号公報JP2013-16020A

本発明が解決しようとする課題は、対象物をカメラ等で撮影して得られた撮影画像中の対象物画像に対して、作業等の指示を与える指示画像を対象物画像に重畳表示して作業等の指示を与えるシステムにおいて、撮影画像中の対象物画像が移動しても、指示画像を的確に対象物画像に重畳表示できるようにすることである。   The problem to be solved by the present invention is to superimpose and display on the object image an instruction image that gives an instruction for work or the like on the object image in the captured image obtained by photographing the object with a camera or the like. In a system for giving an instruction for work or the like, even if an object image in a photographed image moves, the instruction image can be accurately displayed superimposed on the object image.

本発明は、対象物を撮影して対象物画像を出力する撮影手段と、前記撮影手段が出力する対象物画像を表示する画像表示手段と、前記対象物画像に指示を与えるための指示情報を作成する指示情報作成手段と、前記画像表示手段に表示された前記対象物画像に、前記指示情報作成手段が作成した前記指示情報に基づく指示画像を重畳して表示させる画像重畳手段と、前記画像表示手段に表示された前記対象物画像の移動に対応して前記指示画像を移動させる指示画像移動手段とを備えた対象物指示システムを提供して、上記課題を解決するものである。   The present invention includes a photographing unit that photographs a target and outputs a target image, an image display unit that displays a target image output by the photographing unit, and instruction information for giving an instruction to the target image. Instruction information creating means for creating, image superimposing means for superimposing and displaying an instruction image based on the instruction information created by the instruction information creating means on the object image displayed on the image display means, and the image An object instruction system including instruction image moving means for moving the instruction image in response to movement of the object image displayed on the display means is provided to solve the above-described problem.

本発明は、対象物を撮影して対象物画像を出力する撮影手段と、前記撮影手段が出力する対象物画像を表示する画像表示手段と、前記撮影手段が出力する前記対象物画像を送信する画像送信手段と、前記画像送信手段が送信する前記対象物画像を受信する画像受信手段と、前記画像受信手段が受信した前記対象物画像に指示を与えるための指示情報を作成する指示情報作成手段と、前記指示情報生成手段が作成した前記指示情報を送信する指示情報送信手段と、前記指示情報送信手段が送信する前記指示情報を受信する指示情報受信手段と、前記画像表示手段に表示された前記対象物画像に、前記指示情報受信手段が受信した前記指示情報に基づく指示画像を重畳して表示させる画像重畳手段と、前記画像表示手段に表示された前記対象物画像の移動に対応して前記指示画像を移動させる指示画像移動手段とを備えた対象物指示システムを提供して、上記課題を解決するものである。   According to the present invention, an imaging unit that captures an object and outputs an object image, an image display unit that displays the object image output by the imaging unit, and the object image output by the imaging unit are transmitted. Image transmitting means, image receiving means for receiving the object image transmitted by the image transmitting means, and instruction information creating means for creating instruction information for giving an instruction to the object image received by the image receiving means An instruction information transmitting unit that transmits the instruction information created by the instruction information generating unit, an instruction information receiving unit that receives the instruction information transmitted by the instruction information transmitting unit, and an image display unit An image superimposing means for superimposing and displaying an instruction image based on the instruction information received by the instruction information receiving means on the object image; and the object image displayed on the image display means. Providing an object instruction system including a designation image moving means for moving the indication image corresponding to the mobile, it is to solve the above problems.

本発明は、対象物を撮影して対象物画像を出力する撮影手段と、前記撮影手段が出力する前記対象物画像を送信する第1の画像送信手段と、前記第1の画像送信手段が送信する前記対象物画像を受信する第1の画像受信手段と、前記第1の画像受信手段が受信した前記対象物画像に指示を与えるための指示情報を作成する指示情報作成手段と、前記第1の画像受信手段が受信した前記対象物画像に、前記指示情報生成手段が作成した前記指示情報に基づく指示画像を重畳させる画像重畳手段と、前記第1の画像受信手段が受信した前記対象物画像の移動に対応して前記指示画像を移動させる指示画像移動手段と、前記画像重畳手段が重畳させた前記対象物画像及び前記指示画像を送信する第2の画像送信手段と、 前記第2の画像送信手段が送信した前記対象物画像及び前記指示画像を受信する第2の画像受信手段と、前記第2の画像受信手段が受信した前記対象物画像及び前記指示画像を表示する画像表示手段とを備えた対象物指示システムを提供して、上記課題を解決するものである。   According to the present invention, an imaging unit that captures an object and outputs an object image, a first image transmission unit that transmits the object image output by the imaging unit, and a transmission that is transmitted by the first image transmission unit. First image receiving means for receiving the object image, instruction information creating means for creating instruction information for giving an instruction to the object image received by the first image receiving means, and the first An image superimposing means for superimposing an instruction image based on the instruction information created by the instruction information generating means on the object image received by the image receiving means, and the object image received by the first image receiving means. Instruction image moving means for moving the instruction image in response to movement of the image, second image transmission means for transmitting the object image and the instruction image superimposed by the image superimposing means, and the second image Sending means A second image receiving means for receiving the received object image and the instruction image; and an image display means for displaying the object image and the instruction image received by the second image receiving means. An object instruction system is provided to solve the above problems.

本発明は、前記指示画像移動手段は、前記対象物画像の特徴点を抽出する特徴点抽出手段と、該特徴点抽出手段が抽出した前記対象物画像の移動前の特徴点と移動後の特徴点を対比する特徴点対比手段と、該特徴点対比手段が対比した前記対象物画像の移動前後の特徴点から前記指示画像の移動量を算出する移動量算出手段とを備えた対象物指示システムを提供して、上記課題を解決するものである。   In the present invention, the instruction image moving means includes a feature point extracting means for extracting a feature point of the object image, a feature point before the movement of the object image extracted by the feature point extracting means, and a feature after the movement. An object indication system comprising: a feature point comparison unit that compares points; and a movement amount calculation unit that calculates a movement amount of the instruction image from feature points before and after the movement of the object image compared by the feature point comparison unit To solve the above problems.

本発明は、前記撮影手段と前記画像表示手段は、装着者の顔面または頭部に装着されるウェアラブルコンピュータに取付けられている対象物指示システムを提供して、上記課題を解決するものである。   The present invention solves the above problems by providing an object instruction system in which the photographing means and the image display means are attached to a wearable computer attached to the face or head of the wearer.

本発明は、撮影手段により対象物を撮影して対象物画像を出力し、前記撮影手段が出力した前記対象物画像を画像表示手段に表示し、前記撮影手段が出力した前記対象物画像に指示を与えるための指示情報を作成し、前記画像表示手段に表示された前記対象物画像に、前記指示情報に基づく指示画像を重畳して表示し、前記画像表示手段に表示された前記対象物画像の移動に対応して前記指示画像を移動させるステップを備えた対象物指示方法を提供して、上記課題を解決するものである。   The present invention shoots an object by an imaging unit and outputs an object image, displays the object image output by the imaging unit on an image display unit, and instructs the object image output by the imaging unit The object image displayed on the image display means is displayed by superimposing the instruction image based on the instruction information on the object image displayed on the image display means. An object instruction method including a step of moving the instruction image in response to movement of the object is provided to solve the above-described problem.

本発明は、撮影手段により対象物を撮影して対象物画像を出力し、前記撮影手段が出力した前記対象物画像を画像表示手段に表示し、前記撮影手段が出力する前記対象物画像を画像送信手段により送信し、前記画像送信手段が送信する前記対象物画像を画像受信手段が受信し、前記画像受信手段が受信した前記対象物画像に指示を与えるための指示情報を作成し、前記指示情報を指示情報送信手段により送信し、前記指示情報送信手段が送信した前記指示情報を指示情報受信手段が受信し、前記画像表示手段に表示された前記対象物画像に、前記指示情報受信手段が受信した前記指示情報に基づく指示画像を重畳して表示し、前記画像表示手段に表示された前記対象物画像の移動に対応して前記指示画像を移動させるステップを備えた対象物指示方法を提供して、上記課題を解決するものである。   In the present invention, an object is photographed by a photographing unit to output a target image, the target image output by the photographing unit is displayed on an image display unit, and the target image output by the photographing unit is displayed as an image. An image receiving unit receives the object image transmitted by the transmitting unit and transmitted by the image transmitting unit, creates instruction information for giving an instruction to the object image received by the image receiving unit, and Information is transmitted by the instruction information transmitting means, the instruction information receiving means receives the instruction information transmitted by the instruction information transmitting means, and the instruction information receiving means is added to the object image displayed on the image display means. An object comprising a step of superimposing and displaying an instruction image based on the received instruction information and moving the instruction image in response to movement of the object image displayed on the image display means Providing How to Display, it is to solve the above problems.

本発明は、撮影手段により対象物を撮影して対象物画像を出力し、前記撮影手段が出力する前記対象物画像を第1の画像送信手段により送信し、前記第1の画像送信手段が送信する前記対象物画像を第1の画像受信手段が受信し、前記第1の画像受信手段が受信した前記対象物画像に指示を与えるための指示情報を作成し、画像重畳手段が、前記第1の画像受信手段が受信した前記対象物画像に、前記指示情報に基づく指示画像を重畳し、前記第1の画像受信手段が受信した前記対象物画像の移動に対応して前記指示画像を移動させ、 前記画像重畳手段が重畳した前記対象物画像及び前記指示画像を第2の画像送信手段が送信し、前記第2の画像送信手段が送信した前記対象物画像及び前記指示画像を第2の画像受信手段が受信し、前記第2の画像受信手段が受信した前記対象物画像及び前記指示画像を画像表示手段に表示するステップを備えた対象物指示方法を提供して、上記課題を解決するものである。   In the present invention, an object is imaged by an imaging unit to output an object image, the object image output by the imaging unit is transmitted by a first image transmission unit, and the first image transmission unit transmits The object image to be received is received by the first image receiving means, the instruction information for giving an instruction to the object image received by the first image receiving means is created, and the image superimposing means An instruction image based on the instruction information is superimposed on the object image received by the image receiving means, and the instruction image is moved in response to the movement of the object image received by the first image receiving means. The second image transmitting unit transmits the object image and the instruction image superimposed by the image superimposing unit, and the second image transmitting unit transmits the object image and the instruction image transmitted by the second image transmitting unit. Receiving means receives and Said object image and said instruction image image received by the receiving means to provide an object instruction method comprising the step of displaying on the image display means, it is to solve the above problems.

本発明は、前記指示画像を移動させるステップは、前記対象物画像の移動前の特徴点と移動後の特徴点を抽出し、抽出した特徴点を対比し、対比した特徴点に基づいて前記指示画像の移動量を算出するステップとを備えた対象物指示方法を提供して、上記課題を解決するものである。   According to the present invention, in the step of moving the instruction image, the feature point before the movement of the object image and the feature point after the movement are extracted, the extracted feature points are compared, and the instruction point is based on the compared feature points. An object instruction method comprising a step of calculating a moving amount of an image is provided to solve the above problem.

本発明は、前記撮影手段と前記画像表示手段は、装着者の顔面または頭部に装着されるウェアラブルコンピュータに取付けられている対象物指示方法を提供して、上記課題を解決するものである。   The present invention solves the above-mentioned problems by providing an object indication method in which the photographing means and the image display means are attached to a wearable computer attached to the face or head of the wearer.

本発明は、上記対象物指示方法をコンピュータに実行させるプログラムを提供して、上記課題を解決するものである。   This invention solves the said subject by providing the program which makes a computer perform the said object instruction | indication method.

本発明の対象物指示システムにおいては、撮影手段により対象物が撮影されて対象物画像が出力され、出力された対象物画像は画像表示手段に表示され、指示情報作成手段により前記対象物画像に指示を与えるための指示情報が作成され、画像重畳手段により、前記画像表示手段に表示された前記対象物画像に、前記指示情報作成手段が作成した前記指示情報に基づく指示画像が重畳して表示され、指示画像移動手段により前記画像表示手段に表示された前記対象物画像の移動に対応して前記指示画像が移動されるため、対象物画像が移動しても、指示画像が的確に対象物画像に重畳表示され、的確な指示ができるという効果を奏する。   In the object instruction system of the present invention, the object is photographed by the photographing means and the object image is output, the output object image is displayed on the image display means, and the object information is created by the instruction information creating means. Instruction information for giving an instruction is created, and an instruction image based on the instruction information created by the instruction information creating unit is superimposed and displayed on the object image displayed on the image display unit by an image superimposing unit. The instruction image is moved in response to the movement of the object image displayed on the image display means by the instruction image moving means. Therefore, even if the object image is moved, the instruction image is exactly the object. Overlaid on the image, it is possible to give an accurate instruction.

本発明の対象物指示システムにおいては、撮影手段により対象物が撮影されて対象物画像が出力され、出力された対象物画像は、画像表示手段に表示されると共に画像送信手段により送信されて画像受信手段に受信され、指示情報作成手段により受信した前記対象物画像に指示を与えるための指示情報が作成され、作成された指示情報は指示情報送信手段により送信されて指示情報受信手段により受信され、画像重畳手段により、前記画像表示手段に表示された前記対象物画像に、前記指示情報受信手段が受信した前記指示情報に基づく指示画像が重畳して表示され、指示画像移動手段により前記画像表示手段に表示された前記対象物画像の移動に対応して前記指示画像が移動されるため、対象物画像が移動しても、指示画像が的確に対象物画像に重畳表示され、的確な指示ができるという効果を奏する。   In the object instruction system of the present invention, the object is photographed by the photographing means and the object image is output, and the outputted object image is displayed on the image display means and transmitted by the image transmitting means. Instruction information for giving an instruction to the object image received by the receiving means and received by the instruction information creating means is created, and the created instruction information is transmitted by the instruction information transmitting means and received by the instruction information receiving means. The instruction image based on the instruction information received by the instruction information receiving unit is superimposed and displayed on the object image displayed on the image display unit by the image superimposing unit, and the image display is performed by the instruction image moving unit. Since the instruction image is moved in response to the movement of the object image displayed on the means, even if the object image is moved, the instruction image is accurately It is superimposed on the image, an effect that it is accurate instructions.

本発明の対象物指示システムにおいては、撮影手段により対象物が撮影されて対象物画像が出力され、出力された対象物画像は第1の画像送信手段により送信されて第1の画像受信手段に受信され、指示情報作成手段により、受信した前記対象物画像に指示を与えるための指示情報が作成され、画像重畳手段により、前記第1の画像受信手段が受信した前記対象物画像に、前記指示情報生成手段が作成した前記指示情報に基づく指示画像が重畳され、指示画像移動手段により、前記第1の画像受信手段が受信した前記対象物画像の移動に対応して前記指示画像が移動され、第2の画像送信手段により、前記画像重畳手段が重畳させた前記対象物画像及び前記指示画像を送信されて、第2の画像受信手段により受信され、画像表示手段により受信された前記対象物画像及び前記指示画像が表示されるため、対象物画像が移動しても、指示画像が的確に対象物画像に重畳表示され、的確な指示ができるという効果を奏する。   In the object instruction system of the present invention, the object is photographed by the photographing means and the object image is output, and the outputted object image is transmitted by the first image transmitting means and sent to the first image receiving means. Instruction information for receiving an instruction to the received object image is generated by the instruction information creating means, and the instruction is applied to the object image received by the first image receiving means by the image superimposing means. An instruction image based on the instruction information created by the information generating unit is superimposed, and the instruction image moving unit moves the instruction image in response to the movement of the object image received by the first image receiving unit, The object image and the instruction image superimposed by the image superimposing unit are transmitted by the second image transmitting unit, received by the second image receiving unit, and received by the image display unit. Since the object image and the instruction image being is displayed, even if the moving object image, an instruction image is displayed superimposed precisely the object image, an effect that it is accurate instructions.

本発明の対象物指示システムの前記指示画像移動手段においては、特徴点抽出手段により前記対象物画像の特徴点を抽出され、抽出された前記対象物画像の移動前の特徴点と移動後の特徴点が特徴点対比手段により対比され、対比された前記対象物画像の移動前後の特徴点から移動量算出手段により前記指示画像の移動量が算出されるため、さらに、指示画像がより的確に対象物画像に重畳表示されるという効果を奏する。   In the instruction image moving means of the object instruction system of the present invention, the feature points of the object image are extracted by the feature point extracting means, and the extracted feature points before and after the movement of the object image are extracted. Since the points are compared by the feature point comparison means, and the movement amount of the instruction image is calculated by the movement amount calculation means from the feature points before and after the movement of the compared object image, the instruction image is more accurately targeted. There is an effect that the object image is superimposed and displayed.

本発明の対象物指示システムにおいては、前記撮影手段と前記画像表示手段は、装着者の顔面または頭部に装着されるウェアラブルコンピュータに取付けられているため、さらに、対象物画像をより的確に表示できるという効果を奏する。   In the object indication system of the present invention, the photographing means and the image display means are attached to a wearable computer attached to the wearer's face or head, so that the object image is displayed more accurately. There is an effect that can be done.

本発明の対象物指示方法は、撮影手段により対象物を撮影して対象物画像を出力し、出力した前記対象物画像を画像表示手段に表示し、前記撮影手段が出力した前記対象物画像に指示を与えるための指示情報を作成し、前記画像表示手段に表示された前記対象物画像に、前記指示情報に基づく指示画像を重畳して表示し、前記画像表示手段に表示された前記対象物画像の移動に対応して前記指示画像を移動させるため、対象物画像が移動しても、指示画像が的確に対象物画像に重畳表示され、的確な指示ができるという効果を奏する。   In the object instruction method of the present invention, an object is imaged by an imaging unit, an object image is output, the output object image is displayed on an image display unit, and the object image output by the imaging unit is displayed. Instruction information for giving an instruction is created, the instruction image based on the instruction information is superimposed and displayed on the object image displayed on the image display means, and the object displayed on the image display means Since the instruction image is moved in response to the movement of the image, even if the object image is moved, the instruction image is accurately superimposed and displayed on the object image, and an accurate instruction can be obtained.

本発明の対象物指示方法は、撮影手段により対象物を撮影して対象物画像を出力し、出力した前記対象物画像を画像表示手段に表示し、前記撮影手段が出力する前記対象物画像を画像送信手段により送信し、これを画像受信手段が受信し、受信した前記対象物画像に指示を与えるための指示情報を作成し、作成された指示情報を指示情報送信手段により送信し、これを指示情報受信手段が受信し、前記画像表示手段に表示された前記対象物画像に、前記指示情報受信手段が受信した前記指示情報に基づく指示画像を重畳して表示し、表示された前記対象物画像の移動に対応して前記指示画像を移動させるため、対象物画像が移動しても、指示画像が的確に対象物画像に重畳表示され、的確な指示ができるという効果を奏する。
という効果を奏する。
In the object instruction method of the present invention, an object is imaged by an imaging unit, an object image is output, the output object image is displayed on an image display unit, and the object image output by the imaging unit is displayed. Transmitted by the image transmitting means, the image receiving means receives this, creates instruction information for giving an instruction to the received object image, transmits the created instruction information by the instruction information transmitting means, An instruction image based on the instruction information received by the instruction information receiving means is superimposed on the object image received by the instruction information receiving means and displayed on the image display means, and the displayed object Since the instruction image is moved in response to the movement of the image, even if the object image is moved, the instruction image is accurately superimposed and displayed on the object image, and an accurate instruction can be obtained.
There is an effect.

本発明の対象物指示方法は、撮影手段により対象物を撮影して対象物画像を出力し、出力した前記対象物画像を第1の画像送信手段により送信し、これを第1の画像受信手段が受信し、受信した前記対象物画像に指示を与えるための指示情報を作成し、画像重畳手段が、前記第1の画像受信手段が受信した前記対象物画像に、前記指示情報に基づく指示画像を重畳し、前記第1の画像受信手段が受信した前記対象物画像の移動に対応して前記指示画像を移動させ、前記画像重畳手段が重畳した前記対象物画像及び前記指示画像を第2の画像送信手段が送信し、これを第2の画像受信手段が受信し、受信した前記対象物画像及び前記指示画像を画像表示手段に表示するため、対象物画像が移動しても、指示画像が的確に対象物画像に重畳表示され、的確な指示ができるという効果を奏する。
という効果を奏する。
In the object instruction method of the present invention, an object is imaged by an imaging unit, an object image is output, the output object image is transmitted by a first image transmission unit, and this is transmitted to the first image receiving unit. Is generated, and instruction information for giving an instruction to the received object image is generated, and an image superimposing unit adds an instruction image based on the instruction information to the object image received by the first image receiving unit. And the instruction image is moved in response to the movement of the object image received by the first image receiving means, and the object image and the instruction image superimposed by the image superimposing means are The image transmitting means transmits the received image, the second image receiving means receives it, and the received object image and the instruction image are displayed on the image display means. Accurately displayed superimposed on the object image An effect that it is accurate instructions.
There is an effect.

本発明の対象物指示方法おける前記指示画像を移動させるステップは、前記対象物画像の移動前の特徴点と移動後の特徴点を抽出し、抽出した特徴点を対比し、対比した特徴点に基づいて前記指示画像の移動量を算出するステップを備えているため、さらに、指示画像がより的確に対象物画像に重畳表示されるという効果を奏する。   The step of moving the instruction image in the object instruction method of the present invention includes extracting the feature point before the movement of the object image and the feature point after the movement, comparing the extracted feature points, and comparing the extracted feature points. Since the step of calculating the movement amount of the instruction image based on the above is provided, there is an effect that the instruction image is more accurately superimposed on the object image.

本発明の対象物指示方法においては、装着者の顔面または頭部に装着されるウェアラブルコンピュータに取付けられているため、さらに、対象物画像をより的確に表示できるという効果を奏する。   In the object indication method of the present invention, since it is attached to a wearable computer attached to the wearer's face or head, the object image can be displayed more accurately.

本発明のプログラムは、前記対象物指示方法と同様の効果を奏する。   The program of the present invention has the same effect as the object indication method.

本発明の対象物指示システムの一実施形態の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of one Embodiment of the target object instruction | indication system of this invention. 図1に示す対象物指示システムの具体的構成の一例を示すブロック図である。It is a block diagram which shows an example of the specific structure of the target object instruction | indication system shown in FIG. 図2のスマートグラス20の外観を示す外観図である。It is an external view which shows the external appearance of the smart glass 20 of FIG. 図1に示す対象物指示システムの具体的構成の他の例を示すブロック図である。It is a block diagram which shows the other example of the specific structure of the target object instruction | indication system shown in FIG. 撮影部2(カメラ22、62)が撮影し、画像取得部3(23、63)に取り込まれた対象物画像とそれに重畳する指示画像の具体例を説明するための説明図である。It is explanatory drawing for demonstrating the specific example of the target image which the imaging | photography part 2 (camera 22, 62) image | photographed, and was taken in by the image acquisition part 3 (23, 63), and the instruction image superimposed on it. 指示画像移動部6(26、76)の主要な構成を示すブロック図である。It is a block diagram which shows the main structures of the instruction | indication image moving part 6 (26,76). 図5に示す対象物画像TGについて、現時点の時刻tにおいて特徴点抽出部90が抽出した指示画像SGの内部とその外部周辺領域における特徴点を説明した説明図ある。FIG. 6 is an explanatory diagram for explaining the feature points in the instruction image SG extracted by the feature point extraction unit 90 at the current time t and the outer peripheral region of the target image TG shown in FIG. 5. 現在点から一定時間(dt)経過後の時刻(t+dt)において、特徴点抽出部90が抽出した指示画像SGの内部とその外部周辺領域における特徴点を説明した説明図ある。It is explanatory drawing explaining the feature point in the instruction | indication image SG which the feature point extraction part 90 extracted at the time (t + dt) after fixed time (dt) progress from a present point, and its external peripheral area | region. 特徴点抽出部90が抽出した特徴点PA1〜PA8についての特徴量とその座標を示した説明図である。It is explanatory drawing which showed the feature-value and its coordinate about the feature points PA1-PA8 which the feature point extraction part 90 extracted. 特徴点抽出部90が抽出した特徴点PB1〜PB8についての特徴量とその座標を示した説明図である。It is explanatory drawing which showed the feature-value and its coordinate about the feature points PB1-PB8 which the feature point extraction part 90 extracted. 対象物画像TGが移動する前のある時刻tと、それから一定時間(dt)経過して対象物画像TGが移動した後の時刻(t+dt)における対象物画像TGと指示画像SGを示した説明図である。Explanatory drawing showing the object image TG and the instruction image SG at a certain time t before the object image TG moves, and at a time (t + dt) after the object image TG moves after a certain time (dt) has passed. It is. 対象物指示システム10(50)において、対象物画像と指示画像を場所案内に利用した例を説明するもので、対象物画像と指示画像の移動前の状態を表した説明図である。In the object instruction | indication system 10 (50), it demonstrates the example which utilized the object image and the instruction | indication image for place guidance, and is explanatory drawing showing the state before the movement of an object image and an instruction | indication image. 対象物指示システム10(50)において、対象物画像と指示画像を場所案内に利用した例を説明するもので、対象物画像と指示画像の移動後の状態を表した説明図である。In the object instruction | indication system 10 (50), it demonstrates the example which utilized the object image and the instruction | indication image for location guidance, and is explanatory drawing showing the state after the movement of an object image and an instruction | indication image. 対象物指示システム1の動作を示すフローチャートである。3 is a flowchart showing the operation of the object instruction system 1. 対象物指示システム1の指示画像移動部6の動作を示すフローチャートである。4 is a flowchart showing an operation of an instruction image moving unit 6 of the object instruction system 1. 対象物指示システム10の動作を示すフローチャートである。3 is a flowchart showing the operation of the object instruction system 10. 対象物指示システム50の動作を示すフローチャートである。5 is a flowchart showing the operation of the object instruction system 50.

[対象物指示システムの概略構成]
図1は、本発明の対象物指示システムの一実施形態の概略構成を示すブロック図である。図において、1は対象物指示システム、2は撮影部、3は画像取得部、4は指示情報作成部、5は画像重畳部、6は指示画像移動部、7は画像表示部である。
図に示すように、対象物指示システム1は、撮影部2、画像取得部3、指示情報作成部4、画像重畳部5、指示画像移動部6、画像表示部7等から構成される。
撮影部2は、作業者(装着者)が装着するスマートグラス等のウェアラブルコンピュータに取り付けられたカメラ等により構成され、作業者の視界に入っている作業の対象物を撮影し、撮影した対象物画像を出力する。
画像取得部3は、撮影部2が撮影して出力した対象物及びその周辺の画像を取り込み、対象物画像(対象物の背景画像を含む)として一時的に保存した後、保存した対象物画像を出力する。
指示情報作成部4は、画像取得部3から送られてくる対象物画像に対して、作業者とは別のオペレータが作業場所から離れた位置にある管理センター等で行った指示情報、例えば、対象物の作業箇所を囲む円形枠等の指示画像の情報を作成し、作成した指示情報を出力する。
画像重畳部5は、画像取得部3から送られて対象物画像に対して、指示情報作成部4から送られてくる指示情報に基づく指示画像、例えば、対象物の作業箇所を囲む円形枠等の指示画像を重畳し、重畳した画像を出力するが、指示情報作成部4からの指示画像がない場合は、対象物画像のみを出力する。
指示画像移動部6は、画像重畳部5が重畳した対象物画像と指示画像に対して、対象物画像の移動に対応させて指示画像を移動させる。
画像表示部7は、画像重畳部5から送られてくる重畳した対象物画像と指示画像を表示し、画像重畳部5から対象物画像のみが送られてきた場合は、対象物画像のみを表示する。
[Schematic configuration of object indication system]
FIG. 1 is a block diagram showing a schematic configuration of an embodiment of an object instruction system of the present invention. In the figure, 1 is an object instruction system, 2 is a photographing unit, 3 is an image acquisition unit, 4 is an instruction information creation unit, 5 is an image superimposing unit, 6 is an instruction image moving unit, and 7 is an image display unit.
As shown in the figure, the object instruction system 1 includes an imaging unit 2, an image acquisition unit 3, an instruction information creation unit 4, an image superimposing unit 5, an instruction image moving unit 6, an image display unit 7, and the like.
The photographing unit 2 is composed of a camera or the like attached to a wearable computer such as a smart glass worn by an operator (wearer), and takes an image of the object in the operator's field of view. Output an image.
The image acquisition unit 3 captures the object imaged and output by the image capturing unit 2 and the surrounding image, temporarily stores it as an object image (including a background image of the object), and then stores the object image Is output.
The instruction information creation unit 4 performs, for the target image sent from the image acquisition unit 3, instruction information performed by an operator other than the operator at a management center or the like located away from the work place, for example, Information on an instruction image such as a circular frame surrounding the work portion of the object is created, and the created instruction information is output.
The image superimposing unit 5 is an instruction image based on the instruction information sent from the instruction information creating unit 4 with respect to the object image sent from the image acquisition unit 3, for example, a circular frame surrounding the work location of the object The instruction image is superimposed and the superimposed image is output, but if there is no instruction image from the instruction information creation unit 4, only the object image is output.
The instruction image moving unit 6 moves the instruction image corresponding to the movement of the object image with respect to the object image and the instruction image superimposed by the image superimposing unit 5.
The image display unit 7 displays the superimposed object image and the instruction image sent from the image superimposing unit 5, and displays only the target image when only the target image is sent from the image superimposing unit 5. To do.

[対象物指示システムの具体的構成]
図2は、図1に示す対象物指示システムの具体的構成の一例を示すブロック図であり、図において、10は対象物指示システム、20はウェアラブルコンピュータの一種であるスマートグラス、21は制御部、22はカメラ、23は画像取得部、24は指示情報取得部、25は画像重畳部、26は指示画像移動部、27は画像表示部、28は送信部、29は受信部、30はサーバー、33は画像取得部、34は指示情報作成部、38は送信部、39は受信部、40、41はインターネット等の通信回線である。
図2に示すように、対象物指示システム10は、スマートグラス20とこれに通信回線40、41を介して接続されたサーバー30とから構成される。
以下対象物指示システムの具体的構成について説明する。
[Specific configuration of object indication system]
2 is a block diagram showing an example of a specific configuration of the object instruction system shown in FIG. 1. In FIG. 2, 10 is an object instruction system, 20 is a smart glass which is a kind of wearable computer, and 21 is a control unit. , 22 is a camera, 23 is an image acquisition unit, 24 is an instruction information acquisition unit, 25 is an image superimposition unit, 26 is an instruction image moving unit, 27 is an image display unit, 28 is a transmission unit, 29 is a reception unit, and 30 is a server. 33 is an image acquisition unit, 34 is an instruction information creation unit, 38 is a transmission unit, 39 is a reception unit, and 40 and 41 are communication lines such as the Internet.
As shown in FIG. 2, the object instruction system 10 includes a smart glass 20 and a server 30 connected to the smart glass 20 via communication lines 40 and 41.
Hereinafter, a specific configuration of the object instruction system will be described.

[スマートグラス20]
図3は、図2のスマートグラス20の外観を示す外観図である。図中、201は装着部、202はフレーム、203はレンズ部である。スマートグラス20は、メガネ型の装着部201とこれに内蔵されたコントローラー(図示せず)からなり、コントローラーには、制御部21が設けられている。
装着部201は、フレーム202と一対のレンズ部203からなり、フレーム202にはカメラ22が搭載され、レンズ部203には画像表示部27が取り付けられている。この装着部201は、装着者である作業者の顔面にメガネと同様にして装着される。
カメラ22は、スマートグラス20のフレーム202の右側のレンズ部203の近傍に取付けられ、スマートグラス20(装着部201)を装着した作業者の前方に存在する作業の対象物を撮影し、撮影した対象物画像を出力する。
画像表示部27は、スマートグラス20のレンズ部203の上部に設けられ、カメラ22が撮影して出力した対象物画像や、画像重畳部25から送られてくる重畳した対象物画像と指示画像等を投影表示する。
なお、コントローラーはメガネ型の装着部201に内蔵せず、これと別体のものとしてもよい。
[Smart Glass 20]
FIG. 3 is an external view showing the external appearance of the smart glass 20 of FIG. In the figure, 201 is a mounting portion, 202 is a frame, and 203 is a lens portion. The smart glass 20 includes a glasses-type mounting unit 201 and a controller (not shown) built therein, and a controller 21 is provided in the controller.
The mounting unit 201 includes a frame 202 and a pair of lens units 203, the camera 22 is mounted on the frame 202, and the image display unit 27 is mounted on the lens unit 203. This wearing part 201 is worn in the same manner as glasses on the face of the worker who is the wearer.
The camera 22 is attached in the vicinity of the lens unit 203 on the right side of the frame 202 of the smart glass 20, and photographs and photographs the work object existing in front of the worker wearing the smart glass 20 (mounting unit 201). Output the object image.
The image display unit 27 is provided on the upper portion of the lens unit 203 of the smart glass 20, and the object image photographed and output by the camera 22, the superimposed object image and instruction image sent from the image superimposing unit 25, and the like. Is projected and displayed.
Note that the controller may not be built in the glasses-type mounting unit 201 but may be a separate one.

[制御部21]
制御部21は、画像取得部23、指示情報取得部24、画像重畳部25、指示画像移動部26、送信部28、受信部29等から構成される。
画像取得部23は、カメラ22が撮影して出力した対象物及びその周辺の画像を取り込み、対象物画像(対象物の背景画像を含む)として一時的に保存した後、保存した対象物画像を出力する。
指示情報取得部24は、受信部29が受信した指示情報(サーバー30の指示情報作成部34が作成した指示情報)を一時的に保存した後、保存した指示情報を出力する。
画像重畳部25は、対象物指示システム1の画像重畳部5と同様の機能を有する。すなわち、画像重畳部25は、画像取得部23から送られて対象物画像に対して、指示情報取得部24から送られてくる指示情報に基づく指示画像、例えば、対象物の作業箇所を囲む円形枠等の指示画像を重畳し、重畳した画像を出力するが、指示情報取得部24からの指示画像がない場合は、対象物画像のみを出力する。
指示画像移動部26は、対象物指示システム1の指示画像移動部6と同様の機能を有する。すなわち、指示画像移動部26は、画像重畳部25が重畳した対象物画像と指示画像に対して、対象物画像の移動に対応させて指示画像を移動させる。
送信部28は、画像取得部23が出力する対象物画像を通信回線40を介してサーバー30に送信する。
受信部29は、サーバー30から通信回線41を介して送られてきた指示情報を受信する。
[Control unit 21]
The control unit 21 includes an image acquisition unit 23, an instruction information acquisition unit 24, an image superimposition unit 25, an instruction image movement unit 26, a transmission unit 28, a reception unit 29, and the like.
The image acquisition unit 23 captures an object captured and output by the camera 22 and its surrounding image, temporarily stores it as an object image (including a background image of the object), and then stores the stored object image. Output.
The instruction information acquisition unit 24 temporarily stores the instruction information received by the reception unit 29 (the instruction information created by the instruction information creation unit 34 of the server 30), and then outputs the saved instruction information.
The image superimposing unit 25 has the same function as the image superimposing unit 5 of the object instruction system 1. That is, the image superimposing unit 25 sends an instruction image based on the instruction information sent from the instruction information obtaining unit 24 to the object image sent from the image obtaining unit 23, for example, a circle surrounding the work portion of the object. An instruction image such as a frame is superimposed and the superimposed image is output, but if there is no instruction image from the instruction information acquisition unit 24, only the object image is output.
The instruction image moving unit 26 has the same function as the instruction image moving unit 6 of the object instruction system 1. That is, the instruction image moving unit 26 moves the instruction image corresponding to the movement of the object image with respect to the object image and the instruction image superimposed by the image superimposing unit 25.
The transmission unit 28 transmits the object image output from the image acquisition unit 23 to the server 30 via the communication line 40.
The receiving unit 29 receives instruction information transmitted from the server 30 via the communication line 41.

[サーバー30]
サーバー30は、作業者が作業する作業現場から遠く離れた管理センター等に設置される。そして、サーバー30は、画像取得部33、指示情報作成部34、送信部38、受信部39等から構成される。
受信部39は、スマートグラス20の送信部28から通信回線40を介して送られてきた対象物画像を受信する。
画像取得部33は、受信部39が受信した対象物画像を一時的に保存した後、保存した対象物画像を出力する。
指示画像作成部34は、対象物指示システム1の指示画像作成部4と同様の機能を有する。すなわち、画像取得部33から送られてくる対象物画像に対して、管理センター等のオペレータが行った指示情報、例えば、対象物の作業箇所を囲む円形枠等の指示画像の情報を作成し、作成した指示情報を出力する。
送信部38は、指示画像作成部34が出力する指示情報を通信回線41を介してスマートグラス20に送信する。
[Server 30]
The server 30 is installed in a management center or the like far away from the work site where the worker works. The server 30 includes an image acquisition unit 33, an instruction information creation unit 34, a transmission unit 38, a reception unit 39, and the like.
The receiving unit 39 receives an object image transmitted from the transmitting unit 28 of the smart glass 20 via the communication line 40.
The image acquisition unit 33 temporarily stores the object image received by the reception unit 39, and then outputs the stored object image.
The instruction image creation unit 34 has the same function as the instruction image creation unit 4 of the object instruction system 1. That is, for the object image sent from the image acquisition unit 33, instruction information given by an operator such as a management center, for example, information of an instruction image such as a circular frame surrounding the work portion of the object, Output the created instruction information.
The transmission unit 38 transmits the instruction information output from the instruction image creation unit 34 to the smart glass 20 via the communication line 41.

[対象物指示システムの具体的構成の他の例]
図4は、図1に示す対象物指示システムの具体的構成の他の例を示すブロック図であり、図において、50は対象物指示システム、60はスマートグラス、61は制御部、62はカメラ、63、65は画像取得部、67は画像表示部、68は送信部、69は受信部、70はサーバー、73は画像取得部、74は指示情報作成部、75は画像重畳部、76は指示画像移動部、78は送信部、79は受信部、80、81はインターネット等の通信回線である。
図4に示すように、対象物指示システム50は、スマートグラス60とこれに通信回線80、81を介して接続されたサーバー70とから構成される。
[Other examples of specific configuration of the object indication system]
FIG. 4 is a block diagram showing another example of the specific configuration of the object instruction system shown in FIG. 1, in which 50 is an object instruction system, 60 is a smart glass, 61 is a control unit, and 62 is a camera. 63 and 65 are image acquisition units, 67 is an image display unit, 68 is a transmission unit, 69 is a reception unit, 70 is a server, 73 is an image acquisition unit, 74 is an instruction information creation unit, 75 is an image superimposition unit, and 76 is An instruction image moving unit, 78 is a transmitting unit, 79 is a receiving unit, and 80 and 81 are communication lines such as the Internet.
As shown in FIG. 4, the object indication system 50 includes a smart glass 60 and a server 70 connected to the smart glass 60 via communication lines 80 and 81.

[スマートグラス60]
スマートグラス60は、図3のスマートグラス20と同じ外観構成を備え、カメラ62、画像表示部67は、スマートグラス20のカメラ22、画像表示部27と同じ機能を有しているが、コントローラーに設けられた制御部61の構成は、スマートグラス20の制御部21の構成と異なっている。
すなわち、制御部61は、画像取得部63、65、送信部68、受信部69等のみから構成される。
画像取得部63は、スマートグラス20の画像取得部23と同じ機能を有する。すなわち、画像取得部63は、カメラ62が撮影して出力した対象物及びその周辺の画像を取り込み、対象物画像(対象物の背景画像を含む)として一時的に保存した後、保存した対象物画像を出力する。
画像取得部63は、サーバー70から通信回線81を介して送られ受信部69がした画像(対象物画像、対象物画像と指示画像を重畳した画像)を一時的に保存した後、保存した画像を出力する。
送信部68は、画像取得部63が出力する対象物画像を通信回線80を介してサーバー70に送信する。
受信部69は、サーバー70から通信回線81を介して送られてきた画像(対象物画像、対象物画像と指示画像を重畳した画像)を受信する。
[Smart Glass 60]
The smart glass 60 has the same external configuration as the smart glass 20 of FIG. 3, and the camera 62 and the image display unit 67 have the same functions as the camera 22 and the image display unit 27 of the smart glass 20, but the controller The configuration of the provided control unit 61 is different from the configuration of the control unit 21 of the smart glass 20.
That is, the control unit 61 includes only image acquisition units 63 and 65, a transmission unit 68, a reception unit 69, and the like.
The image acquisition unit 63 has the same function as the image acquisition unit 23 of the smart glass 20. That is, the image acquisition unit 63 captures an object captured and output by the camera 62 and its surrounding image, temporarily stores it as an object image (including a background image of the object), and then stores the object Output an image.
The image acquisition unit 63 temporarily stores an image (object image, an image obtained by superimposing the object image and the instruction image) sent from the server 70 via the communication line 81 and performed by the reception unit 69, and then the stored image. Is output.
The transmission unit 68 transmits the object image output from the image acquisition unit 63 to the server 70 via the communication line 80.
The receiving unit 69 receives an image (an object image, an image obtained by superimposing the object image and an instruction image) transmitted from the server 70 via the communication line 81.

[サーバー70]
サーバー70は、対象物指示システム10のサーバー30と同様に作業者が作業する作業現場から遠く離れた管理センター等に設置されるが、その構成はサーバー30の構成とは異なる。すなわち、サーバー70は、サーバー30と同様に、画像取得部73、指示情報作成部74、送信部78、受信部79等を備え、さらに、画像重畳部75、指示画像移動部76を備えている。
受信部79は、スマートグラス60の送信部68から通信回線80を介して送られてきた対象物画像を受信する。
画像取得部73は、受信部79が受信した対象物画像を一時的に保存した後、保存した対象物画像を出力する。
指示画像作成部74は、対象物指示システム1の指示画像作成部4と同様の機能を有する。すなわち、画像取得部73から送られてくる対象物画像に対して、管理センター等のオペレータが行った指示情報、例えば、対象物の作業箇所を囲む円形枠等の指示画像の情報を作成し、作成した指示情報を出力する。
画像重畳部75は、対象物指示システム1の画像重畳部5や対象物指示システム10の画像重畳部25と同様の機能を有する。すなわち、画像重畳部75は、画像取得部73から送られて対象物画像に対して、指示情報取得部74から送られてくる指示情報に基づく指示画像、例えば、対象物の作業箇所を囲む円形枠等の指示画像を重畳し、重畳した画像を出力するが、指示情報取得部74からの指示画像がない場合は、対象物画像のみを出力する。
送信部78は、画像重畳部75が出力する対象物画像、対象物画像と指示画像を重畳した画像を通信回線81を介してスマートグラス60に送信する。
[Server 70]
The server 70 is installed in a management center or the like far away from the work site where the worker works, similar to the server 30 of the object instruction system 10, but the configuration is different from the configuration of the server 30. That is, similarly to the server 30, the server 70 includes an image acquisition unit 73, an instruction information creation unit 74, a transmission unit 78, a reception unit 79, and the like, and further includes an image superimposing unit 75 and an instruction image moving unit 76. .
The receiving unit 79 receives the object image transmitted from the transmitting unit 68 of the smart glass 60 via the communication line 80.
The image acquisition unit 73 temporarily stores the object image received by the reception unit 79 and then outputs the stored object image.
The instruction image creation unit 74 has the same function as the instruction image creation unit 4 of the object instruction system 1. That is, for the object image sent from the image acquisition unit 73, instruction information given by an operator such as a management center, for example, information of an instruction image such as a circular frame surrounding the work portion of the object is created. Output the created instruction information.
The image superimposing unit 75 has a function similar to that of the image superimposing unit 5 of the target object indicating system 1 and the image superimposing unit 25 of the target object indicating system 10. In other words, the image superimposing unit 75 sends an instruction image based on the instruction information sent from the instruction information obtaining unit 74 to the object image sent from the image obtaining unit 73, for example, a circle surrounding the work location of the object. An instruction image such as a frame is superimposed and the superimposed image is output, but if there is no instruction image from the instruction information acquisition unit 74, only the object image is output.
The transmission unit 78 transmits the object image output from the image superimposing unit 75 and an image obtained by superimposing the object image and the instruction image to the smart glass 60 via the communication line 81.

[指示情報作成部4(34、74)と画像重畳部5(25、75)]
図5は、撮影部2(カメラ22、62)が撮影し、画像取得部3(23、63)に取り込まれた対象物画像とそれに重畳する指示画像の具体例を説明するための説明図であり、図において、TGは対象物画像、SGは指示画像、CGは対象物画像TGに指示画像SGを重畳した重畳画像である。
以下図5に基づいて、指示情報作成部4(34、74)と画像重畳部5(25、75)の機能について具体的に説明する。
画像取得部3(23、63)に取り込まれた対象物画像TGが図5(a)に示すような自動車の画像(背景画像を含む)であるとすると、対象物画像TGがディスプレイ(図示せず)に表示され、これに対してオペレータが作業の箇所を示す情報(例えば、作業箇所囲む円形の枠の情報)を入力する。指示情報作成部4(34、74)は、オペレータが入力した情報に基づき指示情報(例えば、作業箇所囲む円形の枠の中心と直径)を作成し、この指示情報に基づいて、図5(a)に示すような指示画像SGが生成され、指示画像SGは画像重畳部5(25、75)に送られる。
画像重畳部5(25、75)は、画像取得部3(23、63)から送られてくる対象物画像TGに指示画像SGを重畳した重畳画像CGを作成し、作成した重畳画像CGを出力する。この場合、画像重畳部5(25、75)に対象物画像TGのみが送られ、指示画像SGが送られない場合は、画像重畳部5(25、75)は対象物画像TGのみを出力する。
[Instruction information creating unit 4 (34, 74) and image superimposing unit 5 (25, 75)]
FIG. 5 is an explanatory diagram for describing a specific example of an object image captured by the image capturing unit 2 (cameras 22 and 62) and captured by the image acquisition unit 3 (23 and 63) and an instruction image superimposed thereon. In the figure, TG is an object image, SG is an instruction image, and CG is a superimposed image in which the instruction image SG is superimposed on the object image TG.
Hereinafter, the functions of the instruction information creating unit 4 (34, 74) and the image superimposing unit 5 (25, 75) will be described in detail with reference to FIG.
If the object image TG taken into the image acquisition unit 3 (23, 63) is an image of a car (including a background image) as shown in FIG. 5A, the object image TG is displayed on a display (not shown). The operator inputs information indicating the location of the work (for example, information on a circular frame surrounding the work location). The instruction information creating unit 4 (34, 74) creates instruction information (for example, the center and diameter of a circular frame surrounding the work location) based on information input by the operator, and based on this instruction information, the information shown in FIG. ) Is generated, and the instruction image SG is sent to the image superimposing unit 5 (25, 75).
The image superimposing unit 5 (25, 75) creates a superimposed image CG in which the instruction image SG is superimposed on the object image TG sent from the image acquisition unit 3 (23, 63), and outputs the created superimposed image CG. To do. In this case, when only the target image TG is sent to the image superimposing unit 5 (25, 75) and the instruction image SG is not sent, the image superimposing unit 5 (25, 75) outputs only the target image TG. .

[指示画像移動部6(26、76)]
図6は、指示画像移動部6(26、76)の主要な構成を示すブロック図であり、図において、90は特徴点抽出部、91は特徴点対比部、92は移動量算出部である。
以下、指示画像移動部6(26、76)の構成及び機能について説明する。
図6に示すように、指示画像移動部6(26、76)は、特徴点抽出部90、特徴点対比部91、移動量算出部92を備えている。
特徴点抽出部90は、対象物画像について指示画像の内部とその外部周辺領域における特徴点を一定時間毎に抽出する。
特徴点対比部91は、特徴点抽出部90が抽出したある時点(時刻t)での各特徴点の特徴量と、一定時間(dt)経過後の時点(時刻t+dt)での各特徴点の特徴量を対比し、特徴点の対応付けを行う。
移動量算出部92は、特徴点対比部91により対応付けられた特徴点の位置に変化があれば、対象物画像が移動したとして、対象物画像の移動量(移動方向を含む)を算出する。
そして、指示画像移動部6(26、76)は、移動量算出部92が算出した移動量に基づいて指示画像を移動させる。
なお、特徴点抽出部90による特徴点の抽出は、対象物画像の一部ではなく対象物画像の全体について行ってもよい。
[Instruction image moving unit 6 (26, 76)]
FIG. 6 is a block diagram showing the main configuration of the instruction image moving unit 6 (26, 76). In the figure, 90 is a feature point extracting unit, 91 is a feature point comparing unit, and 92 is a moving amount calculating unit. .
Hereinafter, the configuration and function of the instruction image moving unit 6 (26, 76) will be described.
As shown in FIG. 6, the instruction image moving unit 6 (26, 76) includes a feature point extraction unit 90, a feature point comparison unit 91, and a movement amount calculation unit 92.
The feature point extraction unit 90 extracts feature points in the instruction image and in the outer peripheral area of the target image at regular intervals.
The feature point comparison unit 91 calculates the feature amount of each feature point at a certain time point (time t) extracted by the feature point extraction unit 90 and each feature point at a time point (time t + dt) after a certain time (dt) has elapsed. The feature points are compared, and feature points are associated.
If there is a change in the position of the feature point associated with the feature point comparison unit 91, the movement amount calculation unit 92 calculates the movement amount (including the movement direction) of the target image, assuming that the target image has moved. .
Then, the instruction image moving unit 6 (26, 76) moves the instruction image based on the movement amount calculated by the movement amount calculating unit 92.
Note that the feature point extraction by the feature point extraction unit 90 may be performed not on a part of the object image but on the entire object image.

[特徴点抽出部90]
図7は、図5に示す対象物画像TGについて、現時点の時刻tにおいて特徴点抽出部90が抽出した指示画像SGの内部とその外部周辺領域における特徴点を説明した説明図あり、図8は、現在点から一定時間(dt)経過後の時刻(t+dt)において、特徴点抽出部90が抽出した指示画像SGの内部とその外部周辺領域における特徴点を説明した説明図あり、図において、PA1〜PA8、PB1〜PB8は特徴点、GMは画像表示部の画面、Qは原点となる画面GMの左上隅の点である。
以下図に基づいて特徴点抽出部90が行う特徴点の抽出について説明する。
特徴点抽出部90は、対象物画像TGのうち、指示画像SGの内部とその外部周辺領域の画像について、Scale-Invariant Feature Transform(SIFT)やSpeeded Up Robust Features(SURF)等の特徴量(局所特徴量)に基づく特徴点検出法により、画像中の濃淡の変化が大きい特徴点を検出する。
そして、図7には、現時点において特徴点抽出部90が抽出した特徴点PA1〜PA8が示され、図8には、その一定時間経過後において特徴点抽出部90が抽出した特徴点PB1〜PB8が示されている。
[Feature point extraction unit 90]
FIG. 7 is an explanatory diagram for explaining the feature points in the instruction image SG extracted by the feature point extraction unit 90 at the current time t with respect to the object image TG shown in FIG. FIG. 6 is an explanatory diagram for explaining the feature points in the instruction image SG extracted by the feature point extraction unit 90 and its outer peripheral region at a time (t + dt) after a lapse of a fixed time (dt) from the current point. ˜PA8, PB1 to PB8 are feature points, GM is the screen of the image display unit, and Q is the point at the upper left corner of the screen GM that is the origin.
The feature point extraction performed by the feature point extraction unit 90 will be described below with reference to the drawings.
The feature point extraction unit 90 includes feature quantities such as Scale-Invariant Feature Transform (SIFT) and Speeded Up Robust Features (SURF) with respect to the inside of the instruction image SG and the external peripheral area of the target image TG. By using a feature point detection method based on a feature amount, a feature point having a large change in shading in an image is detected.
7 shows the feature points PA1 to PA8 extracted by the feature point extraction unit 90 at the present time, and FIG. 8 shows the feature points PB1 to PB8 extracted by the feature point extraction unit 90 after a certain period of time has elapsed. It is shown.

[特徴点対比部91]
図9は、特徴点抽出部90が抽出した特徴点PA1〜PA8についての特徴量とその座標を示した説明図であり、図10は、特徴点抽出部90が抽出した特徴点PB1〜PB8についての特徴量とその座標を示した説明図である。
以下図に基づいて特徴点対比部91が行う特徴点の対応付けについて説明する。
特徴点抽出部90が抽出した特徴点PA1〜PA8についての特徴量(局所特徴量)は、図9に示すように、例えば、特徴点周辺の4×4の矩形領域が持つ輝度勾配の情報から生成される128次元のヒストグラムで表される。
この場合、特徴点PA1〜PA8の座標は、画面GMの左上隅の点を原点Qとして、(XA1,YA1)〜(XA8,YA8)で表される。
また、特徴点抽出部90が抽出した特徴点PB1〜PB8についての特徴量(局所特徴量)も、図10に示すように、図9と同様の128次元のヒストグラムで表され、その座標は、(XB1,YB1)〜(XB8,YB8)で表される。
そして、特徴点対比部91は、特徴点PA1〜PA8の特徴量と特徴点PA1〜PA8の特徴量を対比し、特徴量が同じか最も近似している特徴点同士を対応付ける。
本例(図7〜図10)では、特徴点対比部91は、特徴点PA1と特徴点PB1、特徴点PA2と特徴点PB2、特徴点PA3と特徴点PB3、特徴点PA4と特徴点PB4、特徴点PA5と特徴点PB5、特徴点PA6と特徴点PB6、特徴点PA7と特徴点PB7、特徴点PA8と特徴点PB8を対応付ける。
[Feature Point Comparison Unit 91]
FIG. 9 is an explanatory diagram showing the feature amounts and the coordinates of the feature points PA1 to PA8 extracted by the feature point extraction unit 90, and FIG. 10 shows the feature points PB1 to PB8 extracted by the feature point extraction unit 90. It is explanatory drawing which showed the feature-value and its coordinate.
The feature point correlation performed by the feature point comparison unit 91 will be described below with reference to the drawings.
As shown in FIG. 9, the feature amount (local feature amount) for the feature points PA1 to PA8 extracted by the feature point extraction unit 90 is, for example, from information on the luminance gradient of the 4 × 4 rectangular area around the feature point. It is represented by a generated 128-dimensional histogram.
In this case, the coordinates of the feature points PA1 to PA8 are represented by (XA1, YA1) to (XA8, YA8) with the point at the upper left corner of the screen GM as the origin Q.
Further, as shown in FIG. 10, the feature amounts (local feature amounts) of the feature points PB1 to PB8 extracted by the feature point extraction unit 90 are also represented by a 128-dimensional histogram similar to that in FIG. (XB1, YB1) to (XB8, YB8).
Then, the feature point comparison unit 91 compares the feature amounts of the feature points PA1 to PA8 and the feature amounts of the feature points PA1 to PA8, and associates feature points having the same or most similar feature amounts.
In this example (FIGS. 7 to 10), the feature point comparison unit 91 includes a feature point PA1 and a feature point PB1, a feature point PA2 and a feature point PB2, a feature point PA3 and a feature point PB3, a feature point PA4 and a feature point PB4, The feature point PA5 and the feature point PB5, the feature point PA6 and the feature point PB6, the feature point PA7 and the feature point PB7, and the feature point PA8 and the feature point PB8 are associated with each other.

[移動量算出部92]
移動量算出部92は、特徴点対比部91が対応付けた特徴点から対象物画像TGのX軸方向とY軸方向の移動量を算出する。
具体的には、移動量算出部92は、対応付けたられた各特徴点の座標に変化があれば、そのX座標の差、Y座標の差を求め、その平均をとることにより、X軸方向の移動量DXとY軸方向の移動量DYを算出する。例えば、特徴点PA1とこれに対応する特徴点PB1のX座標の差は(XB1−XA1)となり、Y座標の差は(YB1−YA1)となる。
そして、指示画像移動部6(26、76)は、移動量算出部92が算出したX軸方向の移動量DXとY軸方向の移動量DYに基づいて、指示画像SGを移動させる。
[Movement amount calculation unit 92]
The movement amount calculation unit 92 calculates the movement amount in the X-axis direction and the Y-axis direction of the object image TG from the feature points associated with the feature point comparison unit 91.
Specifically, if there is a change in the coordinates of each associated feature point, the movement amount calculation unit 92 obtains the difference between the X coordinates and the Y coordinates, and takes the average thereof to obtain the X axis. The movement amount DX in the direction and the movement amount DY in the Y-axis direction are calculated. For example, the X coordinate difference between the feature point PA1 and the corresponding feature point PB1 is (XB1-XA1), and the Y coordinate difference is (YB1-YA1).
The instruction image moving unit 6 (26, 76) moves the instruction image SG based on the X-axis direction movement amount DX and the Y-axis direction movement amount DY calculated by the movement amount calculation unit 92.

[指示画像SGの移動]
図11は、対象物画像TGが移動する前のある時刻tと、それから一定時間(dt)経過して対象物画像TGが移動した後の時刻(t+dt)における対象物画像TGと指示画像SGを示した説明図であり、ある時刻t(移動前)における対象物画像TGと指示画像SGを破線で表し、それから一定時間(dt)経過後の時刻(t+dt)(移動後)における対象物画像TGと指示画像SGを実線で表している。
以下、図に基づいて、指示画像移動部6(26、76)による指示画像SGの移動について説明する。
まず、指示画像移動部6(26、76)は、ある時刻t(対象物画像TGの移動前)における指示画像SGの中心点RAの座標(XRA,YRA)を求める。次いで、指示画像移動部6(26、76)は、中心点RAの座標(XRA,YRA)に、移動量算出部92が算出したX軸方向の移動量DXとY軸方向の移動量DYを加えた点RBの座標(XRB,YRB)を求める。
この場合、XRB=XRA+DX、YRB=YRA+DY となる。
そして、指示画像移動部6(26、76)は、点RBを時刻(t+dt)(対象物画像TGの移動後)における指示画像SGの中心として、指示画像SGを移動させる。
これにより、対象物画像TGが移動する前のある時刻tにおける対象物画像TGと指示画像SGの相対位置と、それから一定時間(dt)経過して対象物画像TGが移動した後の時刻(t+dt)における対象物画像TGと指示画像SGの相対位置は同じとなり、対象物画像TGに移動に対応して指示画像SGが移動したこととなる。
[Move instruction image SG]
FIG. 11 shows the object image TG and the instruction image SG at a certain time t before the object image TG moves, and at a time (t + dt) after the object image TG moves after a certain time (dt) has elapsed. It is explanatory drawing shown, the target object image TG and the instruction | indication image SG in a certain time t (before movement) are represented with a broken line, and then the target object image TG in the time (t + dt) (after movement) after a fixed time (dt) progresses. The instruction image SG is represented by a solid line.
Hereinafter, the movement of the instruction image SG by the instruction image moving unit 6 (26, 76) will be described with reference to the drawings.
First, the instruction image moving unit 6 (26, 76) obtains coordinates (XRA, YRA) of the center point RA of the instruction image SG at a certain time t (before movement of the object image TG). Next, the instruction image moving unit 6 (26, 76) uses the movement amount DX in the X-axis direction and the movement amount DY in the Y-axis direction calculated by the movement amount calculating unit 92 as the coordinates (XRA, YRA) of the center point RA. The coordinates (XRB, YRB) of the added point RB are obtained.
In this case, XRB = XRA + DX and YRB = YRA + DY.
Then, the instruction image moving unit 6 (26, 76) moves the instruction image SG with the point RB as the center of the instruction image SG at the time (t + dt) (after movement of the object image TG).
Thereby, the relative position of the object image TG and the instruction image SG at a certain time t before the object image TG moves, and the time after the object image TG moves after a certain time (dt) (t + dt) The relative position of the object image TG and the instruction image SG in () is the same, and the instruction image SG has moved corresponding to the movement of the object image TG.

[対象物画像等の他の例]
図12、図13は、対象物指示システム10(50)において、対象物画像と指示画像を場所案内に利用した例を説明する説明図であり、図において、tg1、対象画像TGの中の建物画像である。
図12に示すように、装着者(利用者)が装着したスマートグラス20(60)に取付けをカメラ22(62)により撮影された対象物画像TGが画像表示部27(67)の画面GMに表示されている。対象物画像TGは、自動車が走っている中央の道路を挟んで両側に建物が並んでいる状態の画像となっている。
今、画面GMに表示された対象物画像TGに対して、建物画像tg1が案内する建物の画像であるとして、指示画像SGが建物画像tg1に重畳表示されている。
図13は、一定時間経過後、装着者が顔を動かすことによるカメラ22(62)の移動により、対象物画像TGが画面GMに対して移動した状態を示している。図においては、移動前の対象物画像TGと指示画像SGを破線で示している。
このとき、指示画像移動部26(76)が、対象物画像TG中の指示画像SGの周辺部分の画像について、特徴量と位置(座標)で特定される特徴点を、一定時間経過前後において抽出し、抽出した特徴点同士を対比してその対応付けを行い、対象物画像TGの移動量を算出し、算出した移動量に基づいて指示画像SGを移動させる。
これにより、図13に示すように、建物画像tg1の移動に対応して指示画像SGも移動し、建物画像tg1で示される建物を装着者(利用者)に案内することができる。
[Other examples of object images]
12 and 13 are explanatory diagrams for explaining an example in which the object image and the instruction image are used for location guidance in the object instruction system 10 (50). In the figure, tg1 is a building in the object image TG. It is an image.
As shown in FIG. 12, the object image TG captured by the camera 22 (62) attached to the smart glass 20 (60) worn by the wearer (user) is displayed on the screen GM of the image display unit 27 (67). It is displayed. The object image TG is an image in a state in which buildings are lined up on both sides across a central road where a car is running.
Now, the instruction image SG is superimposed on the building image tg1, assuming that the building image tg1 is a building image guided by the object image TG displayed on the screen GM.
FIG. 13 shows a state in which the object image TG has moved relative to the screen GM due to the movement of the camera 22 (62) caused by the wearer moving his / her face after a predetermined time has elapsed. In the figure, the object image TG and the instruction image SG before movement are indicated by broken lines.
At this time, the instruction image moving unit 26 (76) extracts the feature points specified by the feature amount and the position (coordinates) of the peripheral image of the instruction image SG in the object image TG before and after the elapse of a predetermined time. Then, the extracted feature points are compared and associated with each other, the movement amount of the object image TG is calculated, and the instruction image SG is moved based on the calculated movement amount.
As a result, as shown in FIG. 13, the instruction image SG also moves corresponding to the movement of the building image tg1, and the building indicated by the building image tg1 can be guided to the wearer (user).

次に、対象物指示システム1、10、50の動作について説明する。
[対象物指示システム1の動作]
図14は、対象物指示システム1の動作を示すフローチャートであり、以下図14に基づいて対象物指示システム1の動作を説明する。
まず、撮影部2が作業者(装着者)の視界に入っている作業の対象物を撮影し、撮影した対象物画像を出力し、出力された対象物画像を画像取得部3が取得する(S1)。
次いで、画像取得部3が取得した対象物画像は指示情報作成部4に送られ、指示情報作成部4においては、オペレータよる対象物画像に対する指示情報の入力があったか否かが判断され(S2)、指示情報の入力があった場合は、その指示情報、例えば、対象物の作業箇所を囲む円形枠等の指示画像の情報を作成する(S3)。
次いで、画像重畳部5において、指示情報作成部4から送られてくる指示情報に基づく指示画像、例えば、対象物の作業箇所を囲む円形枠等の指示画像を生成し、画像取得部3から送られて対象物画像に生成した指示画像を重畳し、重畳した対象物画像と指示画像を画像表示部7に送って表示する(S4)。
次いで、指示画像移動部6において、対象物画像が移動したか否かが判断され(S5)、対象物画像が移動した場合は、対象物画像の移動に対応して指示画像を移動させ(S6)、処理を終了する。一方、対象物画像が移動しない場合は、指示画像を移動させずに処理を終了する。
また、上記S2で指示情報の入力がない場合は、画像重畳部5は画像取得部3から送られて対象物画像のみを画像表示部7に送って表示し(S7)、処理を終了する。
Next, the operation of the object instruction systems 1, 10, and 50 will be described.
[Operation of Object Instruction System 1]
FIG. 14 is a flowchart showing the operation of the object instruction system 1. Hereinafter, the operation of the object instruction system 1 will be described with reference to FIG.
First, the imaging unit 2 captures an object of work that is in the field of view of the worker (wearer), outputs the captured object image, and the image acquisition unit 3 acquires the output object image ( S1).
Next, the object image acquired by the image acquisition unit 3 is sent to the instruction information creation unit 4, and the instruction information creation unit 4 determines whether or not instruction information is input to the object image by the operator (S 2). When the instruction information is input, the instruction information, for example, instruction image information such as a circular frame surrounding the work portion of the object is created (S3).
Next, the image superimposing unit 5 generates an instruction image based on the instruction information sent from the instruction information creating unit 4, for example, an instruction image such as a circular frame surrounding the work portion of the target object, and sends it from the image acquisition unit 3. The instruction image thus generated is superimposed on the object image, and the superimposed object image and instruction image are sent to the image display unit 7 for display (S4).
Next, the instruction image moving unit 6 determines whether or not the object image has moved (S5). When the object image has moved, the instruction image is moved in response to the movement of the object image (S6). ), The process is terminated. On the other hand, if the object image does not move, the process ends without moving the instruction image.
If no instruction information is input in S2, the image superimposing unit 5 sends only the object image sent from the image acquisition unit 3 to the image display unit 7 and displays it (S7), and the process ends.

[指示画像移動部6の動作]
図15は、対象物指示システム1の指示画像移動部6の動作を示すフローチャートであり、以下図15に基づいて指示画像移動部6の動作を説明する。
まず、特徴点抽出部90が、現時点(時刻t)おける対象物画像の特徴点を抽出する(S10)。
この特徴点の抽出は、指示画像の内部とその外部周辺領域の画像について、あるいは、対象物画像全体について、SIFTやSURF等の特徴量(局所特徴量)に基づく特徴点検出法により、画像中の濃淡の変化が大きい特徴点を検出することにより行う。
次いで、特徴点抽出部90が、一定時間(dt)経過後の時点(時刻t+dt)において、対象物画像の特徴点を同様の方法で抽出する(S11)。
次いで、特徴点対比部91が、現時点(時刻t)において抽出された各特徴点の特徴量と、一定時間(dt)経過後の時点(時刻t+dt)において抽出された各特徴点の特徴量を対比し、各特徴点の対応付けを行う(S12)。
この特徴点の対応付けは、特徴量が同じか最も近似している特徴点同士を結び付けることにより行う。
次いで、移動量算出部92が、対応付けられた特徴点の位置に変化があるか否かを判断する(S13)。
そして、対応付けられた特徴点の位置に変化があると判断した場合は、対象物画像が移動したとして、対象物画像の移動量(移動方向を含む)を算出する(S13)。
この対象物画像の移動量は、対応付けられた特徴点のX座標、Y座標の差の平均をとり、その差をX方向の移動量、Y方向の移動量とすることにより算出する。
最後に、指示画像移動部6が、移動量算出部92が算出した移動量に基づいて指示画像を移動させ(S15)、処理を終了する。
また、上記S13で特徴点の位置に変化がないと判断された場合は、対象物画像は移動していないとして、S10に戻り、現時点における対象物画像の特徴点を抽出する。
[Operation of Instruction Image Moving Unit 6]
FIG. 15 is a flowchart showing the operation of the instruction image moving unit 6 of the object instruction system 1, and the operation of the instruction image moving unit 6 will be described below with reference to FIG.
First, the feature point extraction unit 90 extracts feature points of the object image at the current time (time t) (S10).
This feature point extraction is performed by using a feature point detection method based on a feature amount (local feature amount) such as SIFT or SURF for the inside of the instruction image and the image of the peripheral area outside the instruction image or the entire object image. This is performed by detecting a feature point having a large change in shading.
Next, the feature point extraction unit 90 extracts the feature points of the object image by the same method at a time (time t + dt) after a lapse of a certain time (dt) (S11).
Next, the feature point comparison unit 91 calculates the feature quantity of each feature point extracted at the present time (time t) and the feature quantity of each feature point extracted at the time (time t + dt) after a predetermined time (dt) has elapsed. In contrast, each feature point is associated (S12).
This association of feature points is performed by connecting feature points having the same or most similar feature quantities.
Next, the movement amount calculation unit 92 determines whether or not there is a change in the position of the associated feature point (S13).
If it is determined that there is a change in the position of the associated feature point, the movement amount (including the movement direction) of the object image is calculated assuming that the object image has moved (S13).
The movement amount of the object image is calculated by taking the average of the difference between the X coordinate and the Y coordinate of the associated feature points and using the difference as the movement amount in the X direction and the movement amount in the Y direction.
Finally, the instruction image moving unit 6 moves the instruction image based on the movement amount calculated by the movement amount calculating unit 92 (S15), and the process ends.
If it is determined in S13 that there is no change in the position of the feature point, it is determined that the object image has not moved, and the process returns to S10 to extract the feature point of the object image at the current time.

[対象物指示システム10の動作]
図16は、対象物指示システム10の動作を示すフローチャートであり、以下図16に基づいて対象物指示システム10の動作を説明する。
まず、スマートグラス20において、カメラ22が作業者(装着者)の視界に入っている作業の対象物を撮影し、撮影した対象物画像を出力し、出力された対象物画像を画像取得部23が取得する(S20)。
次いで、画像取得部23が取得した対象物画像は送信部28に送られ、送信部28が対象物画像を通信回線40を介してサーバー30に送る(S21)。
次いで、サーバー30において、受信部39が対象物画像を受信し(S22)、一旦画像取得部33が対象物画像を取得する。
次いで、対象物画像は指示情報作成部34に送られ、指示情報作成部34においては、オペレータよる対象物画像に対する指示情報の入力があったか否かが判断され(S23)、指示情報の入力があった場合は、その指示情報、例えば、対象物の作業箇所を囲む円形枠等の指示画像の情報を作成する(S24)。
次いで、指示情報は送信部38に送られ、送信部38が通信回線41を介して指示情報をスマートグラス20に送信する(S25)。
スマートグラス20においては、受信部29が指示情報を受信し(S26)、受信した指示情報を指示情報取得部24に送る。
次いで、画像重畳部25において、指示情報取得部24から送られてくる指示情報に基づく指示画像、例えば、対象物の作業箇所を囲む円形枠等の指示画像を生成し、画像取得部23から送られて対象物画像に生成した指示画像を重畳し、重畳した対象物画像と指示画像を画像表示部27に送って表示する(S27)。
次いで、指示画像移動部26において、対象物画像が移動したか否かが判断され(S28)、対象物画像が移動した場合は、対象物画像の移動に対応して指示画像を移動させ(S29)、処理を終了する。一方、対象物画像が移動しない場合は、指示画像を移動させずに処理を終了する。
また、上記S23で指示情報の入力がない場合は、画像重畳部25は画像取得部23から送られて対象物画像のみを画像表示部27に送って表示し(S30)、処理を終了する。
[Operation of Object Instruction System 10]
FIG. 16 is a flowchart showing the operation of the object instruction system 10, and the operation of the object instruction system 10 will be described below with reference to FIG.
First, in the smart glass 20, the camera 22 captures a work object that is in the field of view of the worker (wearer), outputs the captured object image, and outputs the output object image to the image acquisition unit 23. Is acquired (S20).
Next, the object image acquired by the image acquisition unit 23 is sent to the transmission unit 28, and the transmission unit 28 sends the object image to the server 30 via the communication line 40 (S21).
Next, in the server 30, the reception unit 39 receives the object image (S22), and the image acquisition unit 33 once acquires the object image.
Next, the object image is sent to the instruction information creating unit 34, where it is determined whether or not the operator has input instruction information for the object image (S23). If so, the instruction information, for example, information on the instruction image such as a circular frame surrounding the work location of the object is created (S24).
Next, the instruction information is sent to the transmission unit 38, and the transmission unit 38 transmits the instruction information to the smart glass 20 via the communication line 41 (S25).
In the smart glass 20, the receiving unit 29 receives the instruction information (S26), and sends the received instruction information to the instruction information acquiring unit 24.
Next, the image superimposing unit 25 generates an instruction image based on the instruction information sent from the instruction information acquiring unit 24, for example, an instruction image such as a circular frame surrounding the work portion of the target object, and sends it from the image acquiring unit 23. The instruction image thus generated is superimposed on the object image, and the superimposed object image and instruction image are sent to the image display unit 27 for display (S27).
Next, the instruction image moving unit 26 determines whether or not the object image has moved (S28). When the object image has moved, the instruction image is moved in response to the movement of the object image (S29). ), The process is terminated. On the other hand, if the object image does not move, the process ends without moving the instruction image.
If no instruction information is input in S23, the image superimposing unit 25 sends only the object image sent from the image acquiring unit 23 to the image display unit 27 and displays it (S30), and the process ends.

[対象物指示システム50の動作]
図17は、対象物指示システム50の動作を示すフローチャートであり、以下図17に基づいて対象物指示システム50の動作を説明する。
まず、スマートグラス60において、カメラ62が作業者(装着者)の視界に入っている作業の対象物を撮影し、撮影した対象物画像を出力し、出力された対象物画像を画像取得部63が取得する(S40)。
次いで、画像取得部63が取得した対象物画像は送信部68に送られ、送信部68が対象物画像を通信回線80を介してサーバー70に送る(S41)。
次いで、サーバー70において、受信部79が対象物画像を受信し(S42)、一旦画像取得部73が対象物画像を取得する。
次いで、対象物画像は指示情報作成部74に送られ、指示情報作成部74においては、オペレータよる対象物画像に対する指示情報の入力があったか否かが判断され(S43)、指示情報の入力があった場合は、その指示情報、例えば、対象物の作業箇所を囲む円形枠等の指示画像の情報を作成する(S44)。
次いで、画像重畳部75において、指示情報取得部74から送られてくる指示情報に基づく指示画像、例えば、対象物の作業箇所を囲む円形枠等の指示画像を生成し、画像取得部73から送られて対象物画像に生成した指示画像を重畳する(S45)。
次いで、指示画像移動部76において、対象物画像が移動したか否かが判断され(S46)、対象物画像が移動した場合は、対象物画像の移動に対応して指示画像を移動させ(S47)、重畳した対象物画像と指示画像は送信部78に送られる。
一方、対象物画像が移動しない場合は、指示画像を移動させずに重畳した対象物画像と指示画像は送信部78に送られる。
次いで、送信部78が通信回線81を介して重畳した対象物画像と指示画像をスマートグラス50に送信する(S48)。
スマートグラス50においては、受信部69が重畳した対象物画像と指示画像を受信し(S49)、受信した重畳した対象物画像と指示画像を画像取得部65に送る。
最後に、画像取得部65は、重畳した対象物画像と指示画像を画像表示部67に送って表示し(S50)、処理を終了する。
また、上記S43で指示情報の入力がない場合は、画像取得部65は受信部69から送られて対象物画像のみを画像表示部67に送って表示し(S51)、処理を終了する。
[Operation of Object Instruction System 50]
FIG. 17 is a flowchart showing the operation of the object instruction system 50. Hereinafter, the operation of the object instruction system 50 will be described with reference to FIG.
First, in the smart glass 60, the camera 62 images a work object that is in the field of view of the worker (wearer), outputs the photographed object image, and outputs the output object image to the image acquisition unit 63. Is acquired (S40).
Next, the object image acquired by the image acquisition unit 63 is sent to the transmission unit 68, and the transmission unit 68 sends the object image to the server 70 via the communication line 80 (S41).
Next, in the server 70, the receiving unit 79 receives the object image (S42), and the image acquiring unit 73 once acquires the object image.
Next, the object image is sent to the instruction information creating unit 74, where it is determined whether or not the operator has input instruction information for the object image (S43). If so, the instruction information, for example, information of the instruction image such as a circular frame surrounding the work part of the object is created (S44).
Next, the image superimposing unit 75 generates an instruction image based on the instruction information sent from the instruction information obtaining unit 74, for example, an instruction image such as a circular frame surrounding the work location of the object, and sends it from the image obtaining unit 73. The generated instruction image is superimposed on the object image (S45).
Next, the instruction image moving unit 76 determines whether or not the object image has moved (S46). When the object image has moved, the instruction image is moved in response to the movement of the object image (S47). ), The superimposed object image and instruction image are sent to the transmission unit 78.
On the other hand, when the object image does not move, the object image and the instruction image superimposed without moving the instruction image are sent to the transmission unit 78.
Next, the transmission unit 78 transmits the target object image and the instruction image superimposed via the communication line 81 to the smart glass 50 (S48).
In the smart glass 50, the reception unit 69 receives the superimposed object image and instruction image (S49), and sends the received superimposed object image and instruction image to the image acquisition unit 65.
Finally, the image acquisition unit 65 sends the superimposed object image and instruction image to the image display unit 67 for display (S50), and ends the process.
If no instruction information is input in S43, the image acquisition unit 65 sends only the object image sent from the receiving unit 69 to the image display unit 67 and displays it (S51), and the process ends.

対象物指示システム、対象物指示方法及びプログラムは、対象物をカメラ等で撮影して得られた撮影画像中の対象物画像に対して、作業等の指示を与える指示画像を対象物画像に重畳表示して作業等の指示を与えるシステムにおいて、撮影画像中の対象物画像が移動しても、指示画像を的確に対象物画像に重畳表示できる。   The object instruction system, the object instruction method, and the program superimpose an instruction image that gives an instruction on work on the object image in the captured image obtained by photographing the object with a camera or the like. In a system that displays and gives an instruction for work or the like, even if the object image in the photographed image moves, the instruction image can be accurately superimposed on the object image.

1 対象物指示システム
2 撮影部
3 画像取得部
4 指示情報作成部
5 画像重畳部
6 指示画像移動部
7 画像表示部
10 対象物指示システム
20 スマートグラス
21 制御部
22 カメラ
23 画像取得部
24 指示情報取得部
25 画像重畳部
26 指示画像移動部
27 画像表示部
28 送信部
29 受信部
30 サーバー
33 画像取得部
34 指示情報作成部
38 送信部
39 受信部
40、41 通信回線
50 対象物指示システム
60 スマートグラス
61 制御部
62 カメラ
63、65 画像取得部
67 画像表示部
68 送信部
69 受信部
70 サーバー
73 画像取得部
74 指示情報作成部
75 画像重畳部
76 指示画像移動部
78 送信部
79 受信部
80、81 通信回線
90 特徴点抽出部
91 特徴点対比部
92 移動量算出部
201 装着部
202 フレーム
203 レンズ部
TG 対象物画像
SG 指示画像
CG 重畳画像
PA1〜PA8 特徴点
PB1〜PB8 特徴点
GM 画面
Q 原点
tg1 建物画像
DESCRIPTION OF SYMBOLS 1 Object instruction | indication system 2 Image pick-up part 3 Image acquisition part 4 Instruction information creation part 5 Image superimposition part 6 Instruction image movement part 7 Image display part 10 Object instruction | indication system 20 Smart glass 21 Control part 22 Camera 23 Image acquisition part 24 Instruction information Acquisition unit 25 Image superposition unit 26 Instruction image moving unit 27 Image display unit 28 Transmission unit 29 Reception unit 30 Server 33 Image acquisition unit 34 Instruction information creation unit 38 Transmission unit 39 Reception unit 40, 41 Communication line 50 Object indication system 60 Smart Glass 61 Control unit 62 Camera 63, 65 Image acquisition unit 67 Image display unit 68 Transmission unit 69 Reception unit 70 Server 73 Image acquisition unit 74 Instruction information creation unit 75 Image superimposition unit 76 Instruction image movement unit 78 Transmission unit 79 Reception unit 80, 81 communication line 90 feature point extraction unit 91 feature point comparison unit 92 movement amount calculation unit 201 mounting unit 202 frame 203 lens unit TG object image SG instruction image CG superimposed image PA1~PA8 feature points PB1~PB8 feature point GM screen Q origin tg1 building image

Claims (11)

対象物を撮影して対象物画像を出力する撮影手段と、
前記撮影手段が出力する対象物画像を表示する画像表示手段と、
前記対象物画像に指示を与えるための指示情報を作成する指示情報作成手段と、
前記画像表示手段に表示された前記対象物画像に、前記指示情報作成手段が作成した前記指示情報に基づく指示画像を重畳して表示させる画像重畳手段と、
前記画像表示手段に表示された前記対象物画像の移動に対応して前記指示画像を移動させる指示画像移動手段と
を備えたことを特徴とする対象物指示システム。
Photographing means for photographing the object and outputting the object image;
Image display means for displaying an object image output by the photographing means;
Instruction information creating means for creating instruction information for giving an instruction to the object image;
Image superimposing means for superimposing and displaying an instruction image based on the instruction information created by the instruction information creating means on the object image displayed on the image display means;
An object instruction system comprising: instruction image moving means for moving the instruction image in response to movement of the object image displayed on the image display means.
対象物を撮影して対象物画像を出力する撮影手段と、
前記撮影手段が出力する対象物画像を表示する画像表示手段と、
前記撮影手段が出力する前記対象物画像を送信する画像送信手段と
前記画像送信手段が送信する前記対象物画像を受信する画像受信手段と、
前記画像受信手段が受信した前記対象物画像に指示を与えるための指示情報を作成する指示情報作成手段と、
前記指示情報生成手段が作成した前記指示情報を送信する指示情報送信手段と、
前記指示情報送信手段が送信する前記指示情報を受信する指示情報受信手段と、
前記画像表示手段に表示された前記対象物画像に、前記指示情報受信手段が受信した前記指示情報に基づく指示画像を重畳して表示させる画像重畳手段と、
前記画像表示手段に表示された前記対象物画像の移動に対応して前記指示画像を移動させる指示画像移動手段と
を備えたことを特徴とする対象物指示システム。
Photographing means for photographing the object and outputting the object image;
Image display means for displaying an object image output by the photographing means;
An image transmitting means for transmitting the object image output by the photographing means; an image receiving means for receiving the object image transmitted by the image transmitting means;
Instruction information creating means for creating instruction information for giving an instruction to the object image received by the image receiving means;
Instruction information transmitting means for transmitting the instruction information created by the instruction information generating means;
Instruction information receiving means for receiving the instruction information transmitted by the instruction information transmitting means;
Image superimposing means for superimposing and displaying an instruction image based on the instruction information received by the instruction information receiving means on the object image displayed on the image display means;
An object instruction system comprising: instruction image moving means for moving the instruction image in response to movement of the object image displayed on the image display means.
対象物を撮影して対象物画像を出力する撮影手段と、
前記撮影手段が出力する前記対象物画像を送信する第1の画像送信手段と
前記第1の画像送信手段が送信する前記対象物画像を受信する第1の画像受信手段と、
前記第1の画像受信手段が受信した前記対象物画像に指示を与えるための指示情報を作成する指示情報作成手段と、
前記第1の画像受信手段が受信した前記対象物画像に、前記指示情報生成手段が生成した前記指示情報に基づく指示画像を重畳させる画像重畳手段と、
前記第1の画像受信手段が受信した前記対象物画像の移動に対応して前記指示画像を移動させる指示画像移動手段と
前記画像重畳手段が重畳させた前記対象物画像及び前記指示画像を送信する第2の画像送信手段と、
前記第2の画像送信手段が送信した前記対象物画像及び前記指示画像を受信する第2の画像受信手段と、
前記第2の画像受信手段が受信した前記対象物画像及び前記指示画像を表示する画像表示手段と、
を備えたことを特徴とする対象物指示システム。
Photographing means for photographing the object and outputting the object image;
A first image transmitting means for transmitting the object image output by the photographing means; a first image receiving means for receiving the object image transmitted by the first image transmitting means;
Instruction information creating means for creating instruction information for giving an instruction to the object image received by the first image receiving means;
Image superimposing means for superimposing an instruction image based on the instruction information generated by the instruction information generating means on the object image received by the first image receiving means;
The instruction image moving means for moving the instruction image in response to the movement of the object image received by the first image receiving means, and the object image and the instruction image superimposed by the image superimposing means are transmitted. A second image transmission means;
Second image receiving means for receiving the object image and the instruction image transmitted by the second image transmitting means;
Image display means for displaying the object image and the instruction image received by the second image receiving means;
An object indication system characterized by comprising:
前記指示画像移動手段は、前記対象物画像の特徴点を抽出する特徴点抽出手段と、該特徴点抽出手段が抽出した前記対象物画像の移動前の特徴点と移動後の特徴点を対比する特徴点対比手段と、該特徴点対比手段が対比した前記対象物画像の移動前後の特徴点から前記指示画像の移動量を算出する移動量算出手段とを備えたことを特徴とする請求項1乃至請求項3のいずれかに記載した対象物指示システム。   The instruction image moving unit compares the feature point extracting unit that extracts the feature point of the object image, and the feature point before the movement of the object image extracted by the feature point extracting unit and the feature point after the movement. 2. A feature point comparison means, and a movement amount calculation means for calculating a movement amount of the instruction image from feature points before and after movement of the object image compared with the feature point comparison means. The object indicating system according to any one of claims 3 to 4. 前記撮影手段と前記画像表示手段は、利用者の顔面または頭部に装着されるウェアラブルコンピュータに取付けられていることを特徴とする請求項1乃至請求項4のいずれかに記載した対象物指示システム。   5. The object indication system according to claim 1, wherein the photographing unit and the image display unit are attached to a wearable computer attached to a user's face or head. . 撮影手段により対象物を撮影して対象物画像を出力し、
前記撮影手段が出力した前記対象物画像を画像表示手段に表示し、
前記撮影手段が出力した前記対象物画像に指示を与えるための指示情報を作成し、
前記画像表示手段に表示された前記対象物画像に、前記指示情報に基づく指示画像を重畳して表示し、
前記画像表示手段に表示された前記対象物画像の移動に対応して前記指示画像を移動させる
ステップを備えたことを特徴とする対象物指示方法。
Shoot the object with the shooting means and output the object image,
Displaying the object image output by the photographing means on an image display means;
Creating instruction information for giving an instruction to the object image output by the photographing means;
An instruction image based on the instruction information is superimposed and displayed on the object image displayed on the image display means;
An object instruction method comprising the step of moving the instruction image in response to the movement of the object image displayed on the image display means.
撮影手段により対象物を撮影して対象物画像を出力し、
前記撮影手段が出力した前記対象物画像を画像表示手段に表示し、
前記撮影手段が出力する前記対象物画像を画像送信手段により送信し、
前記画像送信手段が送信する前記対象物画像を画像受信手段が受信し、
前記画像受信手段が受信した前記対象物画像に指示を与えるための指示情報を作成し、
前記指示情報を指示情報送信手段により送信し、
前記指示情報送信手段が送信した前記指示情報を指示情報受信手段が受信し、
前記画像表示手段に表示された前記対象物画像に、前記指示情報受信手段が受信した前記指示情報に基づく指示画像を重畳して表示し、
前記画像表示手段に表示された前記対象物画像の移動に対応して前記指示画像を移動させる
ステップを備えたことを特徴とする対象物指示方法。
Shoot the object with the shooting means and output the object image,
Displaying the object image output by the photographing means on an image display means;
The object image output by the photographing unit is transmitted by an image transmission unit,
An image receiving means receives the object image transmitted by the image transmitting means,
Creating instruction information for giving an instruction to the object image received by the image receiving means;
The instruction information is transmitted by instruction information transmission means,
The instruction information receiving means receives the instruction information transmitted by the instruction information transmitting means,
An instruction image based on the instruction information received by the instruction information receiving unit is superimposed on the object image displayed on the image display unit and displayed.
An object instruction method comprising the step of moving the instruction image in response to the movement of the object image displayed on the image display means.
撮影手段により対象物を撮影して対象物画像を出力し、
前記撮影手段が出力する前記対象物画像を第1の画像送信手段により送信し、
前記第1の画像送信手段が送信する前記対象物画像を第1の画像受信手段が受信し、
前記第1の画像受信手段が受信した前記対象物画像に指示を与えるための指示情報を作成し、
画像重畳手段が、前記第1の画像受信手段が受信した前記対象物画像に、前記指示情報に基づく指示画像を重畳し、
前記第1の画像受信手段が受信した前記対象物画像の移動に対応して前記指示画像を移動させ、
前記画像重畳手段が重畳した前記対象物画像及び前記指示画像を第2の画像送信手段が送信し、
前記第2の画像送信手段が送信した前記対象物画像及び前記指示画像を第2の画像受信手段が受信し、
前記第2の画像受信手段が受信した前記対象物画像及び前記指示画像を画像表示手段に表示する
ステップを備えたことを特徴とする対象物指示方法。
Shoot the object with the shooting means and output the object image,
The object image output by the photographing unit is transmitted by a first image transmission unit,
The first image receiving means receives the object image transmitted by the first image transmitting means,
Creating instruction information for giving an instruction to the object image received by the first image receiving means;
An image superimposing unit superimposes an instruction image based on the instruction information on the object image received by the first image receiving unit,
Moving the instruction image in response to the movement of the object image received by the first image receiving means;
A second image transmitting unit transmits the object image and the instruction image superimposed by the image superimposing unit;
The second image receiving means receives the object image and the instruction image transmitted by the second image transmitting means,
An object instruction method comprising: displaying the object image and the instruction image received by the second image receiving unit on an image display unit.
前記指示画像を移動させるステップは、前記対象物画像の移動前の特徴点と移動後の特徴点を抽出し、抽出した特徴点を対比し、対比した特徴点に基づいて前記指示画像の移動量を算出するステップとを備えたことを特徴とする請求項6乃至請求項8のいずれかに記載した対象物指示方法。   The step of moving the instruction image includes extracting a feature point before the movement of the object image and a feature point after the movement, comparing the extracted feature points, and moving the instruction image based on the compared feature points. The object indicating method according to any one of claims 6 to 8, further comprising: 前記撮影手段と前記画像表示手段は、利用者の顔面または頭部に装着されるウェアラブルコンピュータに取付けられていることを特徴とする請求項6乃至請求項9のいずれかに記載した対象物指示方法。   10. The object indicating method according to claim 6, wherein the photographing unit and the image display unit are attached to a wearable computer attached to a user's face or head. . 請求項6乃至請求項10のいずれかに記載した対象物指示方法をコンピュータに実行させるプログラム。
A program for causing a computer to execute the object instruction method according to any one of claims 6 to 10.
JP2015170898A 2015-08-31 2015-08-31 Object indication system, object indication method, and program Pending JP2017049680A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015170898A JP2017049680A (en) 2015-08-31 2015-08-31 Object indication system, object indication method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015170898A JP2017049680A (en) 2015-08-31 2015-08-31 Object indication system, object indication method, and program

Publications (1)

Publication Number Publication Date
JP2017049680A true JP2017049680A (en) 2017-03-09

Family

ID=58278776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015170898A Pending JP2017049680A (en) 2015-08-31 2015-08-31 Object indication system, object indication method, and program

Country Status (1)

Country Link
JP (1) JP2017049680A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008245208A (en) * 2007-03-29 2008-10-09 Kyocera Corp Image transmitting device, method of transmitting image and image transmitting program
JP2015135641A (en) * 2014-01-20 2015-07-27 Kddi株式会社 Video indication/synchronization method for superposing indication image on shot dynamic image in synchronism, and system, terminal, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008245208A (en) * 2007-03-29 2008-10-09 Kyocera Corp Image transmitting device, method of transmitting image and image transmitting program
JP2015135641A (en) * 2014-01-20 2015-07-27 Kddi株式会社 Video indication/synchronization method for superposing indication image on shot dynamic image in synchronism, and system, terminal, and program

Similar Documents

Publication Publication Date Title
TWI663876B (en) Image processing device, image processing method, non-transitory computer readable recording medium and photographing assist equipment for image processing device
KR101816041B1 (en) See-through smart glasses and see-through method thereof
JP5740884B2 (en) AR navigation for repeated shooting and system, method and program for difference extraction
KR102111935B1 (en) Display control apparatus, display control method, and program
JP5865388B2 (en) Image generating apparatus and image generating method
JP6620394B2 (en) Control device, control method and program
JP2013162487A (en) Image display apparatus and imaging apparatus
US11895396B2 (en) Imaging plan presentation apparatus and method for updating and re-generating an imaging plan
CN109002248B (en) VR scene screenshot method, equipment and storage medium
KR20120012201A (en) Method for photographing panorama picture
JP6723720B2 (en) Display system, information processing method and program
JP5786900B2 (en) Information display device and information display method
WO2019205083A1 (en) 3d image capturing method, 3d photographing device, and storage medium
JP2004257872A (en) Position information acquiring system, position information acquiring device, position information acquiring method and program
JP2017147689A (en) Video editing device, video editing method, and computer program for editing video
JP2017049680A (en) Object indication system, object indication method, and program
JP2005268972A (en) Video display system and video display method
JP2018032991A (en) Image display unit, image display method and computer program for image display
CN111193858A (en) Method and system for shooting and displaying augmented reality
KR102527918B1 (en) Ar smart glass system
EP3182367A1 (en) Apparatus and method for generating and visualizing a 3d model of an object
JP2018205863A (en) Image processing apparatus, image processing system, and control program
KR20180094743A (en) Telescope with a Camera function
JP2018160761A (en) Environmental image display system and environment image display method
JP2022066265A (en) Imaging apparatus including line-of-sight detection function

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190319

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190924