JP2011253324A - Merchandise information providing terminal and merchandise information providing system - Google Patents

Merchandise information providing terminal and merchandise information providing system Download PDF

Info

Publication number
JP2011253324A
JP2011253324A JP2010126331A JP2010126331A JP2011253324A JP 2011253324 A JP2011253324 A JP 2011253324A JP 2010126331 A JP2010126331 A JP 2010126331A JP 2010126331 A JP2010126331 A JP 2010126331A JP 2011253324 A JP2011253324 A JP 2011253324A
Authority
JP
Japan
Prior art keywords
unit
product
product information
image
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010126331A
Other languages
Japanese (ja)
Other versions
JP5656457B2 (en
Inventor
Hirotsugu Ota
洋次 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2010126331A priority Critical patent/JP5656457B2/en
Publication of JP2011253324A publication Critical patent/JP2011253324A/en
Application granted granted Critical
Publication of JP5656457B2 publication Critical patent/JP5656457B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a merchandise information providing terminal capable of efficiently suppressing power consumption to provide merchandise information on merchandise in a shop in real time by utilizing an AR technology.SOLUTION: The merchandise information providing terminal includes: an imaging means for picking up a real space; a merchandise information acquisition part which acquires the merchandise information regarding the merchandise included in a picked-up image picked up by the imaging means; an image generation part which generates an extended real image for superposing the merchandise information acquired by the merchandise information acquisition part on the real space to be displayed based on a position of the merchandise included in the picked-up image picked up by the imaging means; a display part which can display the extended real image generated by the image generation part; an acceleration detection means for detecting acceleration; an operating state determination part which determines an operating state of a user based on acceleration information to be detected by the acceleration detection means; and an operation control part which activates the imaging means and stops an operation of the imaging means based on the operating state determined by the operating state determination part.

Description

本発明は、店舗に陳列されている商品についての商品情報を、来店者に対して拡張現実感技術を利用してリアルタイムに提供するための商品情報提供端末装置および商品情報提供システムに関する。   The present invention relates to a merchandise information provision terminal device and a merchandise information provision system for providing merchandise information about merchandise displayed in a store in real time to a visitor using augmented reality technology.

近年、複合現実感(Mixed Reality)技術の研究が盛んであり、特に、コンピュータによって作成されるCG(Computer Graphics)などの仮想物体の画像を、あたかも現実空間にその仮想物体があるかのように表示部に表示する、いわゆる拡張現実感(AR:
Augmented Reality)技術が注目されている。
In recent years, research on mixed reality technology has been active, and in particular, images of virtual objects such as computer graphics (CG) created by a computer are as if the virtual objects exist in real space. The so-called augmented reality (AR :) displayed on the display unit
Augmented Reality) technology is drawing attention.

このAR技術を実現する表示部としては、光学シースルー方式とビデオシースルー方式とが知られている。光学シースルー方式とは、観察者が現実空間を直接視認する方向に、可視光を透過可能な表示部、たとえばハーフミラーによって構成された表示部を配置し、その表示部に映る現実空間の実像に、仮想物体の画像を表示部に反射させて重畳する方式であり、この方式では観察者の網膜上で現実空間の光景と仮想物体とが融合することになる。また、ビデオシースルー方式とは、ビデオカメラなどの撮像手段によって撮像された撮像画像に仮想物体の画像を重畳描画した合成画像を、表示部に表示する方式である。   As a display unit for realizing the AR technology, an optical see-through method and a video see-through method are known. In the optical see-through method, a display unit that can transmit visible light, for example, a display unit composed of a half mirror, is arranged in the direction in which the observer directly views the real space, and the real image of the real space reflected on the display unit is displayed. In this method, the image of the virtual object is reflected and superimposed on the display unit. In this method, the scene in the real space and the virtual object are fused on the retina of the observer. The video see-through method is a method in which a combined image obtained by superimposing and drawing an image of a virtual object on a captured image captured by an imaging unit such as a video camera is displayed on a display unit.

このようなAR技術は、様々な分野への応用が期待されている。その1つとして、スーパーマーケットなどのように様々な商品が陳列されている店舗において、光学シースルー方式またはビデオシースルー方式を採用した表示部を備える携帯型の端末装置を来店者に貸与し、光学シースルー方式の場合は表示部に映る商品の実像に、ビデオシースルー方式の場合は撮像手段によって撮像された商品を含む撮像画像に、その商品の特徴、売行きおよび購入者による評価などその商品について来店者が知りたい情報(以下、「商品情報」という)を重畳して表示するための拡張現実画像を、端末装置の表示部に表示することによって、来店者に対して商品情報をリアルタイムに提供するサービスへの応用が考えられている。   Such AR technology is expected to be applied to various fields. As one of them, in stores where various products are displayed such as supermarkets, a portable terminal device equipped with a display unit adopting an optical see-through method or a video see-through method is lent to a store visitor, and an optical see-through method is provided. In the case of the product, the visitor knows about the product, such as the actual image of the product shown on the display unit, the captured image including the product captured by the imaging means in the case of the video see-through method, and the product's characteristics, sales and evaluation by the purchaser By displaying an augmented reality image for superimposing and displaying desired information (hereinafter referred to as “product information”) on the display unit of the terminal device, a service for providing product information to a store visitor in real time is provided. Applications are being considered.

たとえば特許文献1には、消費者が移動通信端末機用リーダによって、商品に付されたE.S(Environment protection and Safety)コードと称するバーコードを読取ることにより、その商品の生産環境に関わる評価を示す情報をサーバから取得し、その端末機の画面に表示する技術が開示されている。   For example, in Patent Document 1, a consumer uses E.C. attached to a product by a mobile communication terminal reader. A technique is disclosed in which information indicating an evaluation related to the production environment of a product is acquired from a server by reading a bar code called an S (Environment protection and Safety) code and displayed on the screen of the terminal.

特開2002−63389号公報JP 2002-63389 A

前記のようなサービスを実現するための携帯型の端末装置は、少なくとも、現実空間を撮像するための撮像手段と、現実空間に商品情報を重畳して表示するための拡張現実画像、すなわち光学シースルー方式の場合は表示部に映る商品の実像に商品情報を重畳して表示するための商品情報画像、ビデオシースルー方式の場合は撮像手段によって撮像された商品を含む撮像画像に商品情報を重畳描画した合成画像を生成する画像生成部と、画像生成部によって生成された拡張現実画像を表示可能な表示部と、端末装置に電力を供給する電源部とを含んで構成される。   The portable terminal device for realizing the service as described above includes at least an imaging means for imaging a real space and an augmented reality image for displaying product information superimposed on the real space, that is, an optical see-through. In the case of the system, the product information image for displaying the product information superimposed on the real image of the product displayed on the display unit, and in the case of the video see-through method, the product information is superimposed on the captured image including the product imaged by the imaging means. An image generation unit that generates a composite image, a display unit that can display an augmented reality image generated by the image generation unit, and a power supply unit that supplies power to the terminal device.

このような携帯型の端末装置を用いることによって、撮像手段を動作させて商品を撮像し、撮像手段によって撮像された商品を含む撮像画像に基づいて、商品情報が適切な位置にかつ適切な寸法で、表示部に映る商品の実像または撮像手段によって撮像された撮像画像に重畳して表示されるように、拡張現実画像を生成し、生成された拡張現実画像を表示部に表示させ、来店者に対して商品情報をリアルタイムに提供することができる。   By using such a portable terminal device, the imaging means is operated to image a product, and based on the captured image including the product imaged by the imaging unit, the product information is in an appropriate position and an appropriate size. Then, an augmented reality image is generated so as to be displayed superimposed on a real image of the product displayed on the display unit or a captured image captured by the imaging unit, and the generated augmented reality image is displayed on the display unit. Product information can be provided in real time.

ところで、撮像手段などARを実現するための各手段を動作させるためには大きな電力を要し、短時間であっても多くの電力が消費されてしまう。携帯型の端末装置では、電源部が電池によって実現されているので、ARを実現するための各手段を来店者が買い物を始めてから終えるまでの間ずっと動作させておくと、買い物途中で電池の容量が低下して、必要な電力を確保することができなくなり、商品情報を提供することができなくなってしまうという問題がある。   By the way, a large amount of power is required to operate each means for realizing the AR, such as an image pickup means, and much power is consumed even in a short time. In a portable terminal device, since the power supply is realized by a battery, if each means for realizing the AR is operated during the period from the start to the end of the shopping by the customer, There is a problem in that the capacity is reduced, the necessary power cannot be secured, and the product information cannot be provided.

また、前記のようなサービスを実現するためには、適切な商品情報を重畳して表示するために、表示部に映る商品または撮像手段によって撮像されている商品が何であるかを認識する必要がある。商品の認識方法としては、マーカ方式およびマーカレス方式のいずれかの方式を採用することが考えられる。マーカ方式は、各商品に表示されている商品固有のマーカを読取ることによって、その商品を認識する方式である。また、マーカレス方式は、商品の外観の一部または全体を撮像した撮像画像に基づいて、商品を画像認識する方式である。   Further, in order to realize the service as described above, it is necessary to recognize what the product displayed on the display unit or the product imaged by the imaging means is to display the appropriate product information in a superimposed manner. is there. As a product recognition method, it is conceivable to employ either a marker method or a markerless method. The marker method is a method for recognizing a product by reading a product-specific marker displayed on each product. The markerless method is a method for recognizing a product based on a captured image obtained by capturing a part or the whole of the appearance of the product.

マーカ方式を採用する場合、商品固有のマーカとしては、商品ごとに予め付与されているバーコードを利用するのが、安価かつ実現容易である。しかしながら、バーコードは商品の背面や側面など通常の陳列状態では容易に確認できない位置に表示されている場合が殆どであり、この場合、バーコードをマーカとして読み取るためには、客側の方で、商品を手に取ってバーコード表示を探し出さなければならず、客にとって手間となる作業が必要になってしまう。一方のマーカレス方式は、商品の前面の一部または全体を含む撮像画像に基づいて、すなわち通常の陳列状態の商品を撮像手段によって撮像したときの撮像画像に基づいてその商品を認識することができるので、前記のような手間となる作業を省略することができる。   When the marker method is employed, it is cheap and easy to implement a bar code assigned in advance for each product as a product-specific marker. However, in most cases, the barcode is displayed at a position that cannot be easily confirmed in the normal display state such as the back or side of the product. In this case, in order to read the barcode as a marker, the customer side Therefore, it is necessary to pick up the product and find the bar code display, which requires troublesome work for the customer. On the other hand, the markerless method can recognize a product based on a captured image including a part or the whole of the front surface of the product, that is, based on a captured image when a product in a normal display state is captured by the imaging unit. Therefore, the work which becomes troublesome as described above can be omitted.

しかしながら、前述するマーカレス方式では、画像認識された商品に対して商品情報が重畳されるので、撮像手段によって撮像された撮像画像の中に複数の商品が含まれていると、画像認識された複数の商品について、各商品の商品情報を格納する商品情報データベースから商品情報が取得されてしまう。この場合、取得した全ての商品情報を重畳して表示すると、商品情報が煩雑に表示されてしまうため、来店者は、知りたい商品情報だけを容易に得ることができなくなってしまうという問題がある。   However, in the markerless method described above, product information is superimposed on the image-recognized product. Therefore, if a plurality of products are included in the captured image captured by the imaging unit, the image-recognized plurality Product information is acquired from the product information database storing the product information of each product. In this case, if all the acquired product information is superimposed and displayed, the product information is displayed in a complicated manner, so that the store visitor cannot easily obtain only the desired product information. .

本発明の目的は、電力の消費を効率的に抑制して、AR技術を利用して店舗に陳列されている商品についての商品情報をリアルタイムに提供することができる商品情報提供端末装置を提供することである。   An object of the present invention is to provide a product information providing terminal device capable of efficiently suppressing power consumption and providing product information about a product displayed in a store using AR technology in real time. That is.

また本発明の他の目的は、来店者が知りたい商品情報だけを容易に提供することができる商品情報提供端末装置および商品情報提供システムを提供することである。   Another object of the present invention is to provide a product information providing terminal device and a product information providing system that can easily provide only product information that a customer wants to know.

本発明は、電源部を備え、該電源部からの電力によって動作し、使用者によって携帯される商品情報提供端末装置であって、
現実空間を撮像するための撮像手段と、
前記撮像手段によって撮像された撮像画像に含まれる商品に関する商品情報を取得する商品情報取得部と、
前記撮像手段によって撮像された撮像画像に含まれる商品の位置に基づいて、前記商品情報取得部によって取得された前記商品情報を現実空間に重畳して表示するための拡張現実画像を生成する画像生成部と、
前記画像生成部によって生成された拡張現実画像を表示可能な表示部と、
加速度を検出する加速度検出手段と、
前記加速度検出手段により検出される加速度情報に基づいて、使用者の動作状態を判定する動作状態判定部と、
前記動作状態判定部によって判定された動作状態に基づいて、前記撮像手段を起動および動作停止する動作制御部とを備えることを特徴とする商品情報提供端末装置である。
The present invention is a product information providing terminal device that includes a power supply unit, operates with power from the power supply unit, and is carried by a user,
An imaging means for imaging the real space;
A product information acquisition unit that acquires product information related to a product included in the captured image captured by the imaging unit;
Image generation for generating an augmented reality image for displaying the product information acquired by the product information acquisition unit superimposed on a real space based on the position of the product included in the captured image captured by the imaging unit And
A display unit capable of displaying the augmented reality image generated by the image generation unit;
Acceleration detecting means for detecting acceleration;
An operation state determination unit that determines an operation state of the user based on acceleration information detected by the acceleration detection unit;
A product information providing terminal device comprising: an operation control unit that activates and stops the operation of the imaging unit based on the operation state determined by the operation state determination unit.

また本発明は、前記動作状態判定部は、前記加速度検出手段により検出される加速度情報に基づいて、使用者が移動している移動状態であるか移動していない非移動状態であるかを判定し、
前記動作制御部は、前記撮像手段の非稼動状態において、非移動状態であると判定された場合に前記撮像手段を起動し、前記撮像手段の稼動状態において、移動状態であると判定された場合に前記撮像手段を動作停止することを特徴とする。
In the present invention, the operation state determination unit determines whether the user is moving or not moving based on the acceleration information detected by the acceleration detection unit. And
The operation control unit activates the imaging unit when it is determined that the imaging unit is in a non-moving state when the imaging unit is not operating, and the operation control unit determines that the imaging unit is in a moving state when the imaging unit is operating. The operation of the imaging means is stopped.

また本発明は、使用者の頭部に装着するための頭部装着部を備え、
前記加速度検出手段は、前記頭部装着部によって保持され、
前記動作状態判定部は、加速度検出手段により検出される加速度情報に基づいて、使用者が移動している移動状態であるか移動していない非移動状態であるかを判定するとともに、使用者が頭部の位置を動かしているか否かを判定し、
前記動作制御部は、前記撮像手段の非稼動状態において、非移動状態であると判定され、かつ頭部の位置を動かしていないと判定された場合に前記撮像手段を起動し、前記撮像手段の稼動状態において、移動状態であると判定された場合、または頭部の位置を動かしていると判定された場合に前記撮像手段を動作停止することを特徴とする。
The present invention also includes a head mounting portion for mounting on the user's head,
The acceleration detection means is held by the head mounting portion,
The operation state determination unit determines whether the user is moving or not moving based on the acceleration information detected by the acceleration detection unit. Determine whether or not the head is moving,
The operation control unit activates the imaging unit when it is determined that the imaging unit is in a non-moving state in a non-operating state and it is determined that the position of the head is not moved. The operation of the imaging unit is stopped when it is determined in the operating state that it is in a moving state or when it is determined that the position of the head is moving.

また本発明は、前記撮像手段によって撮像された撮像画像に、商品情報を表示すべき商品を特定するための所定の指示情報が含まれているか否かを判定する指示情報判定部と、
前記指示情報判定部による判定対象の撮像画像が格納される撮像画像格納部とをさらに含み、
前記商品情報取得部は、前記指示情報判定部によって所定の指示情報が含まれていると判定されたときの撮像画像に基づいて、撮像画像に含まれる商品に関する商品情報を取得することを特徴とする。
Further, the present invention provides an instruction information determination unit that determines whether or not the captured image captured by the imaging unit includes predetermined instruction information for specifying a product for which product information is to be displayed;
A captured image storage unit that stores a captured image to be determined by the instruction information determination unit,
The product information acquisition unit acquires product information related to a product included in a captured image based on a captured image when the instruction information determination unit determines that predetermined instruction information is included. To do.

また本発明は、前記所定の指示情報が、撮像画像に含まれる人間の手指であることを特徴とする。   Further, the present invention is characterized in that the predetermined instruction information is a human finger included in a captured image.

また本発明は、前記撮像画像格納部は、所定の指示情報が含まれていると判定されたときの撮像画像が格納される第1格納領域と、所定の指示情報が含まれていないと判定されたときの撮像画像が格納される第2格納領域とを有し、
前記指示情報判定部は、所定の指示情報が含まれていないと判定した場合、当該判定対象の撮像画像よりも後に撮像された撮像画像について判定を実行し、
前記第2格納領域には、所定の指示情報が含まれていないと判定されたときの撮像画像が更新して格納され、
前記商品情報取得部は、第1格納領域に格納される撮像画像と第2格納領域に格納される撮像画像とに基づいて、撮像画像に含まれる商品に関する商品情報を取得することを特徴とする。
Further, according to the present invention, the captured image storage unit determines that a first storage area in which a captured image is stored when it is determined that predetermined instruction information is included, and does not include predetermined instruction information. And a second storage area for storing a captured image when
When the instruction information determination unit determines that the predetermined instruction information is not included, the instruction information determination unit performs a determination on a captured image captured after the determination target captured image,
In the second storage area, a captured image when it is determined that predetermined instruction information is not included is updated and stored,
The product information acquisition unit acquires product information related to a product included in the captured image based on the captured image stored in the first storage area and the captured image stored in the second storage area. .

また本発明は、前記動作制御部は、所定の期間内または所定の判定回数内で所定の指示情報が含まれているとの判定がされない場合、撮像手段を動作停止することを特徴とする。   Further, the present invention is characterized in that the operation control unit stops the operation of the imaging means when it is not determined that the predetermined instruction information is included within a predetermined period or within a predetermined number of determinations.

また本発明は、前記商品情報取得部は、所定の期間内または所定の判定回数内で所定の指標が含まれているとの判定がされない場合、第2格納領域に格納される撮像画像に基づいて、撮像画像に含まれる商品に関する商品情報を取得することを特徴とする。   According to the present invention, the product information acquisition unit is based on a captured image stored in the second storage area when it is not determined that the predetermined index is included within a predetermined period or within a predetermined number of determinations. Product information relating to the product included in the captured image is acquired.

また本発明は、前記画像生成部は、前記撮像手段によって撮像された撮像画像に対し、商品情報を表示すべき商品を追尾する機能を有することを特徴とする。   In the invention, it is preferable that the image generation unit has a function of tracking a product for which product information is to be displayed with respect to a captured image captured by the imaging unit.

また本発明は、前記表示部は、可視光を透過可能に構成され、
前記画像生成部は、前記表示部に映る商品の実像に、該商品の実像の位置および寸法に応じた位置および寸法で、該商品の商品情報を重畳して表示するための拡張現実画像を生成することを特徴とする。
In the present invention, the display unit is configured to transmit visible light.
The image generation unit generates an augmented reality image for superimposing and displaying the product information of the product on the real image of the product shown on the display unit at a position and size corresponding to the position and size of the real image of the product It is characterized by doing.

また本発明は、前記画像生成部は、前記撮像手段によって撮像された撮像画像に、該撮像画像に含まれる商品の位置および寸法に応じた位置および寸法で、該商品の商品情報を重畳描画して拡張現実画像を生成することを特徴とする。   According to the present invention, the image generation unit superimposes and draws the product information of the product on the captured image captured by the imaging unit at a position and a size corresponding to the position and size of the product included in the captured image. And generating an augmented reality image.

また本発明は、電源部を備え、該電源部からの電力によって動作し、使用者によって携帯される商品情報提供端末装置とサーバ装置とを含む商品情報提供システムであって、
商品情報提供端末装置は、
現実空間を撮像するための撮像手段と、
前記撮像手段によって撮像された撮像画像に含まれる商品に関する商品情報を取得する商品情報取得部と、
前記撮像手段によって撮像された撮像画像に含まれる商品の位置に基づいて、前記商品情報取得部によって取得された前記商品情報を現実空間に重畳して表示するための拡張現実画像を生成する画像生成部と、
前記画像生成部によって生成された拡張現実画像を表示可能な表示部と、
加速度を検出する加速度検出手段と、
前記加速度検出手段により検出される加速度情報に基づいて、使用者の動作状態を判定する動作状態判定部と、
前記動作状態判定部によって判定された動作状態に基づいて、前記撮像手段を起動および動作停止する動作制御部と、
前記撮像手段によって撮像された撮像画像に、商品情報を表示すべき商品を特定するための所定の指示情報が含まれているか否かを判定する指示情報判定部と、
前記指示情報判定部による判定対象の撮像画像が格納される撮像画像格納部と、
サーバ装置との間で情報を無線通信する端末側無線送受信部とを含み、
サーバ装置は、
商品情報提供端末装置との間で情報を無線通信するサーバ側無線送受信部と、
商品情報を商品ごとに格納する商品情報データベースと、
所定の指示情報に基づいて商品情報を表示すべき商品を特定し、該特定した商品に関する商品情報を商品情報データベースから抽出する商品情報抽出部とを含むことを特徴とする商品情報提供システムである。
Further, the present invention is a product information providing system including a product information providing terminal device and a server device that includes a power supply unit, operates with power from the power supply unit, and is carried by a user,
The product information provision terminal device
An imaging means for imaging the real space;
A product information acquisition unit that acquires product information related to a product included in the captured image captured by the imaging unit;
Image generation for generating an augmented reality image for displaying the product information acquired by the product information acquisition unit superimposed on a real space based on the position of the product included in the captured image captured by the imaging unit And
A display unit capable of displaying the augmented reality image generated by the image generation unit;
Acceleration detecting means for detecting acceleration;
An operation state determination unit that determines an operation state of the user based on acceleration information detected by the acceleration detection unit;
An operation control unit that activates and deactivates the imaging unit based on the operation state determined by the operation state determination unit;
An instruction information determination unit that determines whether or not the captured image captured by the imaging unit includes predetermined instruction information for specifying a product for which product information is to be displayed;
A captured image storage unit that stores a captured image to be determined by the instruction information determination unit;
Including a terminal-side wireless transceiver that wirelessly communicates information with the server device,
Server device
A server-side wireless transmission / reception unit that wirelessly communicates information with the product information providing terminal device;
A product information database that stores product information for each product;
A product information providing system that includes a product information extraction unit that identifies a product for which product information is to be displayed based on predetermined instruction information and extracts product information related to the identified product from a product information database. .

本発明によれば、商品情報提供端末装置は、撮像手段と、加速度検出手段と、動作状態判定部と、動作制御部とを備え、商品情報提供端末装置の加速度に基づいて判定された、商品情報提供端末装置を携帯する来店者の動作状態に基づいて、撮像手段を起動および動作停止することができる。   According to the present invention, the product information provision terminal device includes an imaging unit, an acceleration detection unit, an operation state determination unit, and an operation control unit, and is determined based on the acceleration of the product information provision terminal device. The imaging means can be activated and deactivated based on the operating state of the store visitor carrying the information providing terminal device.

たとえば来店者が店舗内を移動しているとき、通常、その来店者は複数の商品に目を移しながら物色している状態にあり、特定の商品について商品情報を知りたいと思っている可能性は低い。これに対し、店舗内で足を止めたときには、特定の商品について他の商品に比べて強い関心があり、その特定の商品に関する商品情報を知りたいと思っている可能性が高い。このように、来店者の動作状態に応じて、撮像手段を起動および動作停止して、効率的に商品情報を提供することにより、商品情報提供端末装置における電力の消費を効率的に抑制することができる。   For example, when a visitor is moving in a store, the visitor is usually in a state of looking at multiple products and may want to know product information about a specific product. Is low. On the other hand, when stopping in the store, there is a strong interest in a specific product compared to other products, and there is a high possibility of wanting to know product information related to the specific product. Thus, according to the operation state of the store visitor, the imaging means is started and stopped, and the product information is efficiently provided, thereby efficiently suppressing power consumption in the product information providing terminal device. Can do.

また本発明によれば、商品情報提供端末装置は、指示情報判定部と、撮像画像格納部と、商品情報取得部とを備え、商品情報を表示すべき商品を特定するための所定の指示情報が含まれていると判定されたときの撮像画像に基づいて、その撮像画像に含まれる商品に関する商品情報を取得するように構成されている。したがって、撮像画像の中に複数の商品が含まれている場合であっても、所定の指示情報に従って特定された商品の商品情報だけを表示することができる。これにより、来店者が知りたい商品情報だけを容易に提供することができる。   According to the present invention, the product information providing terminal device includes an instruction information determination unit, a captured image storage unit, and a product information acquisition unit, and predetermined instruction information for specifying a product for which product information is to be displayed. Based on the captured image when it is determined that the product is included, product information relating to the product included in the captured image is acquired. Therefore, even when a plurality of products are included in the captured image, it is possible to display only the product information of the product specified according to the predetermined instruction information. Thereby, it is possible to easily provide only product information that the customer wants to know.

本発明によれば、商品情報提供システムは、商品情報提供端末装置とサーバ装置とを含んで構成され、商品情報提供端末装置は、撮像手段と、加速度検出手段と、動作状態判定部と、動作制御部とを備え、商品情報提供端末装置の加速度に基づいて判定された、商品情報提供端末装置を携帯する来店者の動作状態に基づいて、撮像手段を起動および動作停止することができる。したがって、来店者の動作状態に応じて、撮像手段を起動および動作停止して、効率的に商品情報を提供することにより、商品情報提供端末装置における電力の消費を効率的に抑制することができる。   According to the present invention, the product information providing system includes a product information providing terminal device and a server device, and the product information providing terminal device includes an imaging unit, an acceleration detecting unit, an operation state determination unit, an operation The imaging means can be activated and deactivated based on the operating state of the store visitor carrying the merchandise information provision terminal device determined based on the acceleration of the merchandise information provision terminal device. Therefore, the power consumption in the product information providing terminal device can be efficiently suppressed by starting and stopping the imaging means according to the operating state of the store visitor and efficiently providing the product information. .

また商品情報提供端末装置は、指示情報判定部と、撮像画像格納部と、商品情報取得部と、端末側無線送受信部とを備え、サーバ装置は、サーバ側無線送受信部と、商品情報データベースと、商品情報抽出部とを備えている。これにより、商品情報を表示すべき商品を特定するための所定の指示情報が含まれていると判定されたときの撮像画像を商品情報提供端末装置からサーバ装置へ送信し、サーバ装置側で、所定の指示情報に基づいて商品情報を表示すべき商品を特定し、特定した商品に関する商品情報を商品情報データベースから抽出し、抽出した商品情報をサーバ装置から商品情報提供端末装置へ送信し、受信した商品情報に基づいて生成された拡張現実画像が表示部に表示される。したがって、撮像画像の中に複数の商品が含まれている場合であっても、所定の指示情報に従って特定された商品の商品情報だけを表示することができる。これにより、来店者が知りたい商品情報だけを容易に提供することができる。   The product information provision terminal device includes an instruction information determination unit, a captured image storage unit, a product information acquisition unit, and a terminal side wireless transmission / reception unit, and the server device includes a server side wireless transmission / reception unit, a product information database, and And a product information extraction unit. Thereby, the captured image when it is determined that the predetermined instruction information for specifying the product for which the product information is to be displayed is included is transmitted from the product information providing terminal device to the server device. Identify products for which product information is to be displayed based on predetermined instruction information, extract product information about the identified products from the product information database, send the extracted product information from the server device to the product information providing terminal device, and receive The augmented reality image generated based on the merchandise information is displayed on the display unit. Therefore, even when a plurality of products are included in the captured image, it is possible to display only the product information of the product specified according to the predetermined instruction information. Thereby, it is possible to easily provide only product information that the customer wants to know.

本発明の一実施形態に係るHMD100を模式的に示す斜視図である。It is a perspective view showing typically HMD100 concerning one embodiment of the present invention. 本発明の一実施形態に係るHMD100の構成を示すブロック図である。It is a block diagram which shows the structure of HMD100 which concerns on one Embodiment of this invention. 制御装置30の機能的な構成を示すブロック図である。3 is a block diagram showing a functional configuration of a control device 30. FIG. 本発明の一実施形態に係るHMD100と協働して用いられるサーバ装置110の構成を示すブロック図である。It is a block diagram which shows the structure of the server apparatus 110 used in cooperation with HMD100 which concerns on one Embodiment of this invention. 制御装置80の機能的な構成を示すブロック図である。3 is a block diagram showing a functional configuration of a control device 80. FIG. 本発明の一実施形態に係るHMD100の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of HMD100 which concerns on one Embodiment of this invention. 本発明の一実施形態に係るHMD100の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of HMD100 which concerns on one Embodiment of this invention. HMD100の装着者が商品A〜Fが陳列された商品棚Sの前で静止した状態を示す図である。It is a figure which shows the state in which the wearer of HMD100 stood still in front of the goods shelf S in which goods AF were displayed. カメラ10によって撮像された撮像画像の一例を示す図である。2 is a diagram illustrating an example of a captured image captured by a camera. FIG. 人間の手指が含まれている撮像画像の一例を示す図である。It is a figure which shows an example of the captured image in which a human finger is contained. サーバ装置110へ送信される撮像画像の一例を示す図である。4 is a diagram illustrating an example of a captured image transmitted to the server apparatus 110. FIG. 商品情報画像Q1が表示された表示部21を示す図である。It is a figure which shows the display part 21 on which product information image Q1 was displayed. 表示部21に映る商品の実像の移動に伴う商品情報画像Q1の変化の一例を示す図である。It is a figure which shows an example of the change of the merchandise information image Q1 accompanying the movement of the real image of the merchandise reflected on the display part 21. FIG. サーバ装置110の動作を説明するためのフローチャートである。5 is a flowchart for explaining the operation of a server device 110. 割込み要求が発生した場合の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement when an interruption request | requirement generate | occur | produces. 本発明の他の実施形態に係るHMD100の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of HMD100 which concerns on other embodiment of this invention. 本発明の他の実施形態に係るHMD100の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of HMD100 which concerns on other embodiment of this invention.

以下、図面を参照して、本発明をその好適な実施形態に従って詳細に説明する。
図1は、本発明の一実施形態に係る商品情報提供端末装置である頭部装着型表示装置(HMD:Head Mounted Display)100を模式的に示す斜視図である。図2は、本発明の一実施形態に係るHMD100の構成を示すブロック図である。
Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the drawings.
FIG. 1 is a perspective view schematically showing a head-mounted display device (HMD: Head Mounted Display) 100 which is a product information providing terminal device according to an embodiment of the present invention. FIG. 2 is a block diagram showing a configuration of the HMD 100 according to the embodiment of the present invention.

HMD100は、様々な商品が陳列されている店舗において用いられ、拡張現実感技術を利用して、現実空間における商品とCGなどで描画された商品情報とを融合表示することにより、来店者に対して商品情報をリアルタイムに提供するように構成された装置である。本実施形態では、HMD100は、後述するサーバ装置110と協働して、商品情報を提供するように構成されている。   The HMD 100 is used in stores where various products are displayed. By using augmented reality technology, the merchandise information in the real space and product information drawn in CG are displayed in an integrated manner. The apparatus is configured to provide product information in real time. In the present embodiment, the HMD 100 is configured to provide product information in cooperation with a server device 110 described later.

本実施形態に係るHMD100は、来店者の頭部に装着した状態で使用されるように構成されている。HMD100は、人間の頭部に着脱自在に装着可能な形状に形成されていればよい。これにより、来店者は商品情報提供端末装置を手で保持する必要がないので、今までどおり両手を使って買い物をすることができる。本実施形態に係るHMD100は、図1に模式的に示すように、来店者の耳に掛けるための頭部装着部であるつる部51を備え、眼鏡型の形状に形成されている。   HMD100 which concerns on this embodiment is comprised so that it may be used in the state with which it attached to the visitor's head. HMD100 should just be formed in the shape which can be detachably mounted | worn with a human head. Thereby, since the visitor does not need to hold the product information providing terminal device by hand, he / she can shop with both hands as before. As schematically shown in FIG. 1, the HMD 100 according to the present embodiment includes a vine portion 51 that is a head-mounted portion that is worn on the ear of a visitor, and is formed in a glasses-like shape.

HMD100は、カメラ10と、表示装置20と、制御装置30と、加速度検出部40と、無線送受信部50と、電源部60とを備えている。   The HMD 100 includes a camera 10, a display device 20, a control device 30, an acceleration detection unit 40, a wireless transmission / reception unit 50, and a power supply unit 60.

カメラ10は、たとえばCCD(Charge Coupled Device)センサまたはCMOS(
Complementary Metal Oxide Semiconductor)センサを撮像素子に用い、画像一枚あたりの撮像周期がたとえば1/30秒(すなわち、フレームレートが30fps)で被写体を撮像可能なビデオカメラである。カメラ10は、その撮像方向がHMD100の装着者の視線方向に略一致するように、表示部21に近接した位置に取り付けられ、現実空間を撮像して、撮像画像の画像データを処理部31へ出力する。本実施形態では、カメラ10は、オートフォーカス機能を有している。
The camera 10 is, for example, a CCD (Charge Coupled Device) sensor or a CMOS (
This is a video camera that uses a Complementary Metal Oxide Semiconductor) sensor as an image sensor and can image a subject with an imaging cycle per image of, for example, 1/30 seconds (that is, a frame rate of 30 fps). The camera 10 is attached at a position close to the display unit 21 so that its imaging direction substantially matches the line-of-sight direction of the wearer of the HMD 100, images the real space, and sends image data of the captured image to the processing unit 31. Output. In the present embodiment, the camera 10 has an autofocus function.

表示装置20は、現実空間における商品に仮想空間における商品情報を重畳して表示するための拡張現実画像を表示可能な、右目用および左目用の一対の表示部21を備えている。一対の表示部21は、HMD100の装着者の眼前に配置されるようにそれぞれ取り付けられている。   The display device 20 includes a pair of display units 21 for the right eye and the left eye that can display an augmented reality image for displaying product information in the virtual space superimposed on the product in the real space. The pair of display units 21 are respectively attached so as to be arranged in front of the eyes of the wearer of the HMD 100.

本実施形態では、表示部21は、光学シースルー方式を採用している。すなわち、表示部21は、可視光を透過可能に構成されており、HMD100の装着者は、眼前に配置された表示部21を透過した現実空間の光景を直接見ることができるとともに、表示部21に表示された拡張現実画像も見ることができる。この場合の拡張現実画像は、CGなどで描画された商品情報を示す商品情報画像である。   In the present embodiment, the display unit 21 employs an optical see-through method. That is, the display unit 21 is configured to be able to transmit visible light, and the wearer of the HMD 100 can directly see the scene in the real space that has passed through the display unit 21 disposed in front of the eyes, and the display unit 21. The augmented reality image displayed on the screen can also be viewed. The augmented reality image in this case is a product information image indicating product information drawn by CG or the like.

したがって、HMD100の装着者は、表示部21を透過して見える現実空間の光景、すなわち表示部21に映る現実空間の実像と、商品情報画像とを融合して見ることができる。このような表示部21は、たとえばハーフミラーによって実現されてもよい。また表示装置20は、図示しないが、後述する画像生成部106によって生成された商品情報画像を表示部21に投影するための投影装置を備えている。   Therefore, the wearer of the HMD 100 can see the scene of the real space seen through the display unit 21, that is, the real image of the real space reflected on the display unit 21 and the product information image. Such a display unit 21 may be realized by, for example, a half mirror. Although not shown, the display device 20 includes a projection device for projecting a product information image generated by an image generation unit 106 described later on the display unit 21.

制御装置30は、処理部31と、ROM(Read Only Memory)32と、RAM(Random Access Memory)33とを備えて構成される。処理部31は、CPU(Central
Processing Unit)を含み、ROM32に格納されたプログラムを実行し、HMD100の各部を制御するとともに、データ処理を行う。ROM32は、処理部31が実行するプログラムおよびデータが格納される。RAM33は、プログラムの実行処理領域として利用されるほか、画像データなどの一時記憶領域、各種作業領域として利用される。
The control device 30 includes a processing unit 31, a ROM (Read Only Memory) 32, and a RAM (Random Access Memory) 33. The processing unit 31 is a CPU (Central
A program stored in the ROM 32 is executed to control each part of the HMD 100 and perform data processing. The ROM 32 stores programs and data executed by the processing unit 31. The RAM 33 is used as a program execution processing area, a temporary storage area for image data, and various work areas.

加速度検出部40は、HMD100に作用している加速度を検出するように構成されている。本実施形態では、加速度検出部40には、互いに直交する3方向(X軸方向、Y軸方向およびZ軸方向)の加速度を検出可能な3軸加速度センサが用いられている。加速度検出部40は、3軸加速度センサによって検出された3方向の加速度の変化を示す信号を処理部31に出力する。   The acceleration detection unit 40 is configured to detect acceleration acting on the HMD 100. In the present embodiment, the acceleration detection unit 40 uses a three-axis acceleration sensor that can detect accelerations in three directions orthogonal to each other (X-axis direction, Y-axis direction, and Z-axis direction). The acceleration detection unit 40 outputs a signal indicating a change in acceleration in three directions detected by the triaxial acceleration sensor to the processing unit 31.

無線送受信部50は、ZigBeeおよびIEEE802.15.4などの無線通信方式を用いた無線通信モジュールを備え、後述するサーバ装置110との間で情報を無線通信するように構成されている。   The wireless transmission / reception unit 50 includes a wireless communication module using a wireless communication method such as ZigBee and IEEE 802.15.4, and is configured to wirelessly communicate information with the server device 110 described later.

電源部60は、HMD100を動作させるための電力の供給源である電池61と、カメラ10、表示装置20、制御装置30、加速度検出部40および無線送受信部50に必要な電力を供給するための電源回路部62とからなる。   The power supply unit 60 supplies necessary power to the battery 61, which is a power supply source for operating the HMD 100, and the camera 10, the display device 20, the control device 30, the acceleration detection unit 40, and the wireless transmission / reception unit 50. And a power supply circuit unit 62.

加速度検出部40、ならびに後述する動作状態判定部101および動作制御部102は、電源部60からの電力供給によって常時動作して加速度を検出するとともに、所定の演算処理を実行するように構成されている。すなわち、加速度検出部40は、動作状態判定部101に対して加速度の変化を示す信号を常時出力している。   The acceleration detection unit 40, and an operation state determination unit 101 and an operation control unit 102, which will be described later, are configured to always operate by power supply from the power supply unit 60 to detect acceleration and to execute predetermined calculation processing. Yes. That is, the acceleration detection unit 40 constantly outputs a signal indicating a change in acceleration to the operation state determination unit 101.

制御装置30、加速度検出部40および無線送受信部50は、頭部装着部であるつる部51に取り付けられた装置本体部52に内蔵されている。すなわち、加速度検出部40は、つる部51によって保持されており、HMD100の装着者の頭部の動きに応じた加速度の変化を示す信号を出力する。   The control device 30, the acceleration detection unit 40, and the wireless transmission / reception unit 50 are built in a device main body 52 attached to a vine 51 that is a head-mounted unit. That is, the acceleration detection unit 40 is held by the vine unit 51 and outputs a signal indicating a change in acceleration according to the movement of the head of the wearer of the HMD 100.

図3は、制御装置30の機能的な構成を示すブロック図である。制御装置30は、動作状態判定部101と、動作制御部102と、指示情報判定部103と、撮像画像格納部104と、商品情報取得部105と、画像生成部106とを含んで構成される。   FIG. 3 is a block diagram illustrating a functional configuration of the control device 30. The control device 30 includes an operation state determination unit 101, an operation control unit 102, an instruction information determination unit 103, a captured image storage unit 104, a product information acquisition unit 105, and an image generation unit 106. .

動作状態判定部101は、加速度検出部40によって検出される3方向の加速度の変化を示す信号が連続的に入力され、その信号に基づいて、HMD100の装着者の動作状態を判定する。   The operation state determination unit 101 continuously receives signals indicating changes in acceleration in three directions detected by the acceleration detection unit 40, and determines the operation state of the wearer of the HMD 100 based on the signals.

具体的には、装着者の歩行に伴う上下方向への加速度の連続的な変化に基づいて、装着者が移動している移動状態であるか移動していない非移動状態であるかを判定する。さらに本実施形態では、加速度検出部40がHMD100に搭載されているので、上下方向に垂直な水平方向の加速度の変化に基づいて、HMD100の装着者が辺りを見回すなどの動作によって頭部の位置を動かしているか否かを判定する。   Specifically, it is determined whether the wearer is moving or not moving based on a continuous change in acceleration in the vertical direction accompanying the wearer's walk. . Further, in the present embodiment, since the acceleration detection unit 40 is mounted on the HMD 100, the position of the head is determined by an operation such as a wearer of the HMD 100 looking around based on a change in horizontal acceleration perpendicular to the vertical direction. Whether or not is moving.

動作制御部102は、動作状態判定部101によって判定されたHMD100の装着者の動作状態に基づいて、カメラ10を起動および動作停止する。本実施形態では、動作制御部102は、カメラ10だけでなく、表示装置20を起動および動作停止するように構成されている。   The operation control unit 102 activates and deactivates the camera 10 based on the operation state of the wearer of the HMD 100 determined by the operation state determination unit 101. In the present embodiment, the operation control unit 102 is configured to start and stop the display device 20 as well as the camera 10.

指示情報判定部103は、動作制御部102によってカメラ10が起動されると、カメラ10によって撮像された撮像画像に、商品情報を表示すべき商品を特定するための所定の指示情報が含まれているか否かを判定する。そして、その判定結果に基づいて、判定対象となった撮像画像の画像データを、撮像画像格納部104における所定の格納領域へ格納する。本実施形態では、指示情報判定部103は、所定の指示情報として、撮像画像に人間の手指が含まれているか否かを判定する。   When the camera 10 is activated by the operation control unit 102, the instruction information determination unit 103 includes predetermined instruction information for specifying a product for which product information is to be displayed in a captured image captured by the camera 10. It is determined whether or not. Then, based on the determination result, the image data of the captured image that is the determination target is stored in a predetermined storage area in the captured image storage unit 104. In the present embodiment, the instruction information determination unit 103 determines whether or not a human finger is included in the captured image as the predetermined instruction information.

撮像画像格納部104は、指示情報判定部103によって、判定対象となった撮像画像の画像データが格納される。撮像画像格納部104は、所定の指示情報が含まれていると判定されたときの撮像画像の画像データが格納される第1格納領域と、所定の指示情報が含まれていないと判定されたときの撮像画像の画像データが格納される第2格納領域とを有している。第2格納領域には、所定の指示情報が含まれていないと判定されたときの撮像画像の画像データが、順次更新して格納される。   The captured image storage unit 104 stores image data of a captured image that is a determination target by the instruction information determination unit 103. The captured image storage unit 104 is determined to include a first storage area for storing image data of a captured image when it is determined that the predetermined instruction information is included, and the predetermined instruction information is not included. And a second storage area in which image data of the captured image is stored. In the second storage area, image data of a captured image when it is determined that predetermined instruction information is not included is sequentially updated and stored.

商品情報取得部105は、第1格納領域に画像データが格納されると、無線送受信部50に対し、第1格納領域に格納される画像データと、第2格納領域に格納される画像データとをサーバ装置110へ送信する旨の指令を出力する。なお、第2格納領域に画像データが格納されていない場合には、第1格納領域に格納される画像データだけが、サーバ装置110へ送信される。商品情報取得部105は、無線送受信部50がサーバ装置110から情報を受信すると、その情報を取得する。   When the image data is stored in the first storage area, the product information acquisition unit 105 instructs the wireless transmission / reception unit 50 to store the image data stored in the first storage area and the image data stored in the second storage area. Is transmitted to the server apparatus 110. If image data is not stored in the second storage area, only the image data stored in the first storage area is transmitted to the server device 110. When the wireless transmission / reception unit 50 receives information from the server device 110, the product information acquisition unit 105 acquires the information.

画像生成部106は、商品情報取得部105によって取得された情報に基づいて、サーバ装置110へ送信した撮像画像における一部の領域を、商品情報を表示すべき商品として認識する。そして、商品情報を表示すべき商品として認識した領域の画像と、カメラ10によって撮像された撮像画像とを照合(マッチング)し、撮像画像の中に商品情報を表示すべき商品の画像が含まれているか否かを判定する。商品の画像が含まれている場合には、その商品の画像の位置および寸法に応じた位置および寸法で、商品情報画像の画像データを生成する。画像生成部106によって生成された画像データは、表示装置20へ出力され、表示部21に表示される。   Based on the information acquired by the product information acquisition unit 105, the image generation unit 106 recognizes a partial area in the captured image transmitted to the server device 110 as a product for which product information is to be displayed. Then, the image of the area recognized as the product for which the product information is to be displayed and the captured image captured by the camera 10 are collated (matched), and the image of the product for which the product information is to be displayed is included in the captured image. It is determined whether or not. When an image of a product is included, image data of a product information image is generated at a position and a size corresponding to the position and size of the product image. The image data generated by the image generation unit 106 is output to the display device 20 and displayed on the display unit 21.

また画像生成部106は、カメラ10によって撮像された撮像画像に対し、商品情報を表示すべき商品を追尾するトラッキング機能を有する。これにより、画像生成部106は、HMD100の装着者の頭部が微小に移動することにより、表示部21に映る商品の実像が微小に移動した場合であっても、商品の実像の移動に追随させた商品情報画像を生成することができる。   Further, the image generation unit 106 has a tracking function for tracking a product for which product information is to be displayed with respect to a captured image captured by the camera 10. As a result, the image generation unit 106 follows the movement of the real image of the product even if the real image of the product displayed on the display unit 21 is slightly moved due to the slight movement of the head of the wearer of the HMD 100. A product information image can be generated.

図4は、本発明の一実施形態に係るHMD100と協働して用いられるサーバ装置110の構成を示すブロック図である。サーバ装置110は、商品情報データベース71と、画像認識データベース72と、制御装置80と、無線送受信部90とを備えている。   FIG. 4 is a block diagram showing a configuration of the server device 110 used in cooperation with the HMD 100 according to an embodiment of the present invention. The server device 110 includes a product information database 71, an image recognition database 72, a control device 80, and a wireless transmission / reception unit 90.

商品情報データベース71は、店舗内に陳列されている各商品について、商品情報、たとえば商品の商品ID、商品名、メーカー名、価格、原材料、競合商品、特徴、売行きおよび購入者による評価などの情報が格納されている。   The merchandise information database 71 is merchandise information about each merchandise displayed in the store, such as merchandise ID, merchandise ID, merchandise name, manufacturer name, price, raw material, competing merchandise, characteristics, sales and evaluation by the purchaser. Is stored.

画像認識データベース72は、店舗内に陳列されている各商品の商品IDと、各商品について予め撮像された参照画像の画像データとが関連付けられて格納されている。参照画像は、陳列状態における商品の前面を撮像した画像である。   The image recognition database 72 stores a product ID of each product displayed in the store and image data of a reference image captured in advance for each product in association with each other. The reference image is an image obtained by capturing the front surface of the product in the display state.

制御装置80は、処理部81と、ROM82と、RAM83とを備えて構成される。処理部81は、CPUを含み、ROM82に格納されたプログラムを実行し、サーバ装置110の各部を制御するとともに、データ処理を行う。ROM82は、処理部81が実行するプログラムおよびデータが格納される。RAM83は、プログラムの実行処理領域として利用されるほか、画像データなどの一時記憶領域、各種作業領域として利用される。   The control device 80 includes a processing unit 81, a ROM 82, and a RAM 83. The processing unit 81 includes a CPU, executes a program stored in the ROM 82, controls each unit of the server device 110, and performs data processing. The ROM 82 stores programs executed by the processing unit 81 and data. The RAM 83 is used as a program execution processing area, a temporary storage area for image data, and various work areas.

無線送受信部90は、ZigBeeおよびIEEE802.15.4などの無線通信方式を用いた無線通信モジュールを備え、HMD100との間で情報を無線通信するように構成されている。   The wireless transmission / reception unit 90 includes a wireless communication module using a wireless communication method such as ZigBee and IEEE802.15.4, and is configured to wirelessly communicate information with the HMD 100.

図5は、制御装置80の機能的な構成を示すブロック図である。制御装置80は、商品情報抽出部111と、送受信部制御部112とを含んで構成される。   FIG. 5 is a block diagram showing a functional configuration of the control device 80. The control device 80 includes a product information extraction unit 111 and a transmission / reception unit control unit 112.

商品情報抽出部111は、無線送受信部90がHMD100から撮像画像の画像データを受信すると、画像認識データベース72に格納されている参照画像の画像データに基づいて、受信した撮像画像において、商品情報を表示すべき商品を特定する。そして、その特定した商品に関する商品情報を、商品情報データベース71から抽出する。さらに、商品情報抽出部111は、HMD100から送信されてきた撮像画像における、その特定した商品の位置(座標)とサイズを算出する。   When the wireless transmission / reception unit 90 receives the image data of the captured image from the HMD 100, the product information extraction unit 111 extracts the product information in the received captured image based on the image data of the reference image stored in the image recognition database 72. Identify products to be displayed. Then, product information relating to the identified product is extracted from the product information database 71. Further, the product information extraction unit 111 calculates the position (coordinates) and size of the specified product in the captured image transmitted from the HMD 100.

送受信部制御部112は、商品情報抽出部111によって、商品情報が抽出され、かつ撮像画像における商品の位置およびサイズが算出されると、無線送受信部90に対し、抽出した商品情報、ならびに算出した商品の位置およびサイズ情報を、撮像画像を送信してきたHMD100へ送信する旨の指令を出力する。   When the product information extraction unit 111 extracts the product information and calculates the position and size of the product in the captured image, the transmission / reception unit control unit 112 calculates the extracted product information and the calculated product information to the wireless transmission / reception unit 90. A command for transmitting the position and size information of the product to the HMD 100 that has transmitted the captured image is output.

図6Aおよび図6Bは、本発明の一実施形態に係るHMD100の動作を説明するためのフローチャートである。ステップs0で、来店者がHMD100を装着することにより、動作が開始される。   6A and 6B are flowcharts for explaining the operation of the HMD 100 according to the embodiment of the present invention. In step s0, the store visitor wears the HMD 100 to start the operation.

ステップs1で、動作状態判定部101は、加速度検出部40から出力される信号に基づいて、装着者が移動状態であるか非移動状態であるかを判定する。移動状態であると判定されると、ステップs1へ進み、非移動状態であると判定されると、ステップs2へ進む。   In step s1, the operation state determination unit 101 determines whether the wearer is in a moving state or a non-moving state based on a signal output from the acceleration detection unit 40. If it is determined that it is in the moving state, the process proceeds to step s1.

ステップs2で、動作状態判定部101は、加速度検出部40から出力される信号に基づいて、装着者が頭部の位置を動かしているか否かを判定する。頭部の位置を動かしていると判定されると、ステップs1へ進み、頭部の位置を動かしていないと判定されると、ステップs3へ進む。   In step s2, the operation state determination unit 101 determines whether the wearer is moving the position of the head based on the signal output from the acceleration detection unit 40. If it is determined that the position of the head is moved, the process proceeds to step s1, and if it is determined that the position of the head is not moved, the process proceeds to step s3.

ステップs3で、動作制御部102は、動作状態判定部101からの割込み要求の受付けを許可する。ステップs4で、動作制御部102は、カメラ10を起動させる。図7は、HMD100の装着者が商品A〜Fが陳列された商品棚Sの前で静止した状態を示す図である。図7に示すように、動作状態判定部101によってHMD100の装着者が静止したと判定されると、動作制御部102によって、HMD100に搭載されるカメラ10が起動され、撮像範囲Vの画像の取り込みが開始される。図8は、カメラ10によって撮像された撮像画像の一例を示す図であり、図8(a)は、1つの商品Aが含まれる撮像画像P1を示し、図8(b)は、2つの商品A,Bが含まれる撮像画像P2を示している。ステップs5で、カメラ10によって撮像された撮像画像の画像データが、指示情報判定部103へ入力される。   In step s3, the operation control unit 102 permits the acceptance of the interrupt request from the operation state determination unit 101. In step s4, the operation control unit 102 activates the camera 10. FIG. 7 is a diagram illustrating a state in which the wearer of the HMD 100 is stationary in front of the product shelf S on which the products A to F are displayed. As illustrated in FIG. 7, when the operation state determination unit 101 determines that the wearer of the HMD 100 is stationary, the operation control unit 102 activates the camera 10 mounted on the HMD 100 and captures an image in the imaging range V. Is started. FIG. 8 is a diagram illustrating an example of a captured image captured by the camera 10, FIG. 8A illustrates a captured image P1 including one product A, and FIG. 8B illustrates two products. A captured image P2 including A and B is shown. In step s 5, image data of the captured image captured by the camera 10 is input to the instruction information determination unit 103.

ステップs6で、指示情報判定部103は、入力される画像データに基づいて、カメラ10によって撮像された撮像画像に、人間の手指が含まれているか否かを判定する。図9は、人間の手指が含まれている撮像画像の一例を示す図であり、図9(a)は、装着者が自らの指fで商品情報が知りたい商品Aを指し示している状態を撮像した撮像画像P3を示し、図9(b)は、装着者が自らの手hで商品情報が知りたい商品Bを掴んでいる状態を撮像した撮像画像P4を示している。図9に示す撮像画像P3,P4のように、撮像画像に人間の手指f,hが含まれていると判定されると、ステップs7に進み、図8に示す撮像画像P1,P2のように、手指f,hが含まれていないと判定されると、ステップs9に進む。   In step s6, the instruction information determination unit 103 determines whether a captured image captured by the camera 10 includes a human finger based on the input image data. FIG. 9 is a diagram illustrating an example of a captured image including human fingers. FIG. 9A illustrates a state in which the wearer points to the product A for which the product information is desired to be known with his / her finger f. A captured image P3 is shown, and FIG. 9 (b) shows a captured image P4 in which the wearer is holding the product B that the wearer wants to know about the product information with his / her hand h. When it is determined that the human fingers f and h are included in the captured image as in the captured images P3 and P4 illustrated in FIG. 9, the process proceeds to step s7, and the captured images P1 and P2 illustrated in FIG. If it is determined that the fingers f and h are not included, the process proceeds to step s9.

ステップs7で、指示情報判定部103は、手指が含まれていると判定された撮像画像の画像データを、撮像画像格納部104の第1格納領域へ格納する。ステップs8で、商品情報取得部105は、第1格納領域に格納されている画像データを、無線送受信部50に対しサーバ装置110へ送信させる。画像データが送信されると、ステップs21へ進む。   In step s7, the instruction information determination unit 103 stores the image data of the captured image determined to include a finger in the first storage area of the captured image storage unit 104. In step s8, the product information acquisition unit 105 causes the wireless transmission / reception unit 50 to transmit the image data stored in the first storage area to the server device 110. When the image data is transmitted, the process proceeds to step s21.

ステップs9で、動作制御部102は、判定を継続するか否かの判定基準となる判定継続期間の計測を開始する。判定継続期間は、予め設定されてRAM33に格納されている。ステップs10で、指示情報判定部103は、手指が含まれていないと判定された撮像画像の画像データを、撮像画像格納部104の第2格納領域へ格納する。なお、第2格納領域に既に画像データが格納されている場合には、更新して格納する。   In step s9, the operation control unit 102 starts measuring a determination continuation period that is a determination criterion for determining whether to continue the determination. The determination continuation period is set in advance and stored in the RAM 33. In step s <b> 10, the instruction information determination unit 103 stores the image data of the captured image determined not to include a finger in the second storage area of the captured image storage unit 104. If image data is already stored in the second storage area, it is updated and stored.

ステップs11で、動作制御部102は、判定継続期間の計測開始時点からの経過時間が、設定されている判定継続期間を超えたか否かを判定する。設定されている判定継続期間を超えていないと判定されるとステップs12に進み、カメラ10によって撮像された撮像画像の画像データが、指示情報判定部103へ入力される。また設定されている判定継続期間を超えたと判定されると、ステップs16に進む。   In step s11, the operation control unit 102 determines whether or not the elapsed time from the measurement start time of the determination continuation period exceeds the set determination continuation period. When it is determined that the set determination duration has not been exceeded, the process proceeds to step s12, and the image data of the captured image captured by the camera 10 is input to the instruction information determination unit 103. If it is determined that the set determination duration has been exceeded, the process proceeds to step s16.

ステップs12で、カメラ10によって撮像された撮像画像の画像データが、指示情報判定部103へ入力される。ステップs13で、指示情報判定部103は、入力される画像データに基づいて、カメラ10によって撮像された撮像画像に、人間の手指が含まれているか否かを判定する。手指が含まれていると判定されると、ステップs14に進み、手指が含まれていないと判定されると、ステップs10に進む。   In step s 12, the image data of the captured image captured by the camera 10 is input to the instruction information determination unit 103. In step s13, the instruction information determination unit 103 determines whether a captured image captured by the camera 10 includes a human finger based on the input image data. If it is determined that the finger is included, the process proceeds to step s14. If it is determined that the finger is not included, the process proceeds to step s10.

ステップs14で、指示情報判定部103は、手指が含まれていると判定された撮像画像の画像データを、撮像画像格納部104の第1格納領域へ格納する。ステップs15で、商品情報取得部105は、第1格納領域に格納されている画像データと第2格納領域に格納されている画像データとを、無線送受信部50に対しサーバ装置110へ送信させる。図10は、ステップs15においてサーバ装置110へ送信される撮像画像の一例を示す図であり、図10(a)は、装着者が自らの指fで商品Aを指している状態を撮像した撮像画像P5であり、図10(b)は、指fで商品Aを指す直前を撮像した撮像画像P6である。画像データが送信されると、ステップs21へ進む。   In step s <b> 14, the instruction information determination unit 103 stores the image data of the captured image determined to include a finger in the first storage area of the captured image storage unit 104. In step s15, the product information acquisition unit 105 causes the wireless transmission / reception unit 50 to transmit the image data stored in the first storage area and the image data stored in the second storage area to the server device 110. FIG. 10 is a diagram illustrating an example of a captured image transmitted to the server apparatus 110 in step s15. FIG. 10A illustrates an image of a state where the wearer points to the product A with his / her finger f. FIG. 10B is an image P5 that is an image P5 obtained by capturing the image immediately before pointing to the product A with the finger f. When the image data is transmitted, the process proceeds to step s21.

ステップs16で、動作制御部102は、判定継続期間内に手指を含む画像を撮像できなかったとして、判定継続期間の計測を停止する。ステップs17で、動作制御部102は、カメラ10の撮像動作を停止する。ステップs18で、動作制御部102は、動作状態判定部101からの割込み要求の受付けを禁止する。   In step s <b> 16, the operation control unit 102 stops measuring the determination continuation period because it cannot capture an image including a finger within the determination continuation period. In step s17, the operation control unit 102 stops the imaging operation of the camera 10. In step s18, the operation control unit 102 prohibits acceptance of an interrupt request from the operation state determination unit 101.

ステップs19で、動作状態判定部101は、加速度検出部40から出力される信号に基づいて、装着者が移動状態であるか非移動状態であるかを判定する。移動状態であると判定されると、ステップs1へ進み、非移動状態であると判定されると、ステップs20へ進む。   In step s19, the motion state determination unit 101 determines whether the wearer is in a moving state or a non-moving state based on a signal output from the acceleration detection unit 40. If it is determined that it is in the moving state, the process proceeds to step s1.

ステップs20で、動作状態判定部101は、加速度検出部40から出力される信号に基づいて、装着者が頭部の位置を動かしているか否かを判定する。頭部の位置を動かしていると判定されると、ステップs1へ進み、頭部の位置を動かしていないと判定されると、ステップs19へ進む。   In step s20, the operation state determination unit 101 determines whether the wearer is moving the position of the head based on the signal output from the acceleration detection unit 40. If it is determined that the position of the head is moved, the process proceeds to step s1, and if it is determined that the position of the head is not moved, the process proceeds to step s19.

このように、ステップs17においてカメラ10の動作を停止させた後は、ステップs19およびステップs20において、装着者が移動状態または頭部の位置をを動かしている状態に移行したことを確認してから、ステップs1へ進む。   As described above, after the operation of the camera 10 is stopped in step s17, it is confirmed in steps s19 and s20 that the wearer has shifted to a moving state or a state of moving the head position. The process proceeds to step s1.

ステップs21で、商品情報取得部105は、無線送受信部50がサーバ装置110からデータを受信したか否かを判定する。データを受信したと判定されると、そのデータを取得して、ステップs22に進み、データが未受信であると判定されると、ステップs21に進む。   In step s <b> 21, the product information acquisition unit 105 determines whether the wireless transmission / reception unit 50 has received data from the server device 110. If it is determined that the data has been received, the data is acquired, and the process proceeds to step s22. If it is determined that the data has not been received, the process proceeds to step s21.

ステップs22で、画像生成部106は、商品情報取得部105によって取得されたデータに商品情報が含まれているか否かを判定する。商品情報が含まれていると判定されると、ステップs23に進み、商品情報が含まれていないと判定されると、ステップs27に進む。   In step s22, the image generation unit 106 determines whether the product information is included in the data acquired by the product information acquisition unit 105. If it is determined that the product information is included, the process proceeds to step s23. If it is determined that the product information is not included, the process proceeds to step s27.

ステップs23で、画像生成部106は、商品情報取得部105によって取得された商品の位置およびサイズ情報と、ステップs8またはステップs15でサーバ装置110へ送信した撮像画像の画像データとに基づいて、その撮像画像における一部の領域を、商品情報を表示すべき商品として認識し、商品情報取得部105によって取得された商品情報に基づいて、商品情報画像の画像データを生成する。併せて、動作制御部102は、表示装置20を起動させる。   In step s23, the image generation unit 106, based on the product position and size information acquired by the product information acquisition unit 105, and the image data of the captured image transmitted to the server device 110 in step s8 or step s15, A part of the region in the captured image is recognized as a product for which product information is to be displayed, and image data of the product information image is generated based on the product information acquired by the product information acquisition unit 105. In addition, the operation control unit 102 activates the display device 20.

そして、画像生成部106は、生成した商品情報画像の画像データを表示装置20へ出力する。表示装置20へ出力された画像データによって、表示部21へ商品情報画像が表示される。図11は、商品情報画像Q1が表示された表示部21を示す図である。図11に示すように、光学シースルー方式を採用した表示部21には、商品情報qを表示すべき商品Aの実像に重畳して、商品情報画像Q1が表示されている。HMD100の装着者は、この商品情報画像Q1を閲覧することによって、商品情報をリアルタイムに取得することができる。   Then, the image generation unit 106 outputs the image data of the generated product information image to the display device 20. A product information image is displayed on the display unit 21 by the image data output to the display device 20. FIG. 11 is a diagram showing the display unit 21 on which the product information image Q1 is displayed. As shown in FIG. 11, a product information image Q1 is displayed on the display unit 21 adopting the optical see-through method so that the product information q is superimposed on the real image of the product A to be displayed. The wearer of the HMD 100 can acquire product information in real time by browsing the product information image Q1.

ステップs24で、カメラ10によって撮像された撮像画像の画像データが、画像生成部106へ入力される。ステップs25で、画像生成部106は、ステップs23で商品情報を表示すべき商品として認識した一部の領域の画像と、カメラ10から入力された撮像画像とを照合(マッチング)し、撮像画像の中に商品情報を表示すべき商品の画像が含まれているか否かを判定する。商品の画像が含まれていると判定されると、ステップs26に進み、商品の画像が含まれていないと判定されると、ステップs28に進む。   In step s24, image data of a captured image captured by the camera 10 is input to the image generation unit 106. In step s25, the image generation unit 106 collates (matches) the image of a part of the region recognized as the product for which the product information is to be displayed in step s23 with the captured image input from the camera 10, and determines the captured image. It is determined whether or not an image of a product for which product information is to be displayed is included. If it is determined that the product image is included, the process proceeds to step s26. If it is determined that the product image is not included, the process proceeds to step s28.

ステップs26で、画像生成部106は、商品情報画像を表示部21に継続して表示するために、商品情報を表示すべき商品を追尾し、追尾結果に基づいて、カメラ10から入力された撮像画像に対して、新たな商品情報画像の画像データを生成する。そして、生成した商品情報画像の画像データを表示装置20へ出力する。これにより、表示部21には、表示部21に映る商品の実像の移動に追随して、商品情報画像が表示される。   In step s26, in order to continuously display the product information image on the display unit 21, the image generation unit 106 tracks the product for which the product information is to be displayed, and the imaging input from the camera 10 based on the tracking result. Image data of a new product information image is generated for the image. Then, the image data of the generated product information image is output to the display device 20. Accordingly, the product information image is displayed on the display unit 21 following the movement of the real image of the product shown on the display unit 21.

図12は、表示部21に映る商品の実像の移動に伴う商品情報画像Q1の変化の一例を示す図であり、図12(a)は、表示部21に映る商品の実像が移動する前の状態を示し、図12(b)は、表示部21に映る商品の実像が移動した後の状態を示している。図12に示すように、表示部21に映る商品の実像が表示部21の上下方向に微小に移動した場合には、たとえば商品の実像の移動に対応して吹き出しQ2の位置が変更された商品情報画像が生成されて、表示部21に表示される。新たに生成された商品情報画像が表示部21に表示されると、ステップs24へ進む。   FIG. 12 is a diagram illustrating an example of a change in the product information image Q1 accompanying the movement of the real image of the product displayed on the display unit 21, and FIG. 12 (a) is a diagram before the real image of the product displayed on the display unit 21 is moved. FIG. 12B shows a state after the real image of the product shown on the display unit 21 has moved. As shown in FIG. 12, when the real image of the product shown on the display unit 21 moves slightly in the vertical direction of the display unit 21, for example, the product in which the position of the balloon Q2 is changed in accordance with the movement of the real image of the product. An information image is generated and displayed on the display unit 21. When the newly generated product information image is displayed on the display unit 21, the process proceeds to step s24.

ステップs27で、画像生成部106は、商品情報が発見されなかったことを示すための画像を生成する。併せて、動作制御部102は、表示装置20を起動させる。そして、画像生成部106は、生成した画像の画像データを表示装置20へ出力する。表示装置20へ出力された画像データによって、表示部21へ商品情報が発見されなかった旨が表示される。   In step s27, the image generation unit 106 generates an image for indicating that product information has not been found. In addition, the operation control unit 102 activates the display device 20. Then, the image generation unit 106 outputs the image data of the generated image to the display device 20. Based on the image data output to the display device 20, the display unit 21 displays that product information has not been found.

ステップs28で、画像生成部106は、装着者が表示部21に表示された表示内容を確認するための時間を確保するために、予め設定された表示期間だけ、商品情報画像または商品情報が発見されなかった旨を示す画像を表示部21に表示させる。ステップs29で、表示期間が経過すると、動作制御部102は、表示装置20の表示動作を停止する。ステップs30で、動作制御部102は、カメラ10の撮像動作を停止する。ステップs31で、動作制御部102は、動作状態判定部101からの割込み要求の受付けを禁止し、ステップs1に進む。   In step s28, the image generation unit 106 discovers the product information image or the product information for a preset display period in order to secure time for the wearer to confirm the display content displayed on the display unit 21. An image indicating that it has not been displayed is displayed on the display unit 21. When the display period elapses in step s29, the operation control unit 102 stops the display operation of the display device 20. In step s30, the operation control unit 102 stops the imaging operation of the camera 10. In step s31, the operation control unit 102 prohibits acceptance of an interrupt request from the operation state determination unit 101, and proceeds to step s1.

本実施形態では、指示情報判定部103は、判定対象の撮像画像に指示情報が含まれていない場合、予め設定された判定継続期間が経過するまで、撮像画像についての判定を繰り返すように構成されている。他の実施形態では、予め設定された判定回数を超えるまで、撮像画像についての判定を繰り返すように構成されてもよい。   In the present embodiment, the instruction information determination unit 103 is configured to repeat the determination on the captured image until a predetermined determination duration elapses when the instruction information is not included in the determination target captured image. ing. In another embodiment, the determination on the captured image may be repeated until a predetermined number of determinations is exceeded.

図13は、サーバ装置110の動作を説明するためのフローチャートである。ステップa0で、動作が開始される。ステップa1で、送受信部制御部112は、無線送受信部90がHMD100から画像データを受信したか否かを判定する。画像データを受信したと判定されると、ステップa2に進み、画像データが未受信であると判定されると、ステップa1に進む。   FIG. 13 is a flowchart for explaining the operation of the server apparatus 110. In step a0, the operation is started. In step a <b> 1, the transmission / reception unit control unit 112 determines whether the wireless transmission / reception unit 90 has received image data from the HMD 100. If it is determined that the image data has been received, the process proceeds to step a2, and if it is determined that the image data has not been received, the process proceeds to step a1.

ステップa2で、商品情報抽出部111は、受信した画像データが、手指が含まれていると判定された撮像画像の画像データのみか否かを判定する。手指が含まれていると判定された撮像画像の画像データのみと判定されると、ステップa3に進み、手指が含まれていると判定された撮像画像の画像データのみではないと判定されると、ステップa4に進む。   In step a2, the product information extraction unit 111 determines whether the received image data is only image data of a captured image that is determined to include a finger. If it is determined that only the image data of the captured image determined to include the finger, the process proceeds to step a3, and it is determined that the image data is not only the image data of the captured image determined to include the finger. The process proceeds to step a4.

ステップa3で、商品情報抽出部111は、手指が含まれていると判定された撮像画像の画像データと画像認識データベース72に格納されている参照画像の画像データとに基づいて画像認識し、撮像画像に含まれる商品を特定する。また商品情報抽出部111は、撮像画像において、その特定した商品の位置とサイズを算出する。   In step a <b> 3, the product information extraction unit 111 recognizes an image based on the image data of the captured image determined to include a finger and the image data of the reference image stored in the image recognition database 72, and captures the image. Identify the products included in the image. The product information extraction unit 111 calculates the position and size of the specified product in the captured image.

ステップa4で、商品情報抽出部111は、手指が含まれていないと判定された撮像画像の画像データと画像認識データベース72に格納されている参照画像の画像データとに基づいて画像認識し、撮像画像に含まれる商品を特定する。また商品情報抽出部111は、撮像画像において、その特定した商品の位置とサイズを算出する。   In step a4, the product information extraction unit 111 recognizes an image based on the image data of the captured image determined not to include a finger and the image data of the reference image stored in the image recognition database 72, and captures an image. Identify the products included in the image. The product information extraction unit 111 calculates the position and size of the specified product in the captured image.

ステップa5で、商品情報抽出部111は、撮像画像に含まれる商品について、商品情報データベース71に該当する商品情報があるか否かを判定する。商品情報があると判定されると、ステップa6に進み、商品情報がないと判定されると、ステップa11に進む。   In step a5, the product information extraction unit 111 determines whether there is product information corresponding to the product information database 71 for the product included in the captured image. If it is determined that there is product information, the process proceeds to step a6. If it is determined that there is no product information, the process proceeds to step a11.

ステップa6で、商品情報抽出部111は、撮像画像に含まれる商品として特定された商品の数が複数であるか否かを判定する。複数でないと判定されると、ステップa7に進み、複数であると判定されると、ステップa8に進む。   In step a6, the product information extraction unit 111 determines whether there are a plurality of products specified as products included in the captured image. If it is determined that the number is not plural, the process proceeds to step a7. If it is determined that the number is plural, the process proceeds to step a8.

ステップa7で、送受信部制御部112は、商品情報抽出部111によって取得された商品情報、ならびに算出された商品の位置およびサイズ情報を、無線送受信部90に対しHMD100へ送信させる。各情報がHMD100へ送信されると、ステップa1へ進む。   In step a7, the transmission / reception unit control unit 112 causes the wireless transmission / reception unit 90 to transmit the product information acquired by the product information extraction unit 111 and the calculated product position and size information to the HMD 100. If each information is transmitted to HMD100, it will progress to Step a1.

ステップa8で、商品情報抽出部111は、受信した画像データが、手指が含まれていないと判定された撮像画像の画像データのみか否かを判定する。手指が含まれていないと判定された撮像画像の画像データのみと判定されると、ステップa9に進み、手指が含まれていないと判定された撮像画像の画像データのみではないと判定されると、ステップa10に進む。   In step a8, the product information extraction unit 111 determines whether the received image data is only image data of a captured image that is determined not to include a finger. If it is determined that only the image data of the captured image determined not to include the finger, the process proceeds to step a9, and it is determined that the image data is not only the image data of the captured image determined not to include the finger. The process proceeds to step a10.

ステップa9で、商品情報抽出部111は、撮像画像に含まれる複数の商品のうち、カメラ10から距離が最も近い商品、または、撮像画像の中心部に対して最も近い位置の商品を選択する。   In step a <b> 9, the product information extraction unit 111 selects a product closest to the camera 10 or a product closest to the center of the captured image among a plurality of products included in the captured image.

カメラ10から距離が最も近い商品を選択する方法としては、各商品情報から得られる実際の商品のサイズの比と、撮像画像において商品の占める割合から割り出された商品のサイズの比とに基づいて、選択してもよい。また別の方法としては、カメラ10を最も近い被写体に対して焦点が合うように設定しておき、焦点が合っている方を選択するようにしてもよい。   As a method of selecting the product having the closest distance from the camera 10, the actual product size ratio obtained from each product information and the product size ratio calculated from the proportion of the product in the captured image are used. You may choose. As another method, the camera 10 may be set so as to be in focus with respect to the closest subject, and the one in focus may be selected.

ステップa10で、商品情報抽出部111は、撮像画像に含まれる複数の商品のうち、手指が重なっている商品を選択する。ステップa9またはステップa10で商品が選択された場合、ステップa7では、選択された商品についての商品情報、ならびに商品の位置およびサイズ情報がHMD100へ送信される。   In step a10, the merchandise information extraction unit 111 selects a merchandise on which fingers are overlapped from among a plurality of merchandise included in the captured image. When a product is selected in step a9 or step a10, in step a7, product information about the selected product, and the position and size information of the product are transmitted to the HMD 100.

ステップa11で、送受信部制御部112は、商品情報データベース71に該当する商品情報が発見されなかったことを示す情報を、無線送受信部90に対しHMD100へ送信させる。前記情報がHMD100へ送信されると、ステップa1へ進む。   In step a11, the transmission / reception unit control unit 112 causes the wireless transmission / reception unit 90 to transmit information indicating that product information corresponding to the product information database 71 has not been found to the HMD 100. When the information is transmitted to the HMD 100, the process proceeds to step a1.

図14は、割込み要求が発生した場合の動作を説明するためのフローチャートである。割込み要求は、カメラ10が動作している期間、すなわち動作制御部102によって割込み要求が許可されてから禁止されるまでの期間に発生する。   FIG. 14 is a flowchart for explaining the operation when an interrupt request is generated. The interrupt request is generated during a period in which the camera 10 is operating, that is, a period from when the interrupt request is permitted by the operation control unit 102 to when it is prohibited.

ステップb0で、動作制御部102によって、動作状態判定部101からの割込み要求の受付けが許可されることにより、動作が開始される。   In step b0, the operation is started by allowing the operation control unit 102 to accept the interrupt request from the operation state determining unit 101.

ステップb1で、動作状態判定部101は、加速度検出部40から出力される信号に基づいて、装着者が移動状態であるか非移動状態であるかを判定する。移動状態であると判定されると、ステップb3へ進み、非移動状態であると判定されると、ステップb2へ進む。   In step b1, the operation state determination unit 101 determines whether the wearer is in a moving state or a non-moving state based on a signal output from the acceleration detection unit 40. If it is determined that it is in the moving state, the process proceeds to step b3. If it is determined that it is in the non-moving state, the process proceeds to step b2.

ステップb2で、動作状態判定部101は、加速度検出部40から出力される信号に基づいて、装着者が頭部の位置を動かしているか否かを判定する。頭部の位置を動かしていると判定されると、ステップb3へ進み、頭部の位置を動かしていないと判定されると、ステップb1へ進む。   In step b <b> 2, the motion state determination unit 101 determines whether the wearer is moving the position of the head based on the signal output from the acceleration detection unit 40. If it is determined that the position of the head is moved, the process proceeds to step b3. If it is determined that the position of the head is not moved, the process proceeds to step b1.

ステップb3で、動作状態判定部101は、動作制御部102に対して割込み要求を行う。ステップb4で、動作制御部102は、多重割込みを発生させないために、動作状態判定部101からの割込み要求の受付けを禁止し、指示情報判定部103または画像生成部106によって実行されている処理を中断する。   In step b3, the operation state determination unit 101 makes an interrupt request to the operation control unit 102. In step b4, the operation control unit 102 prohibits acceptance of an interrupt request from the operation state determination unit 101 so as not to generate multiple interrupts, and performs the processing executed by the instruction information determination unit 103 or the image generation unit 106. Interrupt.

ステップb4で、動作制御部102は、カメラ10の撮像動作を停止し、ステップb5で、動作を終了する。   In step b4, the operation control unit 102 stops the imaging operation of the camera 10, and ends the operation in step b5.

上記のように、HMD100は、加速度検出部40と、動作状態判定部101と、動作制御部102とを備え、HMD100の加速度に基づいて判定された、HMD100の装着者の動作状態に基づいて、カメラ10を起動および動作停止することができる。すなわち、装着者の動作状態に応じて、カメラ10が起動および動作停止されるので、効率的に商品情報を提供することによって、HMD100における電力の消費を効率的に抑制することができる。   As described above, the HMD 100 includes the acceleration detection unit 40, the operation state determination unit 101, and the operation control unit 102, and based on the operation state of the wearer of the HMD 100 determined based on the acceleration of the HMD 100, The camera 10 can be activated and stopped. That is, since the camera 10 is started and stopped according to the operating state of the wearer, power consumption in the HMD 100 can be efficiently suppressed by providing product information efficiently.

またHMD100は、指示情報判定部103と、撮像画像格納部104とを備え、商品情報を表示すべき商品を特定するための所定の指示情報が含まれていると判定されたときの撮像画像に基づいて、その撮像画像に含まれる商品に関する商品情報を取得するように構成されている。したがって、撮像画像の中に複数の商品が含まれている場合であっても、所定の指示情報に従って特定された商品の商品情報だけを表示することができる。これにより、HMD100の装着者が知りたい商品情報だけを容易に提供することができる。   The HMD 100 also includes an instruction information determination unit 103 and a captured image storage unit 104, and the captured image when it is determined that predetermined instruction information for specifying a product for which product information is to be displayed is included. Based on the information, the product information related to the product included in the captured image is acquired. Therefore, even when a plurality of products are included in the captured image, it is possible to display only the product information of the product specified according to the predetermined instruction information. Thereby, only the merchandise information which the wearer of HMD100 wants to know can be provided easily.

図15Aおよび図15Bは、本発明の他の実施形態に係るHMD100の動作を説明するためのフローチャートである。図15Aに示すフローチャートは、図6Aに示すフローチャートに類似し、詳細には、図6Aにおけるステップs16〜ステップs20に代えて、ステップs35を採用していることを除き、残余の工程については同一である。また、図15Bに示すフローチャートは、図6Bに示すフローチャートと同一である。したがって、同一の工程については重複する説明を省略する。   15A and 15B are flowcharts for explaining the operation of the HMD 100 according to another embodiment of the present invention. The flowchart shown in FIG. 15A is similar to the flowchart shown in FIG. 6A. Specifically, the remaining steps are the same except that step s35 is adopted instead of steps s16 to s20 in FIG. 6A. is there. 15B is the same as the flowchart shown in FIG. 6B. Therefore, overlapping description of the same process is omitted.

本実施形態では、ステップs11において、判定継続期間の計測開始時点からの経過時間が、予め設定された判定継続期間を超えたと判定されると、ステップs35に進む。ステップs35で、商品情報取得部105は、第2格納領域に格納されている画像データを、無線送受信部50に対しサーバ装置110へ送信させる。   In the present embodiment, if it is determined in step s11 that the elapsed time from the measurement start time of the determination continuation period has exceeded a predetermined determination continuation period, the process proceeds to step s35. In step s35, the product information acquisition unit 105 causes the wireless transmission / reception unit 50 to transmit the image data stored in the second storage area to the server device 110.

すなわち、本実施形態では、手指が含まれている撮像画像が取得されなかった場合であっても、手指が含まれていない撮像画像の画像データのみがサーバ装置110へ送信される。このように、手指が含まれていない撮像画像に基づいて商品を特定する処理を実行するように構成されてもよい。   That is, in this embodiment, even when a captured image including a finger is not acquired, only the image data of the captured image not including the finger is transmitted to the server apparatus 110. As described above, a process for specifying a product based on a captured image that does not include a finger may be executed.

以上に記載の実施形態は、光学シースルー方式を採用した表示部21を備えるHMD100を用いた場合について説明したが、これに限らず、手で携帯するように構成されたハンディターミナルによって、商品情報提供端末装置が実現されてもよい。ハンディターミナルの場合には、表示部は光学シースルー方式であってもビデオシースルー方式であってもよい。なお、ビデオシースルー方式を採用した場合には拡張現実画像として、商品を含む撮像画像に商品情報を重畳描画した合成画像が生成される。   In the embodiment described above, the case where the HMD 100 including the display unit 21 adopting the optical see-through method is used has been described. However, the present invention is not limited thereto, and product information is provided by a handy terminal configured to be carried by hand. A terminal device may be realized. In the case of a handy terminal, the display unit may be an optical see-through method or a video see-through method. When the video see-through method is adopted, a composite image in which product information is superimposed and drawn on a captured image including a product is generated as an augmented reality image.

10 カメラ
20 表示装置
21 表示部
30 制御装置
40 加速度検出部
50 無線送受信部
60 電源部
61 電池
71 商品情報データベース
72 画像認識データベース
80 制御装置
90 無線送受信部
100 頭部装着型表示装置
101 動作状態判定部
102 動作制御部
103 指示情報判定部
104 撮像画像格納部
105 商品情報取得部
106 画像生成部
110 サーバ装置
111 商品情報抽出部
112 送受信部制御部
DESCRIPTION OF SYMBOLS 10 Camera 20 Display apparatus 21 Display part 30 Control apparatus 40 Acceleration detection part 50 Wireless transmission / reception part 60 Power supply part 61 Battery 71 Product information database 72 Image recognition database 80 Control apparatus 90 Wireless transmission / reception part 100 Head-mounted display apparatus 101 Operation state determination Unit 102 Operation Control Unit 103 Instruction Information Determination Unit 104 Captured Image Storage Unit 105 Product Information Acquisition Unit 106 Image Generation Unit 110 Server Device 111 Product Information Extraction Unit 112 Transmission / Reception Unit Control Unit

Claims (12)

電源部を備え、該電源部からの電力によって動作し、使用者によって携帯される商品情報提供端末装置であって、
現実空間を撮像するための撮像手段と、
前記撮像手段によって撮像された撮像画像に含まれる商品に関する商品情報を取得する商品情報取得部と、
前記撮像手段によって撮像された撮像画像に含まれる商品の位置に基づいて、前記商品情報取得部によって取得された前記商品情報を現実空間に重畳して表示するための拡張現実画像を生成する画像生成部と、
前記画像生成部によって生成された拡張現実画像を表示可能な表示部と、
加速度を検出する加速度検出手段と、
前記加速度検出手段により検出される加速度情報に基づいて、使用者の動作状態を判定する動作状態判定部と、
前記動作状態判定部によって判定された動作状態に基づいて、前記撮像手段を起動および動作停止する動作制御部とを備えることを特徴とする商品情報提供端末装置。
A product information providing terminal device that includes a power supply unit, operates with power from the power supply unit, and is carried by a user,
An imaging means for imaging the real space;
A product information acquisition unit that acquires product information related to a product included in the captured image captured by the imaging unit;
Image generation for generating an augmented reality image for displaying the product information acquired by the product information acquisition unit superimposed on a real space based on the position of the product included in the captured image captured by the imaging unit And
A display unit capable of displaying the augmented reality image generated by the image generation unit;
Acceleration detecting means for detecting acceleration;
An operation state determination unit that determines an operation state of the user based on acceleration information detected by the acceleration detection unit;
A product information provision terminal device comprising: an operation control unit that activates and deactivates the imaging unit based on the operation state determined by the operation state determination unit.
前記動作状態判定部は、前記加速度検出手段により検出される加速度情報に基づいて、使用者が移動している移動状態であるか移動していない非移動状態であるかを判定し、
前記動作制御部は、前記撮像手段の非稼動状態において、非移動状態であると判定された場合に前記撮像手段を起動し、前記撮像手段の稼動状態において、移動状態であると判定された場合に前記撮像手段を動作停止することを特徴とする請求項1に記載の商品情報提供端末装置。
The operation state determination unit determines whether the user is moving or not moving based on the acceleration information detected by the acceleration detection unit,
The operation control unit activates the imaging unit when it is determined that the imaging unit is in a non-moving state when the imaging unit is not operating, and the operation control unit determines that the imaging unit is in a moving state when the imaging unit is operating. The product information providing terminal device according to claim 1, wherein the operation of the imaging unit is stopped.
使用者の頭部に装着するための頭部装着部を備え、
前記加速度検出手段は、前記頭部装着部によって保持され、
前記動作状態判定部は、加速度検出手段により検出される加速度情報に基づいて、使用者が移動している移動状態であるか移動していない非移動状態であるかを判定するとともに、使用者が頭部の位置を動かしているか否かを判定し、
前記動作制御部は、前記撮像手段の非稼動状態において、非移動状態であると判定され、かつ頭部の位置を動かしていないと判定された場合に前記撮像手段を起動し、前記撮像手段の稼動状態において、移動状態であると判定された場合、または頭部の位置を動かしていると判定された場合に前記撮像手段を動作停止することを特徴とする請求項1に記載の商品情報提供端末装置。
It has a head mounting part for mounting on the user's head,
The acceleration detection means is held by the head mounting portion,
The operation state determination unit determines whether the user is moving or not moving based on the acceleration information detected by the acceleration detection unit. Determine whether or not the head is moving,
The operation control unit activates the imaging unit when it is determined that the imaging unit is in a non-moving state in a non-operating state and it is determined that the position of the head is not moved. 2. The product information provision according to claim 1, wherein the operation of the imaging unit is stopped when it is determined that the moving state is determined in the operating state or the position of the head is moved. Terminal device.
前記撮像手段によって撮像された撮像画像に、商品情報を表示すべき商品を特定するための所定の指示情報が含まれているか否かを判定する指示情報判定部と、
前記指示情報判定部による判定対象の撮像画像が格納される撮像画像格納部とをさらに含み、
前記商品情報取得部は、前記指示情報判定部によって所定の指示情報が含まれていると判定されたときの撮像画像に基づいて、撮像画像に含まれる商品に関する商品情報を取得することを特徴とする請求項1〜3のいずれか1つに記載の商品情報提供端末装置。
An instruction information determination unit that determines whether or not the captured image captured by the imaging unit includes predetermined instruction information for specifying a product for which product information is to be displayed;
A captured image storage unit that stores a captured image to be determined by the instruction information determination unit,
The product information acquisition unit acquires product information related to a product included in a captured image based on a captured image when the instruction information determination unit determines that predetermined instruction information is included. The merchandise information provision terminal device according to any one of claims 1 to 3.
前記所定の指示情報が、撮像画像に含まれる人間の手指であることを特徴とする請求項4に記載の商品情報提供端末装置。   The product information providing terminal device according to claim 4, wherein the predetermined instruction information is a human finger included in a captured image. 前記撮像画像格納部は、所定の指示情報が含まれていると判定されたときの撮像画像が格納される第1格納領域と、所定の指示情報が含まれていないと判定されたときの撮像画像が格納される第2格納領域とを有し、
前記指示情報判定部は、所定の指示情報が含まれていないと判定した場合、当該判定対象の撮像画像よりも後に撮像された撮像画像について判定を実行し、
前記第2格納領域には、所定の指示情報が含まれていないと判定されたときの撮像画像が更新して格納され、
前記商品情報取得部は、第1格納領域に格納される撮像画像と第2格納領域に格納される撮像画像とに基づいて、撮像画像に含まれる商品に関する商品情報を取得することを特徴とする請求項4または5に記載の商品情報提供端末装置。
The captured image storage unit stores a first storage area for storing a captured image when it is determined that predetermined instruction information is included, and an imaging when it is determined that predetermined instruction information is not included A second storage area for storing images,
When the instruction information determination unit determines that the predetermined instruction information is not included, the instruction information determination unit performs a determination on a captured image captured after the determination target captured image,
In the second storage area, a captured image when it is determined that predetermined instruction information is not included is updated and stored,
The product information acquisition unit acquires product information related to a product included in the captured image based on the captured image stored in the first storage area and the captured image stored in the second storage area. The product information provision terminal device according to claim 4 or 5.
前記動作制御部は、所定の期間内または所定の判定回数内で所定の指示情報が含まれているとの判定がされない場合、撮像手段を動作停止することを特徴とする請求項6に記載の商品情報提供端末装置。   7. The operation control unit according to claim 6, wherein the operation control unit stops the operation of the imaging unit when it is not determined that the predetermined instruction information is included within a predetermined period or within a predetermined number of determinations. Product information providing terminal device. 前記商品情報取得部は、所定の期間内または所定の判定回数内で所定の指標が含まれているとの判定がされない場合、第2格納領域に格納される撮像画像に基づいて、撮像画像に含まれる商品に関する商品情報を取得することを特徴とする請求項6に記載の商品情報提供端末装置。   When the product information acquisition unit does not determine that a predetermined index is included within a predetermined period or within a predetermined number of determinations, the product information acquisition unit generates a captured image based on the captured image stored in the second storage area. The product information providing terminal device according to claim 6, wherein the product information on the included product is acquired. 前記画像生成部は、前記撮像手段によって撮像された撮像画像に対し、商品情報を表示すべき商品を追尾する機能を有することを特徴とする請求項1〜8のいずれか1つに記載の商品情報提供端末装置。   The product according to claim 1, wherein the image generation unit has a function of tracking a product for which product information is to be displayed with respect to a captured image captured by the imaging unit. Information providing terminal device. 前記表示部は、可視光を透過可能に構成され、
前記画像生成部は、前記表示部に映る商品の実像に、該商品の実像の位置および寸法に応じた位置および寸法で、該商品の商品情報を重畳して表示するための拡張現実画像を生成することを特徴とする請求項1〜9のいずれか1つに記載の商品情報提供端末装置。
The display unit is configured to transmit visible light,
The image generation unit generates an augmented reality image for superimposing and displaying the product information of the product on the real image of the product shown on the display unit at a position and size corresponding to the position and size of the real image of the product The merchandise information provision terminal device according to any one of claims 1 to 9, wherein
前記画像生成部は、前記撮像手段によって撮像された撮像画像に、該撮像画像に含まれる商品の位置および寸法に応じた位置および寸法で、該商品の商品情報を重畳描画して拡張現実画像を生成することを特徴とする請求項1〜9のいずれか1つに記載の商品情報提供端末装置。   The image generation unit superimposes and renders the product information of the product on the captured image captured by the imaging unit at a position and a size corresponding to the position and size of the product included in the captured image, thereby generating an augmented reality image. The product information provision terminal device according to claim 1, wherein the product information provision terminal device is generated. 電源部を備え、該電源部からの電力によって動作し、使用者によって携帯される商品情報提供端末装置とサーバ装置とを含む商品情報提供システムであって、
商品情報提供端末装置は、
現実空間を撮像するための撮像手段と、
前記撮像手段によって撮像された撮像画像に含まれる商品に関する商品情報を取得する商品情報取得部と、
前記撮像手段によって撮像された撮像画像に含まれる商品の位置に基づいて、前記商品情報取得部によって取得された前記商品情報を現実空間に重畳して表示するための拡張現実画像を生成する画像生成部と、
前記画像生成部によって生成された拡張現実画像を表示可能な表示部と、
加速度を検出する加速度検出手段と、
前記加速度検出手段により検出される加速度情報に基づいて、使用者の動作状態を判定する動作状態判定部と、
前記動作状態判定部によって判定された動作状態に基づいて、前記撮像手段を起動および動作停止する動作制御部と、
前記撮像手段によって撮像された撮像画像に、商品情報を表示すべき商品を特定するための所定の指示情報が含まれているか否かを判定する指示情報判定部と、
前記指示情報判定部による判定対象の撮像画像が格納される撮像画像格納部と、
サーバ装置との間で情報を無線通信する端末側無線送受信部とを含み、
サーバ装置は、
商品情報提供端末装置との間で情報を無線通信するサーバ側無線送受信部と、
商品情報を商品ごとに格納する商品情報データベースと、
所定の指示情報に基づいて商品情報を表示すべき商品を特定し、該特定した商品に関する商品情報を商品情報データベースから抽出する商品情報抽出部とを含むことを特徴とする商品情報提供システム。
A product information providing system that includes a power supply unit, operates with power from the power supply unit, and includes a product information providing terminal device and a server device carried by a user,
The product information provision terminal device
An imaging means for imaging the real space;
A product information acquisition unit that acquires product information related to a product included in the captured image captured by the imaging unit;
Image generation for generating an augmented reality image for displaying the product information acquired by the product information acquisition unit superimposed on a real space based on the position of the product included in the captured image captured by the imaging unit And
A display unit capable of displaying the augmented reality image generated by the image generation unit;
Acceleration detecting means for detecting acceleration;
An operation state determination unit that determines an operation state of the user based on acceleration information detected by the acceleration detection unit;
An operation control unit that activates and deactivates the imaging unit based on the operation state determined by the operation state determination unit;
An instruction information determination unit that determines whether or not the captured image captured by the imaging unit includes predetermined instruction information for specifying a product for which product information is to be displayed;
A captured image storage unit that stores a captured image to be determined by the instruction information determination unit;
Including a terminal-side wireless transceiver that wirelessly communicates information with the server device,
Server device
A server-side wireless transmission / reception unit that wirelessly communicates information with the product information providing terminal device;
A product information database that stores product information for each product;
A product information providing system comprising: a product information extraction unit that identifies a product for which product information is to be displayed based on predetermined instruction information and extracts product information relating to the identified product from a product information database.
JP2010126331A 2010-06-01 2010-06-01 Product information providing terminal device and product information providing system Active JP5656457B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010126331A JP5656457B2 (en) 2010-06-01 2010-06-01 Product information providing terminal device and product information providing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010126331A JP5656457B2 (en) 2010-06-01 2010-06-01 Product information providing terminal device and product information providing system

Publications (2)

Publication Number Publication Date
JP2011253324A true JP2011253324A (en) 2011-12-15
JP5656457B2 JP5656457B2 (en) 2015-01-21

Family

ID=45417223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010126331A Active JP5656457B2 (en) 2010-06-01 2010-06-01 Product information providing terminal device and product information providing system

Country Status (1)

Country Link
JP (1) JP5656457B2 (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014516437A (en) * 2011-04-08 2014-07-10 ナント ホールディングス アイピー,エルエルシー Interference-based augmented reality hosting platform
JP2014170431A (en) * 2013-03-04 2014-09-18 Nec Corp Information processing system, information processing apparatus, control method thereof, and control program
WO2014196178A1 (en) * 2013-06-04 2014-12-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Guidance method and guidance system
JP2015061200A (en) * 2013-09-18 2015-03-30 コニカミノルタ株式会社 Image display device, image display method, and image display program
WO2015083450A1 (en) * 2013-12-06 2015-06-11 株式会社Nttドコモ Shopping support device and shopping support method
JP2015522189A (en) * 2012-07-05 2015-08-03 コーニンクレッカ フィリップス エヌ ヴェ Drug management device and method
WO2015166527A1 (en) * 2014-04-28 2015-11-05 パイオニア株式会社 Display control device, control method, program, and recording medium
CN105229584A (en) * 2013-05-29 2016-01-06 三菱电机株式会社 Information display device
JP2016012349A (en) * 2014-06-05 2016-01-21 トーヨーカネツソリューションズ株式会社 Advertisement provision system using ar, and customer added value information provision system using ar
JP2016503538A (en) * 2012-11-02 2016-02-04 ナント ホールディングス アイピー エルエルシーNant Holdings IP, LLC Virtual planogram management, system and method
JP2016039599A (en) * 2014-08-11 2016-03-22 セイコーエプソン株式会社 Head mounted display, information system, control method for head mounted display, and computer program
JP2016071471A (en) * 2014-09-29 2016-05-09 京セラドキュメントソリューションズ株式会社 Article information providing device, article information providing system, article information providing method and article information providing program
JP2016206973A (en) * 2015-04-23 2016-12-08 大日本印刷株式会社 Multilingual display device, multilingual display system, multilingual display method and multilingual display program
JP2016206447A (en) * 2015-04-23 2016-12-08 セイコーエプソン株式会社 Head-mounted display device, information system, method for controlling head-mounted display device, and computer program
JP2016224959A (en) * 2016-06-29 2016-12-28 京セラ株式会社 Display device and control method
US9626804B2 (en) 2014-05-26 2017-04-18 Kyocera Document Solutions Inc. Article information providing apparatus that provides information of article, article information providing system,and article information provision method
WO2017163709A1 (en) * 2016-03-23 2017-09-28 パナソニックIpマネジメント株式会社 Instruction projecting device, package sorting system and instruction projecting method
US9832385B2 (en) 2014-06-20 2017-11-28 Fujitsu Limited Display device and control method
WO2017208351A1 (en) * 2016-05-31 2017-12-07 株式会社オプティム Captured image sharing system, captured image sharing method and program
US9983409B2 (en) 2012-09-27 2018-05-29 Kyocera Corporation Stereoscopic display device and control method
US10102676B2 (en) 2015-12-03 2018-10-16 Seiko Epson Corporation Information processing apparatus, display apparatus, information processing method, and program
US10140317B2 (en) 2013-10-17 2018-11-27 Nant Holdings Ip, Llc Wide area augmented reality location-based services
JP2019082824A (en) * 2017-10-30 2019-05-30 株式会社Nttドコモ Information processing apparatus and program
US10571689B2 (en) 2016-09-02 2020-02-25 Olympus Corporation Display system, mobile information unit, wearable terminal and information display method
JP2020067814A (en) * 2018-10-24 2020-04-30 東芝テック株式会社 Purchase support device and program
WO2021176552A1 (en) * 2020-03-03 2021-09-10 株式会社ASIAN Frontier User terminal and program
WO2023095559A1 (en) * 2021-11-24 2023-06-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Wearable device, information processing method, and information processing program
US11967034B2 (en) 2023-10-31 2024-04-23 Nant Holdings Ip, Llc Augmented reality object management system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000121380A (en) * 1998-10-09 2000-04-28 Fuji Photo Film Co Ltd Camera with pedometer or manpokei (r)
JP2006127158A (en) * 2004-10-28 2006-05-18 Canon Inc Image processing method and image processor
JP2007017613A (en) * 2005-07-06 2007-01-25 Fujifilm Holdings Corp Photographing apparatus
JP2008510254A (en) * 2004-08-19 2008-04-03 株式会社ソニー・コンピュータエンタテインメント Portable augmented reality device and method
WO2008104537A1 (en) * 2007-02-27 2008-09-04 Accenture Global Services Gmbh Remote object recognition
JP2010061265A (en) * 2008-09-02 2010-03-18 Fujifilm Corp Person retrieval and registration system
JP2010118019A (en) * 2008-11-14 2010-05-27 Sharp Corp Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000121380A (en) * 1998-10-09 2000-04-28 Fuji Photo Film Co Ltd Camera with pedometer or manpokei (r)
JP2008510254A (en) * 2004-08-19 2008-04-03 株式会社ソニー・コンピュータエンタテインメント Portable augmented reality device and method
JP2006127158A (en) * 2004-10-28 2006-05-18 Canon Inc Image processing method and image processor
JP2007017613A (en) * 2005-07-06 2007-01-25 Fujifilm Holdings Corp Photographing apparatus
WO2008104537A1 (en) * 2007-02-27 2008-09-04 Accenture Global Services Gmbh Remote object recognition
JP2010061265A (en) * 2008-09-02 2010-03-18 Fujifilm Corp Person retrieval and registration system
JP2010118019A (en) * 2008-11-14 2010-05-27 Sharp Corp Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium

Cited By (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10403051B2 (en) 2011-04-08 2019-09-03 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US11107289B2 (en) 2011-04-08 2021-08-31 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US11869160B2 (en) 2011-04-08 2024-01-09 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US11854153B2 (en) 2011-04-08 2023-12-26 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US11514652B2 (en) 2011-04-08 2022-11-29 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
JP2014516437A (en) * 2011-04-08 2014-07-10 ナント ホールディングス アイピー,エルエルシー Interference-based augmented reality hosting platform
US10127733B2 (en) 2011-04-08 2018-11-13 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US9824501B2 (en) 2011-04-08 2017-11-21 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US10726632B2 (en) 2011-04-08 2020-07-28 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US9396589B2 (en) 2011-04-08 2016-07-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US10831865B2 (en) 2012-07-05 2020-11-10 Koninklijke Philips N.V. Medication management device and method
JP2015522189A (en) * 2012-07-05 2015-08-03 コーニンクレッカ フィリップス エヌ ヴェ Drug management device and method
US9983409B2 (en) 2012-09-27 2018-05-29 Kyocera Corporation Stereoscopic display device and control method
US10101585B2 (en) 2012-09-27 2018-10-16 Kyocera Corporation Stereoscopic display device and control method
US11887054B2 (en) 2012-11-02 2024-01-30 Nant Holdings Ip, Llc Virtual planogram management systems and methods
US10762470B2 (en) 2012-11-02 2020-09-01 Nant Holdings Ip, Llc Virtual planogram management systems and methods
US10198712B2 (en) 2012-11-02 2019-02-05 Nant Holdings Ip, Llc Virtual planogram management systems and methods
JP2019016375A (en) * 2012-11-02 2019-01-31 ナント ホールディングス アイピー エルエルシーNant Holdings IP, LLC Virtual planogram management system and method
US11488104B2 (en) 2012-11-02 2022-11-01 Nant Holdings Ip, Llc Virtual planogram management systems and methods
JP2016503538A (en) * 2012-11-02 2016-02-04 ナント ホールディングス アイピー エルエルシーNant Holdings IP, LLC Virtual planogram management, system and method
JP2014170431A (en) * 2013-03-04 2014-09-18 Nec Corp Information processing system, information processing apparatus, control method thereof, and control program
EP3007048A4 (en) * 2013-05-29 2017-01-25 Mitsubishi Electric Corporation Information display device
CN105229584A (en) * 2013-05-29 2016-01-06 三菱电机株式会社 Information display device
US10054448B2 (en) 2013-06-04 2018-08-21 Panasonic Intellectual Property Corporation Of America Guiding method and guiding system
JPWO2014196178A1 (en) * 2013-06-04 2017-02-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Guiding method and guiding system
WO2014196178A1 (en) * 2013-06-04 2014-12-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Guidance method and guidance system
US11067397B2 (en) 2013-06-04 2021-07-20 Panasonic Intellectual Property Corporation Of America Guiding method and guiding system
US10670409B2 (en) 2013-06-04 2020-06-02 Panasonic Intellectual Property Corporation Of America Guiding method and guiding system
JP2015061200A (en) * 2013-09-18 2015-03-30 コニカミノルタ株式会社 Image display device, image display method, and image display program
US10664518B2 (en) 2013-10-17 2020-05-26 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US10140317B2 (en) 2013-10-17 2018-11-27 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US11392636B2 (en) 2013-10-17 2022-07-19 Nant Holdings Ip, Llc Augmented reality position-based service, methods, and systems
CN105993029A (en) * 2013-12-06 2016-10-05 株式会社Ntt都科摩 Shopping support device and shopping support method
WO2015083450A1 (en) * 2013-12-06 2015-06-11 株式会社Nttドコモ Shopping support device and shopping support method
JP2015111344A (en) * 2013-12-06 2015-06-18 株式会社Nttドコモ Shopping support device and shopping support method
JPWO2015166527A1 (en) * 2014-04-28 2017-04-20 パイオニア株式会社 Display control apparatus, control method, program, and storage medium
WO2015166527A1 (en) * 2014-04-28 2015-11-05 パイオニア株式会社 Display control device, control method, program, and recording medium
US9626804B2 (en) 2014-05-26 2017-04-18 Kyocera Document Solutions Inc. Article information providing apparatus that provides information of article, article information providing system,and article information provision method
JP2016012349A (en) * 2014-06-05 2016-01-21 トーヨーカネツソリューションズ株式会社 Advertisement provision system using ar, and customer added value information provision system using ar
US9832385B2 (en) 2014-06-20 2017-11-28 Fujitsu Limited Display device and control method
JP2016039599A (en) * 2014-08-11 2016-03-22 セイコーエプソン株式会社 Head mounted display, information system, control method for head mounted display, and computer program
JP2016071471A (en) * 2014-09-29 2016-05-09 京セラドキュメントソリューションズ株式会社 Article information providing device, article information providing system, article information providing method and article information providing program
JP2016206973A (en) * 2015-04-23 2016-12-08 大日本印刷株式会社 Multilingual display device, multilingual display system, multilingual display method and multilingual display program
JP2016206447A (en) * 2015-04-23 2016-12-08 セイコーエプソン株式会社 Head-mounted display device, information system, method for controlling head-mounted display device, and computer program
US10102676B2 (en) 2015-12-03 2018-10-16 Seiko Epson Corporation Information processing apparatus, display apparatus, information processing method, and program
WO2017163709A1 (en) * 2016-03-23 2017-09-28 パナソニックIpマネジメント株式会社 Instruction projecting device, package sorting system and instruction projecting method
US10296280B2 (en) 2016-05-31 2019-05-21 Optim Corporation Captured image sharing system, captured image sharing method and program
JPWO2017208351A1 (en) * 2016-05-31 2018-09-13 株式会社オプティム Captured image sharing system, captured image sharing method, and program
WO2017208351A1 (en) * 2016-05-31 2017-12-07 株式会社オプティム Captured image sharing system, captured image sharing method and program
JP2016224959A (en) * 2016-06-29 2016-12-28 京セラ株式会社 Display device and control method
US10571689B2 (en) 2016-09-02 2020-02-25 Olympus Corporation Display system, mobile information unit, wearable terminal and information display method
JP2019082824A (en) * 2017-10-30 2019-05-30 株式会社Nttドコモ Information processing apparatus and program
JP7118856B2 (en) 2018-10-24 2022-08-16 東芝テック株式会社 Purchasing support device and program
JP2020067814A (en) * 2018-10-24 2020-04-30 東芝テック株式会社 Purchase support device and program
WO2021176552A1 (en) * 2020-03-03 2021-09-10 株式会社ASIAN Frontier User terminal and program
WO2023095559A1 (en) * 2021-11-24 2023-06-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Wearable device, information processing method, and information processing program
US11967034B2 (en) 2023-10-31 2024-04-23 Nant Holdings Ip, Llc Augmented reality object management system

Also Published As

Publication number Publication date
JP5656457B2 (en) 2015-01-21

Similar Documents

Publication Publication Date Title
JP5656457B2 (en) Product information providing terminal device and product information providing system
CN104115100B (en) Head mounted display, the program for controlling head mounted display and the method for controlling head mounted display
EP2972672B1 (en) Detection of a gesture performed with at least two control objects
JP5564300B2 (en) Head mounted augmented reality video presentation device and virtual display object operating method thereof
CN108986766B (en) Information display terminal and information display method
US11016559B2 (en) Display system and display control method of display system
US20140152558A1 (en) Direct hologram manipulation using imu
US20170161957A1 (en) Information processing apparatus, display apparatus, information processing method, and program
US20130083018A1 (en) Personal audio/visual system with holographic objects
US20170308157A1 (en) Head-mounted display device, display system, control method for head-mounted display device, and computer program
CN105103198A (en) Display control device, display control method and program
US20170123747A1 (en) System and Method for Alerting VR Headset User to Real-World Objects
US10782531B2 (en) Head-mounted type display device and method of controlling head-mounted type display device
WO2014093525A1 (en) Wearable multi-modal input device for augmented reality
JP2017048024A (en) Eyeglass-type wearable terminal and picking method using the same
JP6177998B2 (en) Information display method and information display terminal
JP6554948B2 (en) Display device, display device control method, and program
JP6076304B2 (en) Article information providing apparatus, article information providing system, article information providing method, and article information providing program
JP2018013938A (en) Method for providing virtual space, method for providing virtual experience, program and recording medium
KR20190067523A (en) Glass type terminal and operpation method of the same
JP6714632B2 (en) Information display terminal and information display method
CN105320931B (en) Item Information provides device and Item Information provides system
JP6784056B2 (en) Head-mounted display, display system, head-mounted display control method, and computer program
US11353954B2 (en) Operating an electronic contact lens based on recognized objects in captured images
JP6029616B2 (en) Article information providing apparatus, article information providing system, article information providing method, and article information providing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141125

R150 Certificate of patent or registration of utility model

Ref document number: 5656457

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150