JP2018063722A - Information processing system, information processing device, control method, and program - Google Patents

Information processing system, information processing device, control method, and program Download PDF

Info

Publication number
JP2018063722A
JP2018063722A JP2017233579A JP2017233579A JP2018063722A JP 2018063722 A JP2018063722 A JP 2018063722A JP 2017233579 A JP2017233579 A JP 2017233579A JP 2017233579 A JP2017233579 A JP 2017233579A JP 2018063722 A JP2018063722 A JP 2018063722A
Authority
JP
Japan
Prior art keywords
product
captured image
marker
information processing
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017233579A
Other languages
Japanese (ja)
Other versions
JP2018063722A5 (en
JP6601480B2 (en
Inventor
真 則枝
Makoto Norieda
真 則枝
誠 吉本
Makoto Yoshimoto
誠 吉本
才田 好則
Yoshinori Saida
好則 才田
浩揮 小菅
Hiroki Kosuge
浩揮 小菅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2017233579A priority Critical patent/JP6601480B2/en
Publication of JP2018063722A publication Critical patent/JP2018063722A/en
Publication of JP2018063722A5 publication Critical patent/JP2018063722A5/ja
Application granted granted Critical
Publication of JP6601480B2 publication Critical patent/JP6601480B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To enhance the convenience of a system for performing an input operation related to a browsed commodity.SOLUTION: An information processing system 3000 includes a display device 3020 and an information processing device 2000. The information processing device 2000 includes a commodity recognition part 2020, a display control part 2040, and an operation recognition part 2060. The commodity recognition part 2020 recognizes a commodity. The display control part 2040 acquires commodity information on the commodity recognized by the commodity recognition part 2020. Further, the display control part 2040 allows the display device 3020 to display an operation screen including the acquired commodity information. The operation recognition part 2060 recognizes the input operation with respect to the operation screen on the basis of the position or movement of an operation body in a captured image generated by a camera.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理システム、情報処理装置、制御方法、及びプログラムに関する。   The present invention relates to an information processing system, an information processing apparatus, a control method, and a program.

商品に関する情報を閲覧するためのシステムが提供されている。特許文献1は商品情報出力装置の発明を開示している。この商品情報出力装置に設けられたカメラでユーザが商品を撮影すると、商品情報出力装置は、カメラによって生成された画像に写っている商品の商品情報を取得して、タッチパネルに表示する。こうすることで、ユーザは商品情報を閲覧することができる。またユーザは、商品情報出力装置に設けられているタッチパネルを操作するか、又は商品情報出力装置に設けられているマイクに対して発話することで、閲覧している商品に関する質問を行うことができる。   A system for browsing information about products is provided. Patent Document 1 discloses an invention of a product information output device. When a user photographs a product with a camera provided in the product information output device, the product information output device acquires product information of the product shown in the image generated by the camera and displays it on the touch panel. By doing so, the user can browse the product information. In addition, the user can ask a question about the product being browsed by operating a touch panel provided in the product information output device or speaking to a microphone provided in the product information output device. .

特許5220953号Patent No. 5220953

店舗で商品を見ながら前述した商品情報出力装置を利用する場合、ユーザは、商品情報の閲覧や商品に関する質問を行うために、商品情報出力装置を手に持っている必要がある。そのため、少なくともユーザの片手がふさがってしまい、ユーザの行動の自由度が下がってしまう。また、マイクを利用して商品に関する情報の入力を行う方法は、周囲に人がいる状況では利用しづらいことがある。   When using the product information output device described above while viewing the product at the store, the user needs to have the product information output device in his / her hand in order to browse the product information and ask questions about the product. Therefore, at least one hand of the user is blocked, and the degree of freedom of the user's action is lowered. In addition, the method of inputting information about a product using a microphone may be difficult to use in a situation where there are people around.

本発明は、上記課題に鑑みてなされたものである。本発明の目的は、閲覧している商品に関連した入力操作を行うシステムの利便性を高くする技術を提供することである。   The present invention has been made in view of the above problems. An object of the present invention is to provide a technique for enhancing the convenience of a system that performs an input operation related to a product being browsed.

本発明の情報処理装置は、(1)撮像画像の一部の領域であるオブジェクト認識領域を抽出し、前記抽出されたオブジェクト認識領域に含まれるオブジェクトを認識するオブジェクト認識手段と、(2)前記認識されたオブジェクトに関するオブジェクト情報を取得し、前記取得されたオブジェクト情報とそのオブジェクトに関する操作画面とを表示装置に表示させる表示制御手段と、(3)撮像画像に含まれる操作体の位置及び動きの少なくとも一方に基づいて、前記操作画面に対する入力操作を認識する操作認識手段と、を有する。前記オブジェクト認識手段は、撮像画像に含まれる第1マーカの位置に基づいて定まる前記オブジェクト認識領域を撮像画像から抽出する。前記表示制御手段は、撮像画像に第2マーカが含まれる場合に、前記表示装置に前記操作画面を表示させる。前記第1マーカ及び前記第2マーカの少なくとも一方は、ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であるか、前記デバイスに描画、印字、若しくは付されたものであるか、前記ユーザに身につけられているか、又は前記ユーザの身体の一部である。   The information processing apparatus according to the present invention includes (1) an object recognition unit that extracts an object recognition area, which is a partial area of a captured image, and recognizes an object included in the extracted object recognition area; Display control means for acquiring object information related to the recognized object and displaying the acquired object information and an operation screen related to the object on a display device; and (3) the position and movement of the operation tool included in the captured image. Operation recognition means for recognizing an input operation on the operation screen based on at least one of them. The object recognition means extracts the object recognition area determined based on the position of the first marker included in the captured image from the captured image. The display control means causes the display device to display the operation screen when the second marker is included in the captured image. Whether at least one of the first marker and the second marker is an image displayed on a display device of a device worn by a user, or is drawn, printed, or attached to the device, It is worn by the user or is part of the user's body.

本発明の情報処理システムは、本発明の情報処理装置及び前記表示装置を有する。   An information processing system of the present invention includes the information processing apparatus of the present invention and the display device.

本発明の制御方法は、コンピュータによって実行される。当該制御方法は、(1)撮像画像の一部の領域であるオブジェクト認識領域を抽出し、前記抽出されたオブジェクト認識領域に含まれるオブジェクトを認識するオブジェクト認識ステップと、(2)前記認識されたオブジェクトに関するオブジェクト情報を取得し、前記取得されたオブジェクト情報とそのオブジェクトに関する操作画面とを表示装置に表示させる表示制御ステップと、(3)撮像画像に含まれる操作体の位置及び動きの少なくとも一方に基づいて、前記操作画面に対する入力操作を認識する操作認識ステップと、を有する。前記オブジェクト認識ステップにおいて、撮像画像に含まれる第1マーカの位置に基づいて定まる前記オブジェクト認識領域を撮像画像から抽出する。前記表示制御ステップにおいて、撮像画像に第2マーカが含まれる場合に、前記表示装置に前記操作画面を表示させる。前記第1マーカ及び前記第2マーカの少なくとも一方は、ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であるか、前記デバイスに描画、印字、若しくは付されたものであるか、前記ユーザに身につけられているか、又は前記ユーザの身体の一部である。   The control method of the present invention is executed by a computer. The control method includes (1) an object recognition step of extracting an object recognition area which is a partial area of a captured image, and recognizing an object included in the extracted object recognition area; and (2) the recognized A display control step of acquiring object information related to the object and displaying the acquired object information and an operation screen related to the object on a display device; and (3) at least one of a position and a movement of the operating body included in the captured image. And an operation recognition step for recognizing an input operation on the operation screen. In the object recognition step, the object recognition area determined based on the position of the first marker included in the captured image is extracted from the captured image. In the display control step, when the second marker is included in the captured image, the operation screen is displayed on the display device. Whether at least one of the first marker and the second marker is an image displayed on a display device of a device worn by a user, or is drawn, printed, or attached to the device, It is worn by the user or is part of the user's body.

本発明のプログラムは、本発明の制御方法が有する各ステップをコンピュータに実行させる。   The program of this invention makes a computer perform each step which the control method of this invention has.

本発明によれば、閲覧している商品に関連した入力操作を行うシステムの利便性を高くする技術が提供される。   ADVANTAGE OF THE INVENTION According to this invention, the technique which raises the convenience of the system which performs input operation relevant to the goods currently browsed is provided.

実施形態1に係る情報処理システムを例示するブロック図である。1 is a block diagram illustrating an information processing system according to a first embodiment. 情報処理システムを概念的に説明するための図である。It is a figure for demonstrating an information processing system notionally. 情報処理装置を実現する計算機の構成を例示する図である。It is a figure which illustrates the structure of the computer which implement | achieves information processing apparatus. カメラが設けられているヘッドマウントディスプレイを例示する図である。It is a figure which illustrates the head mounted display provided with the camera. 実施形態1の情報処理装置によって実行される処理の流れを例示するフローチャートである。3 is a flowchart illustrating a flow of processing executed by the information processing apparatus according to the first embodiment. 撮像画像の所定領域に写っている商品を例示する図である。It is a figure which illustrates the goods reflected in the predetermined field of a picked-up image. 所定領域を表すガイドが表示されている表示装置を例示する図である。It is a figure which illustrates the display device with which the guide showing a predetermined area is displayed. 商品情報をテーブル形式で例示する図である。It is a figure which illustrates merchandise information in a table format. 操作画面のテンプレートを例示する図である。It is a figure which illustrates the template of an operation screen. 操作体の位置を定める方法を例示する第1の図である。It is the 1st figure which illustrates the method of determining the position of an operation body. 操作体の位置を定める方法を例示する第2の図である。It is the 2nd figure which illustrates the method of determining the position of a control object. ユーザの指がぶれて写っている撮像画像22を例示する図である。It is a figure which illustrates the picked-up image 22 in which a user's finger | toe is reflected. 操作体の位置に基づいて定まる操作を例示する図である。It is a figure which illustrates operation defined based on the position of an operation body. 操作体の動きによって定まる形状を入力する入力操作を認識するケースを例示する図である。It is a figure which illustrates the case which recognizes input operation which inputs the shape defined by the motion of an operation body. ジェスチャ入力を例示する図である。It is a figure which illustrates gesture input. 操作体の位置や動きが、撮像画像全体における相対的な位置や動きによって表される様子を例示する図である。It is a figure which illustrates a mode that the position and movement of an operating body are represented by the relative position and movement in the whole captured image. 実施形態2に係る情報処理システムを例示するブロック図である。FIG. 3 is a block diagram illustrating an information processing system according to a second embodiment. 実施形態2の商品認識部によって実行される処理の流れを例示するフローチャートである。6 is a flowchart illustrating a flow of processing executed by a product recognition unit according to the second embodiment. 第1マーカとして扱われる画像を表示するデバイスを例示する図である。It is a figure which illustrates the device which displays the image handled as the 1st marker. 商品認識領域を例示する第1の図である。It is the 1st figure which illustrates a goods recognition field. 商品認識領域を例示する第2の図である。It is the 2nd figure which illustrates a goods recognition field. 商品認識領域を例示する第3の図である。It is the 3rd figure which illustrates a goods recognition field. 商品認識領域を例示する図4の図である。It is a figure of FIG. 4 which illustrates a goods recognition area. 第1マーカの傾きに合わせて商品認識領域の姿勢が変化する様子を例示する図である。It is a figure which illustrates a mode that the attitude | position of a goods recognition area changes according to the inclination of a 1st marker. 手が含まれる領域を例示する図である。It is a figure which illustrates the field in which a hand is included. 実施形態3に係る情報処理システムを例示するブロック図である。FIG. 6 is a block diagram illustrating an information processing system according to a third embodiment. 実施形態3の情報処理装置によって実行される処理の流れを例示するフローチャートである。10 is a flowchart illustrating a flow of processing executed by the information processing apparatus according to the third embodiment. 第2マーカの位置によって位置が定まる操作画面を例示する第1の図である。It is the 1st figure which illustrates the operation screen where a position becomes settled with the position of the 2nd marker. 第2マーカの位置によって位置が定まる操作画面を例示する第2の図である。It is the 2nd figure which illustrates the operation screen where a position becomes settled with the position of the 2nd marker. 第2マーカの位置によって位置が定まる操作画面を例示する第3の図である。It is the 3rd figure which illustrates the operation screen where a position becomes settled with the position of the 2nd marker. 第2マーカの位置によって位置が定まる操作画面を例示する図4の図である。FIG. 5 is a diagram illustrating an operation screen whose position is determined by the position of a second marker. 実施形態4に係る情報処理システムを例示するブロック図である。FIG. 10 is a block diagram illustrating an information processing system according to a fourth embodiment. 実施形態4の情報処理装置によって実行される処理の流れを例示するフローチャートである。10 is a flowchart illustrating a flow of processing executed by the information processing apparatus according to the fourth embodiment. センサによって振動が検出された際に、デバイスのディスプレイ装置に表示されている画像が変更される様子を例示する図である。It is a figure which illustrates a mode that the image currently displayed on the display apparatus of a device is changed when a vibration is detected by the sensor. 検出対象タイミングを検出対象時間の開始時点とするケースを例示する図である。It is a figure which illustrates the case which makes a detection target timing the start time of detection target time. 検出対象タイミングを検出対象時間の終了時点とするケースを例示する図である。It is a figure which illustrates the case which makes detection target timing the end time of detection target time. 各実施例に共通する情報処理システムの構成を例示するブロック図である。It is a block diagram which illustrates the composition of the information processing system common to each example. 各実施例に共通する情報処理システムの利用環境を例示する図である。It is a figure which illustrates the utilization environment of the information processing system common to each Example. 実施例1においてディスプレイ装置に表示される操作画面を例示する図である。FIG. 5 is a diagram illustrating an operation screen displayed on the display device in the first embodiment. オーダー情報をテーブル形式で例示する図である。It is a figure which illustrates order information in a table format. 実施例2のコンシェルジュサービスを提供するコンシェルジュシステムの構成を例示する図である。It is a figure which illustrates the structure of the concierge system which provides the concierge service of Example 2. FIG. 実施例3においてヘッドマウントディスプレイが利用される様子を例示する図である。FIG. 10 is a diagram illustrating a state in which a head mounted display is used in Example 3. ディスプレイ装置に表示される店舗の地図を例示する図である。It is a figure which illustrates the map of the store displayed on a display apparatus. 実施例4においてディスプレイ装置に表示される操作画面を例示する図である。FIG. 10 is a diagram illustrating an operation screen displayed on a display device in a fourth embodiment. 売り場担当者へ連絡するための操作画面が表示されたディスプレイ装置を例示する図である。It is a figure which illustrates the display apparatus on which the operation screen for contacting a sales floor person in charge was displayed. 実施例5においてディスプレイ装置に表示される情報を例示する図である。FIG. 10 is a diagram illustrating information displayed on a display device in Example 5.

以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また各ブロック図において、特に説明がない限り、各ブロックは、ハードウエア単位の構成ではなく機能単位の構成を表している。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In all the drawings, the same reference numerals are given to the same components, and the description will be omitted as appropriate. In each block diagram, unless otherwise specified, each block represents a functional unit configuration, not a hardware unit configuration.

[実施形態1]
図1は、実施形態1に係る情報処理システム3000を例示するブロック図である。情報処理システム3000は、表示装置3020及び情報処理装置2000を有する。情報処理装置2000は、商品認識部2020、表示制御部2040、及び操作認識部2060を有する。
[Embodiment 1]
FIG. 1 is a block diagram illustrating an information processing system 3000 according to the first embodiment. The information processing system 3000 includes a display device 3020 and an information processing device 2000. The information processing apparatus 2000 includes a product recognition unit 2020, a display control unit 2040, and an operation recognition unit 2060.

商品認識部2020は商品を認識する。表示制御部2040は、商品認識部2020によって認識された商品に関する商品情報を取得する。さらに表示制御部2040は、取得した商品情報を含む操作画面を、表示装置3020に表示させる。操作認識部2060は、カメラによって生成された撮像画像に写っている操作体の位置又は動きに基づいて、操作画面に対する入力操作を認識する。ここで、操作体は、ユーザが操作に利用する任意の物である。例えば操作体は、ユーザの身体の一部(指など)や、ユーザの身体によって保持されている物(ペンなど)である。   The product recognition unit 2020 recognizes the product. The display control unit 2040 acquires product information related to the product recognized by the product recognition unit 2020. Further, the display control unit 2040 causes the display device 3020 to display an operation screen including the acquired product information. The operation recognizing unit 2060 recognizes an input operation on the operation screen based on the position or movement of the operating tool in the captured image generated by the camera. Here, the operation body is an arbitrary object used by the user for the operation. For example, the operating body is a part of the user's body (such as a finger) or an object (such as a pen) held by the user's body.

図2は、情報処理システム3000を概念的に説明するための図である。図2において、ユーザはヘッドマウントディスプレイ100を装着している。カメラ20は、撮像画像を生成するカメラであり、ヘッドマウントディスプレイ100に設けられている。また、カメラ20はユーザの視界方向を撮影するように設けられている。図2において、表示装置3020は、ヘッドマウントディスプレイ100に設けられているディスプレイ装置102である。   FIG. 2 is a diagram for conceptually explaining the information processing system 3000. In FIG. 2, the user wears a head mounted display 100. The camera 20 is a camera that generates a captured image, and is provided in the head mounted display 100. Further, the camera 20 is provided so as to capture the direction of the user's field of view. In FIG. 2, the display device 3020 is the display device 102 provided in the head mounted display 100.

商品認識部2020は、商品10を認識する。その結果、表示制御部2040は、ディスプレイ装置102に操作画面40を表示させる。操作画面40には、商品10の商品情報が含まれている。本例における商品情報は、商品10の商品名及び価格を示している。さらに操作画面40には、商品を購入するか否かを選択するための画像が含まれている。   The product recognition unit 2020 recognizes the product 10. As a result, the display control unit 2040 displays the operation screen 40 on the display device 102. The operation screen 40 includes product information of the product 10. The product information in this example indicates the product name and price of the product 10. Furthermore, the operation screen 40 includes an image for selecting whether or not to purchase a product.

図2において、操作体はユーザの指30である。ユーザは、指30を、YES の画像に重なる位置に留めている。ここで、本例ではカメラ20によってユーザの視界方向の景色が撮像されるため、指30はカメラ20によって生成される撮像画像に写っている。操作認識部2060は、撮像画像に写っている指30の位置に基づき、YES を選択する入力操作を認識する。これにより、商品10が、購入対象として登録される。   In FIG. 2, the operating body is a user's finger 30. The user holds the finger 30 at a position overlapping the YES image. Here, in this example, since the camera 20 captures a scene in the user's field of view, the finger 30 is shown in the captured image generated by the camera 20. The operation recognition unit 2060 recognizes the input operation for selecting YES based on the position of the finger 30 in the captured image. Thereby, the product 10 is registered as a purchase target.

ここで、図2を用いて説明した情報処理装置2000の動作は、情報処理装置2000の理解を容易にするための例示であり、情報処理装置2000の動作は上述の例に限定されるわけではない。情報処理装置2000の動作の詳細やバリエーションについては、以降の記載で説明する。   Here, the operation of the information processing apparatus 2000 described with reference to FIG. 2 is an example for facilitating the understanding of the information processing apparatus 2000, and the operation of the information processing apparatus 2000 is not limited to the above example. Absent. Details and variations of the operation of the information processing apparatus 2000 will be described in the following description.

<作用・効果>
本実施形態の情報処理システム3000によれば、認識された商品に関する商品情報を含む操作画面40が表示装置3020に表示される。さらに、カメラ20によって生成された撮像画像に写っている操作体の位置又は動きに基づいて、操作画面40に対する入力操作が認識される。ユーザは、カメラ20の撮像範囲内で操作体を動かしたり止めたりすることによって、商品に関連した入力操作を行うことができる。よって、タッチパネル等の入力デバイスを用いて入力操作を行わなければならない場合と異なり、ユーザは手に入力デバイスなどを持つ必要がない。よって、閲覧している商品に関連した入力操作を行う際のユーザの行動の自由度が高くなると共に、ユーザが入力操作を容易に行えるようになる。このことから、入力デバイスを介して入力操作を受け付けるシステムと比較し、情報処理システム3000はユーザにとって利便性が高い。
<Action and effect>
According to the information processing system 3000 of the present embodiment, the operation screen 40 including product information regarding the recognized product is displayed on the display device 3020. Furthermore, an input operation on the operation screen 40 is recognized based on the position or movement of the operating tool shown in the captured image generated by the camera 20. The user can perform an input operation related to the product by moving or stopping the operating tool within the imaging range of the camera 20. Therefore, unlike the case where an input operation must be performed using an input device such as a touch panel, the user does not need to hold the input device in his hand. Therefore, the degree of freedom of the user's action when performing an input operation related to the product being browsed is increased, and the user can easily perform the input operation. Therefore, the information processing system 3000 is more convenient for the user than a system that accepts an input operation via an input device.

以下、本実施形態の情報処理システム3000について、さらに詳細に説明する。   Hereinafter, the information processing system 3000 according to the present embodiment will be described in more detail.

<情報処理装置2000のハードウエア構成の例>
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
<Example of Hardware Configuration of Information Processing Device 2000>
Each functional component of the information processing apparatus 2000 may be realized by hardware (eg, a hard-wired electronic circuit) that implements each functional component, or a combination of hardware and software (eg: It may be realized by a combination of an electronic circuit and a program for controlling it). Hereinafter, the case where each functional component of the information processing apparatus 2000 is realized by a combination of hardware and software will be further described.

計算機1000は種々の計算機である。例えば計算機1000は、ヘッドマウントディスプレイ、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、情報処理装置2000を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。   The computer 1000 is a variety of computers. For example, the computer 1000 is a head mounted display, a personal computer (PC), a server machine, a tablet terminal, or a smartphone. The computer 1000 may be a dedicated computer designed for realizing the information processing apparatus 2000 or a general-purpose computer.

図3は、情報処理装置2000を実現する計算機1000の構成を例示する図である。計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージ1080、及び入出力インタフェース1100を有する。バス1020は、プロセッサ1040、メモリ1060、及びストレージ1080が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU (Central Processing Unit) や GPU (Graphics Processing Unit) などの演算処理装置である。メモリ1060は、RAM (Random Access Memory) や ROM (Read Only Memory) などのメモリである。ストレージ1080は、ハードディスク、SSD (Solid State Drive)、又はメモリカードなどの記憶装置である。また、ストレージ1080は、RAM や ROM などのメモリであってもよい。   FIG. 3 is a diagram illustrating a configuration of a computer 1000 that implements the information processing apparatus 2000. The computer 1000 includes a bus 1020, a processor 1040, a memory 1060, a storage 1080, and an input / output interface 1100. The bus 1020 is a data transmission path for the processor 1040, the memory 1060, and the storage 1080 to transmit / receive data to / from each other. However, the method of connecting the processors 1040 and the like is not limited to bus connection. The processor 1040 is an arithmetic processing device such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). The memory 1060 is a memory such as a RAM (Random Access Memory) or a ROM (Read Only Memory). The storage 1080 is a storage device such as a hard disk, an SSD (Solid State Drive), or a memory card. The storage 1080 may be a memory such as a RAM or a ROM.

入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。図3において、入出力インタフェース1100にはカメラ20及び表示装置3020が接続されている。カメラ20は、繰り返し撮像を行って、各撮像結果を表す撮像画像を生成する任意のカメラである。なお、カメラ20は、2次元(2D)カメラであってもよいし、3次元(3D)カメラであってもよい。   The input / output interface 1100 is an interface for connecting the computer 1000 and an input / output device. In FIG. 3, a camera 20 and a display device 3020 are connected to the input / output interface 1100. The camera 20 is an arbitrary camera that repeatedly captures an image and generates a captured image representing each imaging result. Note that the camera 20 may be a two-dimensional (2D) camera or a three-dimensional (3D) camera.

カメラ20が設けられる位置は任意である。例えばカメラ20は、ユーザが身につけている物に取り付けられる。ユーザが身につけている物とは、例えばヘッドマウントディスプレイや、首から提げている社員証などである。   The position where the camera 20 is provided is arbitrary. For example, the camera 20 is attached to an object worn by the user. The items worn by the user are, for example, a head-mounted display or an employee ID card provided from the neck.

図4は、カメラ20が設けられているヘッドマウントディスプレイを例示する図である。ヘッドマウントディスプレイ100は、眼鏡型のヘッドマウントディスプレイである。ヘッドマウントディスプレイ100のレンズ部分はディスプレイ装置102となっている。いる。カメラ20は、ディスプレイ装置102の付近に設けられている。こうすることで、カメラ20によって生成される撮像画像に写る景色は、ヘッドマウントディスプレイ100を装着するユーザの視線方向にある景色と同様の景色となる。   FIG. 4 is a diagram illustrating a head mounted display in which the camera 20 is provided. The head mounted display 100 is a glasses-type head mounted display. The lens portion of the head mounted display 100 is a display device 102. Yes. The camera 20 is provided in the vicinity of the display device 102. By doing so, the scenery that appears in the captured image generated by the camera 20 becomes the same scenery as the scenery that is in the line of sight of the user wearing the head mounted display 100.

カメラ20が設けられる位置は、ユーザが身に付けている物に限定されない。例えば、カメラ20は、ユーザが情報処理装置2000に対する入力操作を行う部屋の壁等に設けられてもよい。後者の場合、カメラ20の撮影範囲(撮影方向やズーム率など)は、リモコンなどによる遠隔操作によって変更できることが好ましい。   The position where the camera 20 is provided is not limited to what the user is wearing. For example, the camera 20 may be provided on a wall of a room where the user performs an input operation on the information processing apparatus 2000. In the latter case, it is preferable that the shooting range (shooting direction, zoom ratio, etc.) of the camera 20 can be changed by remote control using a remote controller or the like.

また例えば、カメラ20は、ユーザが身につけている物に取り付けられてもよい。ユーザが身につけている物とは、例えばユーザの衣服、ユーザが首から提げている社員証などである。   Further, for example, the camera 20 may be attached to an object worn by the user. The items worn by the user include, for example, the clothes of the user and an employee ID card that the user holds from the neck.

表示装置3020は、画面を出力する任意の装置である。例えば表示装置3020は、画面を表示するディスプレイ装置である。例えばディスプレイ装置は、前述したヘッドマウントディスプレイ100に設けられているディスプレイ装置102である。また表示装置3020は、プロジェクタなど、画面を投影する装置であってもよい。   The display device 3020 is an arbitrary device that outputs a screen. For example, the display device 3020 is a display device that displays a screen. For example, the display device is the display device 102 provided in the head-mounted display 100 described above. The display device 3020 may be a device that projects a screen, such as a projector.

ストレージ1080は情報処理装置2000の各機能を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールを実行することで、そのプログラムモジュールに対応する各機能を実現する。   The storage 1080 stores program modules that implement the functions of the information processing apparatus 2000. The processor 1040 implements each function corresponding to the program module by executing each program module.

計算機1000のハードウエア構成は図3に示した構成に限定されない。例えば、各プログラムモジュールはメモリ1060に格納されてもよい。この場合、計算機1000は、ストレージ1080を備えていなくてもよい。また、カメラ20を計算機1000に接続する方法は、入出力インタフェース1100を介して接続する方法に限定されない。例えばカメラ20は、ネットワークを介して計算機1000に接続されてもよい。この場合、計算機1000は、ネットワークに接続するためのネットワークインタフェースを有する。   The hardware configuration of the computer 1000 is not limited to the configuration shown in FIG. For example, each program module may be stored in the memory 1060. In this case, the computer 1000 may not include the storage 1080. Further, the method of connecting the camera 20 to the computer 1000 is not limited to the method of connecting via the input / output interface 1100. For example, the camera 20 may be connected to the computer 1000 via a network. In this case, the computer 1000 has a network interface for connecting to the network.

<処理の流れ>
図5は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。商品認識部2020は商品を認識する(S102)。表示制御部2040は、認識された商品の商品情報を取得する(S104)。表示制御部2040は、商品情報を含む操作画面を表示装置3020に表示させる(S106)。情報処理装置2000は、撮像画像を取得する(S108)。操作認識部2060は、撮像画像に写っている操作体の位置又は動きに基づいて、操作画面に対する入力操作を認識する(S110)。
<Process flow>
FIG. 5 is a flowchart illustrating the flow of processing executed by the information processing apparatus 2000 according to the first embodiment. The product recognition unit 2020 recognizes the product (S102). The display control unit 2040 acquires product information of the recognized product (S104). The display control unit 2040 displays an operation screen including product information on the display device 3020 (S106). The information processing apparatus 2000 acquires a captured image (S108). The operation recognizing unit 2060 recognizes an input operation on the operation screen based on the position or movement of the operating body shown in the captured image (S110).

なお、情報処理装置2000によって実行される処理の流れは図4に示した流れに限定されない。例えば、撮像画像の取得は、S110よりも前の任意のタイミングで行うことができる。また後述するように、操作画面の表示(S106)に撮像画像を利用する場合、S108はS106よりも前に行われる。   Note that the flow of processing executed by the information processing apparatus 2000 is not limited to the flow shown in FIG. For example, the captured image can be acquired at an arbitrary timing before S110. As will be described later, when a captured image is used for displaying the operation screen (S106), S108 is performed before S106.

<商品を認識する方法:S102>
商品認識部2020は商品10を認識する(S102)。商品認識部2020が商品10を認識する方法は任意である。以下、商品10を認識する方法を具体的に例示する。
<Method for recognizing product: S102>
The product recognition unit 2020 recognizes the product 10 (S102). The method by which the product recognition unit 2020 recognizes the product 10 is arbitrary. Hereinafter, a method for recognizing the product 10 will be specifically exemplified.

<<撮像画像を利用する方法>>
商品認識部2020は、カメラ20によって生成された撮像画像に写っている商品10を認識する。より具体的には、商品認識部2020は、撮像画像に対してオブジェクト認識を行うことで商品10を認識する。ここで、画像に写っている商品を認識する方法には、既存の種々の技術を利用できる。そのため、商品認識部2020が撮像画像に写っている商品を認識する具体的な方法については省略する。
<< Method of using captured image >>
The product recognition unit 2020 recognizes the product 10 shown in the captured image generated by the camera 20. More specifically, the product recognition unit 2020 recognizes the product 10 by performing object recognition on the captured image. Here, various existing techniques can be used as a method of recognizing a product shown in an image. Therefore, a specific method for recognizing the product shown in the captured image by the product recognition unit 2020 is omitted.

商品認識部2020は、撮像画像全体を対象として商品10の認識を行ってもよいし、撮像画像内の一部の領域を対象として商品10の認識を行ってもよい。後者の場合、例えば商品認識部2020は、撮像画像の所定位置にある所定領域を対象として商品10の認識を行う。図6は、撮像画像の所定領域に写っている商品10を例示する図である。図6において、この所定領域は、所定領域24である。所定領域24は、その中心位置が撮像画像の中心にあり、幅が所定幅 w であり、高さが所定の高さ h である矩形である。なお、撮像画像22における所定領域24の位置、並びに所定領域24の形状及び大きさを表す情報は、商品認識部2020に予め設定されていてもよいし、商品認識部2020からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって設定可能であってもよい。   The product recognition unit 2020 may recognize the product 10 with respect to the entire captured image, or may recognize the product 10 with respect to a partial region in the captured image. In the latter case, for example, the product recognition unit 2020 recognizes the product 10 with respect to a predetermined area at a predetermined position of the captured image. FIG. 6 is a diagram illustrating the product 10 shown in a predetermined area of the captured image. In FIG. 6, this predetermined area is a predetermined area 24. The predetermined area 24 is a rectangle whose center position is at the center of the captured image, whose width is the predetermined width w, and whose height is the predetermined height h. Information indicating the position of the predetermined region 24 in the captured image 22 and the shape and size of the predetermined region 24 may be set in advance in the product recognition unit 2020, or a storage device accessible from the product recognition unit 2020. Or may be settable by the user.

撮像画像に含まれる所定領域24に写っている商品10の認識を行う場合、表示装置3020には、所定領域24を視覚的に表すガイドが表示されることが好ましい。こうすることでユーザは、どのように商品10を撮像すればその商品10を情報処理装置2000に認識させることができるかを、容易に把握できる。   When the product 10 shown in the predetermined area 24 included in the captured image is recognized, a guide that visually represents the predetermined area 24 is preferably displayed on the display device 3020. By doing so, the user can easily grasp how the product 10 can be recognized by the information processing apparatus 2000 by imaging the product 10.

図7は、所定領域24を表すガイドが表示されている表示装置3020を例示する図である。図7において、表示装置3020はヘッドマウントディスプレイ100に設けられているディスプレイ装置102であり、カメラ20はヘッドマウントディスプレイ100に設けられている。また図7において、所定領域24を視覚的に表すガイドは、ガイド26である。   FIG. 7 is a diagram illustrating a display device 3020 on which a guide representing the predetermined area 24 is displayed. In FIG. 7, the display device 3020 is the display device 102 provided in the head mounted display 100, and the camera 20 is provided in the head mounted display 100. In FIG. 7, a guide that visually represents the predetermined area 24 is a guide 26.

図7(a)において、商品10は、ユーザの視界(カメラ20の撮像範囲)には入っているものの、ガイド26の外側にある。そのため、撮像画像22において所定領域24の中に商品10が写っておらず、商品10は商品認識部2020によって認識されない。   In FIG. 7A, the product 10 is outside the guide 26 although it is in the user's field of view (the imaging range of the camera 20). Therefore, the product 10 is not shown in the predetermined area 24 in the captured image 22, and the product 10 is not recognized by the product recognition unit 2020.

一方、図7(b)において、商品10はガイド26の内側にある。そのため、撮像画像22において所定領域24の中に商品10が写っており、商品10は商品認識部2020によって認識される。その結果、表示制御部2040はディスプレイ装置102に操作画面40を表示させる。   On the other hand, in FIG. 7B, the product 10 is inside the guide 26. Therefore, the product 10 is shown in the predetermined area 24 in the captured image 22, and the product 10 is recognized by the product recognition unit 2020. As a result, the display control unit 2040 displays the operation screen 40 on the display device 102.

なお、撮像画像内の一部の領域を対象として商品10の認識を行う方法は、所定位置にある所定領域から商品10を認識する方法に限定されない。その他の方法の一例は、後述の実施形態で述べる。   Note that the method for recognizing the product 10 for a part of the region in the captured image is not limited to the method for recognizing the product 10 from a predetermined region at a predetermined position. An example of another method will be described in an embodiment described later.

<<商品10のタグを利用する方法>>
商品認識部2020は、商品10のタグ(商品10に付されたタグ又は商品10に内蔵されたタグ)から読み取られた商品の識別子(以下、商品ID(Identifier))を取得することによって、商品10を認識する。上記タグは、例えば RFID(radio frequency identifier)タグである。
<< Method using tag of product 10 >>
The product recognition unit 2020 acquires the product identifier (hereinafter referred to as product ID (Identifier)) read from the tag of the product 10 (the tag attached to the product 10 or the tag embedded in the product 10). 10 is recognized. The tag is, for example, an RFID (radio frequency identifier) tag.

商品認識部2020は、商品10のタグから商品IDを読み取る種々のリーダと通信可能に接続されている。情報処理システム3000のユーザは、このリーダに、商品10のタグから商品IDを読み取らせる。商品認識部2020は、そのリーダから商品IDを取得する。なお、このリーダは、据え置き型のものであってもよいし、携帯型のものであってもよい。後者の場合、例えばユーザは、手に装着可能な(ウェアラブル)なリーダを装着して利用する。   The product recognition unit 2020 is communicably connected to various readers that read the product ID from the tag of the product 10. The user of the information processing system 3000 causes the reader to read the product ID from the tag of the product 10. The product recognition unit 2020 acquires the product ID from the reader. The reader may be a stationary type or a portable type. In the latter case, for example, the user wears and uses a wearable reader.

<<商品情報シンボルを利用する方法>>
商品認識部2020は、商品に付された商品情報シンボルから読み取られた商品IDを取得することで、その商品を認識する。商品情報シンボルは、商品を特定する情報を表したシンボルである。ここでシンボルとは、バーコード、2次元コード(QRコード(登録商標)など)、又は文字列シンボルなどである。なお、ここでいう文字列には、数値列も含まれる。より具体的には、商品情報シンボルは、商品IDを含む情報が符号化されたバーコード等、又は商品IDを含む情報を表す文字列シンボルなどである。
<< Method of using product information symbol >>
The product recognition unit 2020 recognizes the product by acquiring the product ID read from the product information symbol attached to the product. The product information symbol is a symbol representing information for specifying a product. Here, the symbol is a bar code, a two-dimensional code (such as a QR code (registered trademark)), or a character string symbol. The character string here includes a numeric string. More specifically, the product information symbol is a barcode or the like in which information including a product ID is encoded, or a character string symbol representing information including a product ID.

商品情報シンボルから商品IDを取得する方法は、商品情報シンボルとして何を用いるかによって異なる。商品情報シンボルがバーコードである場合、例えば商品IDは、バーコードリーダを用いることで、商品10に付されたバーコードから読み取ることができる。この場合、情報処理装置2000は、そのバーコードリーダと通信可能に接続されている。   The method for acquiring the product ID from the product information symbol differs depending on what is used as the product information symbol. When the product information symbol is a barcode, for example, the product ID can be read from the barcode attached to the product 10 by using a barcode reader. In this case, the information processing apparatus 2000 is communicably connected to the barcode reader.

商品情報シンボルが2次元コードである場合、例えば商品IDは、2次元コードリーダを用いることで、商品10に付された2次元コードから読み取ることができる。この場合、情報処理装置2000は、その2次元コードリーダと通信可能に接続されている。   When the product information symbol is a two-dimensional code, for example, the product ID can be read from the two-dimensional code attached to the product 10 by using a two-dimensional code reader. In this case, the information processing apparatus 2000 is communicably connected to the two-dimensional code reader.

商品情報シンボルが文字列シンボルである場合、例えば商品IDは、商品10に付された文字列シンボルが写っている画像を解析することによって取得できる。なお、文字列シンボルの解析には、文字列解析に関する様々な既知の技術を用いることができる。   When the product information symbol is a character string symbol, for example, the product ID can be acquired by analyzing an image showing the character string symbol attached to the product 10. Note that various known techniques relating to character string analysis can be used for analyzing character string symbols.

文字列シンボルが写っている画像は、カメラ20によって撮像される前述の撮像画像であってもよいし、その他のカメラによって撮像される画像であってもよい。後者の場合、文字列シンボルを解析する処理は、商品認識部2020によって行われてもよいし、情報処理装置2000以外の装置によって行われてもよい。商品10に付された文字列シンボルの解析が情報処理装置2000以外の装置によって行われる場合、商品認識部2020は、その文字列シンボルの解析を行った装置から、商品10の商品IDを取得する。またこの場合、情報処理装置2000は、商品10に付された文字列シンボルの解析を行う装置と通信可能に接続されている。   The image including the character string symbol may be the above-described captured image captured by the camera 20 or an image captured by another camera. In the latter case, the process of analyzing the character string symbol may be performed by the product recognition unit 2020 or may be performed by an apparatus other than the information processing apparatus 2000. When the character string symbol attached to the product 10 is analyzed by a device other than the information processing device 2000, the product recognition unit 2020 acquires the product ID of the product 10 from the device that has analyzed the character string symbol. . Further, in this case, the information processing apparatus 2000 is communicably connected to an apparatus that analyzes a character string symbol attached to the product 10.

商品情報シンボルとして複数の種類のシンボルが用いられうる場合、情報処理装置2000は、これら複数の種類のシンボルそれぞれから商品IDを読み取るためのリーダ等と通信可能に接続されている。例えば、商品情報シンボルとしてバーコード及び2次元コードが用いられる場合、情報処理装置2000は、バーコードリーダ及び2次元コードリーダと通信可能に接続されている。   When a plurality of types of symbols can be used as the merchandise information symbol, the information processing apparatus 2000 is communicably connected to a reader or the like for reading a merchandise ID from each of the plurality of types of symbols. For example, when a barcode and a two-dimensional code are used as the product information symbol, the information processing apparatus 2000 is connected so as to be communicable with the barcode reader and the two-dimensional code reader.

<商品情報を取得する方法:S104>
表示制御部2040は、商品認識部2020によって認識された商品10の商品情報を取得する(S104)。商品認識部2020が撮像画像に写っている商品10を認識する場合、表示制御部2040は、商品10の画像を用いて、商品10の商品情報を取得する。例えば表示制御部2040は、商品10の特徴量(商品10の形状、色、又は模様などの特徴を表す情報)と商品10の商品情報とを関連付けて記憶している記憶装置やデータベースから、商品情報を取得する。例えば表示制御部2040は、撮像画像から抽出した商品10の特徴量との類似度合いが所定値以上である特徴量と関連付けられている商品情報を取得する。この所定値を表す情報は、表示制御部2040に予め設定されていてもよいし、表示制御部2040からアクセス可能な記憶装置に記憶されていてもよい。
<Method for obtaining product information: S104>
The display control unit 2040 acquires the product information of the product 10 recognized by the product recognition unit 2020 (S104). When the product recognition unit 2020 recognizes the product 10 in the captured image, the display control unit 2040 acquires the product information of the product 10 using the image of the product 10. For example, the display control unit 2040 obtains the product from the storage device or database that stores the feature amount of the product 10 (information representing the shape, color, or pattern of the product 10) and the product information of the product 10 in association with each other. Get information. For example, the display control unit 2040 acquires product information associated with a feature amount whose similarity with the feature amount of the product 10 extracted from the captured image is equal to or greater than a predetermined value. Information representing the predetermined value may be set in advance in the display control unit 2040 or may be stored in a storage device accessible from the display control unit 2040.

一方、商品認識部2020が商品10の商品IDを取得することで商品10を認識する場合、表示制御部2040は、商品10の商品IDと商品10の商品情報とを関連付けて記憶している記憶装置やデータベースから、商品認識部2020によって認識された商品10の商品IDと関連付けられている商品情報を取得する。   On the other hand, when the product recognition unit 2020 recognizes the product 10 by acquiring the product ID of the product 10, the display control unit 2040 stores the product ID of the product 10 and the product information of the product 10 in association with each other. The product information associated with the product ID of the product 10 recognized by the product recognition unit 2020 is acquired from the device or the database.

図8は、商品10の特徴量や商品IDに関連付けられた商品情報をテーブル形式で例示する図である。図8に示すテーブルを、商品情報テーブル500と表記する。商品ID502は、商品10の商品IDを示す。特徴量504は、商品10の特徴量を示す。商品情報506は、商品10の商品情報を示す。商品情報506には、商品名508、価格510、及び説明512が含まれる。商品名508は、商品の名前を示す。価格510は、商品の価格を示す。説明512は、商品の使い方や特徴などを示す情報である。なお、商品情報506に含まれる情報は任意であり、図8に示される情報に限定されない。   FIG. 8 is a diagram illustrating product information associated with the feature amount and product ID of the product 10 in a table format. The table shown in FIG. 8 is referred to as a product information table 500. The product ID 502 indicates the product ID of the product 10. The feature amount 504 indicates the feature amount of the product 10. The product information 506 indicates product information of the product 10. The product information 506 includes a product name 508, a price 510, and a description 512. The product name 508 indicates the name of the product. The price 510 indicates the price of the product. The description 512 is information indicating how to use and features of the product. The information included in the product information 506 is arbitrary and is not limited to the information shown in FIG.

なお、商品情報を記憶している記憶装置やデータベースは、情報処理装置2000の内部に設けられていてもよいし、情報処理装置2000の外部に設けられていてもよい。   Note that a storage device or database that stores product information may be provided inside the information processing apparatus 2000 or may be provided outside the information processing apparatus 2000.

<操作画面40を表示させる方法:S106>
表示制御部2040は、表示装置3020に商品情報を表示させる(S106)。そのために表示制御部2040は、商品認識部2020によって認識された商品10の商品情報に基づいて、操作画面40を生成する。
<Method for Displaying Operation Screen 40: S106>
The display control unit 2040 displays the product information on the display device 3020 (S106). Therefore, the display control unit 2040 generates the operation screen 40 based on the product information of the product 10 recognized by the product recognition unit 2020.

例えば表示制御部2040は、操作画面40のテンプレートを取得し、そのテンプレートに商品情報を埋め込むことで、操作画面40を生成する。図9は、操作画面40のテンプレートを例示する図である。図9において、操作画面40のテンプレートはテンプレート200である。   For example, the display control unit 2040 obtains a template of the operation screen 40 and generates the operation screen 40 by embedding product information in the template. FIG. 9 is a diagram illustrating a template of the operation screen 40. In FIG. 9, the template of the operation screen 40 is a template 200.

テンプレート200には、置換領域202−1及び置換領域202−2が含まれる。テンプレート200において、置換領域202以外の部分は、認識された商品10に依存せずに予め定まっている部分である。一方、置換領域202は、認識された商品10に応じて定まる部分である。   Template 200 includes replacement area 202-1 and replacement area 202-2. In the template 200, the part other than the replacement area 202 is a part that is determined in advance without depending on the recognized product 10. On the other hand, the replacement area 202 is a portion determined according to the recognized product 10.

表示制御部2040は、認識された商品10の商品情報に含まれる情報を埋め込むことで、操作画面40を生成する。図9の場合、表示制御部2040は、置換領域202−1に、認識された商品10に対応する商品情報テーブル500の商品名508を埋め込む。また表示制御部2040は、置換領域202−2に、認識された商品10に対応する商品情報テーブル500の価格510を埋め込む。   The display control unit 2040 generates the operation screen 40 by embedding information included in the product information of the recognized product 10. In the case of FIG. 9, the display control unit 2040 embeds the product name 508 of the product information table 500 corresponding to the recognized product 10 in the replacement area 202-1. Further, the display control unit 2040 embeds the price 510 of the product information table 500 corresponding to the recognized product 10 in the replacement area 202-2.

<撮像画像を取得する方法:S108>
情報処理装置2000は、カメラ20によって生成された撮像画像を取得する(S108)。情報処理装置2000が撮像画像を取得する方法は任意である。例えば情報処理装置2000は、カメラ20から撮像画像を取得する。この場合、情報処理装置2000とカメラ20とは通信可能に接続されている。
<Method for Acquiring Captured Image: S108>
The information processing apparatus 2000 acquires a captured image generated by the camera 20 (S108). The method by which the information processing apparatus 2000 acquires the captured image is arbitrary. For example, the information processing apparatus 2000 acquires a captured image from the camera 20. In this case, the information processing apparatus 2000 and the camera 20 are connected to be communicable.

また、カメラ20が外部の記憶装置に撮像画像を記憶する場合、情報処理装置2000は、この記憶装置から撮像画像を取得してもよい。この場合、情報処理装置2000は、この記憶装置と通信可能に接続されている。   Further, when the camera 20 stores a captured image in an external storage device, the information processing apparatus 2000 may acquire the captured image from the storage device. In this case, the information processing device 2000 is communicably connected to the storage device.

なお、情報処理装置2000は、カメラ20によって生成される撮像画像の全てを取得してもよいし、一部のみを取得してもよい。後者の場合、例えば情報処理装置2000は、表示装置3020によって操作画面が表示された後に生成された撮像画像のみを取得する。ただしこの場合、商品認識部2020による商品の認識は、商品認識部2020が撮像画像を用いて行う方法以外の方法となる。   Note that the information processing apparatus 2000 may acquire all of the captured images generated by the camera 20, or may acquire only a part thereof. In the latter case, for example, the information processing apparatus 2000 acquires only the captured image generated after the operation screen is displayed by the display apparatus 3020. However, in this case, the product recognition by the product recognition unit 2020 is a method other than the method performed by the product recognition unit 2020 using the captured image.

<操作体について>
操作認識部2060によって操作体として扱われる物は様々である。例えば操作認識部2060は、ユーザの腕部の一部(指など)や、ユーザの腕部によって保持される物(ペンなど)を操作体として扱う。腕部とは、手及び手から肩にかけての部分を意味する。この場合、ユーザは、カメラ20の撮像範囲内で指やペンなどを動かすことにより、入力操作を行う。
<About the operation tool>
There are various objects handled by the operation recognition unit 2060 as an operation body. For example, the operation recognition unit 2060 treats a part of the user's arm (such as a finger) or an object (such as a pen) held by the user's arm as an operating body. The arm portion means a hand and a portion from the hand to the shoulder. In this case, the user performs an input operation by moving a finger or a pen within the imaging range of the camera 20.

また例えば、操作認識部2060は、物やユーザの身体に付されたマーカを操作体として扱ってもよい。ここにおけるマーカとは、カメラ20によって撮像可能な任意の印である。この場合、ユーザは、カメラ20の撮像範囲内でマーカを動かすことにより、入力操作を行う。   Further, for example, the operation recognition unit 2060 may treat an object or a marker attached to the user's body as an operation body. The marker here is an arbitrary mark that can be imaged by the camera 20. In this case, the user performs an input operation by moving the marker within the imaging range of the camera 20.

例えばマーカは、ユーザの身体(指など)に付される。また例えば、マーカは、ユーザが保持する物(ペンなど)に付される。また例えば、マーカは、ユーザが身につける物に付される。ユーザに身につけられる物は、例えばユーザの指にはめられる指輪や、任意のウェアラブルデバイスなどである。   For example, the marker is attached to the user's body (such as a finger). For example, the marker is attached to an object (such as a pen) held by the user. For example, the marker is attached to an object worn by the user. The thing that the user can wear is, for example, a ring that can be worn on the user's finger or an arbitrary wearable device.

操作認識部2060が何を操作体として扱うかを示す情報は、操作認識部2060に予め設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に記憶されていてもよい。   Information indicating what the operation recognition unit 2060 handles as an operation tool may be set in advance in the operation recognition unit 2060 or may be stored in a storage device accessible from the operation recognition unit 2060.

なお、操作認識部2060が操作体として扱う物は、一種類であってもよいし、複数種類であってもよい。   In addition, the thing which the operation recognition part 2060 handles as an operation body may be one type, and may be multiple types.

<操作体の位置を検出する方法:S110>
操作認識部2060は、操作画面に対する入力操作を認識するために、撮像画像に写っている操作体の位置を検出する(S108)。ここで、画像に写っている所定のオブジェクトを検出する技術には、既知の技術を利用できる。そのため、撮像画像から所定の操作体を検出する方法についての具体的な説明は省略する。
<Method of detecting the position of the operating tool: S110>
The operation recognizing unit 2060 detects the position of the operating body in the captured image in order to recognize the input operation on the operation screen (S108). Here, a known technique can be used as a technique for detecting a predetermined object in the image. Therefore, a specific description of a method for detecting a predetermined operation tool from the captured image is omitted.

操作認識部2060が操作体の位置を定める方法は様々である。例えば操作認識部2060は撮像画像の中から操作体を表す領域を割り出す。そして、操作認識部2060は、割り出した領域に含まれる点を、操作体の位置とする。この際、操作体の位置は、操作体を表す領域に含まれる任意の点でよい。   There are various methods by which the operation recognition unit 2060 determines the position of the operation body. For example, the operation recognizing unit 2060 determines an area representing the operating tool from the captured image. Then, the operation recognizing unit 2060 sets the point included in the determined area as the position of the operating body. At this time, the position of the operating tool may be an arbitrary point included in the region representing the operating tool.

例えば操作体がユーザの身体の一部やユーザに保持されている物体である場合、操作認識部2060は、操作体を表す領域の重心を算出する。そして、操作認識部2060は、操作体を表す領域に含まれ、なおかつその領域の重心から最も遠い点を、操作体の位置とする。この方法によれば、例えば指先やペン先などが操作体の位置となる。   For example, when the operation body is a part of the user's body or an object held by the user, the operation recognition unit 2060 calculates the center of gravity of the region representing the operation body. Then, the operation recognizing unit 2060 sets the point farthest from the center of gravity of the area included in the area representing the operating body as the position of the operating body. According to this method, for example, a fingertip or a pen tip is the position of the operating body.

図10は、操作体の位置を定める方法を例示する第1の図である。図10において、操作体はユーザの手である。まず操作認識部2060は、撮像画像の中からユーザの手を表す領域60を割り出す。次に操作認識部2060は、領域60の重心62を算出する。そして操作認識部2060は、領域60に含まれる点であり、なおかつ重心62から最も遠い点64を、操作体の位置とする。なお、重心62から最も遠い点が領域60の中に複数ある場合、例えば操作認識部2060は、これら複数の点のうち、第1マーカ3040から最も遠い点を操作体の位置とする。   FIG. 10 is a first diagram illustrating a method for determining the position of the operating tool. In FIG. 10, the operating tool is a user's hand. First, the operation recognition unit 2060 determines an area 60 representing the user's hand from the captured image. Next, the operation recognition unit 2060 calculates the center of gravity 62 of the region 60. Then, the operation recognition unit 2060 sets a point 64 that is included in the region 60 and is farthest from the center of gravity 62 as the position of the operation body. When there are a plurality of points farthest from the center of gravity 62 in the region 60, for example, the operation recognition unit 2060 sets a point farthest from the first marker 3040 as the position of the operating body among these points.

ここで、例えば指の腹で入力操作を行う場合など、指先とは少しずれた場所を操作体の位置として扱うことが好ましい場合もある。そこで操作認識部2060は、操作体の重心から最も遠い点64を算出し、さらにこの点から少しずらした位置(例えば、指の根元へ近づく方向に所定距離ずらした位置)を操作体の位置としてもよい。操作体の重心から最も遠い点64と操作体の位置との位置関係を表す情報は、操作認識部2060に予め設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって設定されてもよい。   Here, for example, when an input operation is performed with the belly of the finger, it may be preferable to treat a place slightly deviated from the fingertip as the position of the operating body. Therefore, the operation recognition unit 2060 calculates a point 64 farthest from the center of gravity of the operating body, and further sets a position slightly shifted from this point (for example, a position shifted a predetermined distance in the direction approaching the base of the finger) as the position of the operating body. Also good. Information representing the positional relationship between the point 64 farthest from the center of gravity of the operating body and the position of the operating body may be preset in the operation recognition unit 2060 or stored in a storage device accessible from the operation recognition unit 2060. Or may be set by the user.

ただし、操作体の位置は、重心62から最も遠い点又はその点を基準として定まる点に限定されない。例えば、重心62を操作体の位置として扱ってもよい。   However, the position of the operating body is not limited to a point farthest from the center of gravity 62 or a point determined with reference to that point. For example, the center of gravity 62 may be treated as the position of the operating body.

操作体が物やユーザの身体に付されたマーカである場合、例えば操作認識部2060は、撮像画像からこのマーカを表す領域を割り出し、その領域の中心位置などを操作体の位置とする。   When the operation body is a marker attached to an object or the user's body, for example, the operation recognition unit 2060 determines an area representing the marker from the captured image, and uses the center position of the area as the position of the operation body.

また、操作認識部2060が、操作体として検出すべき物を表す参照画像を利用して、操作体を検出するとする。この場合、この参照画像において、操作体の位置を予め定義しておいてもよい。操作認識部2060は、撮像画像の中から参照画像と類似する領域を割り出す。そして、操作認識部2060は、その領域において、参照画像において定義されている操作体の位置と対応する点を割り出し、その点を操作体の位置として扱う。   Further, it is assumed that the operation recognition unit 2060 detects an operation body using a reference image representing an object to be detected as the operation body. In this case, the position of the operation tool may be defined in advance in this reference image. The operation recognizing unit 2060 determines an area similar to the reference image from the captured image. Then, the operation recognizing unit 2060 determines a point corresponding to the position of the operating tool defined in the reference image in the area, and treats that point as the position of the operating tool.

図11は、操作体の位置を定める方法を例示する第2の図である。この例において、操作体はユーザの指である。参照画像120は、ユーザの指の形状などを表す参照画像である。操作体の位置121は、参照画像において予め定義されている、操作体の位置である。   FIG. 11 is a second diagram illustrating a method for determining the position of the operating tool. In this example, the operating tool is a user's finger. The reference image 120 is a reference image representing the shape of the user's finger or the like. The position 121 of the operating body is a position of the operating body that is defined in advance in the reference image.

操作認識部2060は、撮像画像22の中から、参照画像120と類似する領域130を割り出す。この領域130はユーザの指を表す。さらに操作認識部2060は、参照画像120を領域130にマッピングした際に操作体の位置121と対応する点131を割り出す。そして、操作認識部2060は点131を操作体の位置として扱う。   The operation recognition unit 2060 determines an area 130 similar to the reference image 120 from the captured image 22. This area 130 represents the user's finger. Further, the operation recognizing unit 2060 determines a point 131 corresponding to the position 121 of the operating tool when the reference image 120 is mapped to the region 130. Then, the operation recognition unit 2060 treats the point 131 as the position of the operation body.

操作認識部2060が操作体の位置をどのように定めるかを表す情報は、操作認識部2060に予め設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって設定されてもよい。   Information indicating how the operation recognizing unit 2060 determines the position of the operating tool may be preset in the operation recognizing unit 2060 or stored in a storage device accessible from the operation recognizing unit 2060. It may be set by the user.

<操作体の動きを検出する方法:S110>
操作認識部2060は、操作画面に対する入力操作を認識するために、撮像画像に写っている操作体の動きを検出する(S110)。操作認識部2060は、複数の撮像画像を用いて操作体の動きを検出してもよいし、1つの撮像画像を用いて操作体の動きを検出してもよい。前者の場合、例えば操作認識部2060は、それら複数の撮像画像それぞれについて画像解析を行うことで、各撮像画像内の操作体の位置を算出する。そして操作認識部2060は、操作体の位置の変化を表す情報を、操作体の動きを表す情報とする。操作体の位置の変化を表す情報は、例えば操作体の位置を時系列で並べた情報である。
<Method for Detecting Movement of Operating Object: S110>
The operation recognizing unit 2060 detects the movement of the operating body in the captured image in order to recognize the input operation on the operation screen (S110). The operation recognizing unit 2060 may detect the movement of the operating body using a plurality of captured images, or may detect the movement of the operating body using one captured image. In the former case, for example, the operation recognizing unit 2060 calculates the position of the operating body in each captured image by performing image analysis on each of the plurality of captured images. The operation recognizing unit 2060 uses the information indicating the change in the position of the operating tool as information indicating the movement of the operating tool. The information indicating the change in the position of the operating tool is, for example, information in which the positions of the operating tool are arranged in time series.

前述したように、操作認識部2060は、1つの撮像画像を用いて操作体の動きを検出してもよい。動いている操作体は、1つの撮像画像にぶれた状態で写ることが多い。そこで操作認識部2060は、その1つの撮像画像にぶれて写っている操作体の画像から、操作体の動きを算出する。   As described above, the operation recognition unit 2060 may detect the movement of the operation body using one captured image. In many cases, a moving operating body is captured in a state of being shaken by one captured image. Therefore, the operation recognizing unit 2060 calculates the movement of the operating body from the image of the operating body that is reflected in the one captured image.

図12は、ユーザの指がぶれて写っている撮像画像22を例示する図である。撮像画像22では、ユーザの指30が、指30−Aから指30−Bへ移動するようにぶれて写っている。操作認識部2060は、指30−Aと指30−Bに共通する特徴点の位置の変化を、操作体の動きとして検出する。例えば操作認識部2060は、指30−Aの指先と指30−Bの指先の位置の変化によって定まる動き50を検出する。   FIG. 12 is a diagram illustrating a captured image 22 in which a user's finger is blurred. In the captured image 22, the user's finger 30 is blurred as if moving from the finger 30 -A to the finger 30 -B. The operation recognition unit 2060 detects a change in the position of a feature point common to the finger 30-A and the finger 30-B as the movement of the operation body. For example, the operation recognition unit 2060 detects a movement 50 determined by a change in the position of the fingertip of the finger 30-A and the fingertip of the finger 30-B.

<操作認識部2060によって認識される入力操作:S110>
操作認識部2060は、検出した操作体の位置又は動きに基づいて、操作画面に対する入力操作を認識する(S110)。操作認識部2060は、操作体の位置又は動きに基づいて定まる様々な入力操作を認識できる。以下、操作認識部2060によって認識できる種々の入力操作を例示する。
<Input Operation Recognized by Operation Recognizing Unit 2060: S110>
The operation recognition unit 2060 recognizes an input operation on the operation screen based on the detected position or movement of the operation body (S110). The operation recognition unit 2060 can recognize various input operations determined based on the position or movement of the operation body. Hereinafter, various input operations that can be recognized by the operation recognition unit 2060 will be exemplified.

<<操作体の位置に基づいて定まる入力操作>>
操作体の位置に基づいて操作認識部2060が認識する入力操作は様々である。例えば操作認識部2060は、操作体の位置に基づいて、キーを表す画像を選択する入力操作(以下、キー入力操作)を受け付ける。
<< Input operation determined based on the position of the operating body >>
There are various input operations recognized by the operation recognition unit 2060 based on the position of the operation body. For example, the operation recognizing unit 2060 receives an input operation (hereinafter referred to as a key input operation) for selecting an image representing a key based on the position of the operation body.

図13は、操作体の位置に基づいて定まる操作を例示する図である。図13において、操作体は指30である。図13(a)において、指30は「5」のキーの上に位置している。そのため、操作認識部2060は、「5」を入力する入力操作を受け付ける。一方、図13(b)において、指30は「キャンセル」のキーの上に位置している。そのため、操作認識部2060は、「キャンセル」を入力する入力操作を受け付ける。   FIG. 13 is a diagram illustrating an operation determined based on the position of the operating tool. In FIG. 13, the operating body is a finger 30. In FIG. 13A, the finger 30 is positioned on the “5” key. Therefore, the operation recognition unit 2060 receives an input operation for inputting “5”. On the other hand, in FIG. 13B, the finger 30 is positioned on the “cancel” key. Therefore, the operation recognition unit 2060 accepts an input operation for inputting “cancel”.

なお、操作体の位置に基づいて操作認識部2060が認識する入力操作は、操作体の位置によって定まる任意の入力操作でよく、キー入力操作に限定されない。例えば操作認識部2060は、操作体の位置に基づき、表示装置3020に表示された複数の写真の中から1つを選択する入力操作などを受け付けてもよい。   Note that the input operation recognized by the operation recognition unit 2060 based on the position of the operating tool may be any input operation determined by the position of the operating tool, and is not limited to the key input operation. For example, the operation recognition unit 2060 may accept an input operation for selecting one of a plurality of photographs displayed on the display device 3020 based on the position of the operation tool.

<<操作体の動きに基づいて定まる入力操作>>
操作認識部2060は、1)検出した操作体の動きに基づく形状を入力する入力操作を認識してもよいし、2)検出した操作体の動きに対応する所定の入力操作を認識してもよい。以下、それぞれについて説明する。
<< Input operation determined based on movement of operation body >>
The operation recognition unit 2060 may recognize 1) an input operation for inputting a shape based on the detected movement of the operating body, or 2) recognize a predetermined input operation corresponding to the detected movement of the operating body. Good. Each will be described below.

<<操作体の動きに基づく形状を入力する入力操作を認識するケース>>
図14は、操作体の動きによって定まる形状を入力する入力操作を認識するケースを例示する図である。図14(a)では、操作認識部2060は、操作体の動き50−Aが表す形状51や、動き50−Bが表す形状52を入力する入力操作を認識する。例えばこの入力操作は、手書き入力を行う入力操作で利用される。
<< Case of recognizing input operation for inputting shape based on movement of operation body >>
FIG. 14 is a diagram illustrating a case of recognizing an input operation for inputting a shape determined by the movement of the operating body. In FIG. 14A, the operation recognition unit 2060 recognizes an input operation for inputting the shape 51 represented by the motion 50-A of the operating body and the shape 52 represented by the motion 50-B. For example, this input operation is used in an input operation for performing handwritten input.

図14(b)では、操作認識部2060は、操作体の動きとは異なる形状ではあるものの、操作体の動きによって形状及び大きさが定まる形状を入力する入力操作を認識する。具体的には、操作認識部2060は、動き50−Cの両端を対角線の両端とする矩形54や、動き50−Cの両端を直径の両端とする円形56を入力する入力操作を認識する。例えばこの入力は、ユーザがある範囲を表す入力(選択操作など)を行う際や、所定の図形の描画を行う際に用いられる。   In FIG. 14B, the operation recognition unit 2060 recognizes an input operation that inputs a shape whose shape and size are determined by the movement of the operation body, although the shape is different from the movement of the operation body. Specifically, the operation recognizing unit 2060 recognizes an input operation for inputting a rectangle 54 having both ends of the motion 50-C as opposite ends of the diagonal line and a circle 56 having both ends of the motion 50-C as both ends of the diameter. For example, this input is used when the user performs an input representing a certain range (such as a selection operation) or when drawing a predetermined figure.

図14(a)に示した方法と図14(b)で示した方法のどちらを用いるのかを表す情報は、操作認識部2060に予め設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって設定されてもよい。   Information indicating whether to use the method shown in FIG. 14A or the method shown in FIG. 14B may be set in advance in the operation recognition unit 2060 or can be accessed from the operation recognition unit 2060. It may be stored in a storage device or may be set by the user.

<<操作体の動きに対応する所定の入力操作を認識するケース>>
検出した操作体の動きに対応する所定の入力操作は、例えばジェスチャ入力による入力操作である。図15は、ジェスチャ入力を例示する図である。図15(a)はフリック動作を表し、図15(b)はピンチイン・ピンチアウト動作を表している。なお、矢印は操作体の動きを表している。
<< Case where a predetermined input operation corresponding to the movement of the operating body is recognized >>
The predetermined input operation corresponding to the detected movement of the operating body is, for example, an input operation by gesture input. FIG. 15 is a diagram illustrating gesture input. FIG. 15A shows a flick operation, and FIG. 15B shows a pinch-in / pinch-out operation. The arrow represents the movement of the operating tool.

操作体の動きと、その動きに対応する所定の入力操作とを関連付ける情報は、操作認識部2060に予め設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に予め記憶されていてもよいし、ユーザによって設定可能であってもよい。   Information associating the movement of the operating body with a predetermined input operation corresponding to the movement may be set in advance in the operation recognizing unit 2060 or stored in advance in a storage device accessible from the operation recognizing unit 2060. It may be set by the user.

<操作体の位置や動きの表し方について>
操作認識部2060が認識する操作体の位置や動きの表し方は任意である。例えば操作認識部2060は、操作体の位置や動きを撮像画像全体における相対位置として表す。図16は、操作体の位置や動きが、撮像画像全体における相対的な位置や動きによって表される様子を例示する図である。図16(a)は、操作体の位置を入力操作として認識するケースである。図16(a)において、操作体の位置である座標 (x1, x1) は、撮像画像22の左上端を原点とし、撮像画像22を平面視した場合における右方向を x 軸とし、撮像画像22を平面視した場合における下方向を y 軸とする座標系における座標である。
<How to represent the position and movement of the operating tool>
The method of representing the position and movement of the operating body recognized by the operation recognizing unit 2060 is arbitrary. For example, the operation recognition unit 2060 represents the position and movement of the operating tool as relative positions in the entire captured image. FIG. 16 is a diagram illustrating a state in which the position and movement of the operating tool are represented by relative positions and movements in the entire captured image. FIG. 16A shows a case where the position of the operating body is recognized as an input operation. In FIG. 16A, the coordinates (x1, x1) as the position of the operating body are the origin at the upper left corner of the captured image 22, the x axis is the right direction when the captured image 22 is viewed in plan, and the captured image 22 Is the coordinate in the coordinate system with the y-axis as the downward direction when viewed in plan view.

図16(b)は、操作体の動きを入力操作として認識するケースである。矢印は、操作体の軌跡を表す。図16(b)において、操作体の位置は (x2, y2)、(x3, y3)、(x4, y4) の順に変化している。これらの座標はいずれも、図16(a)で説明した座標系における座標である。操作体の動きは、例えばこれらの座標を時系列で並べた情報によって表される。   FIG. 16B shows a case where the movement of the operating body is recognized as an input operation. The arrow represents the trajectory of the operating body. In FIG. 16B, the position of the operating body changes in the order of (x2, y2), (x3, y3), (x4, y4). These coordinates are all the coordinates in the coordinate system described with reference to FIG. The movement of the operating body is represented by, for example, information in which these coordinates are arranged in time series.

なお、上述した操作体の位置や動きを表す方法は、あくまで例示である。操作体の位置や動きを表す方法は、操作体の位置や動きを表すことができる任意の方法でよく、上述した方法には限定されない。   Note that the above-described method for representing the position and movement of the operating tool is merely an example. The method of representing the position and movement of the operating tool may be any method that can represent the position and movement of the operating tool, and is not limited to the method described above.

<<操作体を動かす動作が行われた場所の取り扱いについて>>
操作認識部2060は、1)操作体を動かす動作が行われた位置に関係なく、その操作体の動きのみを入力として認識してもよいし、2)操作体の動きと、その操作体を動かす動作が行われた位置との組み合わせを入力として認識してもよい。前者の場合、操作体を動かす動作が撮像画像上のどの場所で行われても、同じ操作体の動きは同じ入力を表す。一方後者の場合、操作体を動かす動作が撮像画像上のどの場所で行われたかが意味を持つ。例えばユーザが撮像画像に写っている特定の物を丸で囲む入力を行う場合、丸という形状だけでなく、その丸によって何が囲われたかが意味を持つ。
<< Handling of the place where the operation body is moved >>
The operation recognition unit 2060 may recognize only the movement of the operation body as an input regardless of the position where the operation of moving the operation body is performed, or 2) the movement of the operation body and the operation body. A combination with the position where the moving operation is performed may be recognized as an input. In the former case, the movement of the same operating tool represents the same input no matter where the movement of the operating tool is performed on the captured image. On the other hand, in the latter case, it is significant where the operation body is moved on the captured image. For example, when the user performs an input of encircling a specific object shown in the captured image, not only the shape of the circle but also what is surrounded by the circle has a meaning.

1)の場合、例えば操作認識部2060は、前述したように操作認識部2060によって検出された操作体の動きで定まる形状や、操作体の動きで定まるジェスチャを、入力として認識する。また例えば、操作認識部2060は、操作体の動きの始点を基準とした操作体の相対座標の遷移を、入力として認識してもよい。   In the case of 1), for example, the operation recognizing unit 2060 recognizes, as input, the shape determined by the motion of the operating body detected by the operation recognizing unit 2060 and the gesture determined by the motion of the operating body as described above. Further, for example, the operation recognition unit 2060 may recognize, as an input, the transition of the relative coordinates of the operation body based on the start point of the movement of the operation body.

一方2)の場合、操作認識部2060は、操作認識部2060によって検出された撮像画像上の操作体の座標の遷移を入力として認識する。ただし、操作認識部2060は、1)の場合においても、2)の場合と同様に、撮像画像上の操作体の座標の遷移を入力として認識してもよい。   On the other hand, in the case of 2), the operation recognition unit 2060 recognizes, as an input, the transition of the coordinates of the operation body on the captured image detected by the operation recognition unit 2060. However, in the case of 1), the operation recognizing unit 2060 may recognize the transition of the coordinates of the operating body on the captured image as an input as in the case of 2).

操作認識部2060が1)と2)のどちらの方法で入力を認識するのかは、予め操作認識部2060に設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって設定可能であってもよい。   Whether the operation recognition unit 2060 recognizes the input by 1) or 2) may be set in advance in the operation recognition unit 2060 or stored in a storage device accessible from the operation recognition unit 2060. It may be set by the user.

<操作体の位置と動きのどちらによって入力操作を認識するか>
操作認識部2060は、操作体の位置又は動きによって入力操作を認識する。ここで、操作体の位置と動きのどちらによって入力操作を認識するかを決定する方法は様々である。例えば、操作体の位置と動きのどちらによって入力操作を認識するかを、予め定めておく。ここで、操作体の位置と動きのどちらによって入力操作を認識するか示す情報は、操作認識部2060に設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって設定されてもよい。
<Which input operation should be recognized by the position or movement of the operating tool>
The operation recognition unit 2060 recognizes an input operation based on the position or movement of the operation body. Here, there are various methods for determining whether the input operation is recognized based on the position or movement of the operating body. For example, it is determined in advance whether the input operation is recognized by the position or movement of the operating body. Here, the information indicating whether the input operation is recognized by the position or movement of the operating tool may be set in the operation recognizing unit 2060 or stored in a storage device accessible from the operation recognizing unit 2060. Alternatively, it may be set by the user.

また例えば、操作認識部2060は、操作体の動きの程度によって、操作体の位置と動きのどちらで入力操作を認識するかを決定してもよい。例えば、所定時間内における操作体の移動範囲の大きさが所定値未満である場合、操作認識部2060は操作体の位置によって入力操作を認識する。これにより、例えばユーザが操作体を或る位置に留めることで、その位置を表す入力操作が操作認識部2060によって認識される。この操作は、例えばマウスで或る場所を長押しするようなイメージの操作である。   Further, for example, the operation recognition unit 2060 may determine whether to recognize the input operation based on the position or movement of the operating body, depending on the degree of movement of the operating body. For example, when the size of the moving range of the operating tool within a predetermined time is less than a predetermined value, the operation recognizing unit 2060 recognizes the input operation based on the position of the operating tool. Thereby, for example, when the user holds the operation tool at a certain position, the operation recognition unit 2060 recognizes the input operation representing the position. This operation is, for example, an image operation in which a certain place is long pressed with a mouse.

この場合に操作認識部2060が入力操作として認識する操作体の位置は、この所定時間内における操作体の位置によって定まる。例えば操作認識部2060は、この所定時間内における操作体の位置の内のいずれか1つを操作体の位置とする。また例えば、操作認識部2060は、この所定時間内における操作体の位置から算出される統計値(平均値や最頻値など)を操作体の位置とする。   In this case, the position of the operating body recognized as the input operation by the operation recognition unit 2060 is determined by the position of the operating body within the predetermined time. For example, the operation recognition unit 2060 sets any one of the positions of the operating body within the predetermined time as the position of the operating body. Further, for example, the operation recognition unit 2060 uses a statistical value (such as an average value or a mode value) calculated from the position of the operating body within the predetermined time as the position of the operating body.

一方、所定時間内における操作体の移動範囲の大きさが所定値以上である場合、操作認識部2060は、操作体の動きによって入力操作を認識する。   On the other hand, when the size of the moving range of the operating tool within a predetermined time is greater than or equal to a predetermined value, the operation recognizing unit 2060 recognizes the input operation based on the movement of the operating tool.

上記所定時間又は所定値を示す情報は、操作認識部2060に設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって設定されてもよい。   The information indicating the predetermined time or the predetermined value may be set in the operation recognition unit 2060, stored in a storage device accessible from the operation recognition unit 2060, or set by the user. .

[実施形態2]
図17は、実施形態2に係る情報処理システム3000を例示するブロック図である。下記で説明する点を除き、実施形態2の情報処理システム3000は、実施形態1の情報処理システム3000と同様の機能を有する。
[Embodiment 2]
FIG. 17 is a block diagram illustrating an information processing system 3000 according to the second embodiment. Except for the points described below, the information processing system 3000 according to the second embodiment has the same functions as the information processing system 3000 according to the first embodiment.

情報処理システム3000は第1マーカ3040を有する。第1マーカ3040は、ユーザに身につけられるものか、又はユーザの身体の一部である。第1マーカ3040についての詳細な説明は後述する。   The information processing system 3000 has a first marker 3040. The first marker 3040 is worn by the user or is a part of the user's body. A detailed description of the first marker 3040 will be described later.

実施形態2の商品認識部2020は、カメラ20によって生成された撮像画像から商品を認識する。その際、商品認識部2020は、撮像画像全体からではなく、撮像画像に含まれる一部の領域から商品を認識する。この「一部の領域」は、撮像画像に写っている第1マーカ3040によって定まる。   The product recognition unit 2020 of the second embodiment recognizes a product from the captured image generated by the camera 20. At that time, the product recognition unit 2020 recognizes the product from a part of the region included in the captured image, not from the entire captured image. This “partial region” is determined by the first marker 3040 in the captured image.

具体的にはまず、商品認識部2020は、撮像画像に写っている第1マーカ3040の位置に基づいて定まる商品認識領域を抽出する。そして商品認識部2020は、この商品認識領域に写っている商品を認識する。   Specifically, first, the product recognition unit 2020 extracts a product recognition region that is determined based on the position of the first marker 3040 in the captured image. And the goods recognition part 2020 recognizes the goods reflected in this goods recognition area.

<処理の流れ>
図18は、実施形態2の商品認識部2020によって実行される処理の流れを例示するフローチャートである。このフローチャートは、図4のS102において行われる一連の処理の一態様を表す。
<Process flow>
FIG. 18 is a flowchart illustrating the flow of processing executed by the product recognition unit 2020 according to the second embodiment. This flowchart represents one mode of a series of processes performed in S102 of FIG.

商品認識部2020は、撮像画像を取得する(S202)。商品認識部2020は、撮像画像に写っている第1マーカ3040の位置を算出する(S204)。商品認識部2020は、第1マーカ3040の位置に基づいて、撮像画像から商品認識領域を抽出する(S206)。商品認識部2020は、商品認識領域に写っている商品10を認識する(S208)。   The product recognition unit 2020 acquires a captured image (S202). The product recognition unit 2020 calculates the position of the first marker 3040 in the captured image (S204). The product recognition unit 2020 extracts a product recognition area from the captured image based on the position of the first marker 3040 (S206). The product recognition unit 2020 recognizes the product 10 in the product recognition area (S208).

<第1マーカ3040について>
第1マーカ3040は、カメラ20によって生成される撮像画像において少なくともその位置が特定できる任意の物である。例えば第1マーカ3040は、3次元の座標系の決定に利用できるマーカである。3次元の座標系の決定に利用できるマーカは、例えば AR(Augmented Reality)マーカである。ただし、3次元の座標系の決定に利用できるマーカは、参照方向によらず、或る基準点からの相互に直交する3つの方向を一定に得ることができるものであればよく、AR マーカには限定されない。また、第1マーカ3040は、撮像画像においてその位置が特定できる物であればよく、必ずしも3次元の座標系の決定に利用できる必要はない。
<About the first marker 3040>
The first marker 3040 is an arbitrary object whose position can be specified at least in the captured image generated by the camera 20. For example, the first marker 3040 is a marker that can be used to determine a three-dimensional coordinate system. A marker that can be used for determining a three-dimensional coordinate system is, for example, an AR (Augmented Reality) marker. However, any marker that can be used to determine the three-dimensional coordinate system is not limited to the reference direction, as long as it can constantly obtain three directions orthogonal to each other from a certain reference point. Is not limited. In addition, the first marker 3040 may be anything that can identify the position in the captured image, and does not necessarily need to be used for determining a three-dimensional coordinate system.

第1マーカ3040がユーザの身体に身に付けられるものである場合、第1マーカ3040は、ユーザの身体の任意の箇所に取り付けることができる。例えば第1マーカ3040は、ユーザの腕部に身に付けられる。   When the first marker 3040 is worn on the user's body, the first marker 3040 can be attached to any location on the user's body. For example, the first marker 3040 is worn on the user's arm.

例えばこの場合、第1マーカ3040は、ユーザの腕部に取り付けられたデバイスのディスプレイ装置に表示される画像である。このデバイスは、ディスプレイ装置上に画像を表示する機能を有する任意の電子機器である。なおこのデバイスは、ユーザの腕に直接取り付けられてもよいし、服の上からユーザの腕に取り付けられてもよい。   For example, in this case, the first marker 3040 is an image displayed on the display device of the device attached to the user's arm. This device is any electronic device having a function of displaying an image on a display device. The device may be directly attached to the user's arm or may be attached to the user's arm from above the clothes.

図19は、第1マーカ3040として扱われる画像を表示するデバイスを例示する図である。図19において、第1マーカ3040は、デバイス80のタッチパネル82に表示されているマーカ画像84である。マーカ画像84は、予めデバイス80に記憶されている画像であってもよいし、デバイス80の外部にある記憶装置に記憶されている画像であってもよい。後者の場合、デバイス80は、マーカ画像84を記憶装置から取得して表示する。   FIG. 19 is a diagram illustrating a device that displays an image treated as the first marker 3040. In FIG. 19, the first marker 3040 is a marker image 84 displayed on the touch panel 82 of the device 80. The marker image 84 may be an image stored in advance in the device 80, or may be an image stored in a storage device outside the device 80. In the latter case, the device 80 acquires the marker image 84 from the storage device and displays it.

第1マーカ3040は、上述のようにデバイスに表示されるものに限定されない。また第1マーカ3040は、ユーザの腕部などに直接描画されていてもよいし、ユーザの腕部などにある任意の物に描画されていてもよい。後者の場合、例えば第1マーカ3040は、ユーザの指に取り付けられている指輪、ユーザの手首に取り付けられているリストバンド、又はユーザが着ている服の袖などに描画される。なお、第1マーカ3040は、手で描画されてもよいし、印字されてもよい。   The first marker 3040 is not limited to the one displayed on the device as described above. The first marker 3040 may be drawn directly on the user's arm or the like, or may be drawn on an arbitrary object on the user's arm or the like. In the latter case, for example, the first marker 3040 is drawn on a ring attached to the user's finger, a wristband attached to the user's wrist, or a sleeve of clothes worn by the user. The first marker 3040 may be drawn by hand or printed.

さらに、第1マーカ3040は、光を発する発光デバイス(LED(Light Emitting Diode)など)であってもよい。なお、第1マーカ3040が発光デバイスであり、なおかつ第1マーカ3040に基づいて3次元の座標系が定められる場合、第1マーカ3040は3つ以上の発光デバイスを用いて構成される。商品認識部2020は、撮像画像に写っているこれら3つ以上の発光デバイスそれぞれによって発せられた光の位置を算出する。そして、商品認識部2020は、各発光デバイスの位置に基づいて、3次元の座標系を決定することができる。なお、3点以上の物を用いて3次元の座標系を決定する方法には既知の方法を利用できるため、その具体的な方法の説明は省略する。   Further, the first marker 3040 may be a light emitting device (such as an LED (Light Emitting Diode)) that emits light. Note that when the first marker 3040 is a light emitting device and a three-dimensional coordinate system is determined based on the first marker 3040, the first marker 3040 is configured using three or more light emitting devices. The merchandise recognition unit 2020 calculates the position of light emitted by each of these three or more light emitting devices shown in the captured image. And the goods recognition part 2020 can determine a three-dimensional coordinate system based on the position of each light emitting device. Since a known method can be used as a method for determining a three-dimensional coordinate system using three or more objects, a description of the specific method is omitted.

さらに第1マーカ3040は、ユーザの身体の特定の部分であってもよい。例えば第1マーカ3040は、ユーザの手の甲などである。   Further, the first marker 3040 may be a specific part of the user's body. For example, the first marker 3040 is the back of the user's hand.

撮像画像から第1マーカ3040を検出するために、商品認識部2020は、第1マーカ3040として扱うものを特定する情報(第1マーカ3040の形状、サイズ、色などについての情報など:以下、マーカ情報)を利用する。マーカ情報は、予め商品認識部2020に設定されていてもよいし、商品認識部2020からアクセス可能な記憶装置に記憶されていてもよい。   In order to detect the first marker 3040 from the captured image, the merchandise recognizing unit 2020 identifies information to be handled as the first marker 3040 (information on the shape, size, color, etc. of the first marker 3040; Information). The marker information may be set in advance in the product recognition unit 2020, or may be stored in a storage device accessible from the product recognition unit 2020.

<第1マーカ3040の位置を算出する方法:S204>
商品認識部2020は、マーカ情報を用いて撮像画像を画像解析することで、撮像画像に写っている第1マーカ3040を検出する。そして商品認識部2020は、検出した第1マーカ3040の位置を算出する。ここで、画像内から所定の物を検出し、さらにその物の画像内における位置を算出する技術には、既知の様々な技術を利用できる。なお、第1マーカ3040の位置は、操作体の位置と同様に、例えば撮像画像全体における相対位置(座標)で表される。例えば第1マーカ3040の位置は、撮像画像全体における第1マーカ3040の中心位置の座標である。ただし、第1マーカ3040の位置は、第1マーカ3040の中心位置に限定されない。
<Method of calculating position of first marker 3040: S204>
The product recognition unit 2020 detects the first marker 3040 in the captured image by performing image analysis on the captured image using the marker information. Then, the product recognition unit 2020 calculates the position of the detected first marker 3040. Here, various known techniques can be used as a technique for detecting a predetermined object from the image and calculating the position of the object in the image. Note that the position of the first marker 3040 is represented by, for example, a relative position (coordinates) in the entire captured image, similarly to the position of the operating tool. For example, the position of the first marker 3040 is the coordinates of the center position of the first marker 3040 in the entire captured image. However, the position of the first marker 3040 is not limited to the center position of the first marker 3040.

<商品認識領域を抽出する方法:S206>
商品認識部2020は、算出した撮像画像上の第1マーカ3040の位置に基づいて、撮像画像から商品認識領域を抽出する(S106)。商品認識領域は、第1マーカ3040の位置を基準として定められる任意の領域である。例えば商品認識領域は、第1マーカ3040の位置(例えば中心位置)を中心位置とする所定形状で定まる領域である。この所定形状は、円形や矩形など、任意の形状である。
<Method for Extracting Product Recognition Area: S206>
The product recognition unit 2020 extracts a product recognition area from the captured image based on the calculated position of the first marker 3040 on the captured image (S106). The product recognition area is an arbitrary area that is determined based on the position of the first marker 3040. For example, the product recognition area is an area determined by a predetermined shape with the position (for example, the center position) of the first marker 3040 as the center position. This predetermined shape is an arbitrary shape such as a circle or a rectangle.

図20は、商品認識領域70を例示する第1の図である。図20において、商品認識領域70は、マーカ画像84(第1マーカ3040)の中心位置を中心位置とし、幅が所定の長さ w であり、高さが所定の長さ h である矩形である。   FIG. 20 is a first diagram illustrating the product recognition area 70. In FIG. 20, the product recognition area 70 is a rectangle having the center position of the marker image 84 (first marker 3040), the width being a predetermined length w, and the height being a predetermined length h. .

ただし、第1マーカ3040の位置によって定まる位置は、商品認識領域70の中心位置に限定されない。例えば、第1マーカ3040の位置によって商品認識領域70の左上端などの位置が定まってもよい。   However, the position determined by the position of the first marker 3040 is not limited to the center position of the product recognition area 70. For example, the position of the upper left corner of the product recognition area 70 may be determined by the position of the first marker 3040.

また例えば商品認識領域70は、第1マーカ3040の位置から所定方向に所定距離離れた場所に中心位置などがある領域であってもよい。図21は、商品認識領域70を例示する第2の図である。図21において、商品認識領域70の中心位置は、第1マーカ3040から矢印72によって定まる方向へ距離 d だけ移動した場所である。   Further, for example, the product recognition area 70 may be an area having a center position or the like at a predetermined distance from the position of the first marker 3040 in a predetermined direction. FIG. 21 is a second diagram illustrating the product recognition area 70. In FIG. 21, the center position of the product recognition area 70 is a place moved from the first marker 3040 by a distance d in the direction determined by the arrow 72.

なお図20及び図21において、商品認識領域70は、撮像画像によって表される平面(図16の xy 平面)における所定形状となっている。しかし、商品認識領域70は、撮像画像によって表される平面以外の平面における所定形状であってもよい。   20 and 21, the product recognition area 70 has a predetermined shape on the plane (xy plane in FIG. 16) represented by the captured image. However, the product recognition area 70 may have a predetermined shape on a plane other than the plane represented by the captured image.

例えば商品認識領域70は、第1マーカ3040によって定まる3次元座標系における平面上の所定形状でもよい。図22は、商品認識領域70を例示する第3の図である。図22の商品認識領域70は、図20の商品認識領域70と同様に、マーカ画像84(第1マーカ3040)の中心位置を中心位置とし、幅が所定の長さ w であり、高さが所定の長さ h である矩形である。ただし図22では、商品認識領域70は、マーカ画像84によって定まる座標系87の xy 平面における矩形である。より具体的には、商品認識領域70は、座標系87の原点を中心位置とし、座標系87の x 軸方向における長さが w であり、座標系87の y 軸方向における長さが h である。   For example, the product recognition area 70 may have a predetermined shape on a plane in a three-dimensional coordinate system determined by the first marker 3040. FIG. 22 is a third diagram illustrating the product recognition area 70. Similar to the product recognition area 70 of FIG. 20, the product recognition area 70 of FIG. 22 has the center position of the marker image 84 (first marker 3040), the width is a predetermined length w, and the height is high. A rectangle with a predetermined length h. However, in FIG. 22, the product recognition area 70 is a rectangle in the xy plane of the coordinate system 87 determined by the marker image 84. More specifically, the product recognition area 70 is centered on the origin of the coordinate system 87, the length of the coordinate system 87 in the x-axis direction is w, and the length of the coordinate system 87 in the y-axis direction is h. is there.

図23は、商品認識領域70を例示する図4の図である。図23の商品認識領域70は、図21の商品認識領域70と同様に、マーカ画像84から矢印72によって定まる方向へ距離 d だけ移動した場所を中心位置とし、幅が所定の長さ w であり、高さが所定の長さ h である矩形である。ただし図23では、矢印72によって表される方向が、座標系87における方向となっている。また商品認識領域70は、座標系87の x 軸方向における長さが w であり、座標系87の y 軸方向における長さが h である。   FIG. 23 is a diagram of the product recognition area 70 illustrated in FIG. The product recognition area 70 in FIG. 23 is similar to the product recognition area 70 in FIG. 21 and has a center position at a position moved by a distance d in the direction determined by the arrow 72 from the marker image 84, and the width is a predetermined length w. A rectangle whose height is a predetermined length h. However, in FIG. 23, the direction represented by the arrow 72 is the direction in the coordinate system 87. The product recognition area 70 has a length w in the x-axis direction of the coordinate system 87 and h in the y-axis direction of the coordinate system 87.

このように、第1マーカ3040で定まる座標系を利用して商品認識領域70を抽出することにより、第1マーカ3040の姿勢の変化に商品認識領域70の姿勢が追従する。例えば図22の例において、デバイス80が設けられている手首をユーザが捻ると、その捻りにあわせて商品認識領域70の姿勢が変化する。   Thus, by extracting the product recognition area 70 using the coordinate system determined by the first marker 3040, the attitude of the product recognition area 70 follows the change in the attitude of the first marker 3040. For example, in the example of FIG. 22, when the user twists the wrist on which the device 80 is provided, the posture of the product recognition area 70 changes according to the twist.

図24は、第1マーカ3040の傾きに合わせて商品認識領域70の姿勢が変化する様子を例示する図である。図24において、ユーザが手首を捻ることにより、マーカ画像84の姿勢(マーカ画像84によって定まる座標系87)が変化している。さらに、その変化に追従するように、商品認識領域70の姿勢も変化している。   FIG. 24 is a diagram illustrating a state in which the posture of the product recognition area 70 changes according to the inclination of the first marker 3040. In FIG. 24, the posture of the marker image 84 (the coordinate system 87 determined by the marker image 84) is changed as the user twists the wrist. Further, the attitude of the product recognition area 70 is also changed so as to follow the change.

このように、第1マーカ3040の姿勢の変化に合わせて商品認識領域70の姿勢が変化するようにすると、商品認識領域70に含めたい実世界上の物を、第1マーカ3040の姿勢に依らずに商品認識領域70に含めることができるようになる。例えば図23及び図24の例では、商品認識領域70の形状及び大きさ、並びに商品認識領域70の位置を適切に定義することにより、マーカ画像84の姿勢に依らずにユーザの手が商品認識領域70に含まれるようになる。この場合、ユーザは、手に商品10を持つことで、商品10を情報処理装置2000に認識させることができる。よって、ユーザにとって、情報処理装置2000の利用が容易となる。   As described above, when the posture of the product recognition area 70 is changed in accordance with the change of the posture of the first marker 3040, an object in the real world to be included in the product recognition area 70 depends on the posture of the first marker 3040. The product recognition area 70 can be included. For example, in the example of FIGS. 23 and 24, by appropriately defining the shape and size of the product recognition area 70 and the position of the product recognition area 70, the user's hand can recognize the product regardless of the posture of the marker image 84. The region 70 is included. In this case, the user can cause the information processing apparatus 2000 to recognize the product 10 by holding the product 10 in his hand. Therefore, the user can easily use the information processing apparatus 2000.

なお、前述した所定形状を表す情報や、どの場所を第1マーカ3040の中心とするかを表す情報(矢印72の情報など)は、商品認識部2020に予め設定されていてもよいし、商品認識部2020からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって設定されてもよい。   Note that the information indicating the predetermined shape and the information indicating which location is the center of the first marker 3040 (such as information on the arrow 72) may be set in advance in the product recognition unit 2020, It may be stored in a storage device accessible from the recognition unit 2020, or may be set by a user.

また、第1マーカ3040に基づいて定まる座標系87を利用する場合、第1マーカ3040は、3次元の座標の決定に用いることができるマーカ(AR マーカなど)である。なお、AR マーカなどを用いて3次元の座標系を決定する技術には既存の種々の技術を利用することができる。   When the coordinate system 87 determined based on the first marker 3040 is used, the first marker 3040 is a marker (such as an AR marker) that can be used for determining three-dimensional coordinates. Various existing techniques can be used as a technique for determining a three-dimensional coordinate system using an AR marker or the like.

また、商品認識領域70の大きさ(前述した幅 w や高さ h など)は、絶対値(画素数など)で定義されていてもよいし、相対値で定義されていてもよい。後者の場合、例えば商品認識領域70の大きさは、撮像画像の大きさに対する相対値で表される。撮像画像の大きさに対する相対値は、例えば撮像画像の幅又は高さを1とする相対値である。また例えば、商品認識領域70の大きさは、第1マーカ3040の大きさに対する相対値で表されてもよい。第1マーカ3040の大きさに対する相対値は、例えば第1マーカ3040の幅、高さ、対角線又は直径などを1とする相対値である。商品認識領域70の大きさを第1マーカ3040の大きさに対する相対値で定義すると、第1マーカ3040をカメラ20に近づけた場合に商品認識領域70が大きくなり、第1マーカ3040をカメラ20から遠ざけた場合に商品認識領域70が小さくなる。   Further, the size (such as the width w and the height h described above) of the product recognition area 70 may be defined by an absolute value (number of pixels or the like) or may be defined by a relative value. In the latter case, for example, the size of the product recognition area 70 is represented by a relative value with respect to the size of the captured image. The relative value with respect to the size of the captured image is, for example, a relative value where the width or height of the captured image is 1. For example, the size of the product recognition area 70 may be represented by a relative value with respect to the size of the first marker 3040. The relative value with respect to the size of the first marker 3040 is a relative value in which the width, height, diagonal line, diameter, or the like of the first marker 3040 is 1, for example. If the size of the product recognition area 70 is defined by a relative value with respect to the size of the first marker 3040, the product recognition area 70 becomes larger when the first marker 3040 is brought closer to the camera 20, and the first marker 3040 is moved from the camera 20. The product recognition area 70 becomes smaller when it is moved away.

また商品認識部2020は、第1マーカ3040を境界として定まる所定の領域を商品認識領域70として抽出してもよい。例えば商品認識部2020は、ユーザの手首にデバイス80が設けられている状況において、マーカ画像84(第1マーカ3040)を境界として定まる領域のうち、手が含まれる領域を商品認識領域70として抽出する。   In addition, the product recognition unit 2020 may extract a predetermined area determined by using the first marker 3040 as a boundary as the product recognition area 70. For example, in the situation where the device 80 is provided on the wrist of the user, the product recognition unit 2020 extracts a region including the hand as the product recognition region 70 among regions defined by the marker image 84 (first marker 3040) as a boundary. To do.

図25は、手が含まれる領域を例示する図である。図25において、商品認識部2020は、マーカ画像84によって定まる座標系87における y 軸を境界として、撮像画像22を2つの領域に分割する。そして、商品認識部2020は、分割された2つの領域のうち、手が含まれる領域(図25では右側の領域)を商品認識領域70として抽出する。   FIG. 25 is a diagram illustrating a region including a hand. In FIG. 25, the product recognition unit 2020 divides the captured image 22 into two regions with the y axis in the coordinate system 87 determined by the marker image 84 as a boundary. Then, the product recognition unit 2020 extracts, as the product recognition region 70, the region including the hand (the right region in FIG. 25) among the two divided regions.

なお、第1マーカ3040を境にした腕と手の位置関係(どちら側が腕で、どちら側が手か)は、第1マーカ3040がどちらの腕部に設けられているかによって異なる。例えば商品認識部2020は、第1マーカ3040がどちらの腕部に設けられているかを示す情報を利用することによって、第1マーカ3040がどちらの腕部に設けられているかを把握する。この情報は、商品認識部2020に予め設定されていてもよいし、商品認識部2020からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって設定されてもよい。   Note that the positional relationship between the arm and the hand with the first marker 3040 as a boundary (which side is the arm and which side is the hand) differs depending on which arm portion the first marker 3040 is provided on. For example, the product recognition unit 2020 grasps which arm part the first marker 3040 is provided by using information indicating which arm part the first marker 3040 is provided on. This information may be set in advance in the product recognition unit 2020, may be stored in a storage device accessible from the product recognition unit 2020, or may be set by the user.

<商品認識領域に写っている商品を認識する方法:S208>
商品認識部2020は、撮像画像から抽出された商品認識領域70に写っている商品10を認識する。ここで、画像の特定の領域に写っているオブジェクトを画像解析によって認識する方法には、既知の種々の技術を利用できる。
<Method for Recognizing Product in Product Recognition Area: S208>
The product recognition unit 2020 recognizes the product 10 shown in the product recognition area 70 extracted from the captured image. Here, various known techniques can be used as a method of recognizing an object reflected in a specific region of an image by image analysis.

<ハードウエア構成>
実施形態2の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージ1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
<Hardware configuration>
The hardware configuration of a computer that implements the information processing apparatus 2000 according to the second embodiment is represented by, for example, FIG. However, the storage 1080 of the computer 1000 that implements the information processing apparatus 2000 according to the present embodiment further stores program modules that implement the functions of the information processing apparatus 2000 according to the present embodiment.

<作用・効果>
本実施形態によれば、撮像画像の一部の領域である商品認識領域70が抽出され、その商品認識領域70から商品10が認識される。よって、撮像画像全体から商品10を認識する処理を行うケースと比較し、画像処理の対象となるデータのサイズが小さくなる。よって、本実施形態において商品10を認識する処理は、撮像画像全体から商品10を認識する処理に比べて軽量な処理となり、処理に要する時間や計算機資源が削減される。
<Action and effect>
According to the present embodiment, the product recognition area 70 which is a partial area of the captured image is extracted, and the product 10 is recognized from the product recognition area 70. Therefore, the size of data to be subjected to image processing is smaller than in the case where the process of recognizing the product 10 from the entire captured image is performed. Therefore, the process for recognizing the product 10 in this embodiment is a lighter process than the process for recognizing the product 10 from the entire captured image, and the time required for the process and computer resources are reduced.

また本実施形態によれば、撮像画像に写っている第1マーカ3040に基づいて抽出される商品認識領域70から商品10が認識されるため、撮像画像に第1マーカ3040が写っていない時には商品10の認識が行われず、ひいては操作画面40の表示が行われない。よって、ユーザは、表示装置3020に操作画面40を表示させるか否かを、第1マーカ3040をカメラ20の撮像範囲に含めるか否かによって容易に制御できる。   Further, according to the present embodiment, since the product 10 is recognized from the product recognition area 70 extracted based on the first marker 3040 shown in the captured image, the product is displayed when the first marker 3040 is not shown in the captured image. 10 is not recognized, and as a result, the operation screen 40 is not displayed. Therefore, the user can easily control whether or not to display the operation screen 40 on the display device 3020 depending on whether or not the first marker 3040 is included in the imaging range of the camera 20.

ユーザにとって、操作画面40が常に表示される必要があるとは限らない。例えば表示装置3020がヘッドマウントディスプレイ100のディスプレイ装置102である場合、ユーザは、できる限り視界をクリアにするために、必要な時にだけ操作画面40を表示させたいとも考えられる。本実施形態の情報処理装置2000によれば、ユーザは、表示装置3020に操作画面40を表示させるか否かを、第1マーカ3040をカメラ20の撮像範囲に含めるか否かによって容易に制御できる。より具体的には、カメラ20がヘッドマウントディスプレイ100に設けられている場合、ユーザは、第1マーカ3040を視界に入れることで操作画面40を表示させることができ、第1マーカ3040を視界から外すことで操作画面40を表示させないことができる。このような容易な操作により、必要な時にだけ操作画面40を表示させることができるため、ユーザにとって情報処理システム3000の利便性が向上する。   For the user, the operation screen 40 does not always have to be displayed. For example, when the display device 3020 is the display device 102 of the head mounted display 100, the user may want to display the operation screen 40 only when necessary in order to clear the field of view as much as possible. According to the information processing apparatus 2000 of this embodiment, the user can easily control whether or not to display the operation screen 40 on the display apparatus 3020 depending on whether or not the first marker 3040 is included in the imaging range of the camera 20. . More specifically, when the camera 20 is provided in the head mounted display 100, the user can display the operation screen 40 by putting the first marker 3040 in the field of view, and the first marker 3040 can be viewed from the field of view. By removing, the operation screen 40 can be prevented from being displayed. With such an easy operation, the operation screen 40 can be displayed only when necessary, so that the convenience of the information processing system 3000 is improved for the user.

また、ユーザによる入力操作は操作画面40が表示されている時に行われるため、操作画面40が表示されないとき、即ち第1マーカ3040が撮像画像に写っていない時には、ユーザに入力操作を行う意思がないといえる。本実施形態の情報処理装置2000によれば、第1マーカ3040が撮像画像に写っていない時には商品10の認識が行われず、ひいては操作画面40が表示されないため、操作認識部2060による入力操作の認識も行われない。このように、ユーザに入力操作を行う意思がないときに操作認識部2060による入力操作の認識が行われることが無くなるため、情報処理装置2000の計算機資源が浪費されることを防ぐことができる。   Further, since the input operation by the user is performed when the operation screen 40 is displayed, the user is willing to perform the input operation when the operation screen 40 is not displayed, that is, when the first marker 3040 is not shown in the captured image. I can say no. According to the information processing apparatus 2000 of the present embodiment, when the first marker 3040 is not shown in the captured image, the product 10 is not recognized, and as a result, the operation screen 40 is not displayed, so that the operation recognition unit 2060 recognizes the input operation. Also not done. As described above, when the user does not intend to perform the input operation, the operation recognition unit 2060 does not recognize the input operation, and thus it is possible to prevent the computer resources of the information processing apparatus 2000 from being wasted.

[実施形態3]
図26は、実施形態3に係る情報処理システム3000を例示するブロック図である。下記で説明する点を除き、実施形態3の情報処理システム3000は、実施形態1又は実施形態2の情報処理システム3000と同様の機能を有する。
[Embodiment 3]
FIG. 26 is a block diagram illustrating an information processing system 3000 according to the third embodiment. Except as described below, the information processing system 3000 according to the third embodiment has the same functions as the information processing system 3000 according to the first or second embodiment.

実施形態3の情報処理システム3000は、第2マーカ3060を有する。第2マーカ3060は、第1マーカ3040と同様に、ユーザに身につけられるものか、又はユーザの身体の一部であるマーカである。   The information processing system 3000 according to the third embodiment includes a second marker 3060. Similar to the first marker 3040, the second marker 3060 is a marker that can be worn by the user or a part of the user's body.

実施形態3の表示制御部2040は、撮像画像に第2マーカ3060が写っている場合に、表示装置3020に操作画面を表示させる。   The display control unit 2040 of the third embodiment displays an operation screen on the display device 3020 when the second marker 3060 is reflected in the captured image.

<処理の流れ>
図27は、実施形態3の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。下記で説明する点を除き、図27のフローチャートは、図4のフローチャートと同様である。
<Process flow>
FIG. 27 is a flowchart illustrating the flow of processing executed by the information processing apparatus 2000 according to the third embodiment. Except as described below, the flowchart of FIG. 27 is the same as the flowchart of FIG.

表示制御部2040は、撮像画像から第2マーカ3060を検出する(S302)。撮像画像から第2マーカ3060を検出できた場合(S304:YES)、図27の処理はS108に進む。一方、撮像画像から第2マーカ3060を検出できなかった場合(S304:NO)、図27の処理は終了する。   The display control unit 2040 detects the second marker 3060 from the captured image (S302). When the second marker 3060 can be detected from the captured image (S304: YES), the processing in FIG. 27 proceeds to S108. On the other hand, when the second marker 3060 cannot be detected from the captured image (S304: NO), the processing in FIG. 27 ends.

<第2マーカ3060について>
第2マーカ3060として用いることができるものは、第1マーカ3040として用いることができるものと同様である。
<About the second marker 3060>
What can be used as the second marker 3060 is the same as that which can be used as the first marker 3040.

第1マーカ3040と第2マーカ3060は、同一のもので実現されてもよい。例えば情報処理装置2000は、デバイス80に表示されたマーカ画像84を、第1マーカ3040及び第2マーカ3060として扱う。ただし、第1マーカ3040と第2マーカ3060は、互いに異なるもので実現されてもよい。   The first marker 3040 and the second marker 3060 may be realized by the same thing. For example, the information processing apparatus 2000 handles the marker image 84 displayed on the device 80 as the first marker 3040 and the second marker 3060. However, the first marker 3040 and the second marker 3060 may be different from each other.

<第2マーカ3060を検出する方法:S302>
表示制御部2040が撮像画像から第2マーカ3060を検出する方法は、実施形態2の商品認識部2020が撮像画像から第1マーカ3040を検出する方法と同様である。ただし、特に言及する場合を除き、表示制御部2040は、撮像画像に第2マーカ3060が写っていることを把握すればよく、第2マーカ3060の位置を把握する必要はない。
<Method for Detecting Second Marker 3060: S302>
The method by which the display control unit 2040 detects the second marker 3060 from the captured image is the same as the method by which the product recognition unit 2020 of the second embodiment detects the first marker 3040 from the captured image. However, unless otherwise specified, the display control unit 2040 only needs to grasp that the second marker 3060 is reflected in the captured image, and does not need to grasp the position of the second marker 3060.

<操作画面の表示:S108>
表示制御部2040は、撮像画像から第2マーカ3060が検出された場合に(S304:YES)、表示制御部2040に操作画面を表示させる(S108)。表示制御部2040に操作画面を表示させる方法は、実施形態1で説明した通りである。
<Operation screen display: S108>
When the second marker 3060 is detected from the captured image (S304: YES), the display control unit 2040 displays an operation screen on the display control unit 2040 (S108). The method for displaying the operation screen on the display control unit 2040 is as described in the first embodiment.

<第2マーカ3060の位置を利用した操作画面40の表示>
本実施形態において、表示制御部2040は、操作画面の表示位置を第2マーカ3060の位置によって決定してもよい。この場合、表示制御部2040は、第2マーカ3060の位置を算出する。なお、第1マーカ3040の位置を算出する方法と同様に、第2マーカ3060の位置を算出する方法には、画像内から検出されたオブジェクトの画像内における位置を算出する既知の様々な技術を利用できる。
<Display of Operation Screen 40 Using Position of Second Marker 3060>
In the present embodiment, the display control unit 2040 may determine the display position of the operation screen based on the position of the second marker 3060. In this case, the display control unit 2040 calculates the position of the second marker 3060. Similar to the method of calculating the position of the first marker 3040, the method of calculating the position of the second marker 3060 uses various known techniques for calculating the position of the object detected from the image in the image. Available.

第2マーカ3060の位置に基づいて操作画面を表示する位置を決定する方法は様々である。例えば表示制御部2040は、操作画面40の中心位置を、第2マーカ3060の中心位置にする。図28は、第2マーカ3060の位置によって位置が定まる操作画面40を例示する第1の図である。図28において、操作画面40の中心位置は、マーカ画像84(第2マーカ3060)の中心位置である。なお、図28において、操作画面40の形状は、撮像画像22で定まる平面(例えば図16の xy 平面)における矩形である。また、図28では、図を見やすくするため、操作画面40に含まれる情報は省略されている。   There are various methods for determining the position to display the operation screen based on the position of the second marker 3060. For example, the display control unit 2040 sets the center position of the operation screen 40 to the center position of the second marker 3060. FIG. 28 is a first diagram illustrating the operation screen 40 whose position is determined by the position of the second marker 3060. In FIG. 28, the center position of the operation screen 40 is the center position of the marker image 84 (second marker 3060). In FIG. 28, the shape of the operation screen 40 is a rectangle on a plane determined by the captured image 22 (for example, the xy plane of FIG. 16). Also, in FIG. 28, information included in the operation screen 40 is omitted for easy viewing of the figure.

また例えば、表示制御部2040は、操作画面40の中心位置を、第2マーカ3060の中心位置から所定方向に所定距離離れた位置としてもよい。図29は、第2マーカ3060の位置によって位置が定まる操作画面40を例示する第2の図である。図29において、操作画面40の中心位置は、マーカ画像84の中心位置から矢印46よって定まる方向へ所定距離 d だけ移動した位置である。図29においても、操作画面40の形状は、撮像画像22で定まる平面(例えば図16の xy 平面)における矩形である。また、図29においても、操作画面40に含まれる情報は省略されている。   Further, for example, the display control unit 2040 may set the center position of the operation screen 40 at a position away from the center position of the second marker 3060 in a predetermined direction by a predetermined distance. FIG. 29 is a second diagram illustrating the operation screen 40 whose position is determined by the position of the second marker 3060. In FIG. 29, the center position of the operation screen 40 is a position moved from the center position of the marker image 84 by a predetermined distance d in the direction determined by the arrow 46. Also in FIG. 29, the shape of the operation screen 40 is a rectangle on a plane determined by the captured image 22 (for example, the xy plane of FIG. 16). Also in FIG. 29, information included in the operation screen 40 is omitted.

ただし、操作画面40の形状は矩形に限定されない。また、操作画面40の形状は、撮像画像22で定まる平面以外の平面における矩形等であってもよい。例えば表示制御部2040は、操作画面40を、第2マーカ3060によって定まる座標系(例えば、マーカ画像84によって定まる座標系87)における平面にマッピングする。   However, the shape of the operation screen 40 is not limited to a rectangle. The shape of the operation screen 40 may be a rectangle or the like on a plane other than the plane determined by the captured image 22. For example, the display control unit 2040 maps the operation screen 40 onto a plane in a coordinate system determined by the second marker 3060 (for example, a coordinate system 87 determined by the marker image 84).

図30は、第2マーカ3060の位置によって位置が定まる操作画面40を例示する第3の図である。図30において、操作画面40の中心位置は、マーカ画像84の中心位置である。また、図30において、操作画面40は、マーカ画像84によって定まる座標系87の xy 平面にマッピングされている。なお、図30においても、操作画面40に含まれる情報は省略されている。   FIG. 30 is a third diagram illustrating the operation screen 40 whose position is determined by the position of the second marker 3060. In FIG. 30, the center position of the operation screen 40 is the center position of the marker image 84. In FIG. 30, the operation screen 40 is mapped to the xy plane of the coordinate system 87 determined by the marker image 84. Note that information included in the operation screen 40 is also omitted in FIG.

図31は、第2マーカ3060の位置によって位置が定まる操作画面40を例示する図4の図である。図31において、操作画面40の中心位置は、マーカ画像84の中心位置から矢印46よって定まる方向へ所定距離 d だけ移動した位置である。ただし、矢印46は、マーカ画像84によって定まる座標系87における方向を表す。また、操作画面40は、座標系87の xy 平面)にマッピングされている。なお、図31においても、操作画面40に含まれる情報は省略されている。   FIG. 31 is a diagram of FIG. 4 illustrating the operation screen 40 whose position is determined by the position of the second marker 3060. In FIG. 31, the center position of the operation screen 40 is a position moved from the center position of the marker image 84 by a predetermined distance d in the direction determined by the arrow 46. However, the arrow 46 represents the direction in the coordinate system 87 determined by the marker image 84. Further, the operation screen 40 is mapped on the xy plane of the coordinate system 87. Note that information included in the operation screen 40 is also omitted in FIG.

なお、実施形態3の情報処理装置2000が実施形態2の情報処理装置2000の機能を有し、なおかつ第1マーカ3040と第2マーカ3060に同じもの(例えばマーカ画像84)を利用する場合、商品認識領域70の位置を定める矢印72が示す方向と、操作画面40の位置を定める矢印46が示す方向とは、異なる方向に設定されていることが好ましい。例えば図29と図31の矢印46が示す方向はそれぞれ、図18と図20の矢印72が示す方向と正反対の方向である。このようにすることで、商品認識領域70(ユーザが商品10を位置させる場所)と、操作画面40が表示される場所とが重ならないようにすることができる。つまり、操作画面40が商品10に重ならず、ユーザが商品10と操作画面40の双方を同時に見ることができるようになる。 When the information processing apparatus 2000 according to the third embodiment has the function of the information processing apparatus 2000 according to the second embodiment and the same one (for example, the marker image 84) is used for the first marker 3040 and the second marker 3060, the product It is preferable that the direction indicated by the arrow 72 for determining the position of the recognition area 70 and the direction indicated by the arrow 46 for determining the position of the operation screen 40 are set in different directions. For example, the direction indicated by the arrow 46 in FIGS. 29 and 31 is the opposite direction to the direction indicated by the arrow 72 in FIGS. 18 and 20, respectively. By doing in this way, the goods recognition area 70 (place where a user positions the goods 10) and the place where the operation screen 40 is displayed can be prevented from overlapping. That is, the operation screen 40 does not overlap with the product 10 and the user can view both the product 10 and the operation screen 40 at the same time.

前述した種々の方法により、第2マーカ3060の位置に基づいて、撮像画像上における操作画面40の位置が定まる。そこで表示制御部2040は、上記決定した撮像画像上の位置に対応する表示装置3020上の位置に操作画面40が表示されるように、表示装置3020に操作画面40を表示させる。その方法には、撮像画像に重畳せずに操作画面40を表示させる方法と、撮像画像に重畳して操作画面40を表示させる方法がある。以下、それぞれについて説明する。   The position of the operation screen 40 on the captured image is determined based on the position of the second marker 3060 by the various methods described above. Therefore, the display control unit 2040 displays the operation screen 40 on the display device 3020 so that the operation screen 40 is displayed at a position on the display device 3020 corresponding to the determined position on the captured image. The method includes a method of displaying the operation screen 40 without being superimposed on the captured image and a method of displaying the operation screen 40 while being superimposed on the captured image. Each will be described below.

<<撮像画像に重畳させずに操作画面40を表示させる方法>>
ヘッドマウントディスプレイ100を用いて情報処理装置2000が実現され、なおかつヘッドマウントディスプレイ100のディスプレイ装置102が透過型のディスプレイ装置である(ヘッドマウントディスプレイ100が透過型のヘッドマウントディスプレイである)とする。この場合、表示装置3020は、透過型のヘッドマウントディスプレイ100のディスプレイ装置102(レンズ部分)として実現される。またこの場合、撮像画像を生成するカメラ20は、ユーザの目に映る景色と同様の景色を撮像するように設けられる(図2のカメラ20など)。このような透過型のヘッドマウントディスプレイ100を利用する場合、ユーザはディスプレイ装置102の先に見える実物体(実世界の景色)を見ることで周囲の景色を把握でき、なおかつその景色は撮像画像に写る景色と同様の景色となる。そのため、ディスプレイ装置102に撮像画像を表示させる必要がない。
<< Method for Displaying Operation Screen 40 without Superimposition on the Captured Image >>
It is assumed that the information processing apparatus 2000 is realized using the head mounted display 100, and the display device 102 of the head mounted display 100 is a transmissive display device (the head mounted display 100 is a transmissive head mounted display). In this case, the display device 3020 is realized as the display device 102 (lens portion) of the transmissive head mounted display 100. In this case, the camera 20 that generates the captured image is provided so as to capture a scene similar to the scene seen by the user's eyes (such as the camera 20 in FIG. 2). When such a transmissive head-mounted display 100 is used, the user can grasp the surrounding scenery by looking at the real object (real world scenery) that can be seen ahead of the display device 102, and the scenery can be captured in the captured image. The scenery will be the same as the scene. Therefore, it is not necessary to display the captured image on the display device 102.

そこで表示制御部2040は、操作画面40を、撮像画像に重畳せずに、表示装置3020に表示させる。具体的には、表示制御部2040は、撮像画像上における操作画面40の位置を、ディスプレイ装置102上の位置に変換し、この変換によって算出されたディスプレイ装置102上の位置に操作画面40を表示させる。   Therefore, the display control unit 2040 displays the operation screen 40 on the display device 3020 without being superimposed on the captured image. Specifically, the display control unit 2040 converts the position of the operation screen 40 on the captured image into a position on the display device 102, and displays the operation screen 40 at the position on the display device 102 calculated by this conversion. Let

撮像画像上の座標とディスプレイ装置102上の座標との対応関係は、カメラ20に関する各種のパラメタ(画角や焦点距離)や、ディスプレイ装置102とカメラ20との位置関係などに基づいて定めることができる。この対応関係は、これらのパラメタなどを用いて表示制御部2040によって算出されてもよいし、設定値として予め定められていてもよい。   The correspondence between the coordinates on the captured image and the coordinates on the display device 102 can be determined based on various parameters (view angle and focal length) relating to the camera 20, the positional relationship between the display device 102 and the camera 20, and the like. it can. This correspondence may be calculated by the display control unit 2040 using these parameters or the like, or may be predetermined as a set value.

<<撮像画像に重畳させて操作画面40を表示させる方法>>
ユーザが直接周囲の景色を見ることができない場合や、撮像画像に写る景色がユーザの目に映る景色と同様でない場合(カメラ20によってユーザの視界方向が撮像されない場合)、ユーザは、撮像画像を見ながら入力操作を行う。例えばヘッドマウントディスプレイ100を用いて情報処理装置2000が実現され、なおかつヘッドマウントディスプレイ100のディスプレイ装置102が非透過型のディスプレイ装置である(ヘッドマウントディスプレイ100が非透過型のヘッドマウントディスプレイである)とする。この場合、ユーザは、周囲の景色を直接見ることができない。そのためディスプレイ装置102には、ユーザの視界方向を撮像するカメラ20によって生成された撮像画像が表示される。ユーザは、その撮像画像を見ることで周囲の景色を把握する。よって、ユーザは、撮像画像を見ながら入力操作を行うこととなる。
<< Method of Displaying Operation Screen 40 Overlaid on Captured Image >>
When the user cannot directly see the surrounding scenery, or when the scenery shown in the captured image is not the same as the scenery seen by the user's eyes (when the user's viewing direction is not captured by the camera 20), the user views the captured image. Perform input operations while watching. For example, the information processing device 2000 is realized using the head mounted display 100, and the display device 102 of the head mounted display 100 is a non-transmissive display device (the head mounted display 100 is a non-transmissive head mounted display). And In this case, the user cannot directly see the surrounding scenery. Therefore, the display device 102 displays a captured image generated by the camera 20 that captures the user's field of view direction. The user grasps the surrounding scenery by looking at the captured image. Therefore, the user performs an input operation while viewing the captured image.

また、カメラ20がユーザの社員証などに設けられる場合には、カメラ20が必ずしもユーザの視界方向を撮像するとは限らない。この場合、ユーザは、カメラ20によって生成された撮像画像を見ながら入力操作を行う。なおこの場合、表示装置3020は、例えばプロジェクタ、据え置き型のディスプレイ装置(PC のディスプレイ装置など)、又は携帯端末のディスプレイ装置などとして実現される。   Further, when the camera 20 is provided on the user's employee ID card or the like, the camera 20 does not necessarily capture the user's viewing direction. In this case, the user performs an input operation while viewing the captured image generated by the camera 20. In this case, the display device 3020 is realized as, for example, a projector, a stationary display device (such as a PC display device), or a display device of a portable terminal.

上述したように、ユーザが撮像画像を見ながら入力操作を行う場合、撮像画像が表示装置3020によって表示される。そこで表示制御部2040は、表示装置3020によって表示される撮像画像に操作画面40を重畳させることで、表示装置3020に操作画面40を表示させる。この場合、表示制御部2040は、前述した種々の方法で定めた撮像画像上における操作画面40の位置(例えば、図28から図31などで示した操作画面40の位置)に、操作画面40を重畳させる。   As described above, when the user performs an input operation while viewing the captured image, the captured image is displayed on the display device 3020. Therefore, the display control unit 2040 causes the display device 3020 to display the operation screen 40 by superimposing the operation screen 40 on the captured image displayed by the display device 3020. In this case, the display control unit 2040 displays the operation screen 40 at the position of the operation screen 40 (for example, the position of the operation screen 40 shown in FIGS. 28 to 31) on the captured image determined by the various methods described above. Superimpose.

<第2マーカ3060が撮像画像から検出されない場合:S304:NO>
第2マーカ3060が撮像画像から検出されない場合(S304:NO)、表示制御部2040は、表示装置3020に操作画面を全く表示させなくてもよいし、表示装置3020に操作画面の一部を表示させてもよい。
<When the second marker 3060 is not detected from the captured image: S304: NO>
When the second marker 3060 is not detected from the captured image (S304: NO), the display control unit 2040 may not display the operation screen on the display device 3020 or display a part of the operation screen on the display device 3020. You may let them.

後者の場合、例えば表示制御部2040は、操作画面の内、ユーザが入力操作のために利用するインタフェース部分(キーボードを表す画像など)については表示装置3020に表示させず、商品情報を表す部分については表示装置3020に表示させる。このようにすることで、ユーザは、第2マーカ3060が撮像画像に写らない場合であっても、商品に関する情報の閲覧をすることができる。   In the latter case, for example, the display control unit 2040 does not display the interface portion (such as an image representing a keyboard) used by the user for an input operation in the operation screen on the display device 3020, but represents a portion representing product information. Is displayed on the display device 3020. By doing in this way, even if it is a case where the 2nd marker 3060 is not reflected in a picked-up image, the user can browse the information regarding goods.

<ハードウエア構成>
実施形態3の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージ1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
<Hardware configuration>
The hardware configuration of a computer that implements the information processing apparatus 2000 according to the third embodiment is represented by, for example, FIG. However, the storage 1080 of the computer 1000 that implements the information processing apparatus 2000 according to the present embodiment further stores program modules that implement the functions of the information processing apparatus 2000 according to the present embodiment.

<作用・効果>
本実施形態の情報処理装置2000によれば、第2マーカ3060が撮像画像に写った場合に、操作画面40が表示させる。よって、実施形態2の場合と同様に、ユーザが必要な時にだけ操作画面40を表示させることができるため、ユーザにとって情報処理システム3000の利便性が向上する。また、情報処理装置2000の計算機資源が浪費されることを防ぐことができる。
<Action and effect>
According to the information processing apparatus 2000 of the present embodiment, the operation screen 40 is displayed when the second marker 3060 appears in the captured image. Therefore, as in the case of the second embodiment, the operation screen 40 can be displayed only when the user needs it, so that the convenience of the information processing system 3000 is improved for the user. Further, it is possible to prevent the computer resources of the information processing apparatus 2000 from being wasted.

さらに操作画面40の位置を第2マーカ3060の位置によって定めれば、ユーザにとって自然で見やすい位置に操作画面40が表示されるようにすることができる。例えば、デバイス80に表示されるマーカ画像84を第2マーカ3060として扱い、ユーザが手首にデバイス80を身につけるようにすることで、ユーザの腕部付近に操作画面40が表示されるようにすることができる。こうすることで、ユーザにとって情報処理装置2000の操作性が向上する。   Furthermore, if the position of the operation screen 40 is determined by the position of the second marker 3060, the operation screen 40 can be displayed at a natural and easy-to-see position for the user. For example, the marker image 84 displayed on the device 80 is treated as the second marker 3060 so that the user wears the device 80 on the wrist so that the operation screen 40 is displayed near the user's arm. can do. This improves the operability of the information processing apparatus 2000 for the user.

[実施形態4]
図32は、実施形態4に係る情報処理システム3000を例示するブロック図である。下記で説明する点を除き、実施形態4の情報処理システム3000は、実施形態1から実施形態3のいずれかに係る情報処理システム3000と同様の機能を有する。
[Embodiment 4]
FIG. 32 is a block diagram illustrating an information processing system 3000 according to the fourth embodiment. Except as described below, the information processing system 3000 according to the fourth embodiment has the same function as the information processing system 3000 according to any one of the first to third embodiments.

実施形態4の情報処理システム3000はセンサ3080を有する。センサ3080は、情報処理システム3000のユーザに身に付けられるセンサである。例えばセンサ3080は振動センサである。   The information processing system 3000 according to the fourth embodiment includes a sensor 3080. The sensor 3080 is a sensor worn by the user of the information processing system 3000. For example, the sensor 3080 is a vibration sensor.

本実施形態において、操作体の位置に基づいて入力操作が認識される場合、操作認識部2060は、センサ3080の検出結果に基づくタイミングにおいて撮像画像に写っている操作体の位置を算出し、その位置に基づいて入力操作を認識する。また、操作体の動きに基づいて入力操作が認識される場合、操作認識部2060は、センサ3080の検出結果に基づくタイミングを含む時間において撮像画像に写っている操作体の動きを算出し、その算出した動きに基づいて入力操作を認識する。   In the present embodiment, when an input operation is recognized based on the position of the operating tool, the operation recognizing unit 2060 calculates the position of the operating tool shown in the captured image at a timing based on the detection result of the sensor 3080. Recognize input operations based on position. When the input operation is recognized based on the movement of the operation body, the operation recognition unit 2060 calculates the movement of the operation body in the captured image at a time including the timing based on the detection result of the sensor 3080. An input operation is recognized based on the calculated movement.

<処理の流れ>
図33は、実施形態4の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。図33におけるS102からS108の処理は、図5におけるS102からS108の処理と同様である。S402において、情報処理装置2000は、センサ3080の検出結果を把握する。そして、S110において、操作認識部2060は、センサ3080の検出結果に基づくタイミングにおいて撮像画像に写っている操作体の位置、又はそのタイミングを含む時間において撮像画像に写っている操作体の動きに基づいて、入力操作を認識する。
<Process flow>
FIG. 33 is a flowchart illustrating the flow of processing executed by the information processing apparatus 2000 according to the fourth embodiment. The processing from S102 to S108 in FIG. 33 is the same as the processing from S102 to S108 in FIG. In S402, the information processing apparatus 2000 grasps the detection result of the sensor 3080. In S110, the operation recognizing unit 2060 is based on the position of the operating tool shown in the captured image at the timing based on the detection result of the sensor 3080, or the movement of the operating tool shown in the captured image at the time including the timing. To recognize the input operation.

<センサ3080について>
センサ3080は、ユーザによる入力操作のタイミングを把握するために利用できる任意のセンサである。例えばセンサ3080は、前述した振動センサである。振動センサが設けられる場所は任意である。例えば振動センサは、前述したようにデバイス80の内部に設けられる。また例えば、振動センサは、ユーザの腕や手などに貼られてもよいし、ユーザの衣服(服の袖など)に設けられてもよい。
<About sensor 3080>
The sensor 3080 is an arbitrary sensor that can be used for grasping the timing of the input operation by the user. For example, the sensor 3080 is the vibration sensor described above. The place where the vibration sensor is provided is arbitrary. For example, the vibration sensor is provided inside the device 80 as described above. Further, for example, the vibration sensor may be affixed to the user's arm or hand, or may be provided on the user's clothes (such as clothes sleeves).

センサ3080が振動センサである場合、ユーザは、入力操作を行うタイミング又はそれに近いタイミングで、センサ3080が身に付けられている箇所又はその付近に対して振動を加える。例えばユーザは、左の手首に振動センサが内蔵されているデバイス80が身に付けられている状態で、右手を使って左の腕部の任意の箇所に対して振動を加える。その結果、振動センサに対して振動が伝わり、その振動が振動センサによって検出される。   When the sensor 3080 is a vibration sensor, the user applies vibration to a place where the sensor 3080 is worn or in the vicinity thereof at the timing when the input operation is performed or at a timing close thereto. For example, the user applies vibration to an arbitrary portion of the left arm portion using the right hand in a state where the device 80 including the vibration sensor is worn on the left wrist. As a result, vibration is transmitted to the vibration sensor, and the vibration is detected by the vibration sensor.

また例えば、ユーザは、入力操作を行うタイミング又はそれに近いタイミングで、センサ3080が身に付けられている部位などを用いて、他の場所に振動を加える。例えばユーザは、右の手首に振動センサが内蔵されているデバイス80が身に付けられている状態で、右手を使って任意の場所(例えば机)に対して振動を加える。その結果、振動センサにも振動が伝わるため、振動センサによる振動の検出が行われる。   In addition, for example, the user applies vibration to another place using a part on which the sensor 3080 is worn or the like at a timing when the input operation is performed or a timing close thereto. For example, the user applies vibration to an arbitrary place (for example, a desk) using the right hand in a state where the device 80 having the vibration sensor built into the right wrist is worn. As a result, the vibration is transmitted to the vibration sensor, and the vibration is detected by the vibration sensor.

なお、センサ3080は、振動センサに限定されない。例えばセンサ3080は、圧力センサや静電容量センサでもよい。圧力センサや静電容量センサが設けられる場所は任意である。例えば圧力センサや静電容量センサは、デバイス80のタッチパネルに設けられる。また例えば、圧力センサや静電容量センサは、ユーザの腕や手などに貼られたり巻き付けられたりするシートなどに設けられてもよい。また例えば、圧力センサや静電容量センサは、ユーザの衣服(服の袖など)に設けられてもよい。   The sensor 3080 is not limited to a vibration sensor. For example, the sensor 3080 may be a pressure sensor or a capacitance sensor. The place where the pressure sensor or the capacitance sensor is provided is arbitrary. For example, a pressure sensor or a capacitance sensor is provided on the touch panel of the device 80. Further, for example, the pressure sensor or the capacitance sensor may be provided on a sheet or the like that is attached to or wrapped around the user's arm or hand. Further, for example, the pressure sensor and the capacitance sensor may be provided on the user's clothes (clothes sleeves, etc.).

センサ3080が静電容量センサである場合、ユーザは、センサ3080が身に付けられている箇所に触れる。これにより、静電容量センサによって静電容量の変化が検出される。また例えば、センサ3080が圧力センサである場合、ユーザは、センサ3080が身に付けられている箇所に圧力を加える。これにより、圧力センサによって圧力が検出される。   When the sensor 3080 is a capacitance sensor, the user touches a place where the sensor 3080 is worn. Thereby, a change in capacitance is detected by the capacitance sensor. Further, for example, when the sensor 3080 is a pressure sensor, the user applies pressure to a place where the sensor 3080 is worn. Thereby, the pressure is detected by the pressure sensor.

なお、センサ3080による検出を行わせるための動作(振動を加える動作など)は、操作体によって行われてもよいし、操作体以外を用いて行われてもよい。   Note that an operation (such as an operation of applying vibration) for performing detection by the sensor 3080 may be performed by an operating body, or may be performed using a device other than the operating body.

<センサ3080の検出結果の把握方法:S402>
情報処理装置2000は、センサ3080の検出結果を把握する(S402)。情報処理装置2000がセンサ3080の検出結果を把握する方法は様々である。以下、その方法を例示する。
<Method of grasping detection result of sensor 3080: S402>
The information processing apparatus 2000 grasps the detection result of the sensor 3080 (S402). There are various methods for the information processing apparatus 2000 to grasp the detection result of the sensor 3080. The method will be exemplified below.

<<無線通信の利用>>
例えば情報処理装置2000は、センサ3080を内蔵するデバイス80と無線通信を行うことにより、センサの検出結果を示す情報を取得する。この情報を用いて、情報処理装置2000は、センサ3080の検出結果を把握する。
<< Use of wireless communication >>
For example, the information processing apparatus 2000 acquires information indicating the detection result of the sensor by performing wireless communication with the device 80 including the sensor 3080. Using this information, the information processing apparatus 2000 grasps the detection result of the sensor 3080.

例えばデバイス80は、センサが所定の大きさ以上の振動を検出したタイミングで、情報処理装置2000に対して所定の信号を送信する。この場合、情報処理装置2000は、この所定の信号を受信することにより、「センサ3080によって振動が検出された」というセンサの検出結果を取得することができる。   For example, the device 80 transmits a predetermined signal to the information processing apparatus 2000 at a timing when the sensor detects a vibration having a predetermined magnitude or more. In this case, the information processing apparatus 2000 can acquire the detection result of the sensor “vibration is detected by the sensor 3080” by receiving the predetermined signal.

また例えば、デバイス80は、センサ3080によって所定の大きさ以上の振動が検出された場合に、その振動が検出された時点を示す情報を情報処理装置2000に送信しても良い。   Further, for example, when the sensor 3080 detects a vibration having a predetermined magnitude or larger, the device 80 may transmit information indicating the time point when the vibration is detected to the information processing apparatus 2000.

<<デバイス80の外観の変化の検出>>
デバイス80は、センサ3080による振動の検出に応じてデバイス80の外観を変化させてもよい。この場合、情報処理装置2000は、カメラ20によって生成された撮像画像を用いてデバイス80の外観の変化を検出することで、センサ3080の検出結果(センサ3080によって振動が検出されたこと)を把握する。
<< Detection of Change in Appearance of Device 80 >>
The device 80 may change the appearance of the device 80 in response to the vibration detected by the sensor 3080. In this case, the information processing apparatus 2000 grasps the detection result of the sensor 3080 (vibration is detected by the sensor 3080) by detecting a change in the appearance of the device 80 using the captured image generated by the camera 20. To do.

例えばデバイス80がディスプレイ装置を有する場合、デバイス80は、センサ3080によって所定の大きさ以上の振動が検出されたときに、ディスプレイ装置の表示を変更する。より具体的には、デバイス80は、センサ3080によって所定の大きさ以上の振動が検出されたとき、デバイス80のディスプレイ装置に表示されている画像を変更するか、又は何も表示されていなかったディスプレイ装置に新たに画像を表示する。情報処理装置2000は、カメラ20によって繰り返し生成される撮像画像を解析することで、デバイス80のディスプレイ装置の表示が変更されたことを検出する。これにより、情報処理装置2000は、センサによって振動が検出されたことを把握する。図34は、センサ3080によって振動が検出された際に、デバイス80のディスプレイ装置に表示されている画像が変更される様子を例示する図である。   For example, when the device 80 includes a display device, the device 80 changes the display of the display device when vibration of a predetermined magnitude or more is detected by the sensor 3080. More specifically, the device 80 changes the image displayed on the display device of the device 80 or nothing is displayed when vibration of a predetermined magnitude or more is detected by the sensor 3080. A new image is displayed on the display device. The information processing apparatus 2000 detects that the display on the display device of the device 80 has been changed by analyzing captured images repeatedly generated by the camera 20. As a result, the information processing apparatus 2000 recognizes that vibration has been detected by the sensor. FIG. 34 is a diagram illustrating a state in which an image displayed on the display device of the device 80 is changed when vibration is detected by the sensor 3080.

また例えば、デバイス80は、センサ3080によって振動が検出された場合に、デバイス80のディスプレイ装置のバックライトやデバイス80に設けられた LED(Light Emitting Diode)ライトなどのライトを点灯又は点滅させてもよい。情報処理装置2000は、カメラ20によって繰り返し生成される撮像画像を解析することで、これらのライトの点灯や点滅を検出する。これにより、情報処理装置2000は、センサ3080によって振動が検出されたことを把握する。   Further, for example, when vibration is detected by the sensor 3080, the device 80 may turn on or blink a light such as a backlight of the display device of the device 80 or an LED (Light Emitting Diode) light provided in the device 80. Good. The information processing apparatus 2000 detects lighting and blinking of these lights by analyzing captured images repeatedly generated by the camera 20. As a result, the information processing apparatus 2000 recognizes that vibration has been detected by the sensor 3080.

このように、センサ3080による振動の検出に応じてデバイス80の外観を変化させることによって情報処理装置2000がその振動の検出を把握すれば、デバイス80と情報処理装置2000との間で無線通信を行う必要がない。そのため、他に無線通信の必要性がない限り、デバイス80や情報処理装置2000は無線通信の機能を有さなくてよい。   As described above, if the information processing apparatus 2000 grasps the detection of the vibration by changing the appearance of the device 80 according to the vibration detected by the sensor 3080, wireless communication is performed between the device 80 and the information processing apparatus 2000. There is no need to do it. Therefore, the device 80 and the information processing apparatus 2000 do not have to have a wireless communication function unless there is a need for wireless communication.

情報処理装置2000が振動センサ以外のセンサによる検出結果を把握する方法は、振動センサについて説明した上述の方法と同様である。例えばセンサが圧力センサである場合、デバイス80や情報処理装置2000は、圧力センサが所定の大きさ以上の圧力を検出したときに、振動センサが所定の大きさ以上の振動を検出したときと同様の処理を行う。また例えば、センサが静電容量センサである場合、デバイス80や情報処理装置2000は、静電容量センサが所定の大きさ以上の静電容量の変位を検出したときに、振動センサが所定の大きさ以上の振動を検出したときと同様の処理を行う。   The method for the information processing apparatus 2000 to grasp the detection result by a sensor other than the vibration sensor is the same as the method described above for the vibration sensor. For example, when the sensor is a pressure sensor, the device 80 and the information processing apparatus 2000 are the same as when the vibration sensor detects a vibration of a predetermined magnitude or more when the pressure sensor detects a pressure of a predetermined magnitude or more. Perform the process. Further, for example, when the sensor is a capacitance sensor, the device 80 or the information processing apparatus 2000 has a vibration sensor of a predetermined size when the capacitance sensor detects a displacement of the capacitance of a predetermined size or more. The same processing as that when the above vibration is detected is performed.

<操作体の位置の算出について>
操作認識部2060は、センサ3080の検出結果に基づくタイミングにおいて操作体の検出し、検出した操作体の位置を算出する。以下、「センサ3080の検出結果に基づくタイミング」を検出対象タイミングと表記する。
<Calculation of the position of the operating tool>
The operation recognition unit 2060 detects the operating tool at a timing based on the detection result of the sensor 3080, and calculates the position of the detected operating tool. Hereinafter, “timing based on the detection result of the sensor 3080” is referred to as detection target timing.

検出対象タイミングは、センサ3080によって振動などが検出されたタイミング又はこれに近いタイミングである。例えばセンサ3080によって振動などが検出された場合にデバイス80から情報処理装置2000へ所定の信号が送信される場合、検出対象タイミングは、情報処理装置2000がこの所定の信号を受信した時点である。また例えば、センサ3080によって振動などが検出された時点を示す情報がデバイス80から情報処理装置2000へ送信される場合、検出対象タイミングは、この情報によって示される時点である。また例えば、センサ3080によって振動などが検出された場合にデバイス80の外観に所定の変化が加わる場合、検出対象タイミングは、情報処理装置2000によってこの所定の変化が検出された時点である。   The detection target timing is a timing at which vibration or the like is detected by the sensor 3080 or a timing close thereto. For example, when a predetermined signal is transmitted from the device 80 to the information processing apparatus 2000 when vibration or the like is detected by the sensor 3080, the detection target timing is a time point when the information processing apparatus 2000 receives the predetermined signal. Further, for example, when information indicating the time when vibration or the like is detected by the sensor 3080 is transmitted from the device 80 to the information processing apparatus 2000, the detection target timing is the time indicated by this information. Further, for example, when a predetermined change is added to the appearance of the device 80 when vibration or the like is detected by the sensor 3080, the detection target timing is a point in time when the predetermined change is detected by the information processing apparatus 2000.

また、操作認識部2060は、上述した種々のタイミング(情報処理装置2000がデバイス80から所定の信号を受信した時点など)よりも所定時間前又は後の時点を検出対象タイミングとしてもよい。   In addition, the operation recognition unit 2060 may set a timing before or after a predetermined time before the various timings described above (such as when the information processing apparatus 2000 receives a predetermined signal from the device 80) as a detection target timing.

操作認識部2060が前述したどの時点を検出対象タイミングとして扱うかを示す情報や、上述の所定時間を示す情報は、操作認識部2060に予め設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に記憶されていてもよい。   Information indicating which time point the operation recognizing unit 2060 handles as the detection target timing and information indicating the predetermined time described above may be set in advance in the operation recognizing unit 2060 or accessed from the operation recognizing unit 2060. It may be stored in a possible storage device.

操作認識部2060は、検出対象タイミングにおいてカメラ20によって生成された撮像画像から操作体を検出し、その操作体の位置を算出する。ここで一般に、カメラ20は間欠的に撮像画像を生成するため(例えば 30 fps(フレーム/秒)の頻度)、検出対象タイミングと一致する時点で生成された撮像画像が無い場合もある。この場合、例えば操作認識部2060は、検出対象タイミングの直前又は直後に生成された撮像画像を用いる。   The operation recognizing unit 2060 detects the operating tool from the captured image generated by the camera 20 at the detection target timing, and calculates the position of the operating tool. Here, in general, since the camera 20 intermittently generates a captured image (for example, a frequency of 30 fps (frame / second)), there may be no captured image generated at a time that coincides with the detection target timing. In this case, for example, the operation recognition unit 2060 uses a captured image generated immediately before or after the detection target timing.

<操作体の動きを算出する方法>
操作認識部2060は、検出対象タイミングを含む時間において操作体を検出し、その操作体の動きを算出する。以下、「検出対象タイミングを含む時間」を検出対象時間と表記する。操作認識部2060は、検出対象時間において生成された撮像画像を用いて操作体の動きを算出する。
<Method for calculating movement of operating body>
The operation recognizing unit 2060 detects the operating tool at a time including the detection target timing, and calculates the motion of the operating tool. Hereinafter, “time including detection target timing” is referred to as detection target time. The operation recognizing unit 2060 calculates the movement of the operating body using the captured image generated during the detection target time.

操作認識部2060は、検出対象タイミングを用いて検出対象時間の開始時点及び終了時点を決定する。例えば操作認識部2060は、検出対象タイミングを検出対象時間の開始時点とする。図35は、検出対象タイミングを検出対象時間の開始時点とするケースを例示する図である。図35(a)の場合、操作認識部2060は、センサ3080によって振動が検出された時点を検出対象タイミングとしている。図35(b)の場合、操作認識部2060は、センサ3080によって振動が検出された時点よりも所定時間前の時点を検出対象タイミングとしている。図35(c)の場合、操作認識部2060は、センサ3080によって振動が検出された時点よりも所定時間後の時点を検出対象タイミングとしている。   The operation recognition unit 2060 determines the start time point and the end time point of the detection target time using the detection target timing. For example, the operation recognition unit 2060 sets the detection target timing as the start time of the detection target time. FIG. 35 is a diagram illustrating a case where the detection target timing is set as the start time of the detection target time. In the case of FIG. 35A, the operation recognizing unit 2060 uses the time when vibration is detected by the sensor 3080 as the detection target timing. In the case of FIG. 35B, the operation recognizing unit 2060 uses a time point a predetermined time before the time point at which the vibration is detected by the sensor 3080 as the detection target timing. In the case of FIG. 35C, the operation recognizing unit 2060 uses a time point after a predetermined time from the time point when the vibration is detected by the sensor 3080 as the detection target timing.

また例えば、操作認識部2060は、検出対象タイミングを検出対象時間の終了時点とする。図36は、検出対象タイミングを検出対象時間の終了時点とするケースを例示する図である。図36(a)の場合、操作認識部2060は、センサ3080によって振動が検出された時点を検出対象タイミングとしている。図36(b)の場合、操作認識部2060は、センサ3080によって振動が検出された時点よりも所定時間前の時点を検出対象タイミングとしている。図36(c)の場合、操作認識部2060は、センサ3080によって振動が検出された時点よりも所定時間後の時点を検出対象タイミングとしている。   For example, the operation recognition unit 2060 sets the detection target timing as the end point of the detection target time. FIG. 36 is a diagram illustrating a case where the detection target timing is set as the end point of the detection target time. In the case of FIG. 36A, the operation recognizing unit 2060 uses the time when vibration is detected by the sensor 3080 as the detection target timing. In the case of FIG. 36B, the operation recognizing unit 2060 uses a time point a predetermined time before the time point at which the vibration is detected by the sensor 3080 as the detection target timing. In the case of FIG. 36C, the operation recognizing unit 2060 uses a time point a predetermined time after the time point when the vibration is detected by the sensor 3080 as the detection target timing.

操作認識部2060は、検出対象タイミングを1つ又は2つ用いて検出対象時間を定める。検出対象タイミングを1つ用いて検出対象時間を定める場合、例えば操作認識部2060は、図35のいずれかの方法で検出対象時間の開始時点を定め、その時間から所定時間後の時点を検出対象時間の終了時点とする。また例えば、操作認識部2060は、図36のいずれかの方法で検出対象時間の終了時点を定め、その時間から所定時間前の時点を検出対象時間の終了時点とする。   The operation recognition unit 2060 determines the detection target time by using one or two detection target timings. When determining the detection target time using one detection target timing, for example, the operation recognition unit 2060 determines the start time of the detection target time by any of the methods in FIG. The end of time. Further, for example, the operation recognition unit 2060 determines the end point of the detection target time by any one of the methods in FIG. 36, and sets a time point before that time as the end point of the detection target time.

検出対象タイミングを2つ用いて検出対象時間を定める場合、操作認識部2060は、図35のいずれかの方法で検出対象時間の開始時点を定め、なおかつ図36のいずれかの方法で検出対象時間の終了時点を定める。   When determining the detection target time using two detection target timings, the operation recognizing unit 2060 determines the start time of the detection target time by any of the methods in FIG. 35, and also detects the detection target time by any of the methods in FIG. Determine the end point of.

なお、センサ3080によって振動が検出される時点以前を検出対象時間の開始時点とする場合(図35(a)又は図35(b))や、検出対象タイミングを1つのみ用い、なおかつ図36のように検出対象タイミングによって検出対象時間の終了時点を定める場合、カメラ20は、センサ3080によって振動が検出される前から撮像画像を生成している必要がある。この場合、カメラ20は、センサ3080によって振動が検出される前から撮像を開始する。例えばカメラ20は、ユーザが情報処理装置2000の利用を開始してから終了するまでの間、継続して撮像を行う。また、カメラ20によって生成される撮像画像は、所定期間継続して記憶装置などに記憶される。   In addition, when the time before the time when vibration is detected by the sensor 3080 is set as the start time of the detection target time (FIG. 35A or FIG. 35B), only one detection target timing is used, and FIG. As described above, when the end point of the detection target time is determined by the detection target timing, the camera 20 needs to generate a captured image before vibration is detected by the sensor 3080. In this case, the camera 20 starts imaging before vibration is detected by the sensor 3080. For example, the camera 20 continuously captures an image from when the user starts using the information processing apparatus 2000 to when it ends. The captured image generated by the camera 20 is stored in a storage device or the like continuously for a predetermined period.

一方、センサ3080によって振動が検出された時点よりも後の時点を検出対象時間の開始時点とする場合(図35(c))、カメラ20は、センサ3080によって振動が検出されてから撮像を開始してもよい。この場合、例えばカメラ20は、デバイス80又は情報処理装置2000から、センサ3080によって振動が検出された旨の信号を受信し、その信号を受信したタイミングで撮像を開始する。   On the other hand, when the time point after the time point at which the vibration is detected by the sensor 3080 is set as the start point of the detection target time (FIG. 35C), the camera 20 starts imaging after the vibration is detected by the sensor 3080. May be. In this case, for example, the camera 20 receives a signal indicating that vibration is detected by the sensor 3080 from the device 80 or the information processing apparatus 2000, and starts imaging at the timing when the signal is received.

ただし、撮像画像を用いて商品10の認識が行われる場合、カメラ20が撮像を開始するタイミングは、商品10の認識に必要なタイミングで開始される。例えばこの場合、カメラ20は、情報処理装置2000を起動してから停止するまでの間、常に撮像画像の生成を行う。   However, when the product 10 is recognized using the captured image, the timing at which the camera 20 starts imaging starts at a timing necessary for the recognition of the product 10. For example, in this case, the camera 20 always generates a captured image from when the information processing apparatus 2000 is started to when it is stopped.

なお、上述した各所定時間を表す情報は、操作認識部2060に予め設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に記憶されていてもよい。また、検出対象時間の開始時点の決定に用いる所定時間と、検出対象時間の終了時点に用いる所定時間は、同じであってもよいし、異なっていてもよい。   Note that the information representing each predetermined time described above may be set in advance in the operation recognition unit 2060 or may be stored in a storage device accessible from the operation recognition unit 2060. Further, the predetermined time used for determining the start time of the detection target time and the predetermined time used for the end time of the detection target time may be the same or different.

<ハードウエア構成例>
実施形態4の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージ1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
<Hardware configuration example>
The hardware configuration of a computer that implements the information processing apparatus 2000 according to the fourth embodiment is represented by, for example, FIG. However, the storage 1080 of the computer 1000 that implements the information processing apparatus 2000 according to the present embodiment further stores program modules that implement the functions of the information processing apparatus 2000 according to the present embodiment.

<作用・効果>
撮像画像に写っている操作体の位置又は動きのみを利用してユーザの入力操作を認識しようとすると、ユーザが入力操作を行っていないにも関わらず入力操作が誤って認識されたり、ユーザが入力操作を行っているにも関わらず入力操作が認識されなかったりする可能性がある。
<Action and effect>
If the user's input operation is to be recognized using only the position or movement of the operating tool in the captured image, the input operation is erroneously recognized even though the user has not performed the input operation. There is a possibility that the input operation is not recognized even though the input operation is performed.

本実施形態の情報処理システム3000によれば、ユーザに身につけられているセンサ3080の検出結果に基づくタイミングにおける操作体の位置、又はセンサ3080の検出結果に基づくタイミングを含む時間における操作体の動きを解析することで、入力操作が認識される。そのため、入力操作の際にセンサ3080による検出が行われるようにユーザが入力操作を行えば、上記タイミングに基づく操作体の位置や動きは、ユーザの入力操作を表している蓋然性が高い。そのため、ユーザが意図して行った入力操作が正しく認識されるようになり、ユーザが入力操作を行っていないにもかかわらず入力操作が誤って認識されたり、ユーザが入力操作を行っているにもかかわらず入力操作が認識されなかったりすることを防ぐことができる。   According to the information processing system 3000 of this embodiment, the position of the operating body at the timing based on the detection result of the sensor 3080 worn by the user or the movement of the operating body at the time including the timing based on the detection result of the sensor 3080. Input operation is recognized. Therefore, if the user performs an input operation such that detection by the sensor 3080 is performed during the input operation, the position and movement of the operating body based on the timing is highly likely to represent the user's input operation. Therefore, the input operation intended by the user is recognized correctly, and the input operation is erroneously recognized even when the user is not performing the input operation, or the user is performing the input operation. Nevertheless, it is possible to prevent the input operation from being recognized.

[実施例]
以下、情報処理システム3000について、より具体的な利用方法を例示して説明する。後述する各実施例はあくまで情報処理システム3000の利用方法の一例であり、情報処理システム3000の利用方法は後述の実施例で説明するものに限定されない。
[Example]
Hereinafter, the information processing system 3000 will be described by exemplifying a more specific usage method. Each example described later is merely an example of a method of using the information processing system 3000, and the method of using the information processing system 3000 is not limited to that described in the example described later.

図37は、各実施例に共通する情報処理システム3000の構成を例示するブロック図である。情報処理システム3000は、情報処理装置2000、表示装置3020、第1マーカ3040、第2マーカ3060、及びセンサ3080を有する。   FIG. 37 is a block diagram illustrating the configuration of an information processing system 3000 common to the embodiments. The information processing system 3000 includes an information processing device 2000, a display device 3020, a first marker 3040, a second marker 3060, and a sensor 3080.

図38は、各実施例に共通する情報処理システム3000の利用環境を例示する図である。各実施例において、情報処理装置2000は、ヘッドマウントディスプレイ100の内部に実装される。ヘッドマウントディスプレイ100は、表示装置3020を実現するためのディスプレイ装置102を有する。また、カメラ20は、ヘッドマウントディスプレイ100に設けられる。   FIG. 38 is a diagram illustrating a usage environment of the information processing system 3000 common to the embodiments. In each embodiment, the information processing apparatus 2000 is mounted inside the head mounted display 100. The head mounted display 100 includes a display device 102 for realizing the display device 3020. The camera 20 is provided on the head mounted display 100.

ユーザは、デバイス80を手首に装着する。デバイス80のタッチパネル82には、マーカ画像84が表示される。マーカ画像84は、情報処理装置2000により、第1マーカ3040及び第2マーカ3060の双方として扱われる。つまり、商品認識部2020は、マーカ画像84によって定まる商品認識領域70に含まれる商品10を認識する。また、表示制御部2040は、マーカ画像84が写っている場合に、表示装置3020に操作画面40を表示させる。   The user wears the device 80 on the wrist. A marker image 84 is displayed on the touch panel 82 of the device 80. The marker image 84 is handled as both the first marker 3040 and the second marker 3060 by the information processing apparatus 2000. That is, the product recognition unit 2020 recognizes the product 10 included in the product recognition area 70 determined by the marker image 84. In addition, the display control unit 2040 displays the operation screen 40 on the display device 3020 when the marker image 84 is captured.

表示制御部2040は、マーカ画像84の位置を基準として、操作画面40を表示させる位置を決定する。ここで操作画面40は、入力エリア42及び情報エリア44のいずれか一方、又は入力エリア42及び情報エリア44の双方を含む。入力エリア42は、キーボードやボタンなどの入力インタフェースを含む領域であり、情報エリア44は、入力インタフェースを含まない領域である。   The display control unit 2040 determines a position where the operation screen 40 is displayed based on the position of the marker image 84. Here, the operation screen 40 includes either the input area 42 or the information area 44, or both the input area 42 and the information area 44. The input area 42 is an area including an input interface such as a keyboard or a button, and the information area 44 is an area not including an input interface.

入力エリア42と情報エリア44の表示位置は、マーカ画像84の位置を基準としてそれぞれ定められている。具体的には、入力エリア42の表示位置は、ユーザの腕に重畳される位置として定められている。一方、情報エリア44の表示位置は、ユーザの腕の上方に位置するように情報エリア44を表示させる。   The display positions of the input area 42 and the information area 44 are respectively determined based on the position of the marker image 84. Specifically, the display position of the input area 42 is determined as a position superimposed on the user's arm. On the other hand, the information area 44 is displayed so that the display position of the information area 44 is located above the user's arm.

各実施例において、操作体はユーザの指30である。また、デバイス80は、センサ3080を実現するための振動センサ86を有する。操作認識部2060は、振動センサ86による検出結果に基づいて定まる検出対象タイミングにおける指30の位置、又は検出対象時間における指30の動きに基づいて、入力操作を認識する。   In each embodiment, the operation body is the user's finger 30. The device 80 includes a vibration sensor 86 for realizing the sensor 3080. The operation recognition unit 2060 recognizes an input operation based on the position of the finger 30 at the detection target timing determined based on the detection result by the vibration sensor 86 or the movement of the finger 30 at the detection target time.

例えば、ユーザは、キーボードを表す入力エリア42に含まれる各キーを指30でタップする。振動センサ86によってタップの振動が検出されると、デバイス80から操作認識部2060へ通知が行われる。操作認識部2060は、この通知を受け、振動が検出されたタイミングにおける指30の位置を割り出し、その位置に対応するキーを入力する入力操作を認識する。またユーザは、腕32を指30でタップしてから指30を動かし、その動作を終了するタイミングで再度指30で腕32をタップする。操作認識部2060は、こうすることで、指30の動きを操作認識部2060に認識させる。例えばユーザは、指30の動きにより、手書き入力などを行う。   For example, the user taps each key included in the input area 42 representing the keyboard with the finger 30. When the vibration of the tap is detected by the vibration sensor 86, the device 80 notifies the operation recognition unit 2060. The operation recognition unit 2060 receives this notification, determines the position of the finger 30 at the timing when vibration is detected, and recognizes an input operation for inputting a key corresponding to the position. The user moves the finger 30 after tapping the arm 32 with the finger 30, and taps the arm 32 with the finger 30 again at the timing when the operation is finished. In this way, the operation recognition unit 2060 causes the operation recognition unit 2060 to recognize the movement of the finger 30. For example, the user performs handwriting input by the movement of the finger 30.

[[実施例1]]
実施例1は、店舗に来店した顧客によってヘッドマウントディスプレイ100が利用される例である。この店舗では、来店した各顧客に対し、デバイス80及びヘッドマウントディスプレイ100が貸与される。各ヘッドマウントディスプレイ100には、個別のIDが割り振られている。顧客は、デバイス80及びヘッドマウントディスプレイ100を装着して、店舗の商品10を見て回る。
[[Example 1]]
Example 1 is an example in which the head mounted display 100 is used by a customer who visits a store. In this store, the device 80 and the head mounted display 100 are lent to each customer who visits the store. Each head-mounted display 100 is assigned an individual ID. The customer wears the device 80 and the head-mounted display 100 and looks around the product 10 in the store.

この店舗では、顧客は、購入したい商品を商品カゴに入れて持ち歩く必要がない。代わりに顧客は、ヘッドマウントディスプレイ100を用いて商品10の購入手続きを行う。そのために、店舗には商品10の見本が陳列されている。   In this store, the customer does not have to carry the product he / she wants to buy in the product basket. Instead, the customer purchases the product 10 using the head mounted display 100. For this purpose, a sample of the product 10 is displayed at the store.

まず顧客は、店舗内を歩いて、購入したい商品10を探す。興味が惹かれる商品10を見つけたら、顧客は、その商品10をヘッドマウントディスプレイ100に認識させる。具体的には、顧客は、デバイス80が装着されている方の手で商品10を持ち、その商品10を見る。こうすると、商品認識部2020によって商品10が認識される。また、表示制御部2040により、その商品10の商品情報を含む操作画面40がディスプレイ装置102に表示される。   First, the customer walks through the store and searches for a product 10 that he / she wishes to purchase. When the customer finds a product 10 that is attracting interest, the customer causes the head mounted display 100 to recognize the product 10. Specifically, the customer holds the product 10 with the hand to which the device 80 is attached and views the product 10. In this way, the product recognition unit 2020 recognizes the product 10. Further, the display control unit 2040 displays the operation screen 40 including the product information of the product 10 on the display device 102.

図39は、実施例1においてディスプレイ装置102に表示される操作画面40を例示する図である。ディスプレイ装置102には、商品10の説明を含む情報エリア44、及び商品10を購入する個数を入力するための入力エリア42が表示されている。入力エリア42は、個数を入力するための数値キー、購入することを決定するためのOKキー、及び購入をキャンセルするためのキャンセルキーを含む。   FIG. 39 is a diagram illustrating an operation screen 40 displayed on the display apparatus 102 in the first embodiment. The display device 102 displays an information area 44 including a description of the product 10 and an input area 42 for inputting the number of products 10 to be purchased. The input area 42 includes a numeric key for inputting the number, an OK key for determining purchase, and a cancel key for canceling purchase.

ユーザは、情報エリア44を見て、商品10の情報(図39では商品名及び価格)を確認する。この商品10を購入したい場合、ユーザは、数値キーを用いて購入したい個数を入力した後、OKキーをタップする。一方、この商品10を購入しない場合、ユーザはキャンセルキーをタップする。   The user looks at the information area 44 and confirms information on the product 10 (product name and price in FIG. 39). In order to purchase the product 10, the user inputs the number of items to be purchased using the numerical keys, and then taps the OK key. On the other hand, when the product 10 is not purchased, the user taps the cancel key.

OKキーをタップすると、ヘッドマウントディスプレイ100のIDと対応づけられたオーダー情報にその商品10が追加される。図40は、オーダー情報をテーブル形式で例示する図である。図40に示すテーブルを、オーダー情報テーブル700と表記する。オーダー情報テーブル700は、ヘッドマウントディスプレイ100のID(HMD_ID)と対応付けられている。オーダー情報テーブル700は、商品ID702及び個数704を含む。商品ID702は商品10のIDを示す。個数704は商品10を購入する個数を示す。図39で説明した操作でOKキーをタップすると、オーダー情報テーブル700に新たな行が追加される。   When the OK key is tapped, the product 10 is added to the order information associated with the ID of the head mounted display 100. FIG. 40 is a diagram illustrating order information in a table format. The table shown in FIG. 40 is referred to as an order information table 700. The order information table 700 is associated with the ID (HMD_ID) of the head mounted display 100. The order information table 700 includes a product ID 702 and a number 704. The product ID 702 indicates the ID of the product 10. The number 704 indicates the number of items for purchase. When the OK key is tapped by the operation described with reference to FIG. 39, a new line is added to the order information table 700.

購入したい各商品10について図39で説明した操作を終えると、ユーザは、精算カウンタへ行って精算を行う。精算カウンタにおいて、ユーザは店員にデバイス80及びヘッドマウントディスプレイ100を返却する。そのヘッドマウントディスプレイ100を受け取った店員は、精算カウンタに設けられているコンピュータで、ヘッドマウントディスプレイ100のIDを読み取る。このコンピュータは、ヘッドマウントディスプレイ100のIDに対応付けられているオーダー情報テーブル700を取得して精算金額を算出し、顧客に閲覧可能なディスプレイ装置に精算金額を表示する。ユーザは、その精算金額を支払った後、店員から商品を受け取る。   When the operation described with reference to FIG. 39 is finished for each product 10 to be purchased, the user goes to the checkout counter and performs checkout. At the checkout counter, the user returns the device 80 and the head mounted display 100 to the store clerk. The store clerk who receives the head mounted display 100 reads the ID of the head mounted display 100 with a computer provided in the checkout counter. This computer acquires the order information table 700 associated with the ID of the head mounted display 100 to calculate the settlement amount, and displays the settlement amount on a display device that can be viewed by the customer. After paying the settlement amount, the user receives the product from the store clerk.

なお代金の精算は、現金を用いずに行われてもよい。例えばユーザは、ヘッドマウントディスプレイ100を利用してクレジットカードの情報を入力することにより、クレジットカードで代金の精算を行ってもよい。   The payment may be made without using cash. For example, the user may use the head mounted display 100 to input credit card information, and pay the price with the credit card.

ヘッドマウントディスプレイ100は、多言語に対応する機能を有することが好適である。ヘッドマウントディスプレイ100が多言語に対応する機能を有する場合、例えばユーザは、ヘッドマウントディスプレイ100を借りる際に、店員に利用したい言語を伝える。ここで、ユーザが利用したい言語が英語であるとする。この場合、店員は、ヘッドマウントディスプレイ100の言語設定を英語に変更した上で、ユーザにヘッドマウントディスプレイ100を貸与する。こうすることで、情報エリア44に表示される情報や、入力エリア42に表示される入力キーの言語が英語表記になる。   The head mounted display 100 preferably has a function corresponding to multiple languages. When the head-mounted display 100 has a function corresponding to multiple languages, for example, when the user rents the head-mounted display 100, the user tells the store clerk the language that the user wants to use. Here, it is assumed that the language that the user wants to use is English. In this case, the store clerk lends the head mounted display 100 to the user after changing the language setting of the head mounted display 100 to English. Thus, the information displayed in the information area 44 and the language of the input key displayed in the input area 42 are written in English.

このように多言語に対応する機能をヘッドマウントディスプレイ100に備えることで、様々な国の人々がヘッドマウントディスプレイ100を利用しやすくなり、ひいてはこのヘッドマウントディスプレイ100を導入した店舗を利用しやすくなる。なお、ヘッドマウントディスプレイ100の言語設定の変更は、ユーザによって行われてもよい。   By providing the head-mounted display 100 with functions corresponding to multiple languages in this manner, people from various countries can easily use the head-mounted display 100, and consequently, it is easy to use the store where the head-mounted display 100 is introduced. . Note that the language setting of the head mounted display 100 may be changed by the user.

[[実施例2]]
実施例2は、インターネットを介したコンシェルジュサービスにおいてヘッドマウントディスプレイ100を利用する例である。ここでいうコンシェルジュサービスとは、商品10に関する要望を顧客から受け付け、その要望に合った商品10をユーザに提供するサービスを意味する。
[[Example 2]]
The second embodiment is an example in which the head mounted display 100 is used in a concierge service via the Internet. The concierge service here means a service that accepts a request regarding the product 10 from a customer and provides the user with the product 10 that meets the request.

図41は、実施例2のコンシェルジュサービスを提供するコンシェルジュシステム600の構成を例示する図である。コンシェルジュシステム600は、サーバ610、デバイス80及びヘッドマウントディスプレイ100を含む。なお、コンシェルジュシステム600では、各コンシェルジュスタッフが、デバイス80及びヘッドマウントディスプレイ100の組みを装着する。   FIG. 41 is a diagram illustrating a configuration of a concierge system 600 that provides the concierge service according to the second embodiment. The concierge system 600 includes a server 610, a device 80, and a head mounted display 100. In the concierge system 600, each concierge staff wears a set of the device 80 and the head mounted display 100.

顧客端末620は、顧客によって利用される種々の端末(例えば PC)である。顧客端末620は、インターネットを介してサーバ610と接続されている。サーバ610は、顧客端末620からサービス提供の要求を受け付けると、その要求をいずれかのヘッドマウントディスプレイ100に割り当てる。その要求が割り当てられたヘッドマウントディスプレイ100を装着しているコンシェルジュスタッフは、顧客端末620のユーザ(顧客)に対してサービスを提供する。ここで、ヘッドマウントディスプレイ100は、LAN(Local Area Network)を介してサーバ610と接続されている。   The customer terminal 620 is various terminals (for example, PC) used by customers. The customer terminal 620 is connected to the server 610 via the Internet. When the server 610 receives a service provision request from the customer terminal 620, the server 610 allocates the request to one of the head mounted displays 100. The concierge staff wearing the head mounted display 100 to which the request is assigned provides a service to the user (customer) of the customer terminal 620. Here, the head mounted display 100 is connected to the server 610 via a LAN (Local Area Network).

コンシェルジュスタッフは、商品10に関する要望を顧客から受け付ける。例えば顧客は、顧客端末620に接続されたマイクを通じて、音声で要望を伝える。顧客の音声は、顧客端末620を介してサーバ610へ送信される。なお、インターネットを介してサーバへ送信された顧客の音声をサービス提供者が聴く方法には、種々の既存の技術を利用できるため、その方法の説明は省略する。   The concierge staff receives a request regarding the product 10 from a customer. For example, the customer conveys the request by voice through a microphone connected to the customer terminal 620. The customer's voice is transmitted to the server 610 via the customer terminal 620. In addition, since various existing techniques can be used for the service provider to listen to the customer's voice transmitted to the server via the Internet, description of the method is omitted.

コンシェルジュスタッフは、顧客の要望に合った商品10を見つけ出し、ヘッドマウントディスプレイ100を介してその商品10を見る。こうすることで、商品10の商品情報を含む操作画面40がディスプレイ装置102に表示される。顧客がその商品10を気に入った場合、コンシェルジュスタッフは顧客から購入を希望する個数を聞き、操作画面40に対して個数を入力する入力操作を行う。ここで、コンシェルジュスタッフが装着しているヘッドマウントディスプレイ100のディスプレイ装置102に表示される情報は、例えば図39に示した入力エリア42及び情報エリア44と同様である。   The concierge staff finds the product 10 that meets the customer's request and views the product 10 through the head mounted display 100. By doing so, the operation screen 40 including the product information of the product 10 is displayed on the display device 102. When the customer likes the product 10, the concierge staff asks the customer how many pieces he / she wants to purchase and performs an input operation to input the number on the operation screen 40. Here, the information displayed on the display device 102 of the head mounted display 100 worn by the concierge staff is the same as the input area 42 and the information area 44 shown in FIG. 39, for example.

顧客は、商品10に関する情報をコンシェルジュスタッフから音声で伝えられてもよいし、顧客端末620のディスプレイ装置を用いて、商品10に関する情報を閲覧してもよい。後者の場合、例えばサーバ610は、コンシェルジュスタッフが閲覧している情報と同一の情報又はそれに類似する情報を顧客端末620へ提供する。こうすることで、コンシェルジュスタッフが閲覧している情報と同一の情報又はそれに類似する情報が顧客端末620のディスプレイ装置に表示され、顧客はその情報を閲覧することができる。   The customer may receive information related to the product 10 by voice from the concierge staff, or may browse information related to the product 10 using the display device of the customer terminal 620. In the latter case, for example, the server 610 provides the customer terminal 620 with the same information as the information being browsed by the concierge staff or information similar thereto. By doing so, the same information as the information being browsed by the concierge staff or information similar thereto is displayed on the display device of the customer terminal 620, and the customer can browse the information.

例えば、サーバ610は、ヘッドマウントディスプレイ100に装着されているカメラ20によって生成される映像を顧客端末620へ送信する。また例えば、サーバ610は、ディスプレイ装置102に写っている映像(カメラ20によって生成される映像に操作画面40が重畳されたもの)を顧客端末620へ送信する。また例えば、サーバ610は、カメラ20によって生成された映像を顧客端末620へ送信せず、操作画面40のみを顧客端末620へ送信してもよい。   For example, the server 610 transmits an image generated by the camera 20 attached to the head mounted display 100 to the customer terminal 620. In addition, for example, the server 610 transmits the video (the video generated by the camera 20 with the operation screen 40 superimposed) reflected on the display device 102 to the customer terminal 620. Further, for example, the server 610 may transmit only the operation screen 40 to the customer terminal 620 without transmitting the video generated by the camera 20 to the customer terminal 620.

なお、顧客端末620へ送信される操作画面40は、コンシェルジュスタッフによって閲覧されている操作画面40と異なるものであってもよい。例えば本実施例の場合、顧客はヘッドマウントディスプレイ100を用いた入力操作を行わないため、入力エリア42を見る必要がない。そこでヘッドマウントディスプレイ100は、ディスプレイ装置102に表示させる操作画面40には入力エリア42及び情報エリア44を含める一方で、サーバ610を介して顧客端末620へ送信する操作画面40には、情報エリア44のみが含まれるようにする。   The operation screen 40 transmitted to the customer terminal 620 may be different from the operation screen 40 being browsed by the concierge staff. For example, in the case of the present embodiment, since the customer does not perform an input operation using the head mounted display 100, it is not necessary to look at the input area 42. Therefore, the head mounted display 100 includes the input area 42 and the information area 44 in the operation screen 40 displayed on the display device 102, while the information area 44 is included in the operation screen 40 transmitted to the customer terminal 620 via the server 610. Only to be included.

また、コンシェルジュスタッフが閲覧する商品情報と顧客端末620へ送信される商品情報は、異なっていてもよい。例えばヘッドマウントディスプレイ100は、コンシェルジュスタッフが閲覧する商品情報には、商品の管理のために必要な種々の管理情報を含める一方で、顧客端末620へ送信される商品情報には、そのような管理情報を含めないようにする。   Moreover, the merchandise information browsed by the concierge staff and the merchandise information transmitted to the customer terminal 620 may be different. For example, the head mounted display 100 includes various management information necessary for product management in the product information browsed by the concierge staff, while the product information transmitted to the customer terminal 620 includes such management. Do not include information.

このように、ディスプレイ装置102に表示される操作画面40と顧客端末620に送信される操作画面40をそれぞれ異なるものにする場合、前述した操作画面40のテンプレート200として、ディスプレイ装置102用のテンプレートと顧客端末620用のテンプレートの双方を用意しておく。   As described above, when the operation screen 40 displayed on the display device 102 is different from the operation screen 40 transmitted to the customer terminal 620, the template 200 for the display device 102 is used as the template 200 of the operation screen 40 described above. Both templates for the customer terminal 620 are prepared.

[[実施例3]]
実施例3は、自動販売機へ商品を補充する作業においてヘッドマウントディスプレイ100を利用する例である。自動販売機へ商品を補充する作業を行う作業員は、ヘッドマウントディスプレイ100を利用することで、補充する商品10に関する種々の情報を見たり、商品10に関する情報を入力したりする。
[[Example 3]]
The third embodiment is an example in which the head mounted display 100 is used in an operation of replenishing products to a vending machine. An operator who replenishes products to the vending machine uses the head mounted display 100 to view various information related to the replenished product 10 and to input information related to the product 10.

例えば作業員は、ヘッドマウントディスプレイ100を用いて、補充した商品10の個数を記録する入力操作を行う。図42は、実施例3においてヘッドマウントディスプレイ100が利用される様子を例示する図である。商品格納庫800は、自動販売機において商品が格納されている格納庫である。なお、図を見やすくするため、図42では、商品格納庫800の一部のみを図示している。   For example, the worker uses the head mounted display 100 to perform an input operation for recording the number of replenished products 10. FIG. 42 is a diagram illustrating a state in which the head mounted display 100 is used in the third embodiment. The product storage 800 is a storage in which products are stored in the vending machine. In addition, in order to make a figure legible, in FIG. 42, only a part of goods storage 800 is illustrated.

まず作業員は、商品10を補充した後、ヘッドマウントディスプレイ100を介して、商品格納庫800から見えているその商品10を見ることで、ヘッドマウントディスプレイ100に商品10を認識させる。   First, the worker replenishes the product 10 and then causes the head mounted display 100 to recognize the product 10 by viewing the product 10 that is visible from the product storage 800 through the head mounted display 100.

ここで本実施例では、タッチパネル82が手の甲の側に見えるように、デバイス80が装着されている。また、商品認識領域70は、マーカ画像84の上端に接する矩形である。そこで作業員は、商品格納庫800から見えている商品10の近くにマーカ画像84をかざすことで、商品10が商品認識領域70に含まれるようにする。   In this embodiment, the device 80 is mounted so that the touch panel 82 can be seen on the back of the hand. The product recognition area 70 is a rectangle that touches the upper end of the marker image 84. Therefore, the worker holds the marker image 84 near the product 10 visible from the product storage 800 so that the product 10 is included in the product recognition area 70.

商品10がヘッドマウントディスプレイ100に認識されると、操作画面40(入力エリア42及び情報エリア44)がディスプレイ装置102に表示される。作業員は、操作画面40に含まれる数値キーを利用して、補充した個数を入力する入力操作を行う。   When the product 10 is recognized by the head mounted display 100, the operation screen 40 (input area 42 and information area 44) is displayed on the display device 102. The worker uses the numeric keys included in the operation screen 40 to perform an input operation for inputting the replenished number.

なお操作画面40には、作業員が自由に情報を記述できるメモ欄が含まれていてもよい。例えば作業員は、各商品10について、次回の補充時に持ってくるべき商品10の個数を多めにすべきか、又は少なめにすべきかなどの情報を入力する。   Note that the operation screen 40 may include a memo field in which an operator can freely describe information. For example, for each product 10, the worker inputs information such as whether the number of products 10 to be brought at the next replenishment should be increased or decreased.

本実施例において、ヘッドマウントディスプレイ100は、作業対象の自動販売機を特定し、特定した自動販売機に入れるべき商品10のリストを取得する機能を有していてもよい。自動販売機の特定は、例えば自動販売機に付されているIDを読み取ることで実現される。   In the present embodiment, the head mounted display 100 may have a function of specifying a work vending machine and acquiring a list of products 10 to be put into the specified vending machine. The identification of the vending machine is realized, for example, by reading an ID attached to the vending machine.

例えば、自動販売機に、その自動販売機のIDを符号化したQRコード(登録商標)が付されているとする。この場合、作業員は、ヘッドマウントディスプレイ100を介してそのQRコード(登録商標)を見る。その結果、カメラ20により、そのQRコード(登録商標)が写った撮像画像が生成される。ヘッドマウントディスプレイ100は、その撮像画像を解析することで、自動販売機のIDを認識する。   For example, it is assumed that a QR code (registered trademark) that encodes the ID of the vending machine is attached to the vending machine. In this case, the worker views the QR code (registered trademark) via the head mounted display 100. As a result, the camera 20 generates a captured image that includes the QR code (registered trademark). The head mounted display 100 recognizes the ID of the vending machine by analyzing the captured image.

ヘッドマウントディスプレイ100は、自動販売機のIDと、そのIDで特定される自動販売機に入れるべき商品10のリストとを関連付けたデータベースを検索して、商品10のリストを取得する。この場合、ヘッドマウントディスプレイ100は、そのデータベースと通信可能に接続されている。ただし、自動販売機に入れるべき商品10のリストは、予めヘッドマウントディスプレイ100の内部の記憶装置に記憶されていてもよい。   The head mounted display 100 searches a database in which the ID of the vending machine and the list of the products 10 to be put in the vending machine specified by the ID are associated, and acquires the list of the products 10. In this case, the head mounted display 100 is communicably connected to the database. However, the list of products 10 to be put into the vending machine may be stored in advance in a storage device inside the head mounted display 100.

なお、作業対象の自動販売機の特定は、手動で行われてもよい。この場合、作業員は、ヘッドマウントディスプレイ100に対して、作業対象の自動販売機を選択する入力操作を行う。例えばヘッドマウントディスプレイ100は、作業対象の自動販売機のリストをディスプレイ装置102に表示する。作業員は、そのリストから、これから行う作業の対象である自動販売機を選択する。   Note that the identification of the vending machine to be worked may be performed manually. In this case, the worker performs an input operation to select a vending machine to be worked on the head mounted display 100. For example, the head mounted display 100 displays a list of work vending machines on the display device 102. From the list, the worker selects a vending machine that is a target of work to be performed.

ヘッドマウントディスプレイ100は、自動販売機と通信する機能を有していてもよい。この場合、例えば自動販売機は、各商品10について補充すべき個数などを示す情報を、ヘッドマウントディスプレイ100へ送信する。ヘッドマウントディスプレイ100は、その情報をディスプレイ装置102へ表示する。作業員は、その情報を見て、補充すべき商品10の個数を把握することができる。   The head mounted display 100 may have a function of communicating with a vending machine. In this case, for example, the vending machine transmits information indicating the number of items 10 to be replenished to the head mounted display 100. The head mounted display 100 displays the information on the display device 102. The worker can grasp the number of products 10 to be replenished by looking at the information.

また自動販売機は、補充された商品10の個数をカウントし、補充された商品10の個数をヘッドマウントディスプレイ100へ通知する機能を有していてもよい。この場合、補充された商品10の個数の記録は、ヘッドマウントディスプレイ100によって自動的に行われる。そのため、作業員は、補充した商品10の個数を入力する入力操作を行う必要がない。   The vending machine may have a function of counting the number of replenished products 10 and notifying the head mounted display 100 of the number of replenished products 10. In this case, recording of the number of replenished products 10 is automatically performed by the head mounted display 100. Therefore, the worker does not need to perform an input operation for inputting the number of the replenished products 10.

[[実施例4]]
実施例4は、ネットショッピングのサービスを提供するスーパーにおいて、ネットショッピングで注文された商品を店舗の商品棚から収集する作業に、ヘッドマウントディスプレイ100が利用される例である。顧客がネットショッピングで商品を注文すると、注文された商品のリストが店舗のサーバへ送信される。その店舗の店員は、店舗を歩き回り、そのリストに載っている商品を商品棚から収集する。その際、店員は、ヘッドマウントディスプレイ100を装着して収集作業を行う。
[[Example 4]]
The fourth embodiment is an example in which the head mounted display 100 is used for collecting products ordered by online shopping from a store shelf in a supermarket that provides online shopping services. When a customer orders a product through online shopping, a list of the ordered product is transmitted to the store server. The store clerk walks around the store and collects the products on the list from the product shelves. At that time, the store clerk wears the head mounted display 100 to perform the collection work.

店舗サーバは、注文された商品のリスト、及び店舗の地図を取得する。さらに店舗サーバは、商品データベースを検索して、注文された商品のリストに載っている各商品が配置されている店舗上の位置を特定する。各商品の位置は、予め商品データベースに登録しておく。そして店舗サーバは、各商品の位置を示す印が重畳された地図を生成する。   The store server acquires a list of ordered products and a map of the store. Further, the store server searches the product database and specifies the position on the store where each product listed in the ordered product list is placed. The position of each product is registered in advance in the product database. And a store server produces | generates the map on which the mark which shows the position of each goods was superimposed.

ヘッドマウントディスプレイ100は、店舗サーバから上記地図を取得して、ディスプレイ装置102に表示させる。図43は、ディスプレイ装置102に表示される店舗の地図を例示する図である。図43において、ディスプレイ装置102には地図300が表示されている。地図300には、上記リストに載っている各商品の位置(店員が収集すべき各商品の位置)を示す商品位置302が重畳されている。店員は、この地図300を見ながら商品を収集することで、目的の商品を容易に収集することができる。   The head mounted display 100 acquires the map from the store server and displays the map on the display device 102. FIG. 43 is a diagram illustrating an example of a store map displayed on the display device 102. In FIG. 43, a map 300 is displayed on the display device 102. A product position 302 indicating the position of each product on the list (the position of each product to be collected by the store clerk) is superimposed on the map 300. The store clerk can collect the target product easily by collecting the product while looking at the map 300.

店員は、ディスプレイ装置102に表示された地図を見て、収集対象の商品が陳列されている商品棚へ行く。そして店員は、収集対象の商品が見つかったら、ヘッドマウントディスプレイ100を介してその商品を見る。ヘッドマウントディスプレイ100は、その商品の商品情報を含む操作画面40をディスプレイ装置102に表示させる。   The store clerk looks at the map displayed on the display device 102 and goes to the product shelf where the products to be collected are displayed. When the sales clerk finds a product to be collected, the clerk looks at the product via the head mounted display 100. The head mounted display 100 displays an operation screen 40 including product information of the product on the display device 102.

図44は、実施例4においてディスプレイ装置102に表示される操作画面40を例示する図である。図44(a)は、店員が手に取った商品10が、収集対象の商品であるケースを例示している。操作画面40には、収集すべき商品10の個数が表示されている。店員は、収集すべき個数をカゴに入れた後、OKボタンをタップする。一方、この商品10の収集を後回しにする場合、店員はキャンセルボタンをタップする。   FIG. 44 is a diagram illustrating an operation screen 40 displayed on the display device 102 in the fourth embodiment. FIG. 44A illustrates a case where the product 10 taken by the store clerk is a product to be collected. The operation screen 40 displays the number of products 10 to be collected. The store clerk taps the OK button after putting the number to be collected into the basket. On the other hand, when the collection of the product 10 is postponed, the store clerk taps a cancel button.

一方、図44(b)は、店員が手に取った商品10が、収集対象の商品ではないケースを例示している。操作画面40には、手に取った商品が収集対象の商品ではない(注文された商品ではない)ことを通知するメッセージが表示されている。このメッセージを確認したユーザは、OKボタンをタップする。   On the other hand, FIG. 44B illustrates a case where the product 10 taken by the store clerk is not a product to be collected. The operation screen 40 displays a message notifying that the product picked up is not the product to be collected (not the ordered product). The user who has confirmed this message taps the OK button.

なお、新人の店員など、店舗に不慣れな店員の場合、ディスプレイ装置102に表示された地図300を見ても、目的の商品を探し出せない場合がありうる。このような場合、ヘッドマウントディスプレイ100は、各売り場の売り場担当者へ連絡する手段を提供してもよい。   In addition, in the case of a store clerk who is unfamiliar with a store such as a new store clerk, even if the map 300 displayed on the display device 102 is viewed, the target product may not be found. In such a case, the head mounted display 100 may provide a means for contacting the sales staff at each sales floor.

図45は、売り場担当者へ連絡するための操作画面40が表示されたディスプレイ装置102を例示する図である。情報エリア44には、売り場担当者の写真が含まれている。入力エリア42には、売り場担当者の名前が示されたボタンが含まれている。店員は、連絡を取りたい売り場担当者の名前が示されたボタンをタップする。これにより、例えば店員とその売り場担当者との間で、音声通話が確立される。この場合、ヘッドマウントディスプレイ100は、音声通話を行う機能を提供する。   FIG. 45 is a diagram illustrating the display device 102 on which the operation screen 40 for contacting the sales staff is displayed. The information area 44 includes a picture of the salesperson in charge. The input area 42 includes a button indicating the name of the sales person in charge. The clerk taps the button with the name of the salesperson who wants to contact. Thereby, for example, a voice call is established between the store clerk and the sales representative. In this case, the head mounted display 100 provides a function of performing a voice call.

[[実施例5]]
実施例5は、店舗における商品の管理にヘッドマウントディスプレイ100が利用されるケースである。ヘッドマウントディスプレイ100は、店員によって装着される。ヘッドマウントディスプレイ100を装着した店員は、例えばヘッドマウントディスプレイ100を用いて商品10の発注業務を行う。
[[Example 5]]
Example 5 is a case where the head mounted display 100 is used for management of goods in a store. The head mounted display 100 is worn by a store clerk. A store clerk wearing the head mounted display 100 performs an ordering work for the product 10 using the head mounted display 100, for example.

図46は、実施例5においてディスプレイ装置102に表示される情報を例示する図である。ディスプレイ装置102には、商品認識領域70に含まれる商品10に関する情報を含む情報エリア44、及び入力操作のための入力エリア42が表示されている。ここで、情報エリア44には、情報エリア44−1及び情報エリア44−2が含まれる。情報エリア44−1には、認識された商品10の商品名、在庫数、及び発注数を示すテーブルが表示されている。情報エリア44−2には、認識された商品10の画像が大きく表示されている。ここで、情報エリア44−2に表示される商品10の画像は、撮像画像から抽出した商品10の画像を拡大したものであってもよいし、商品データベース(例えば商品情報テーブル500)に登録されている商品10の画像であってもよい。   FIG. 46 is a diagram illustrating information displayed on the display device 102 in the fifth embodiment. The display device 102 displays an information area 44 that includes information related to the product 10 included in the product recognition area 70 and an input area 42 for an input operation. Here, the information area 44 includes an information area 44-1 and an information area 44-2. In the information area 44-1, a table showing the product name, the inventory quantity, and the order quantity of the recognized product 10 is displayed. In the information area 44-2, a large image of the recognized product 10 is displayed. Here, the image of the product 10 displayed in the information area 44-2 may be an enlarged image of the product 10 extracted from the captured image, or is registered in the product database (for example, the product information table 500). It may be an image of the product 10.

店員は、情報エリア44に示されている商品10の在庫数などを見て、商品10の発注数を決める。そして店員は、入力エリア42の数値キーを用いて、商品の発注数を入力する。図46では、発注数として「21個」が入力されている。発注数を入力し終えた店員は、OKキーをタップする。こうすることで、商品10の発注が行われる。   The store clerk determines the number of orders for the product 10 by looking at the number of stocks of the product 10 indicated in the information area 44. Then, the store clerk uses the numeric keys in the input area 42 to input the number of products ordered. In FIG. 46, “21” is input as the number of orders. The clerk who has finished inputting the number of orders taps the OK key. By doing so, the product 10 is ordered.

以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の組み合わせ、又は上記以外の様々な構成を採用することもできる。   As mentioned above, although embodiment of this invention was described with reference to drawings, these are illustrations of this invention, The combination of said each embodiment or various structures other than the above can also be employ | adopted.

以下、参考形態の例を付記する。
1. 表示装置と、
情報処理装置と、を有し、
前記情報処理装置は、
商品を認識する商品認識手段と、
前記認識された商品に関する商品情報を取得し、前記取得された商品情報を含む操作画面を前記表示装置に表示させる表示制御手段と、
カメラによって生成された撮像画像に写っている操作体の位置又は動きに基づいて、前記操作画面に対する入力操作を認識する操作認識手段と、
を有する情報処理システム。
2. 前記商品認識手段は、前記撮像画像を用いて前記撮像画像に写っている商品を認識するか、商品に付された又は内蔵されたタグからその商品の識別子を読み取ることでその商品を認識するか、又は商品に付された商品情報シンボルからその商品の識別子を読み取ることでその商品を認識する、1.に記載の情報処理システム。
3. ユーザに身につけられるか、又はユーザの身体の一部であるマーカを有し、
前記商品認識手段は、
前記撮像画像から、前記撮像画像に写っている前記マーカの位置に基づいて定まる商品認識領域を抽出し、
前記抽出された商品認識領域に写っている商品を認識する、2.に記載の情報処理システム。
4. ユーザに身につけられるか、又はユーザの身体の一部であるマーカを有し、
前記表示制御手段は、前記撮像画像に前記マーカが写っている場合に、前記表示装置に前記操作画面を表示させる、1.乃至3.いずれか一つに記載の情報処理システム。
5. 前記表示制御手段は、前記撮像画像に写っている前記マーカの位置に基づいて定まる位置に前記操作画面を表示させる、4.に記載の情報処理システム。
6. 前記マーカは、前記ユーザに身につけられているデバイスのディスプレイ装置に表示される画像である、3.乃至5.いずれか一つに記載の情報処理システム。
7. 前記表示制御手段は、通信回線を介し、前記操作画面又は前記操作画面を重畳させた前記撮像画像を送信する、1.乃至6.いずれか一つに記載の情報処理システム。
8. ユーザに身に付けられるセンサを有し、
前記操作認識手段は、前記センサの検出結果に基づくタイミングにおいて前記撮像画像に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記撮像画像に写っている前記操作体の動きを検出し、前記検出した位置又は動きに基づいて入力操作を認識する、1.乃至7.いずれか一つに記載の情報処理システム。
9. 商品を認識する商品認識手段と、
前記認識された商品に関する商品情報を取得し、前記取得された商品情報を含む操作画面を表示装置に表示させる表示制御手段と、
カメラによって生成された撮像画像に写っている操作体の位置又は動きに基づいて、前記操作画面に対する入力操作を認識する操作認識手段と、
を有する情報処理装置。
10. 前記商品認識手段は、前記撮像画像を用いて前記撮像画像に写っている商品を認識するか、商品に付された又は内蔵されたタグからその商品の識別子を読み取ることでその商品を認識するか、又は商品に付された商品情報シンボルからその商品の識別子を読み取ることでその商品を認識する、9.に記載の情報処理装置。
11. 前記商品認識手段は、
前記撮像画像から、前記撮像画像に写っているマーカの位置に基づいて定まる商品認識領域を抽出し、
前記抽出された商品認識領域に写っている商品を認識し、
前記マーカは、ユーザに身につけられるものか、又はユーザの身体の一部である、10.に記載の情報処理装置。
12. 前記表示制御手段は、前記撮像画像にマーカが写っている場合に、前記表示装置に前記操作画面を表示させ、
前記マーカは、ユーザに身につけられるものか、又はユーザの身体の一部である、9.乃至11.いずれか一つに記載の情報処理装置。
13. 前記表示制御手段は、前記撮像画像に写っている前記マーカの位置に基づいて定まる位置に前記操作画面を表示させる、12.に記載の情報処理装置。
14. 前記マーカは、前記ユーザに身につけられているデバイスのディスプレイ装置に表示される画像である、11.乃至13.いずれか一つに記載の情報処理装置。
15. 前記表示制御手段は、通信回線を介し、前記操作画面又は前記操作画面を重畳させた前記撮像画像を送信する、9.乃至14.いずれか一つに記載の情報処理装置。
16. 前記操作認識手段は、ユーザに身に付けられるセンサの検出結果に基づくタイミングにおいて前記撮像画像に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記撮像画像に写っている前記操作体の動きを検出し、前記検出した位置又は動きに基づいて入力操作を認識する、9.乃至15.いずれか一つに記載の情報処理装置。
17. コンピュータによって実行される制御方法であって、
商品を認識する商品認識ステップと、
前記認識された商品に関する商品情報を取得し、前記取得された商品情報を含む操作画面を表示装置に表示させる表示制御ステップと、
カメラによって生成された撮像画像に写っている操作体の位置又は動きに基づいて、前記操作画面に対する入力操作を認識する操作認識ステップと、
を有する制御方法。
18. 前記商品認識ステップは、前記撮像画像を用いて前記撮像画像に写っている商品を認識するか、商品に付された又は内蔵されたタグからその商品の識別子を読み取ることでその商品を認識するか、又は商品に付された商品情報シンボルからその商品の識別子を読み取ることでその商品を認識する、17.に記載の制御方法。
19. 前記商品認識ステップは、
前記撮像画像から、前記撮像画像に写っているマーカの位置に基づいて定まる商品認識領域を抽出し、
前記抽出された商品認識領域に写っている商品を認識し、
前記マーカは、ユーザに身につけられるものか、又はユーザの身体の一部である、18.に記載の制御方法。
20. 前記表示制御ステップは、前記撮像画像にマーカが写っている場合に、前記表示装置に前記操作画面を表示させ、
前記マーカは、ユーザに身につけられるものか、又はユーザの身体の一部である、17.乃至19.いずれか一つに記載の制御方法。
21. 前記表示制御ステップは、前記撮像画像に写っている前記マーカの位置に基づいて定まる位置に前記操作画面を表示させる、20.に記載の制御方法。
22. 前記マーカは、前記ユーザに身につけられているデバイスのディスプレイ装置に表示される画像である、19.乃至21.いずれか一つに記載の制御方法。
23. 前記表示制御ステップは、通信回線を介し、前記操作画面又は前記操作画面を重畳させた前記撮像画像を送信する、17.乃至22.いずれか一つに記載の制御方法。
24. 前記操作認識ステップは、ユーザに身に付けられるセンサの検出結果に基づくタイミングにおいて前記撮像画像に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記撮像画像に写っている前記操作体の動きを検出し、前記検出した位置又は動きに基づいて入力操作を認識する、17.乃至23.いずれか一つに記載の制御方法。
25. コンピュータに、
商品を認識する商品認識ステップと、
前記認識された商品に関する商品情報を取得し、前記取得された商品情報を含む操作画面を表示装置に表示させる表示制御ステップと、
カメラによって生成された撮像画像に写っている操作体の位置又は動きに基づいて、前記操作画面に対する入力操作を認識する操作認識ステップと、
を実行させるプログラム。
26. 前記商品認識ステップは、前記撮像画像を用いて前記撮像画像に写っている商品を認識するか、商品に付された又は内蔵されたタグからその商品の識別子を読み取ることでその商品を認識するか、又は商品に付された商品情報シンボルからその商品の識別子を読み取ることでその商品を認識する、25.に記載のプログラム。
27. 前記商品認識ステップは、
前記撮像画像から、前記撮像画像に写っているマーカの位置に基づいて定まる商品認識領域を抽出し、
前記抽出された商品認識領域に写っている商品を認識し、
前記マーカは、ユーザに身につけられるものか、又はユーザの身体の一部である、26.に記載のプログラム。
28. 前記表示制御ステップは、前記撮像画像にマーカが写っている場合に、前記表示装置に前記操作画面を表示させ、
前記マーカは、ユーザに身につけられるものか、又はユーザの身体の一部である、25.乃至27.いずれか一つに記載のプログラム。
29. 前記表示制御ステップは、前記撮像画像に写っている前記マーカの位置に基づいて定まる位置に前記操作画面を表示させる、28.に記載のプログラム。
30. 前記マーカは、前記ユーザに身につけられているデバイスのディスプレイ装置に表示される画像である、27.乃至29.いずれか一つに記載のプログラム。
31. 前記表示制御ステップは、通信回線を介し、前記操作画面又は前記操作画面を重畳させた前記撮像画像を送信する、25.乃至30.いずれか一つに記載のプログラム。
32. 前記操作認識ステップは、ユーザに身に付けられるセンサの検出結果に基づくタイミングにおいて前記撮像画像に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記撮像画像に写っている前記操作体の動きを検出し、前記検出した位置又は動きに基づいて入力操作を認識する、25.乃至31.いずれか一つに記載のプログラム。
Hereinafter, examples of the reference form will be added.
1. A display device;
An information processing device,
The information processing apparatus includes:
Product recognition means for recognizing products,
Display control means for acquiring product information relating to the recognized product and displaying an operation screen including the acquired product information on the display device;
An operation recognizing means for recognizing an input operation on the operation screen based on the position or movement of the operation body shown in the captured image generated by the camera;
An information processing system.
2. Whether the product recognition means recognizes the product shown in the captured image using the captured image, or recognizes the product by reading the identifier of the product from a tag attached to the product or built in Or the product is recognized by reading the product identifier from the product information symbol attached to the product. Information processing system described in 1.
3. Having a marker that is worn by the user or that is part of the user's body;
The product recognition means
From the captured image, extract a product recognition area determined based on the position of the marker in the captured image,
1. Recognize a product shown in the extracted product recognition area. Information processing system described in 1.
4). Having a marker that is worn by the user or that is part of the user's body;
The display control means causes the display device to display the operation screen when the marker is reflected in the captured image. To 3. The information processing system according to any one of the above.
5. 3. The display control unit displays the operation screen at a position determined based on the position of the marker in the captured image. Information processing system described in 1.
6). 2. The marker is an image displayed on a display device of a device worn by the user. To 5. The information processing system according to any one of the above.
7). The display control means transmits the operation screen or the captured image on which the operation screen is superimposed via a communication line. To 6. The information processing system according to any one of the above.
8). Having a sensor worn by the user,
The operation recognizing unit detects the position of the operating body that appears in the captured image at a timing based on the detection result of the sensor, or the movement of the operating body that appears in the captured image at a time including the timing. And recognizing an input operation based on the detected position or movement. To 7. The information processing system according to any one of the above.
9. Product recognition means for recognizing products,
Display control means for acquiring product information relating to the recognized product and displaying an operation screen including the acquired product information on a display device;
An operation recognizing means for recognizing an input operation on the operation screen based on the position or movement of the operation body shown in the captured image generated by the camera;
An information processing apparatus.
10. Whether the product recognition means recognizes the product shown in the captured image using the captured image, or recognizes the product by reading the identifier of the product from a tag attached to the product or built in 8. Recognize the product by reading the product identifier from the product information symbol attached to the product. The information processing apparatus described in 1.
11. The product recognition means
From the captured image, extract a product recognition area determined based on the position of the marker in the captured image,
Recognizing the product shown in the extracted product recognition area,
9. The marker is worn by the user or is part of the user's body. The information processing apparatus described in 1.
12 The display control means displays the operation screen on the display device when a marker is reflected in the captured image,
8. the marker is worn by the user or is part of the user's body; To 11. The information processing apparatus according to any one of the above.
13. The display control means displays the operation screen at a position determined based on the position of the marker in the captured image. The information processing apparatus described in 1.
14 10. The marker is an image displayed on a display device of a device worn by the user. Thru 13. The information processing apparatus according to any one of the above.
15. 8. The display control means transmits the operation screen or the captured image on which the operation screen is superimposed via a communication line. To 14. The information processing apparatus according to any one of the above.
16. The operation recognizing unit detects the position of the operating body in the captured image at a timing based on a detection result of a sensor worn by the user, or is captured in the captured image at a time including the timing. 8. detecting the movement of the operating body and recognizing an input operation based on the detected position or movement; To 15. The information processing apparatus according to any one of the above.
17. A control method executed by a computer,
A product recognition step for recognizing the product;
A display control step of acquiring product information related to the recognized product and displaying an operation screen including the acquired product information on a display device;
An operation recognizing step for recognizing an input operation on the operation screen based on the position or movement of the operation body reflected in the captured image generated by the camera;
A control method.
18. Whether the product recognition step recognizes the product shown in the captured image using the captured image, or recognizes the product by reading the identifier of the product from a tag attached to the product or built in Or recognizing the product by reading the product identifier from the product information symbol attached to the product. The control method described in 1.
19. The product recognition step includes:
From the captured image, extract a product recognition area determined based on the position of the marker in the captured image,
Recognizing the product shown in the extracted product recognition area,
The marker is worn by the user or is a part of the user's body, 18. The control method described in 1.
20. The display control step displays the operation screen on the display device when a marker is reflected in the captured image,
16. the marker is worn by the user or is part of the user's body; Thru 19. The control method as described in any one.
21. The display control step displays the operation screen at a position determined based on the position of the marker in the captured image; The control method described in 1.
22. 18. The marker is an image displayed on a display device of a device worn by the user. Thru 21. The control method as described in any one.
23. 16. The display control step transmits the operation screen or the captured image on which the operation screen is superimposed via a communication line. Thru 22. The control method as described in any one.
24. The operation recognizing step detects the position of the operating body in the captured image at a timing based on a detection result of a sensor worn by the user, or is captured in the captured image at a time including the timing. 16. detecting the movement of the operating body and recognizing an input operation based on the detected position or movement; Thru 23. The control method as described in any one.
25. On the computer,
A product recognition step for recognizing the product;
A display control step of acquiring product information related to the recognized product and displaying an operation screen including the acquired product information on a display device;
An operation recognizing step for recognizing an input operation on the operation screen based on the position or movement of the operation body reflected in the captured image generated by the camera;
A program that executes
26. Whether the product recognition step recognizes the product shown in the captured image using the captured image, or recognizes the product by reading the identifier of the product from a tag attached to the product or built in Or recognizing the product by reading the product identifier from the product information symbol attached to the product, 25. The program described in.
27. The product recognition step includes:
From the captured image, extract a product recognition area determined based on the position of the marker in the captured image,
Recognizing the product shown in the extracted product recognition area,
The marker is worn by the user or is a part of the user's body, 26. The program described in.
28. The display control step displays the operation screen on the display device when a marker is reflected in the captured image,
The marker is worn by the user or is part of the user's body; 25. Thru 27. The program according to any one of the above.
29. The display control step displays the operation screen at a position determined based on the position of the marker in the captured image; 28. The program described in.
30. 27. The marker is an image displayed on a display device of a device worn by the user. Thru 29. The program according to any one of the above.
31. The display control step transmits the operation screen or the captured image on which the operation screen is superimposed via a communication line; 25. Thru 30. The program according to any one of the above.
32. The operation recognizing step detects the position of the operating body in the captured image at a timing based on a detection result of a sensor worn by the user, or is captured in the captured image at a time including the timing. 25. detecting the movement of the operating body and recognizing an input operation based on the detected position or movement; Thru 31. The program according to any one of the above.

10 商品
20 カメラ
22 撮像画像
24 所定領域
26 ガイド
30 指
32 腕
40 操作画面
42 入力エリア
44 情報エリア
46 矢印
50 動き
51 形状
52 形状
54 矩形
56 円形
60 領域
62 重心
64 点
70 商品認識領域
72 矢印
80 デバイス
82 タッチパネル
84 マーカ画像
86 振動センサ
87 座標系
100 ヘッドマウントディスプレイ
102 ディスプレイ装置
120 参照画像
121 位置
130 領域
131 点
200 テンプレート
202 置換領域
300 地図
302 商品位置
500 商品情報テーブル
502 商品ID
504 特徴量
506 商品情報
508 商品名
510 価格
512 説明
600 コンシェルジュシステム
610 サーバ
620 顧客端末
700 オーダー情報テーブル
702 商品ID
704 個数
800 商品格納庫
1000 計算機
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージ
1100 入出力インタフェース
2000 情報処理装置
2020 商品認識部
2020 認識部
2040 表示制御部
2060 操作認識部
3000 情報処理システム
3020 表示装置
3040 第1マーカ
3060 第2マーカ
3080 センサ
10 product 20 camera 22 captured image 24 predetermined region 26 guide 30 finger 32 arm 40 operation screen 42 input area 44 information area 46 arrow 50 movement 51 shape 52 shape 54 rectangle 56 circle 60 region 62 center of gravity 64 point 70 product recognition region 72 arrow 80 Device 82 Touch panel 84 Marker image 86 Vibration sensor 87 Coordinate system 100 Head mounted display 102 Display device 120 Reference image 121 Position 130 Area 131 Point 200 Template 202 Replacement area 300 Map 302 Product position 500 Product information table 502 Product ID
504 Feature quantity 506 Product information 508 Product name 510 Price 512 Description 600 Concierge system 610 Server 620 Customer terminal 700 Order information table 702 Product ID
704 Number 800 Product storage 1000 Computer 1020 Bus 1040 Processor 1060 Memory 1080 Storage 1100 Input / output interface 2000 Information processing device 2020 Product recognition unit 2020 Recognition unit 2040 Display control unit 2060 Operation recognition unit 3000 Information processing system 3020 Display device 3040 First marker 3060 Second marker 3080 sensor

Claims (14)

撮像画像の一部の領域であるオブジェクト認識領域を抽出し、前記抽出されたオブジェクト認識領域に含まれるオブジェクトを認識するオブジェクト認識手段と、
前記認識されたオブジェクトに関するオブジェクト情報を取得し、前記取得されたオブジェクト情報とそのオブジェクトに関する操作画面とを表示装置に表示させる表示制御手段と、
撮像画像に含まれる操作体の位置及び動きの少なくとも一方に基づいて、前記操作画面に対する入力操作を認識する操作認識手段と、
を有し、
前記オブジェクト認識手段は、撮像画像に含まれる第1マーカの位置に基づいて定まる前記オブジェクト認識領域を撮像画像から抽出し、
前記表示制御手段は、撮像画像に第2マーカが含まれる場合に、前記表示装置に前記操作画面を表示させ、
前記第1マーカ及び前記第2マーカの少なくとも一方は、ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であるか、前記デバイスに描画、印字、若しくは付されたものであるか、前記ユーザに身につけられているか、又は前記ユーザの身体の一部である、情報処理装置。
An object recognition means for extracting an object recognition area, which is a partial area of the captured image, and recognizing an object included in the extracted object recognition area;
Display control means for acquiring object information relating to the recognized object, and displaying the acquired object information and an operation screen relating to the object on a display device;
An operation recognizing means for recognizing an input operation on the operation screen based on at least one of a position and a movement of the operation body included in the captured image;
Have
The object recognition means extracts the object recognition area determined based on the position of the first marker included in the captured image from the captured image;
The display control unit displays the operation screen on the display device when the captured image includes a second marker,
Whether at least one of the first marker and the second marker is an image displayed on a display device of a device worn by a user, or is drawn, printed, or attached to the device, An information processing apparatus that is worn by the user or is a part of the user's body.
前記オブジェクト認識手段は、撮像画像を解析することでその撮像画像に含まれるオブジェクトを認識するか、又はオブジェクトに付されたシンボルからそのオブジェクトの識別子を読み取ることでそのオブジェクトを認識する、請求項1に記載の情報処理装置。   The object recognition unit recognizes an object included in the captured image by analyzing the captured image, or recognizes the object by reading an identifier of the object from a symbol attached to the object. The information processing apparatus described in 1. 前記オブジェクト認識手段は、撮像画像に含まれるマーカの位置に基づいて定まる前記オブジェクト認識領域を撮像画像から抽出する、請求項1又は2に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the object recognition unit extracts the object recognition area determined based on a position of a marker included in the captured image from the captured image. 前記表示制御手段は、撮像画像にマーカが含まれる場合に、前記表示装置に前記操作画面を表示させる、請求項1又は2いずれか一項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the display control unit displays the operation screen on the display device when a marker is included in the captured image. 前記表示制御手段は、撮像画像に含まれる前記マーカの位置に基づいて定まる位置に前記操作画面を表示させる、請求項4に記載の情報処理装置。   The information processing apparatus according to claim 4, wherein the display control unit displays the operation screen at a position determined based on a position of the marker included in the captured image. 前記第1マーカと前記第2マーカは同一のものである請求項1乃至5いずれか一項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the first marker and the second marker are the same. 前記表示制御手段は、前記表示装置の表示画面において、前記撮像画像における前記オブジェクト認識領域の位置に対応する前記表示画面上の位置とは異なる位置に、前記操作画面を表示させる、請求項1乃至6いずれか一項に記載の情報処理装置。   The display control unit displays the operation screen at a position different from a position on the display screen corresponding to a position of the object recognition area in the captured image on the display screen of the display device. 6. The information processing apparatus according to any one of 6. 前記オブジェクト認識領域は、予め定められた領域である、請求項1乃至7いずれか一項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the object recognition area is a predetermined area. 前記表示制御手段は、通信回線を介し、前記操作画面又は前記操作画面を重畳させた撮像画像を送信する、請求項1乃至8いずれか一項に記載の情報処理装置。   The information processing apparatus according to any one of claims 1 to 8, wherein the display control unit transmits the operation screen or a captured image on which the operation screen is superimposed via a communication line. 前記操作認識手段は、ユーザに身につけられるデバイスに備えられたセンサの検出結果に基づいて定まるタイミングにおいて撮像画像に含まれる操作体の位置を検出するか、又は前記タイミングに基づいて定まる時間において撮像画像に含まれる前記操作体の動きを検出し、前記検出した位置又は動きに基づいて入力操作を認識する、請求項1乃至9いずれか一項に記載の情報処理装置。   The operation recognizing unit detects the position of the operation body included in the captured image at a timing determined based on a detection result of a sensor provided in a device worn by the user, or captures an image at a time determined based on the timing. The information processing apparatus according to claim 1, wherein a motion of the operation body included in an image is detected and an input operation is recognized based on the detected position or motion. 前記オブジェクトは商品である、請求項1乃至10いずれか一項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the object is a product. 表示装置と、
情報処理装置と、を有し、
前記情報処理装置は、
撮像画像の一部の領域であるオブジェクト認識領域を抽出し、前記抽出されたオブジェクト認識領域に含まれるオブジェクトを認識するオブジェクト認識手段と、
前記認識されたオブジェクトに関するオブジェクト情報を取得し、前記取得されたオブジェクト情報とそのオブジェクトに関する操作画面とを表示装置に表示させる表示制御手段と、
撮像画像に含まれる操作体の位置及び動きの少なくとも一方に基づいて、前記操作画面に対する入力操作を認識する操作認識手段と、
を有し、
前記オブジェクト認識手段は、撮像画像に含まれる第1マーカの位置に基づいて定まる前記オブジェクト認識領域を撮像画像から抽出し、
前記表示制御手段は、撮像画像に第2マーカが含まれる場合に、前記表示装置に前記操作画面を表示させ、
前記第1マーカ及び前記第2マーカの少なくとも一方は、ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であるか、前記デバイスに描画、印字、若しくは付されたものであるか、前記ユーザに身につけられているか、又は前記ユーザの身体の一部である、情報処理システム。
A display device;
An information processing device,
The information processing apparatus includes:
An object recognition means for extracting an object recognition area, which is a partial area of the captured image, and recognizing an object included in the extracted object recognition area;
Display control means for acquiring object information relating to the recognized object, and displaying the acquired object information and an operation screen relating to the object on a display device;
An operation recognizing means for recognizing an input operation on the operation screen based on at least one of a position and a movement of the operation body included in the captured image;
Have
The object recognition means extracts the object recognition area determined based on the position of the first marker included in the captured image from the captured image;
The display control unit displays the operation screen on the display device when the captured image includes a second marker,
Whether at least one of the first marker and the second marker is an image displayed on a display device of a device worn by a user, or is drawn, printed, or attached to the device, An information processing system that is worn by the user or is a part of the user's body.
コンピュータによって実行される制御方法であって、
撮像画像の一部の領域であるオブジェクト認識領域を抽出し、前記抽出されたオブジェクト認識領域に含まれるオブジェクトを認識するオブジェクト認識ステップと、
前記認識されたオブジェクトに関するオブジェクト情報を取得し、前記取得されたオブジェクト情報とそのオブジェクトに関する操作画面とを表示装置に表示させる表示制御ステップと、
撮像画像に含まれる操作体の位置及び動きの少なくとも一方に基づいて、前記操作画面に対する入力操作を認識する操作認識ステップと、
を有し、
前記オブジェクト認識ステップにおいて、撮像画像に含まれる第1マーカの位置に基づいて定まる前記オブジェクト認識領域を撮像画像から抽出し、
前記表示制御ステップにおいて、撮像画像に第2マーカが含まれる場合に、前記表示装置に前記操作画面を表示させ、
前記第1マーカ及び前記第2マーカの少なくとも一方は、ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であるか、前記デバイスに描画、印字、若しくは付されたものであるか、前記ユーザに身につけられているか、又は前記ユーザの身体の一部である、制御方法。
A control method executed by a computer,
An object recognition step of extracting an object recognition area, which is a partial area of the captured image, and recognizing an object included in the extracted object recognition area;
A display control step of acquiring object information related to the recognized object, and displaying the acquired object information and an operation screen related to the object on a display device;
An operation recognition step for recognizing an input operation on the operation screen based on at least one of the position and the movement of the operation body included in the captured image;
Have
In the object recognition step, the object recognition area determined based on the position of the first marker included in the captured image is extracted from the captured image,
In the display control step, when the second marker is included in the captured image, the operation screen is displayed on the display device,
Whether at least one of the first marker and the second marker is an image displayed on a display device of a device worn by a user, or is drawn, printed, or attached to the device, A control method that is worn by the user or is part of the user's body.
コンピュータに、
撮像画像の一部の領域であるオブジェクト認識領域を抽出し、前記抽出されたオブジェクト認識領域に含まれるオブジェクトを認識するオブジェクト認識ステップと、
前記認識されたオブジェクトに関するオブジェクト情報を取得し、前記取得されたオブジェクト情報とそのオブジェクトに関する操作画面とを表示装置に表示させる表示制御ステップと、
撮像画像に含まれる操作体の位置及び動きの少なくとも一方に基づいて、前記操作画面に対する入力操作を認識する操作認識ステップと、
を実行させ、
前記オブジェクト認識ステップにおいて、撮像画像に含まれる第1マーカの位置に基づいて定まる前記オブジェクト認識領域を撮像画像から抽出し、
前記表示制御ステップにおいて、撮像画像に第2マーカが含まれる場合に、前記表示装置に前記操作画面を表示させ、
前記第1マーカ及び前記第2マーカの少なくとも一方は、ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であるか、前記デバイスに描画、印字、若しくは付されたものであるか、前記ユーザに身につけられているか、又は前記ユーザの身体の一部である、プログラム。
On the computer,
An object recognition step of extracting an object recognition area, which is a partial area of the captured image, and recognizing an object included in the extracted object recognition area;
A display control step of acquiring object information related to the recognized object, and displaying the acquired object information and an operation screen related to the object on a display device;
An operation recognition step for recognizing an input operation on the operation screen based on at least one of the position and the movement of the operation body included in the captured image;
And execute
In the object recognition step, the object recognition area determined based on the position of the first marker included in the captured image is extracted from the captured image,
In the display control step, when the second marker is included in the captured image, the operation screen is displayed on the display device,
Whether at least one of the first marker and the second marker is an image displayed on a display device of a device worn by a user, or is drawn, printed, or attached to the device, A program that is worn by or is part of the user's body.
JP2017233579A 2017-12-05 2017-12-05 Information processing system, information processing apparatus, control method, and program Active JP6601480B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017233579A JP6601480B2 (en) 2017-12-05 2017-12-05 Information processing system, information processing apparatus, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017233579A JP6601480B2 (en) 2017-12-05 2017-12-05 Information processing system, information processing apparatus, control method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016042263A Division JP6256497B2 (en) 2016-03-04 2016-03-04 Information processing system, information processing apparatus, control method, and program

Publications (3)

Publication Number Publication Date
JP2018063722A true JP2018063722A (en) 2018-04-19
JP2018063722A5 JP2018063722A5 (en) 2018-06-14
JP6601480B2 JP6601480B2 (en) 2019-11-06

Family

ID=61967887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017233579A Active JP6601480B2 (en) 2017-12-05 2017-12-05 Information processing system, information processing apparatus, control method, and program

Country Status (1)

Country Link
JP (1) JP6601480B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020192613A (en) * 2019-05-24 2020-12-03 京セラドキュメントソリューションズ株式会社 Electronic device, robotic system, and virtual area setting method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
JP2006155244A (en) * 2004-11-29 2006-06-15 Olympus Corp Information display device
JP2011257943A (en) * 2010-06-08 2011-12-22 Canon Inc Gesture operation input device
WO2015107625A1 (en) * 2014-01-15 2015-07-23 日立マクセル株式会社 Information display terminal, information display system, and information display method
JP2015213212A (en) * 2014-05-01 2015-11-26 セイコーエプソン株式会社 Head-mounted display apparatus, control system, and control method of head-mounted display apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
JP2006155244A (en) * 2004-11-29 2006-06-15 Olympus Corp Information display device
JP2011257943A (en) * 2010-06-08 2011-12-22 Canon Inc Gesture operation input device
WO2015107625A1 (en) * 2014-01-15 2015-07-23 日立マクセル株式会社 Information display terminal, information display system, and information display method
JP2015213212A (en) * 2014-05-01 2015-11-26 セイコーエプソン株式会社 Head-mounted display apparatus, control system, and control method of head-mounted display apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020192613A (en) * 2019-05-24 2020-12-03 京セラドキュメントソリューションズ株式会社 Electronic device, robotic system, and virtual area setting method
JP7331462B2 (en) 2019-05-24 2023-08-23 京セラドキュメントソリューションズ株式会社 ROBOT SYSTEM, ROBOT CONTROL METHOD AND ELECTRONIC DEVICE

Also Published As

Publication number Publication date
JP6601480B2 (en) 2019-11-06

Similar Documents

Publication Publication Date Title
JP6256497B2 (en) Information processing system, information processing apparatus, control method, and program
CN108027654B (en) Input device, input method, and program
CN103176690B (en) Display control apparatus, display control method and program
US20140240225A1 (en) Method for touchless control of a device
CN108027656B (en) Input device, input method, and program
JP6350772B2 (en) Information processing system, information processing apparatus, control method, and program
CN107615214A (en) Interface control system, interface control device, interface control method and program
JP6828801B2 (en) Information processing equipment, information processing systems, control methods, and programs
CN106709714A (en) Mobile payment method, client end and system
JP7419003B2 (en) Information display device, information display method, and information display system
US9672436B1 (en) Interfaces for item search
JP6601480B2 (en) Information processing system, information processing apparatus, control method, and program
Rajendran Virtual information kiosk using augmented reality for easy shopping
US10304120B2 (en) Merchandise sales service device based on dynamic scene change, merchandise sales system based on dynamic scene change, method for selling merchandise based on dynamic scene change and non-transitory computer readable storage medium having computer program recorded thereon
US20150302784A1 (en) Information processing system, control method, and computer-readable medium
CN111386543A (en) Secure transactions using augmented reality
JP6590610B2 (en) Method, apparatus and program
US9607418B1 (en) Method of transaction card recognition and interaction
JP2013200654A (en) Display control device, display control method, information display system, and program
TWI471733B (en) A method for providing information interaction by using mobile computing device and the system thereof
US20220270280A1 (en) System and tools for determining ring size
JP2022068073A (en) Non-contact POS register and non-contact POS register operation method
CN114240444A (en) Face brushing payment method and device and face brushing payment equipment
CN114372804A (en) Non-contact ordering biological identification consumption system and use method thereof
JP2017146941A (en) Image display device, display control method and display control program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180426

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190923

R150 Certificate of patent or registration of utility model

Ref document number: 6601480

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150