JP2021009552A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2021009552A
JP2021009552A JP2019122974A JP2019122974A JP2021009552A JP 2021009552 A JP2021009552 A JP 2021009552A JP 2019122974 A JP2019122974 A JP 2019122974A JP 2019122974 A JP2019122974 A JP 2019122974A JP 2021009552 A JP2021009552 A JP 2021009552A
Authority
JP
Japan
Prior art keywords
user
image
unit
information processing
designated area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019122974A
Other languages
Japanese (ja)
Inventor
真暉 近藤
Masaki Kondo
真暉 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2019122974A priority Critical patent/JP2021009552A/en
Publication of JP2021009552A publication Critical patent/JP2021009552A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

To provide an information processing apparatus, an information processing method, and a program capable of correctly selecting an object intended by a user even when an object-in-object is included in a plurality of objects existing in a field of view of the user.SOLUTION: An information processing apparatus 100 comprises a detection unit 12, a calculation unit 17, and a selection unit 18. The detection unit detects a designated area designated by an operation body that moves within a field of view of a user according to a motion of the user. The calculation unit calculates the degree of overlapping with the designated area for an object that overlaps with the designated area in the field of view of the user, among a plurality of objects that exist in the field of view of the user and include one or more objects contained within another object. The selection unit selects a target object from the plurality of objects based on the degree of overlapping and the size of the object.SELECTED DRAWING: Figure 4

Description

本発明の実施形態は、情報処理装置、情報処理方法およびプログラムに関する。 Embodiments of the present invention relate to information processing devices, information processing methods and programs.

近年、仮想現実(VR:Virtual Reality)や拡張現実(AR:Augmented Reality)をユーザに体感させるHMD(Head Mounted Display)などの情報処理装置が普及している。この種の情報処理装置では、ユーザの視野内に存在する複数のオブジェクトの中から所望のオブジェクトが選択されると、選択されたオブジェクトに基づいて所定の処理が実行される。オブジェクトを選択するためのユーザインタフェースとしては、ユーザの視野内に仮想的なポインタを配置し、ユーザがこのポインタを動かすことでオブジェクトを選択できるようにするものが一般的である。 In recent years, information processing devices such as HMDs (Head Mounted Display) that allow users to experience virtual reality (VR) and augmented reality (AR) have become widespread. In this type of information processing device, when a desired object is selected from a plurality of objects existing in the user's field of view, a predetermined process is executed based on the selected object. As a user interface for selecting an object, a virtual pointer is generally placed in the user's field of view so that the user can select the object by moving the pointer.

しかし、このような従来の方法では、ユーザの視野内に存在する複数のオブジェクトのうち、ユーザがどのオブジェクトを選択しようとしているのか一意に特定できない場合がある。例えば、複数のオブジェクトの中に、大きなオブジェクトに内包される小さなオブジェクト(以下、これを「オブジェクト内オブジェクト」と呼ぶ)が含まれている場合、仮想的なポインタの位置が大きなオブジェクトとその中のオブジェクト内オブジェクトの双方と重なり、ユーザが大きなオブジェクトを選択しようとしているのか、あるいはオブジェクト内オブジェクトを選択しようとしているのかを一意に特定できない場合があるため、改善が求められる。 However, with such a conventional method, it may not be possible to uniquely identify which object the user is trying to select from among the plurality of objects existing in the user's field of view. For example, if multiple objects include a small object contained in a large object (hereinafter referred to as "in-object object"), the object with a large virtual pointer position and the object within it. It overlaps with both in-object objects, and it may not be possible to uniquely identify whether the user is trying to select a large object or an in-object object, so improvement is required.

特開2002−42172号公報JP-A-2002-42172 特開2015−203889号公報JP-A-2015-203889 特開2011−203823号公報Japanese Unexamined Patent Publication No. 2011-203823

本発明が解決しようとする課題は、ユーザの視野内に存在する複数のオブジェクトにオブジェクト内オブジェクトが含まれる場合であっても、ユーザの意図したオブジェクトを正しく選択することができる情報処理装置、情報処理方法およびプログラムを提供することである。 The problem to be solved by the present invention is an information processing device and information that can correctly select an object intended by the user even when a plurality of objects existing in the user's field of view include an object in the object. It is to provide a processing method and a program.

実施形態の情報処理装置は、検出部と、算出部と、選択部と、を備える。検出部は、ユーザの動作に応じて前記ユーザの視野内で動く操作体により指定される指定領域を検出する。算出部は、前記ユーザの視野内に存在する複数のオブジェクトであって、他のオブジェクトに内包される一つ以上のオブジェクトを含む前記複数のオブジェクトのうち、前記ユーザの視野内で前記指定領域と重なるオブジェクトについて、前記指定領域との重畳度を算出する。選択部は、前記重畳度とオブジェクトの大きさとに基づいて、前記複数のオブジェクトの中からターゲットとなるオブジェクトを選択する。 The information processing device of the embodiment includes a detection unit, a calculation unit, and a selection unit. The detection unit detects a designated area designated by the operating body that moves in the user's field of view according to the user's operation. The calculation unit is a plurality of objects existing in the user's field of view, and among the plurality of objects including one or more objects included in the other objects, the calculation unit and the designated area in the user's field of view. For the overlapping objects, the degree of superimposition with the designated area is calculated. The selection unit selects a target object from the plurality of objects based on the degree of superimposition and the size of the object.

図1は、オブジェクトを選択する従来の手法の課題を説明する図である。FIG. 1 is a diagram illustrating a problem of a conventional method of selecting an object. 図2は、第1実施形態に係る情報処理装置をユーザが装着した様子を示す図である。FIG. 2 is a diagram showing a state in which the user wears the information processing device according to the first embodiment. 図3は、第1実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。FIG. 3 is a block diagram showing a hardware configuration example of the information processing apparatus according to the first embodiment. 図4は、第1実施形態に係る情報処理装置の機能的な構成例を示すブロック図である。FIG. 4 is a block diagram showing a functional configuration example of the information processing apparatus according to the first embodiment. 図5−1は、指定領域の一例を説明する図である。FIG. 5-1 is a diagram illustrating an example of a designated area. 図5−2は、指定領域の一例を説明する図である。FIG. 5-2 is a diagram illustrating an example of a designated area. 図5−3は、指定領域の一例を説明する図である。FIG. 5-3 is a diagram illustrating an example of a designated area. 図5−4は、指定領域の一例を説明する図である。FIG. 5-4 is a diagram illustrating an example of a designated area. 図5−5は、指定領域の一例を説明する図である。FIG. 5-5 is a diagram illustrating an example of a designated area. 図5−6は、指定領域の一例を説明する図である。FIG. 5-6 is a diagram illustrating an example of a designated area. 図6は、画像補間部による処理の概要を説明する図である。FIG. 6 is a diagram illustrating an outline of processing by the image interpolation unit. 図7−1は、オブジェクト選択の具体例を説明する図である。FIG. 7-1 is a diagram illustrating a specific example of object selection. 図7−2は、オブジェクト選択の具体例を説明する図である。FIG. 7-2 is a diagram illustrating a specific example of object selection. 図7−3は、オブジェクト選択の具体例を説明する図である。FIG. 7-3 is a diagram illustrating a specific example of object selection. 図7−4は、オブジェクト選択の具体例を説明する図である。FIG. 7-4 is a diagram illustrating a specific example of object selection. 図7−5は、オブジェクト選択の具体例を説明する図である。FIG. 7-5 is a diagram illustrating a specific example of object selection. 図8は、選択されたオブジェクトをユーザに認識させる手法の一例を示す図である。FIG. 8 is a diagram showing an example of a method for causing the user to recognize the selected object. 図9は、選択されたオブジェクトをユーザに認識させる手法の一例を示す図である。FIG. 9 is a diagram showing an example of a method for causing the user to recognize the selected object. 図10は、画像を拡大・縮小する処理を説明する図である。FIG. 10 is a diagram illustrating a process of enlarging / reducing an image. 図11は、情報処理装置の動作概要を示すフローチャートである。FIG. 11 is a flowchart showing an outline of the operation of the information processing apparatus. 図12は、第2実施形態に係る情報処理装置の機能的な構成例を示すブロック図である。FIG. 12 is a block diagram showing a functional configuration example of the information processing apparatus according to the second embodiment.

以下、実施形態の情報処理装置、情報処理方法およびプログラムについて、添付図面を参照して詳細に説明する。 Hereinafter, the information processing apparatus, the information processing method, and the program of the embodiment will be described in detail with reference to the accompanying drawings.

<実施形態の概要>
VR技術やAR技術を用いたHMDなどの情報処理装置において、ユーザの視野内に存在する複数のオブジェクトの中から所望のオブジェクトを選択するためのユーザインタフェースとしては、ユーザの視野内に配置された仮想的なポインタを例えばジェスチャなどを通じてユーザが動かすことで、所望のオブジェクトを選択できるようにするものが一般的である。しかし、このような仮想的なポインタを用いたオブジェクト選択の手法では、選択の候補となる複数のオブジェクトにオブジェクト内オブジェクトが含まれる場合、ユーザがどのオブジェクトを選択しようとしているのか一意に特定できない場合がある。
<Outline of Embodiment>
In an information processing device such as an HMD using VR technology or AR technology, a user interface for selecting a desired object from a plurality of objects existing in the user's field of view is arranged in the user's field of view. Generally, a virtual pointer is moved by a user through a gesture or the like so that a desired object can be selected. However, in such an object selection method using a virtual pointer, when multiple objects that are candidates for selection include objects within the object, it is not possible to uniquely identify which object the user is trying to select. There is.

例えば図1に示すように、ユーザの視野内にPC(パーソナルコンピュータ)の画像またはCG(コンピュータグラフィックス)パーツがあり、PC全体、PC内のキーボード、キーボード内の各キーが、それぞれ選択の候補となるオブジェクトとして認識されていたとする。ここで、ユーザがポインタPを図1に示す位置に動かした場合、ポインタPが指し示す位置は、PC全体とPC内のキーボードとキーボード内のキーのそれぞれに重なるため、ユーザが選択しようとしているオブジェクトがPC全体なのか、PC内のキーボードなのか、キーボード内のキーなのか、一意に特定することができない。 For example, as shown in FIG. 1, there is a PC (personal computer) image or CG (computer graphics) part in the user's field of view, and the entire PC, the keyboard in the PC, and each key in the keyboard are candidates for selection. It is assumed that it is recognized as an object. Here, when the user moves the pointer P to the position shown in FIG. 1, the position pointed to by the pointer P overlaps the entire PC, the keyboard in the PC, and the keys in the keyboard, so that the object the user is trying to select. It is not possible to uniquely identify whether is the entire PC, the keyboard in the PC, or the keys in the keyboard.

そこで、本実施形態では、ユーザの動作に応じてユーザの視野内で動く操作体により指定される指定領域との重畳度とオブジェクトの大きさを用いて、ユーザの視野内に含まれる複数のオブジェクトの中からユーザの意図したオブジェクトを正しく選択できるようにする新規な技術案を提案する。以下では、AR技術を用いたHMDへの適用例を第1実施形態、VR技術を用いたHMDへの適用例を第2実施形態として順に説明する。なお、以下の説明において、同様の機能を持つ構成要素については同一の符号を付して、重複した説明は適宜省略する。 Therefore, in the present embodiment, a plurality of objects included in the user's field of view are used by using the degree of superimposition with the designated area specified by the operating body that moves in the user's field of view according to the user's movement and the size of the object. We propose a new technical proposal that enables the user to correctly select the object intended by the user. In the following, an example of application to the HMD using the AR technology will be described as the first embodiment, and an example of application to the HMD using the VR technology will be described in order as the second embodiment. In the following description, components having the same function are designated by the same reference numerals, and duplicate description will be omitted as appropriate.

<第1実施形態>
第1実施形態に係る情報処理装置は、AR技術を用いたHMDとして構成される。AR技術を用いたHMDは、一般に「ARグラス」と呼ばれる。図2は、第1実施形態に係る情報処理装置100をユーザUが装着した様子を示している。ARグラスとして構成される情報処理装置100は、一般的なメガネと同様に、ユーザUが頭部に装着して使用することができる。
<First Embodiment>
The information processing device according to the first embodiment is configured as an HMD using AR technology. HMDs using AR technology are commonly referred to as "AR glasses". FIG. 2 shows a state in which the user U wears the information processing device 100 according to the first embodiment. The information processing device 100 configured as AR glasses can be worn by the user U on the head and used in the same manner as general glasses.

この情報処理装置100は、ユーザUの前方の実空間を撮像するカメラ104を搭載し、このカメラ104により撮像された実空間の画像(映像)が、メガネのレンズ部分に相当するユーザUの目の前方に配置されたディスプレイ106に表示される。また、情報処理装置100は、様々な情報を例えば仮想的なCGパーツとして生成し、このCGパーツをカメラ104により撮像された実空間の画像に重畳してディスプレイ106に表示させることができる。これにより、情報処理装置100を装着したユーザUは、実空間の中にCGパーツが入り込んだAR空間を体感することができる。 The information processing device 100 is equipped with a camera 104 that captures a real space in front of the user U, and the image (video) of the real space captured by the camera 104 corresponds to the eye of the user U corresponding to the lens portion of the glasses. It is displayed on the display 106 arranged in front of the. Further, the information processing device 100 can generate various information as, for example, virtual CG parts, superimpose the CG parts on the real space image captured by the camera 104, and display the CG parts on the display 106. As a result, the user U equipped with the information processing device 100 can experience the AR space in which the CG parts are contained in the real space.

この情報処理装置100では、カメラ104により撮像された実空間の画像に対して、例えば、下記の参考文献1に記載されているSegNetによるセマンティックセグメンテーションなどの処理が行われる。セマンティックセグメンテーションは、画像のピクセルごとにそのピクセルが表す物体などのラベルを付与することで、画像内の物体を識別する技術である。これにより、ユーザUの前方の実空間に存在する物体(オブジェクト)が認識される。このオブジェクトの認識は比較的細かい粒度で実施され、例えば図1に例示したPC内のキーボード、キーボード内のキーなどといったオブジェクト内オブジェクトも認識される。ここで認識されたオブジェクトは、情報処理装置100を装着したユーザUが情報処理装置100に対して所定の処理を実行させる際に選択するオブジェクトの候補となる。
(参考文献1)Vijay Badrinarayanan et al.,“SegNet:A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation”,arXiv:1511.00561v3,[cs.CV],10.Oct.2016.
In the information processing apparatus 100, a process such as semantic segmentation by SegNet described in Reference 1 below is performed on the image in the real space captured by the camera 104. Semantic segmentation is a technique for identifying an object in an image by assigning a label such as an object represented by the pixel to each pixel of the image. As a result, an object (object) existing in the real space in front of the user U is recognized. The recognition of this object is carried out with a relatively fine particle size, and objects in the object such as the keyboard in the PC and the keys in the keyboard illustrated in FIG. 1 are also recognized. The object recognized here is a candidate for an object selected by the user U wearing the information processing device 100 when the information processing device 100 is made to execute a predetermined process.
(Reference 1) Vijay Badrinarayanan et al. , "SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation", arXiv: 1511.00561v3, [cs.CV], 10. Oct. 2016.

また、カメラ104により撮像された実空間の画像に重畳して表示されるCGパーツも、オブジェクト内オブジェクトを含むように生成される場合もある。これらのCGパーツもオブジェクト選択の候補となる。つまり、情報処理装置100を装着したユーザUの視野内には、オブジェクト選択の候補として、カメラ104により撮像された実空間の画像に映り込む物体や情報処理装置10が生成したCGパーツなどの複数のオブジェクトが存在し、これら複数のオブジェクトの中にはオブジェクト内オブジェクトが含まれている。 Further, the CG part displayed by superimposing the image in the real space captured by the camera 104 may also be generated so as to include the object in the object. These CG parts are also candidates for object selection. That is, in the field of view of the user U equipped with the information processing device 100, as candidates for object selection, a plurality of objects reflected in the image in the real space captured by the camera 104, CG parts generated by the information processing device 10, and the like. Objects exist, and among these multiple objects, there are objects within the object.

情報処理装置100を装着したユーザUの視野内に含まれる複数のオブジェクトの中から所望のオブジェクトが選択されると、このオブジェクトに基づく所定の処理が実行される。例えば、選択されたオブジェクトを含む検索クエリに従って、選択されたオブジェクトに類似するオブジェクトが映った画像を画像データベースから検索する類似画像検索などが、所定の処理の一例として挙げられる。この処理の結果は、カメラ104で撮像された実空間の画像に重畳してディスプレイ106に表示させることができる。 When a desired object is selected from a plurality of objects included in the field of view of the user U equipped with the information processing device 100, a predetermined process based on this object is executed. For example, a similar image search for searching an image database for an image showing an object similar to the selected object according to a search query including the selected object is given as an example of a predetermined process. The result of this processing can be superimposed on the real space image captured by the camera 104 and displayed on the display 106.

本実施形態の情報処理装置100では、上述のように、情報処理装置100を装着したユーザUの視野内に含まれる複数のオブジェクトの中からユーザの意図したオブジェクトを正しく選択できるようにするために、オブジェクト選択の基準として、ユーザUの動作に応じてユーザUの視野内で動く操作体により指定される指定領域との重畳度とオブジェクトの大きさを用いる。特に本実施形態では、ユーザUの動作に応じてユーザUの視野内で動く操作体として、カメラ104により撮像された実空間の画像に映り込むユーザUの手を想定する。すなわち、ユーザUの視野内に含まれる複数のオブジェクトの中から、ユーザUの手により指定される指定領域との重畳度とオブジェクトの大きさとに基づいて、ターゲットとなるオブジェクトを選択する。 In the information processing device 100 of the present embodiment, as described above, in order to enable the user to correctly select the object intended by the user from a plurality of objects included in the field of view of the user U who wears the information processing device 100. As a criterion for selecting an object, the degree of superimposition with a designated area specified by an operating body that moves in the field of view of the user U according to the operation of the user U and the size of the object are used. In particular, in the present embodiment, the hand of the user U reflected in the image in the real space captured by the camera 104 is assumed as the operating body that moves in the field of view of the user U according to the movement of the user U. That is, a target object is selected from a plurality of objects included in the field of view of the user U based on the degree of superimposition with the designated area specified by the user U and the size of the object.

図3は、第1実施形態に係る情報処理装置100のハードウェア構成例を示すブロック図である。この情報処理装置100は、例えば図3に示すように、コンピュータシステムを構成するCPU(Central Processing Unit)などのプロセッサ101と、RAM(Random Access Memory)やROM(Read Only Memory)などのメモリ102とを備える。また、情報処理装置100は、記録媒体として例えばマイクロSDカードなどを用いたストレージデバイス103、ユーザUの前方の実空間を撮像するカメラ104、ユーザUが発話する音声コマンドが入力されるマイク105、カメラ104により撮像された実空間の画像やCGパーツなどを表示するディスプレイ106、サーバなどの外部装置と通信するための通信I/F107などを備え、これらが上述のコンピュータシステムと繋がっている。なお、情報処理装置100は、図3に示す構成以外にも、ユーザUの動きを検出するための各種センシングデバイスなどを備える、あるいは各種センシングデバイスなどと接続されていてもよい。 FIG. 3 is a block diagram showing a hardware configuration example of the information processing apparatus 100 according to the first embodiment. As shown in FIG. 3, the information processing apparatus 100 includes a processor 101 such as a CPU (Central Processing Unit) constituting a computer system and a memory 102 such as a RAM (Random Access Memory) and a ROM (Read Only Memory). To be equipped. Further, the information processing device 100 includes a storage device 103 using, for example, a micro SD card as a recording medium, a camera 104 that captures a real space in front of the user U, and a microphone 105 into which a voice command spoken by the user U is input. It includes a display 106 that displays real-space images and CG parts captured by the camera 104, a communication I / F 107 for communicating with an external device such as a server, and the like, and these are connected to the above-mentioned computer system. In addition to the configuration shown in FIG. 3, the information processing device 100 may be provided with various sensing devices for detecting the movement of the user U, or may be connected to various sensing devices.

図4は、第1実施形態に係る情報処理装置100の機能的な構成例を示すブロック図である。この情報処理装置100は、機能的な構成要素として、例えば図4に示すように、撮像部11と、検出部12と、画像保持部13と、画像補間部14と、画像縮尺変更部15と、表示部16と、算出部17と、選択部18と、フィードバック部19と、オブジェクト保持部20と、キャンセル処理部21と、処理実行部22とを備える。 FIG. 4 is a block diagram showing a functional configuration example of the information processing apparatus 100 according to the first embodiment. As functional components of the information processing device 100, for example, as shown in FIG. 4, the image pickup unit 11, the detection unit 12, the image holding unit 13, the image interpolation unit 14, and the image scale changing unit 15 are included. A display unit 16, a calculation unit 17, a selection unit 18, a feedback unit 19, an object holding unit 20, a cancel processing unit 21, and a processing execution unit 22 are provided.

これらの機能的な構成要素のうち、撮像部11は、図3に示すカメラ104を用いて実現される。また、表示部16は、図3に示すディスプレイ106を用いて実現される。また、画像保持部13およびオブジェクト保持部20は、図3に示すメモリ102やストレージデバイス103を用いて実現される。その他の検出部12、画像補間部14、画像縮尺変更部15、算出部17、選択部18、フィードバック部19、キャンセル処理部21および処理実行部22の各部は、例えば、図3に示すプロセッサ101がメモリ102を利用してストレージデバイス103などに格納された所定のプログラムを実行することにより実現される。また、これらの各部は、その一部または全部がASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)などの専用のハードウェア(CPUなどの汎用のプロセッサ101ではなく専用のプロセッサ)を用いて実現されてもよい。 Among these functional components, the imaging unit 11 is realized by using the camera 104 shown in FIG. Further, the display unit 16 is realized by using the display 106 shown in FIG. Further, the image holding unit 13 and the object holding unit 20 are realized by using the memory 102 and the storage device 103 shown in FIG. The other detection unit 12, image interpolation unit 14, image scale change unit 15, calculation unit 17, selection unit 18, feedback unit 19, cancellation processing unit 21, and processing execution unit 22 are, for example, the processor 101 shown in FIG. Is realized by executing a predetermined program stored in the storage device 103 or the like using the memory 102. In addition, some or all of these parts are equipped with dedicated hardware such as ASIC (Application Specific Integrated Circuit) and FPGA (Field-Programmable Gate Array) (dedicated processor instead of general-purpose processor 101 such as CPU). It may be realized by using.

撮像部11は、情報処理装置100を装着したユーザUの前方の実空間を撮像する。撮像部11により撮像されたユーザUの前方の実空間の画像(映像)は、検出部12、画像保持部13および画像補間部14に送られる。 The imaging unit 11 images the real space in front of the user U equipped with the information processing device 100. The real space image (video) in front of the user U captured by the imaging unit 11 is sent to the detection unit 12, the image holding unit 13, and the image interpolation unit 14.

検出部12は、撮像部11により撮像されたユーザUの前方の実空間の画像から、この画像に映り込んだユーザUの手(「操作体」の一例)を検出することにより、このユーザUの手により指定される指定領域を検出する。画像に映り込んだユーザUの手は、例えば上述のセマンティックセグメンテーションにより検出することができる。 The detection unit 12 detects the user U's hand (an example of an “operation body”) reflected in this image from the image in the real space in front of the user U captured by the image pickup unit 11, and thereby the user U. Detects the specified area specified by the hand of. The user U's hand reflected in the image can be detected, for example, by the above-mentioned semantic segmentation.

指定領域は、ユーザUがオブジェクトを選択するためにオブジェクト上に重ね合わせる領域であり、撮像部11により撮像された画像に映り込んだユーザUの手により指定される。この指定領域の範囲は、撮像部11により撮像された画像に映り込んだユーザUの手の形状またはその動きに応じて決定される。本実施形態で想定する指定領域の具体例を、図5−1乃至図5−6に示す。 The designated area is an area to be superimposed on the object in order for the user U to select the object, and is designated by the user U reflected in the image captured by the imaging unit 11. The range of this designated area is determined according to the shape of the user U's hand reflected in the image captured by the imaging unit 11 or the movement thereof. Specific examples of the designated area assumed in the present embodiment are shown in FIGS. 5-1 to 5-6.

まず、ユーザUの手の形状に応じて決定される指定領域の一例を説明する。例えば手のひらを開いた状態であれば、図5−1に示すように、指先から手首までの領域が指定領域Rとされる。また、例えば人差し指のみを立てている状態であれば、図5−2に示すように、人差し指の指先から根元までの領域が指定領域Rとされる。また、例えば人差し指と親指で丸を作っている状態であれば、図5−3に示すように、人差し指と親指でつくられる丸の領域が指定領域Rとされる。また、例えば両手の人差し指と親指で四角を作っている状態であれば、図5−4に示すように、両手の人差し指と親指でつくられる四角の領域が指定領域Rとされる。その他、指定領域Rを指定するユーザUの手の形状は、予め定めた様々なパターンを含むことができる。 First, an example of a designated area determined according to the shape of the hand of the user U will be described. For example, when the palm is open, the area from the fingertip to the wrist is designated as the designated area R, as shown in FIG. 5-1. Further, for example, in the case where only the index finger is raised, the area from the tip of the index finger to the base is designated as the designated area R, as shown in FIG. 5-2. Further, for example, in the case where a circle is formed by the index finger and the thumb, the circle area formed by the index finger and the thumb is designated as the designated area R as shown in FIG. 5-3. Further, for example, in the case where a square is formed by the index fingers and thumbs of both hands, as shown in FIG. 5-4, the square area formed by the index fingers and thumbs of both hands is designated as the designated area R. In addition, the shape of the hand of the user U who designates the designated area R can include various predetermined patterns.

撮像部11により撮像された画像に映り込んだユーザUの手の形状は、例えば、下記の参考文献2に記載されているVGGNetなどのCNN(Convolutional Neural Network)を用いて識別することができる。すなわち、撮像部11により撮像された画像から検出されたユーザUの手の領域に対し、上述の手の形状のパターンを事前に学習したCNNを適用することにより、画像に映り込んだユーザUの手の形状を識別することができる。
(参考文献2)Karen Simonyan and Andrew Zisserman,“VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION”,arXiv:1409.1556v6,[cs.CV],10.Apr.2015.
The shape of the user U's hand reflected in the image captured by the imaging unit 11 can be identified by using, for example, a CNN (Convolutional Neural Network) such as VGGNet described in Reference 2 below. That is, by applying the CNN in which the above-mentioned hand shape pattern is learned in advance to the hand region of the user U detected from the image captured by the image pickup unit 11, the user U reflected in the image. The shape of the hand can be identified.
(Reference 2) Karen Simonyan and Andrew Zisserman, “VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION”, arXiv: 1409.1556v6, [cs.CV], 10. Apr. 2015.

次に、ユーザUの手の動きに応じて決定される指定領域の一例を説明する。例えば手のひらを開いている状態で親指以外の4本の指をすべて動かしている状態であれば、図5−5に示すように、親指以外の4本の指の指先から根元までの領域が指定領域Rとされる。また、手のひら全体をなでるように動かした場合、図5−6に示すように、手のひらが移動した軌跡全体の領域が指定領域Rとされる。これらの手の動きは、例えば、RNN(Recurrent Neural Network)などの時系列データを扱う識別器を用いて識別することができる。 Next, an example of the designated area determined according to the movement of the hand of the user U will be described. For example, if the palm is open and all four fingers other than the thumb are moving, the area from the fingertips to the base of the four fingers other than the thumb is specified as shown in FIG. 5-5. It is defined as the area R. Further, when the entire palm is moved so as to be stroked, as shown in FIG. 5-6, the region of the entire locus in which the palm has moved is designated as the designated region R. These hand movements can be identified using, for example, a classifier that handles time-series data such as an RNN (Recurrent Neural Network).

以上のように、指定領域Rは撮像部11により撮像された画像に映り込んだユーザUの手によって指定される領域であるため、指定領域Rの大きさは、ユーザUが手を自身が装着している情報処理装置100に近づけるほど大きくなり、遠ざけるほど小さくなる。検出部12により検出された指定領域Rの位置情報は、算出部17に送られる。また、検出部12により検出されたユーザUの手の領域を示す位置情報は、画像補間部14に送られる。 As described above, since the designated area R is the area designated by the hand of the user U reflected in the image captured by the imaging unit 11, the size of the designated area R is determined by the user U wearing his / her hand. The closer it is to the information processing device 100, the larger it becomes, and the farther it is, the smaller it becomes. The position information of the designated area R detected by the detection unit 12 is sent to the calculation unit 17. Further, the position information indicating the area of the user U's hand detected by the detection unit 12 is sent to the image interpolation unit 14.

画像保持部13は、撮像部11により撮像された画像を、画像補間部14での処理に利用する過去画像として、一定期間分保持する。 The image holding unit 13 holds the image captured by the imaging unit 11 as a past image used for processing by the image interpolation unit 14 for a certain period of time.

画像補間部14は、撮像部11により新たに撮像された画像において、ユーザUの手が映り込んだ領域の背景を、画像保持部13が保持する過去画像を用いて補間する処理を行う。撮像部11により撮像された画像は、その画像に映り込むユーザUの手によってオクルージョンが生じ、ユーザUの手の領域の背景が見えなくなる。その結果、ユーザUが所望のオブジェクトに指定領域Rを正確に重ね合わせることが難しくなったり、指定領域Rとオブジェクトの重畳度を正確に算出するのが難しくなったりといった不都合が生じる懸念がある。そこで、画像補間部14が、ユーザUの手の領域の背景を補間する処理を行う。 The image interpolation unit 14 performs a process of interpolating the background of the region in which the hand of the user U is reflected in the image newly captured by the image pickup unit 11 by using the past image held by the image holding unit 13. The image captured by the image pickup unit 11 is occlusioned by the hand of the user U reflected in the image, and the background of the region of the hand of the user U becomes invisible. As a result, there is a concern that it becomes difficult for the user U to accurately superimpose the designated area R on the desired object, or it becomes difficult to accurately calculate the degree of superimposition between the designated area R and the object. Therefore, the image interpolation unit 14 performs a process of interpolating the background of the hand region of the user U.

図6は、画像補間部14による処理の概要を説明する図であり、撮像部11により新たに撮像された画像Im1において、ユーザUの手が映り込んだ領域Xを、画像保持部13が保持する過去画像Im2を用いて補間する例を示している。 FIG. 6 is a diagram for explaining the outline of the processing by the image interpolation unit 14, and the image holding unit 13 holds the region X in which the hand of the user U is reflected in the image Im1 newly captured by the image capturing unit 11. An example of interpolation using the past image Im2 is shown.

画像補間部14は、まず、画像保持部13が保持する過去画像のうち、画像Im1との間の変位量が少なく、かつ、ユーザUの手が映り込んだ領域が重ならない過去画像Im2を選択する。具体的には、画像補間部14は、例えば画像保持部13が保持する過去画像のうち、ユーザUの手が映り込んだ領域が重ならないものをそれぞれタイル状に分割し、ユーザUの手が映り込んだ領域を除くタイル画像を対象として、撮像部11により新たに撮像された画像Im1の対応する領域との間のオプティカルフローを算出する。そして、画像Im1との間のオプティカルフローが最も少ないタイル画像を最も多く含む過去画像を、領域Xの補間に利用する過去画像Im2として選択する。 The image interpolation unit 14 first selects, among the past images held by the image holding unit 13, the past image Im2 in which the amount of displacement between the image holding unit 13 and the image Im1 is small and the area in which the user U's hand is reflected does not overlap. To do. Specifically, the image interpolation unit 14 divides, for example, past images held by the image holding unit 13 into tiles in which the areas in which the user U's hand is reflected do not overlap, and the user U's hand The optical flow between the tile image excluding the reflected region and the corresponding region of the image Im1 newly captured by the imaging unit 11 is calculated. Then, the past image containing the most tile images with the least optical flow to and from the image Im1 is selected as the past image Im2 used for interpolation of the region X.

次に、画像補間部14は、例えば、位置不変性を持つSIFT(Scale-Invariant Feature Transform)特徴量を用いて、画像Im1と過去画像Im2との位置合わせを行う。具体的には、画像補間部14は、画像Im1と過去画像Im2の双方に対し、SIFTの特徴点検出を行い、各特徴点における特徴量を算出する。そして、画像Im1と過去画像Im2の間で距離(特徴量の差)が十分に小さい特徴点同士を対応付け、これらの特徴点が同一座標となるように、スケール変換・回転・シフト移動などの画像処理を行う。これにより、画像Im1と過去画像Im2との間の位置ずれが修正される。 Next, the image interpolation unit 14 aligns the image Im1 with the past image Im2 by using, for example, a SIFT (Scale-Invariant Feature Transform) feature having position invariance. Specifically, the image interpolation unit 14 detects the feature points of SIFT for both the image Im1 and the past image Im2, and calculates the feature amount at each feature point. Then, feature points having a sufficiently small distance (difference in feature amount) are associated with each other between the image Im1 and the past image Im2, and scale conversion, rotation, shift movement, etc. are performed so that these feature points have the same coordinates. Perform image processing. As a result, the misalignment between the image Im1 and the past image Im2 is corrected.

次に、画像補間部14は、画像Im1においてユーザUの手が映り込んだ領域Xに相当する過去画像Im2内の領域Yを切り出し、画像Im1における領域Xを、過去画像Im2から切り出した領域Yの画像に置き換えるとともに、領域Xの輪郭をマーキングする。これにより、画像Im1における領域Xの背景が補間されるとともに、ユーザUの手の輪郭を表すマーカMが重畳された画像Im3が生成される。この際、過去画像Im2から切り出した領域Yの画像に対して輝度を低下させる、あるいは、ぼかし加工などの所定の画像処理を行った上で置換することにより、ユーザUの手を透過してぼんやりと背景が見えるような視覚効果を与えることができる。 Next, the image interpolation unit 14 cuts out a region Y in the past image Im2 corresponding to the region X in which the hand of the user U is reflected in the image Im1, and cuts out the region X in the image Im1 from the past image Im2. The outline of the area X is marked while being replaced with the image of. As a result, the background of the region X in the image Im1 is interpolated, and the image Im3 on which the marker M representing the outline of the user U's hand is superimposed is generated. At this time, the brightness of the image of the region Y cut out from the past image Im2 is lowered, or the image is replaced after performing predetermined image processing such as blurring, so that the user U's hand is transparent and vague. It is possible to give a visual effect that makes the background visible.

画像補間部14により生成された画像Im3(手が映り込んだ領域の背景が補間された画像)は、画像縮尺変更部15を介して、表示部16および算出部17に送られる。画像縮尺変更部15は、必要に応じて画像Im3の拡大・縮小を行う機能部であるが、具体的な説明は後述する。 The image Im3 (an image in which the background of the region in which the hand is reflected) generated by the image interpolation unit 14 is sent to the display unit 16 and the calculation unit 17 via the image scale changing unit 15. The image scale changing unit 15 is a functional unit that enlarges / reduces the image Im3 as needed, and a specific description thereof will be described later.

表示部16は、画像補間部14により生成された画像Im3(画像縮尺変更部15により拡大・縮小の処理が行われた場合は、拡大・縮小された画像Im3)を表示する。この画像Im3は、図6に示したように、ユーザUの手の輪郭を示すマーカMが重畳されている。したがって、ユーザUはこの表示部16により表示される画像Im3を見ながら、ユーザUの視野内に存在する複数のオブジェクトの中から所望のオブジェクトに指定領域Rを重ね合わせるように、手を動かすことができる。 The display unit 16 displays the image Im3 generated by the image interpolation unit 14 (when the image scale changing unit 15 performs the enlargement / reduction processing, the enlarged / reduced image Im3). As shown in FIG. 6, this image Im3 is superposed with a marker M indicating the contour of the user U's hand. Therefore, the user U moves his / her hand so as to superimpose the designated area R on the desired object from among the plurality of objects existing in the field of view of the user U while looking at the image Im3 displayed by the display unit 16. Can be done.

算出部17は、ユーザUの視野内に存在する複数のオブジェクトのうち、ユーザUの手により指定される指定領域Rと重なるオブジェクトについて、指定領域Rとの重畳度を算出する。この算出部17による重畳度の算出は、ユーザUによる所定の行為をトリガとして開始される。 The calculation unit 17 calculates the degree of superimposition with the designated area R for the object overlapping the designated area R designated by the user U among the plurality of objects existing in the field of view of the user U. The calculation of the superposition degree by the calculation unit 17 is started by a predetermined action by the user U as a trigger.

ここで、算出部17による重畳度の算出を開始させるトリガとなるユーザUの行為としては、様々なものが考えられる。例えば、ユーザUが手の動きを一定時間止める行為を行ったことをトリガとして、算出部17による重畳度の算出を開始させるようにしてもよい。これは、例えば、撮像部11により撮像された画像に映り込むユーザUの手の変位量が所定値以下である状態が予め設定したフレーム数分継続したかどうかを判断することにより実現できる。 Here, various actions of the user U that trigger the start of the calculation of the superposition degree by the calculation unit 17 can be considered. For example, the calculation unit 17 may start the calculation of the degree of superimposition triggered by the user U performing an act of stopping the movement of the hand for a certain period of time. This can be realized, for example, by determining whether or not the state in which the displacement amount of the user U's hand reflected in the image captured by the imaging unit 11 is equal to or less than a predetermined value continues for a preset number of frames.

また、事前に設定したジェスチャ、例えば、ボタンを押す動作のように手を前に出して止める、片手で指定領域Rを指定したときにもう一方の手で指定領域Rを指し示すなど、所定のジェスチャをユーザUが行ったことをトリガとして、算出部17による重畳度の算出を開始させるようにしてもよい。ジェスチャの検出は、例えば、撮像部11により撮像された画像に映り込むユーザUの手の形状や動きが、事前に設定したジェスチャと一致するか否かを判断することにより実現できる。 In addition, a predetermined gesture such as a preset gesture, for example, putting a hand forward and stopping like a button pressing operation, or pointing to a designated area R with the other hand when a designated area R is specified with one hand, is performed. The calculation of the superposition degree by the calculation unit 17 may be started by using the user U as a trigger. Gesture detection can be realized, for example, by determining whether or not the shape and movement of the user U's hand reflected in the image captured by the imaging unit 11 matches the preset gesture.

また、事前に設定した音声コマンド、例えば「ここを選択」、「これを選択」など、所定の音声コマンドをユーザUが発話したことをトリガとして、算出部17による重畳度の算出を開始させるようにしてもよい。音声コマンドの検出は、例えば、情報処理装置100に搭載されたマイク105に入力されたユーザUの発話を音声認識し、事前に設定した音声コマンドと一致するか否かを判断することにより実現できる。 Further, the calculation unit 17 starts the calculation of the superposition degree by using a preset voice command such as "select here" or "select this" as a trigger when the user U utters a predetermined voice command. It may be. The detection of a voice command can be realized, for example, by voice-recognizing the utterance of the user U input to the microphone 105 mounted on the information processing device 100 and determining whether or not it matches the preset voice command. ..

また、情報処理装置100に視線検出センサを搭載して、この視線検出センサによりユーザUの所定の視線移動が検出されたとき、例えば、ユーザUの視線方向が指定領域Rと重なったことをトリガとして、算出部17による重畳度の算出を開始させるようにしてもよい。 Further, when the information processing device 100 is equipped with a line-of-sight detection sensor and the line-of-sight detection sensor detects a predetermined line-of-sight movement of the user U, for example, it triggers that the line-of-sight direction of the user U overlaps with the designated area R. As a result, the calculation unit 17 may start the calculation of the superposition degree.

そのほか、ユーザUの特定の表情変化、例えば、片目を瞑る(ウィンクする)といった表情変化を検出し、これをトリガとして算出部17による重畳度の算出を開始させるようにしてもよい。これは、図5−3や図5−4に示した例のように、指で囲まれた丸や四角の領域を指定領域Rとした場合に、この指定領域Rをユーザが覗き込もうとすると自然と片目を瞑ることが多いので、自然な処理と考えられる。 In addition, a specific facial expression change of the user U, for example, a facial expression change such as closing (winking) one eye may be detected, and this may be used as a trigger to start the calculation of the superposition degree by the calculation unit 17. This is because, as in the example shown in FIGS. 5-3 and 5-4, when the circled or square area surrounded by the fingers is set as the designated area R, the user tries to look into the designated area R. Then, one eye is often closed naturally, so it is considered to be a natural process.

算出部17による重畳度の算出は、上述のように、ユーザUの視野内に存在する複数のオブジェクトのうち、ユーザUの手により指定される指定領域Rと重なるオブジェクトを対象として行われる。ここで、指定領域Rと重なるオブジェクトにオブジェクト内オブジェクトが含まれる場合、そのオブジェクト内オブジェクトを内包する大きなオブジェクトについても、指定領域Rとの重畳度が算出される。例えば上述のPCの例において、指定領域Rがキーボード内のいずれかのキーと重なる場合、そのキーだけでなく、そのキーを内包するキーボード全体、さらにはキーボードを内包するPC全体についても、指定領域Rとの重畳度が算出される。 As described above, the calculation unit 17 calculates the degree of superimposition on the object that overlaps with the designated area R designated by the user U among the plurality of objects existing in the field of view of the user U. Here, when an object in the object is included in the object overlapping the designated area R, the degree of superimposition with the designated area R is calculated even for a large object including the object in the object. For example, in the above-mentioned example of a PC, when the designated area R overlaps with any key in the keyboard, not only the key but also the entire keyboard including the key, and further the entire PC including the keyboard are also designated areas. The degree of superimposition with R is calculated.

ここで、指定領域Rとの重畳度は、
重畳度=指定領域Rと重なるオブジェクト内の領域の大きさ/オブジェクトの大きさ
により算出される。算出部17により算出された重畳度は、選択部18に送られる。
Here, the degree of superimposition with the designated area R is
Superposition = Calculated by the size of the area within the object that overlaps the specified area R / the size of the object. The superposition degree calculated by the calculation unit 17 is sent to the selection unit 18.

選択部18は、算出部17により算出された重畳度とオブジェクトの大きさに基づいて、ユーザUの視野内に存在する複数のオブジェクトの中から、ターゲットとなるオブジェクト(後述の処理実行部22による処理に用いるオブジェクト)を選択する。具体的には、選択部18は、指定領域Rと重なるオブジェクトに対して算出部17により算出された重畳度が所定の閾値(例えば0.8)を超えるオブジェクトのうち、大きさが最大のオブジェクトを選択する。 The selection unit 18 is a target object (depending on the processing execution unit 22 described later) from among a plurality of objects existing in the field of view of the user U based on the superposition degree calculated by the calculation unit 17 and the size of the object. Select the object to be used for processing). Specifically, the selection unit 18 is the object having the largest size among the objects whose superposition degree calculated by the calculation unit 17 exceeds a predetermined threshold value (for example, 0.8) with respect to the object overlapping the designated area R. Select.

ここで、選択部18によるオブジェクト選択の具体例について、図1と同様にPCの例を用いて説明する。図7−1乃至図7−5は、PCを題材とした選択部18によるオブジェクト選択の具体例を説明する図である。ここでは、選択の候補となるオブジェクトは、PC全体、PC内のモニタ、PC内のタッチパッド、PC内のキーボード、キーボード内の各キーであるものとする。 Here, a specific example of object selection by the selection unit 18 will be described with reference to the example of a PC as in FIG. 7-1 to 7-5 are diagrams for explaining a specific example of object selection by the selection unit 18 using a PC as a subject. Here, it is assumed that the objects that are candidates for selection are the entire PC, the monitor in the PC, the touch pad in the PC, the keyboard in the PC, and each key in the keyboard.

図7−1に示す例では、ユーザUの手により指定される指定領域RがPC全体に重なっており、PC全体、PC内のモニタ、PC内のタッチパッド、PC内のキーボード、キーボード内の各キーの全てにおいて、指定領域Rとの重畳度が閾値以上となっている。この場合、選択部18は、サイズが最も大きいPC全体を、ターゲットとなるオブジェクトとして選択する。 In the example shown in FIG. 7-1, the designated area R designated by the user U overlaps the entire PC, and is included in the entire PC, the monitor in the PC, the touch pad in the PC, the keyboard in the PC, and the keyboard. In all of the keys, the degree of superimposition with the designated area R is equal to or higher than the threshold value. In this case, the selection unit 18 selects the entire PC having the largest size as the target object.

図7−2に示す例では、ユーザUの手により指定される指定領域Rが主にPC内のモニタと重なっており、指定領域Rとの重畳度が閾値以上となっているのは、PC内のモニタのみである。この場合、選択部18は、指定領域Rとの重畳度が閾値以上となっている唯一のオブジェクトであるPC内のモニタを、ターゲットとなるオブジェクトとして選択する。 In the example shown in FIG. 7-2, the designated area R designated by the user U mainly overlaps with the monitor in the PC, and the degree of superimposition with the designated area R is equal to or higher than the threshold value of the PC. Only the monitor inside. In this case, the selection unit 18 selects the monitor in the PC, which is the only object whose degree of superimposition with the designated area R is equal to or greater than the threshold value, as the target object.

図7−3に示す例では、ユーザUの手により指定される指定領域RがPC内のタッチパッドとキーボード内の一部のキーと重なっており、指定領域Rとの重畳度が閾値以上となっているのは、これらPC内のタッチパッドとキーボード内の一部のキーである。この場合、選択部18は、PC内のタッチパッドとキーボード内の一部のキーのうち、サイズが最も大きいPC内のタッチパッドを、ターゲットとなるオブジェクトとして選択する。 In the example shown in FIG. 7-3, the designated area R designated by the user U overlaps the touch pad in the PC and some keys in the keyboard, and the degree of superimposition with the designated area R is equal to or higher than the threshold value. It is the touchpad in these PCs and some keys in the keyboard. In this case, the selection unit 18 selects the touchpad in the PC having the largest size among the touchpad in the PC and some keys in the keyboard as the target object.

図7−4に示す例では、ユーザUの手により指定される指定領域Rがキーボード内の一部のキーのみと重なっており、指定領域Rとの重畳度が閾値以上となっているのは、キーボード内のキーのみである。この場合、選択部18は、この場合、選択部18は、指定領域Rとの重畳度が閾値以上となっている唯一のオブジェクトであるキーボード内のキーを、ターゲットとなるオブジェクトとして選択する。 In the example shown in FIG. 7-4, the designated area R designated by the user U overlaps only some keys in the keyboard, and the degree of superimposition with the designated area R is equal to or higher than the threshold value. , Only the keys in the keyboard. In this case, the selection unit 18 in this case selects the key in the keyboard, which is the only object whose degree of superimposition with the designated area R is equal to or greater than the threshold value, as the target object.

図7−5に示す例では、ユーザUの手により指定される指定領域RがPC内のキーボードとキーボード内の各キーと重なっており、指定領域Rとの重畳度が閾値以上となっているのは、これらPC内のキーボードとキーボード内の各キーである。この場合、選択部18は、PC内のキーボードとキーボード内の各キーのうち、サイズが最も大きいPC内のキーボードを、ターゲットとなるオブジェクトとして選択する。 In the example shown in FIG. 7-5, the designated area R designated by the user U overlaps the keyboard in the PC and each key in the keyboard, and the degree of superimposition with the designated area R is equal to or higher than the threshold value. Is the keyboard in these PCs and each key in the keyboard. In this case, the selection unit 18 selects the keyboard in the PC having the largest size among the keyboard in the PC and each key in the keyboard as the target object.

なお、選択の候補となるオブジェクトとしてCGパーツよりなるオブジェクトをユーザUの視野内に配置した場合、ユーザUの視点によっては大きさが同等の複数のオブジェクトが重なった状態となる場合がある。ここで、ユーザUの手により指定される指定領域Rがこれら複数のオブジェクトと重なり、これら複数のオブジェクトの指定領域Rとの重畳度が閾値以上となった場合、ユーザUは手前側のオブジェクトを選択しようとしていると推定されるため、選択部18は、これら複数のオブジェクトのうち、ユーザU(つまりユーザUが装着している情報処理装置100)に最も近いオブジェクトを、ターゲットとなるオブジェクトとして選択するようにしてもよい。 When an object made of CG parts is arranged in the field of view of the user U as a candidate object for selection, a plurality of objects having the same size may be overlapped depending on the viewpoint of the user U. Here, when the designated area R designated by the user U overlaps with these plurality of objects and the degree of superimposition of these plurality of objects with the designated area R becomes equal to or more than the threshold value, the user U sets the object on the front side. Since it is presumed that the object is to be selected, the selection unit 18 selects the object closest to the user U (that is, the information processing device 100 worn by the user U) as the target object among these plurality of objects. You may try to do it.

選択部18により選択されたオブジェクトの情報は、フィードバック部19とオブジェクト保持部20とに送られる。オブジェクト保持部20は、選択部18により選択されたオブジェクトの情報を保持するバッファである。 The information of the object selected by the selection unit 18 is sent to the feedback unit 19 and the object holding unit 20. The object holding unit 20 is a buffer that holds information on the object selected by the selection unit 18.

フィードバック部19は、選択部18によりオブジェクトが選択されたことをユーザUに認識させるフィードバック処理を行う。このフィードバック処理としては、例えば、選択部18により選択されたオブジェクトを視覚的にユーザUに認識させる処理が挙げられる。具体的には、フィードバック部19は、例えば図8に示すように、表示部16に表示されている画像50内で、選択部18により選択されたオブジェクト(ここではPC内のタッチパッド)の領域51を検出し、このオブジェクトの領域51を目立たせるハイライト処理を行うようにしてもよい。ハイライト処理としては、例えば、領域51の輪郭を反転色にする、領域51内の各画素の輝度を高めて光らせるなどの処理が考えられる。 The feedback unit 19 performs feedback processing for the user U to recognize that the object has been selected by the selection unit 18. Examples of this feedback process include a process of causing the user U to visually recognize the object selected by the selection unit 18. Specifically, as shown in FIG. 8, the feedback unit 19 is an area of an object (here, a touch pad in a PC) selected by the selection unit 18 in the image 50 displayed on the display unit 16. 51 may be detected and highlighting processing may be performed to make the area 51 of this object stand out. As the highlighting process, for example, processing such as inversion of the outline of the area 51 or increasing the brightness of each pixel in the area 51 to make it shine can be considered.

また、フィードバック部19は、例えば図9に示すように、表示部16に表示されている画像50内に、選択部18により選択されたオブジェクトを提示するための提示領域52を設け、この提示領域52内に、選択部18により選択されたオブジェクト(ここではPC内のタッチパッド)付近を切り出した切り出し画像53を表示させるようにしてもよい。このように、選択部18により選択されたオブジェクトを視覚的にユーザUに認識させる処理を行うことで、ユーザUは、表示部16の画像50を見ながら、オブジェクトの選択が正しく行われたかどうかを確認することができる。 Further, as shown in FIG. 9, for example, the feedback unit 19 provides a presentation area 52 for presenting an object selected by the selection unit 18 in the image 50 displayed on the display unit 16, and this presentation area A cut-out image 53 cut out in the vicinity of the object (here, the touch pad in the PC) selected by the selection unit 18 may be displayed in the 52. By performing the process of visually recognizing the object selected by the selection unit 18 to the user U in this way, whether or not the user U has correctly selected the object while looking at the image 50 of the display unit 16. Can be confirmed.

また、フィードバック部19は、選択部18によりオブジェクトが選択されたことを、振動によりユーザUに認識させる処理を行うようにしてもよい。例えば、フィードバック部19は、選択部18によりオブジェクトが選択されたタイミングで、情報処理装置100を振動させるようにしてもよい。また、フィードバック部19は、情報処理装置100に対してBluetooth(登録商標)などの近距離無線通信により接続されるスマートウォッチなどを、選択部18によりオブジェクトが選択されたタイミングで振動させるようにしてもよい。 Further, the feedback unit 19 may perform a process of causing the user U to recognize that the object has been selected by the selection unit 18 by vibration. For example, the feedback unit 19 may vibrate the information processing device 100 at the timing when the object is selected by the selection unit 18. Further, the feedback unit 19 vibrates a smart watch or the like connected to the information processing device 100 by short-range wireless communication such as Bluetooth (registered trademark) at the timing when the object is selected by the selection unit 18. May be good.

キャンセル処理部21は、ユーザUによる所定の行為をトリガとして、選択部18により選択されたオブジェクトをキャンセルする処理を行う。具体的には、キャンセル処理部21は、ユーザUがキャンセル処理のトリガとして事前に定められた所定の行為を行った場合に、オブジェクト保持部20が保持する最新のオブジェクトを削除する。また、キャンセル処理部21は、ユーザUがキャンセル処理のトリガとして事前に定められた所定の行為を行った場合に、オブジェクト保持部20が保持するすべてのオブジェクトを削除するようにしてもよい。このキャンセル処理部21の処理により、選択部18により選択されたオブジェクトがユーザUの意図したものでなかった場合に、オブジェクトの選択をやり直すことが可能となる。 The cancel processing unit 21 performs a process of canceling the object selected by the selection unit 18 triggered by a predetermined action by the user U. Specifically, the cancel processing unit 21 deletes the latest object held by the object holding unit 20 when the user U performs a predetermined action predetermined as a trigger for the cancel processing. Further, the cancel processing unit 21 may delete all the objects held by the object holding unit 20 when the user U performs a predetermined action as a trigger for the cancel processing. By the processing of the cancel processing unit 21, when the object selected by the selection unit 18 is not intended by the user U, the object can be selected again.

ここで、キャンセル処理のトリガとなるユーザUの行為としては、様々なものが考えられる。例えば、ユーザUが選択部18により選択されたオブジェクトと同じオブジェクトに指定領域Rを重ね合わせて、そのオブジェクトを繰り返し選択する動作を行ったことをトリガとして、キャンセル処理部21がそのオブジェクトをオブジェクト保持部20から削除するようにしてもよい。 Here, various actions of the user U that trigger the cancellation process can be considered. For example, the cancellation processing unit 21 holds the object as a trigger when the user U superimposes the designated area R on the same object as the object selected by the selection unit 18 and repeatedly selects the object. It may be deleted from the part 20.

また、事前に設定したジェスチャ、例えば、親指を立てる、人差し指でフリック動作をするなど、所定のジェスチャをユーザUが行ったことをトリガとして、キャンセル処理部21がオブジェクト保持部20から最新のオブジェクトまたはすべてのオブジェクトを削除するようにしてもよい。 In addition, the cancel processing unit 21 uses the latest object or the latest object from the object holding unit 20 as a trigger when the user U performs a predetermined gesture such as raising a thumb or flicking with the index finger, which is a preset gesture. You may want to delete all objects.

また、事前に設定した音声コマンド、例えば「キャンセル」、「やり直し」など、所定の音声コマンドをユーザUが発話したことをトリガとして、キャンセル処理部21がオブジェクト保持部20から最新のオブジェクトまたはすべてのオブジェクトを削除するようにしてもよい。 Further, when the user U utters a predetermined voice command such as a preset voice command such as "cancel" or "redo", the cancel processing unit 21 sends the latest object or all from the object holding unit 20. You may want to delete the object.

なお、ユーザUが選択しようとしているオブジェクトが、選択部18により選択されたオブジェクトに内包される、より小さいサイズのオブジェクトであるが、この小さいオブジェクトが選択の候補となるオブジェクトとして認識されていない場合もある。このような場合には、選択部18により選択されたオブジェクトのキャンセル処理を行った上で、例えば、「もっと細かく」といった音声コマンドをユーザUが発話したことをトリガとして、上述のセマンティックセグメンテーションなどを用いたオブジェクトの認識をより細かい粒度で行って、よりサイズの小さいオブジェクトを選択できるようにしてもよい。 When the object to be selected by the user U is a smaller size object included in the object selected by the selection unit 18, but this small object is not recognized as a candidate object for selection. There is also. In such a case, after canceling the object selected by the selection unit 18, for example, the above-mentioned semantic segmentation or the like is performed with the user U uttering a voice command such as "more finely". The objects used may be recognized with a finer grain size so that smaller objects can be selected.

ところで、オブジェクトの選択に用いられる指定領域Rの大きさは、上述のように、ユーザUが手を情報処理装置100に近づけたり遠ざけたりすることにより変化するが、ユーザUが手を動かせる範囲は限界がある。このため、選択の候補となるオブジェクトのうち、例えばサイズが極端に小さいオブジェクトなどに指定領域Rを正しく重ね合わせることができずに、そのようなオブジェクトを適切に選択できないといった不都合が生じる懸念もある。 By the way, the size of the designated area R used for selecting an object changes as the user U moves his / her hand closer to or further from the information processing device 100 as described above, but the range in which the user U can move his / her hand is limited. There is a limit. For this reason, among the objects that are candidates for selection, there is a concern that the designated area R cannot be correctly superimposed on, for example, an object having an extremely small size, and such an object cannot be properly selected. ..

このような問題点への対策として、本実施形態に係る情報処理装置100は、画像縮尺変更部15を備える。画像縮尺変更部15は、ユーザUによる所定の行為をトリガとして、表示部16に表示される画像(例えば図6に示した画像Im3)のうち、ユーザUの手(例えば図6に示した画像Im3におけるマーカM)を除く画像を拡大または縮小する処理を行う。つまり、画像縮尺変更部15は、ユーザUによる所定の行為に応じて、ユーザUの手(例えば図6に示した画像Im3におけるマーカM)の大きさを変えることなく、表示部16に表示される画像(例えば図6に示した画像Im3)を拡大または縮小する処理を行う。これにより、指定領域Rに対するオブジェクトの相対的な大きさを変化させることができ、オブジェクトの選択をより適切に行うことができる。 As a countermeasure against such a problem, the information processing apparatus 100 according to the present embodiment includes an image scale changing unit 15. The image scale changing unit 15 is triggered by a predetermined action by the user U, and among the images displayed on the display unit 16 (for example, the image Im3 shown in FIG. 6), the hand of the user U (for example, the image shown in FIG. 6). A process of enlarging or reducing an image excluding the marker M) in Im3 is performed. That is, the image scale changing unit 15 is displayed on the display unit 16 without changing the size of the user U's hand (for example, the marker M in the image Im3 shown in FIG. 6) in response to a predetermined action by the user U. The image (for example, the image Im3 shown in FIG. 6) is enlarged or reduced. As a result, the relative size of the object with respect to the designated area R can be changed, and the object can be selected more appropriately.

ここで、画像の拡大・縮小処理のトリガとなるユーザUの行為としては、様々なものが考えられる。例えば、ユーザUの姿勢変化を検出し、その姿勢変化に応じて画像縮尺変更部15が表示部16に表示される画像に対する拡大・縮小処理を行うようにしてもよい。具体的には、例えば図10に示すように、ユーザUが頭を後ろに反らせた場合は画像の縮小処理、ユーザUが頭を前に出した場合は画像の拡大処理を行うといった例が挙げられる。姿勢変化の検出は、例えば、撮像部11により撮像された画像のオプティカルフローを用いてユーザUの移動量を算出する、あるいは、情報処理装置100がジャイロセンサなどの動きを検知するセンサを搭載している場合は、そのセンサ出力を用いてユーザUの移動量を算出することで実現できる。 Here, various actions of the user U that trigger the enlargement / reduction processing of the image can be considered. For example, the posture change of the user U may be detected, and the image scale changing unit 15 may perform enlargement / reduction processing on the image displayed on the display unit 16 according to the posture change. Specifically, for example, as shown in FIG. 10, when the user U bends his head backward, the image is reduced, and when the user U puts his head forward, the image is enlarged. Be done. For the detection of the posture change, for example, the movement amount of the user U is calculated by using the optical flow of the image captured by the imaging unit 11, or the information processing device 100 is equipped with a sensor that detects the movement such as a gyro sensor. If so, it can be realized by calculating the movement amount of the user U using the sensor output.

また、情報処理装置100の筐体に操作ダイヤルなどの物理的な操作部を設け、ユーザUがこの操作部を操作した場合に、その操作量に応じて画像縮尺変更部15が表示部16に表示される画像に対する拡大・縮小処理を行うようにしてもよい。 Further, when a physical operation unit such as an operation dial is provided in the housing of the information processing device 100 and the user U operates this operation unit, the image scale change unit 15 is displayed on the display unit 16 according to the operation amount. The displayed image may be enlarged or reduced.

また、事前に設定したジェスチャ、例えば、指を大きく広げた状態の手を手前側に引いたり奥側に押し出したりするといった所定のジェスチャをユーザUが行ったことをトリガとして、画像縮尺変更部15が表示部16に表示される画像に対する拡大・縮小処理を行うようにしてもよい。 In addition, the image scale changing unit 15 is triggered by the user U performing a preset gesture, for example, a predetermined gesture such as pulling the hand with the fingers widely spread toward the front side or pushing it toward the back side. May perform enlargement / reduction processing on the image displayed on the display unit 16.

また、事前に設定した音声コマンド、例えば「拡大」、「縮小」などの所定の音声コマンドをユーザUが発話したことをトリガとして、画像縮尺変更部15が表示部16に表示される画像に対する拡大・縮小処理を行うようにしてもよい。 Further, when the user U utters a preset voice command, for example, a predetermined voice command such as "enlargement" or "reduction", the image scale changing unit 15 enlarges the image displayed on the display unit 16. -The reduction process may be performed.

そのほか、ユーザUの特定の表情変化、例えば、目を小さく閉じる、目を大きく開くといった表情変化を検出し、ユーザUが目を小さく閉じた場合は画像縮尺変更部15が表示部16に表示される画像を縮小し、ユーザUが目を大きく開いた場合は画像縮尺変更部15が表示部16に表示される画像を拡大するようにしてもよい。また、ユーザUの脳波を解析することによりユーザUの意図を理解し、それに合わせて画像縮尺変更部15が表示部16に表示される画像に対する拡大・縮小処理を行うようにしてもよい。 In addition, a specific facial expression change of the user U, for example, a facial expression change such as closing the eyes small or opening the eyes wide is detected, and when the user U closes the eyes small, the image scale changing unit 15 is displayed on the display unit 16. When the user U opens his eyes wide, the image scale changing unit 15 may enlarge the image displayed on the display unit 16. Further, the intention of the user U may be understood by analyzing the brain waves of the user U, and the image scale changing unit 15 may perform enlargement / reduction processing on the image displayed on the display unit 16 accordingly.

処理実行部22は、選択部18により選択され、キャンセル処理部21により削除されることなくオブジェクト保持部20に保持されたオブジェクトに基づいて、所定の処理を実行する。本実施形態では、処理実行部22が実行する所定の処理の一例として、類似画像検索を例示する。 The process execution unit 22 executes a predetermined process based on the object selected by the selection unit 18 and held in the object holding unit 20 without being deleted by the cancel processing unit 21. In the present embodiment, a similar image search is illustrated as an example of a predetermined process executed by the process execution unit 22.

類似画像検索は、クエリとなる画像を指定したとき、画像データベースに格納されている画像の中から、クエリとなる画像に類似する画像を検索する処理である。本実施形態では、処理実行部22が、選択部18により選択され、キャンセル処理部21により削除されることなくオブジェクト保持部20に保持されたオブジェクトの画像を含む検索クエリを生成する。そして、処理実行部22は、生成した検索クエリに従って、例えば情報処理装置100の外部の画像データベースから、選択部18により選択されたオブジェクトに類似するオブジェクトが映った画像を検索する。 The similar image search is a process of searching for an image similar to the image to be a query from the images stored in the image database when an image to be a query is specified. In the present embodiment, the processing execution unit 22 generates a search query including an image of an object selected by the selection unit 18 and held in the object holding unit 20 without being deleted by the cancel processing unit 21. Then, the processing execution unit 22 searches for an image showing an object similar to the object selected by the selection unit 18 from, for example, an external image database of the information processing device 100 according to the generated search query.

オブジェクトの類似性は、画像から抽出されるオブジェクトの特徴量に基づいて判断される。すなわち、検索クエリに含まれるオブジェクトと、画像データベースに格納されている各画像に含まれるオブジェクトのそれぞれについて特徴量を算出し、画像データベースに格納されている画像の中から、検索クエリに含まれるオブジェクトの特徴量との距離が所定値以下のオブジェクトが映っている画像を、検索結果として取得する。 Object similarity is determined based on the features of the objects extracted from the image. That is, the feature amount is calculated for each of the object included in the search query and the object included in each image stored in the image database, and the object included in the search query is calculated from the images stored in the image database. An image showing an object whose distance from the feature amount of is less than or equal to a predetermined value is acquired as a search result.

なお、検索クエリには、複数のオブジェクトを含めることもできる。すなわち、選択部18により選択され、キャンセル処理部21により削除されることなくオブジェクト保持部20に保持されたオブジェクトが複数ある場合、処理実行部22は、これら複数のオブジェクトの画像をAND結合、あるいはOR結合した検索クエリを生成し、この検索クエリに従って画像データベースに対する検索を行う。複数のオブジェクトの画像をAND結合した検索クエリを実行した場合は、それぞれのオブジェクトに類似したオブジェクトがすべて映っている画像が、検索結果として取得される。一方、複数のオブジェクトの画像をOR結合した検索クエリを実行した場合は、複数のオブジェクトのうちのいずれかに類似するオブジェクトが映っている画像がすべて、検索結果として取得される。 Note that the search query can include multiple objects. That is, when there are a plurality of objects selected by the selection unit 18 and held in the object holding unit 20 without being deleted by the cancel processing unit 21, the processing execution unit 22 AND-joins or combines the images of these plurality of objects. A search query combined with OR is generated, and the image database is searched according to this search query. When a search query in which images of a plurality of objects are AND-combined is executed, an image showing all objects similar to each object is acquired as a search result. On the other hand, when a search query in which images of a plurality of objects are OR-combined is executed, all the images showing an object similar to any of the plurality of objects are acquired as search results.

このような類似画像検索は、例えば、本実施形態に係る情報処理装置100を作業支援の用途で利用する場合に極めて有効である。すなわち、ユーザUが情報処理装置100を頭部に装着して所定の作業を実施した場合、実施した作業が正確に行われたかどうかを確認する必要が生じる場合がある。このような場合に、作業の結果が反映されたオブジェクトを選択し、このオブジェクトの画像を含む検索クエリに従って、過去の作業結果を画像として蓄積した画像データベースから類似画像を検索してユーザUに提示することにより、ユーザUは、実施した作業が正確に行われたかどうかを容易に確認することができる。 Such a similar image search is extremely effective, for example, when the information processing apparatus 100 according to the present embodiment is used for work support purposes. That is, when the user U wears the information processing device 100 on his head and performs a predetermined work, it may be necessary to confirm whether or not the performed work has been performed accurately. In such a case, select an object that reflects the work result, search for a similar image from the image database that stores the past work result as an image according to the search query that includes the image of this object, and present it to user U. By doing so, the user U can easily confirm whether or not the performed work has been performed accurately.

なお、ここでは処理実行部22が実行する所定の処理の一例として類似画像検索を例示したが、処理実行部22が実行する処理は類似画像検索に限らない。処理実行部22は、類似画像検索以外にも、例えば、選択部18により選択されたオブジェクトの情報を記録する処理、選択部18により選択されたオブジェクトの詳細情報を外部のデータベースから取得する処理、選択部18により選択されたオブジェクトに含まれる文字を認識する処理など、様々な処理を実行するものであってもよい。 Here, a similar image search is illustrated as an example of a predetermined process executed by the process execution unit 22, but the process executed by the process execution unit 22 is not limited to the similar image search. In addition to the similar image search, the process execution unit 22 may record, for example, information on the object selected by the selection unit 18, or acquire detailed information on the object selected by the selection unit 18 from an external database. Various processes such as a process of recognizing characters included in the object selected by the selection unit 18 may be executed.

次に、以上のように構成される本実施形態に係る情報処理装置100の主要な動作について、図11のフローチャートを参照して簡単に説明する。図11は、情報処理装置100の動作概要を示すフローチャートである。 Next, the main operation of the information processing apparatus 100 according to the present embodiment configured as described above will be briefly described with reference to the flowchart of FIG. FIG. 11 is a flowchart showing an outline of the operation of the information processing apparatus 100.

情報処理装置100の動作が開始されると、まず、検出部12がユーザUの視野内における指定領域Rを検出する(ステップS101)。そして、算出部17が、ユーザUの視野内に存在する複数のオブジェクトのうち、指定領域Rと重なるオブジェクトについて、指定領域Rとの重畳度を算出する(ステップS102)。 When the operation of the information processing device 100 is started, the detection unit 12 first detects the designated area R in the field of view of the user U (step S101). Then, the calculation unit 17 calculates the degree of superimposition with the designated area R for the object overlapping the designated area R among the plurality of objects existing in the field of view of the user U (step S102).

ここで、ユーザUの視野内に存在する複数のオブジェクトの中に、指定領域Rとの重畳度が閾値以上のオブジェクトがない場合は(ステップS103:No)、そのまま処理が終了する。一方、指定領域Rとの重畳度が閾値以上のオブジェクトがある場合は(ステップS103:Yes)、指定領域Rとの重畳度が閾値以上のオブジェクトが1つであれば(ステップS104:Yes)、選択部18が、そのオブジェクトをターゲットとなるオブジェクトとして選択する(ステップS105)。一方、指定領域Rとの重畳度が閾値以上のオブジェクトが複数ある場合は(ステップS104:No)、選択部18は、これら複数のオブジェクトのうち、サイズが最大のオブジェクトをターゲットとなるオブジェクトとして選択する(ステップS106)。 Here, if there is no object whose degree of superimposition with the designated area R is equal to or greater than the threshold value among the plurality of objects existing in the field of view of the user U (step S103: No), the process ends as it is. On the other hand, if there is an object whose degree of superimposition with the designated area R is equal to or higher than the threshold value (step S103: Yes), and if there is one object whose degree of superimposition with the designated area R is equal to or higher than the threshold value (step S104: Yes). The selection unit 18 selects the object as the target object (step S105). On the other hand, when there are a plurality of objects whose degree of superimposition with the designated area R is equal to or greater than the threshold value (step S104: No), the selection unit 18 selects the object having the largest size among these plurality of objects as the target object. (Step S106).

その後、処理実行部22が、ステップS105またはステップS106で選択されたオブジェクトに基づいて所定の処理を実行し(ステップS107)、一連の処理が終了する。 After that, the process execution unit 22 executes a predetermined process based on the object selected in step S105 or step S106 (step S107), and a series of processes is completed.

以上、具体的な例を挙げながら詳細に説明したように、本実施形態に係る情報処理装置100では、検出部12が、撮像部11により撮像された画像内に映り込むユーザUの手(「操作体」の一例)により指定される指定領域Rを検出する。そして、算出部17が、ユーザUの視野内に存在する複数のオブジェクトのうち、検出部12により検出された指定領域Rと重なるオブジェクトについて、指定領域Rとの重畳度を算出する。そして、選択部18が、算出部17により算出された重畳度とオブジェクトの大きさとに基づいて、ユーザUの視野内に存在する複数のオブジェクトの中から、ターゲットとなるオブジェクトを選択するようにしている。したがって、本実施形態に係る情報処理装置100によれば、ユーザUの視野内に存在する複数のオブジェクトにオブジェクト内オブジェクトが含まれる場合であっても、ユーザUの意図したオブジェクトを正しく選択することができる。 As described in detail above with reference to specific examples, in the information processing apparatus 100 according to the present embodiment, the detection unit 12 is reflected in the image captured by the imaging unit 11 (““ Detects the designated area R specified by (an example of the operating body). Then, the calculation unit 17 calculates the degree of superimposition with the designated area R for the object overlapping the designated area R detected by the detection unit 12 among the plurality of objects existing in the field of view of the user U. Then, the selection unit 18 selects a target object from a plurality of objects existing in the field of view of the user U based on the superposition degree calculated by the calculation unit 17 and the size of the object. There is. Therefore, according to the information processing apparatus 100 according to the present embodiment, even when the objects in the object are included in the plurality of objects existing in the field of view of the user U, the object intended by the user U is correctly selected. Can be done.

なお、本実施形態では、ユーザUの動作に応じてユーザUの視野内で動く操作体として、カメラ104により撮像された実空間の画像に映り込むユーザUの手を想定したが、ユーザUの手の代わりに、ユーザUの足を操作体として用いてもよい。この場合は、カメラ104により撮像された実空間の画像からユーザUの足の領域を検出することで、指定領域Rを検出すればよい。 In the present embodiment, the hand of the user U reflected in the image in the real space captured by the camera 104 is assumed as the operating body that moves in the field of view of the user U according to the operation of the user U. Instead of the hand, the foot of the user U may be used as the operating body. In this case, the designated area R may be detected by detecting the area of the foot of the user U from the image in the real space captured by the camera 104.

また、ユーザUの動作に応じてユーザUの視野内で動く操作体は、例えば、ユーザUが手で持ったり手や足に装着したりして動かす物体(道具)などであってもよい。この場合は、カメラ104により撮像された実空間の画像から、操作体として用いる物体(道具)に設けられたマーカを目印としてその物体(道具)の領域を検出することで、指定領域Rを検出すればよい。 Further, the operating body that moves in the field of view of the user U according to the movement of the user U may be, for example, an object (tool) that the user U moves by holding it by hand or attaching it to a hand or foot. In this case, the designated area R is detected by detecting the area of the object (tool) as a marker provided on the object (tool) used as the operating body from the image in the real space captured by the camera 104. do it.

また、本実施形態では、カメラ104により撮像された実空間の画像をディスプレイ106に表示させる、いわゆる非透過型HMDとして情報処理装置100が構成されているものとしたが、ユーザUの前方の実空間を撮像するカメラ104を備えていれば、ユーザUの前方の実空間の光学像がディスプレイ106を透過してユーザUに視認される、いわゆる透過型HMDとして情報処理装置100が構成されていてもよい。 Further, in the present embodiment, the information processing device 100 is configured as a so-called non-transmissive HMD in which the image of the real space captured by the camera 104 is displayed on the display 106, but the actual image in front of the user U is realized. If the camera 104 that captures the space is provided, the information processing device 100 is configured as a so-called transmissive HMD in which the optical image of the real space in front of the user U is transmitted through the display 106 and visually recognized by the user U. May be good.

また、本実施形態は、ユーザUが頭部に装着して使用するHDMに限らず、例えばスマートフォンなど、ユーザUが片手で目の前に置きながら使用できる情報端末に適用することもできる。 Further, the present embodiment is not limited to the HDM worn by the user U on the head and used, and can also be applied to an information terminal such as a smartphone that the user U can use while placing it in front of the eyes with one hand.

<第2実施形態>
次に、第2実施形態について説明する。本実施形態に係る情報処理装置は、VR技術を用いたHMDとして構成される。以下では、本実施形態に係る情報処理装置を、上述の第1実施形態に係る情報処理装置100と区別して、情報処理装置100’と表記する。
<Second Embodiment>
Next, the second embodiment will be described. The information processing device according to the present embodiment is configured as an HMD using VR technology. In the following, the information processing device according to the present embodiment will be referred to as an information processing device 100'to distinguish it from the information processing device 100 according to the first embodiment described above.

本実施形態に係る情報処理装置100’は、第1実施形態に係る情報処理装置100と同様に、ユーザUが頭部に装着して使用することができる。ただし、本実施形態に係る情報処理装置100’は、第1実施形態に係る情報処理装置100と異なり、完全CGとなる仮想空間をユーザUに提示する。したがって、ユーザUの視野内に存在する複数のオブジェクト、つまりオブジェクト選択の候補となる複数のオブジェクトはすべてCGパーツであり、これらCGパーツよりなる複数のオブジェクトの中にはオブジェクト内オブジェクトが含まれている。 The information processing device 100'according to the present embodiment can be used by the user U by being worn on the head in the same manner as the information processing device 100 according to the first embodiment. However, unlike the information processing device 100 according to the first embodiment, the information processing device 100'according to the present embodiment presents a virtual space that is completely CG to the user U. Therefore, the plurality of objects existing in the user U's field of view, that is, the plurality of objects that are candidates for object selection are all CG parts, and the plurality of objects composed of these CG parts include the objects in the object. There is.

また、本実施形態では、ユーザUの動作に応じてユーザUの視野内で動く操作体として、ユーザUの手の動きに合わせて仮想空間の画像上で動く手のCGパーツを想定する。すなわち、ユーザUの視野内に含まれる複数のオブジェクトの中から、手のCGパーツにより指定される指定領域との重畳度とオブジェクトの大きさとに基づいて、ターゲットとなるオブジェクトを選択する。 Further, in the present embodiment, as an operating body that moves in the field of view of the user U according to the movement of the user U, a CG part of the hand that moves on the image of the virtual space according to the movement of the hand of the user U is assumed. That is, a target object is selected from a plurality of objects included in the field of view of the user U based on the degree of superimposition with the designated area specified by the CG part of the hand and the size of the object.

本実施形態に係る情報処理装置100’のハードウェア構成は、図3に例示した第1実施形態に係る情報処理装置100のハードウェア構成とほぼ同様である。ただし、本実施形態に係る情報処理装置100’は、完全CGとなる仮想空間をユーザUに提示するため、カメラ104は備えていなくてもよい。その代り、ユーザUの手の動きを検出するための各種センシングデバイスが設けられる。ユーザUの手の動きを検出するためのセンシングデバイスとしては、例えば、ユーザUの前方の距離画像を取得するTOF(Time-of-Flight)カメラ、ユーザUが手に装着して使用するデータグローブ、ユーザUの筋電位を計測することで動きを推定する筋電センサなどが挙げられる。なお、ユーザUの前方の実空間を撮像するカメラ104を、ユーザUの手の動きを検出するためのセンシングデバイスとして用いてもよい。 The hardware configuration of the information processing device 100'according to the present embodiment is substantially the same as the hardware configuration of the information processing apparatus 100 according to the first embodiment illustrated in FIG. However, since the information processing device 100'according to the present embodiment presents the virtual space to be a complete CG to the user U, the camera 104 may not be provided. Instead, various sensing devices for detecting the movement of the user U's hand are provided. Examples of the sensing device for detecting the movement of the user U's hand include a TOF (Time-of-Flight) camera that acquires a distance image in front of the user U, and a data glove worn by the user U in the hand. , An electromyographic sensor that estimates movement by measuring the myoelectric potential of the user U, and the like. The camera 104 that captures the real space in front of the user U may be used as a sensing device for detecting the movement of the user U's hand.

図12は、本実施形態に係る情報処理装置100’の機能的な構成例を示すブロック図である。図4に示した第1実施形態に係る情報処理装置100の機能的な構成例と比較して、本実施形態では、撮像部11、画像保持部13および画像補間部14の代わりに、動き検出部23と、仮想空間生成部24とを備える。動き検出部23は、上述の各種センシングデバイスを用いて実現される。また、仮想空間生成部24は、例えば、図3に示すプロセッサ101がメモリ102を利用してストレージデバイス103などに格納された所定のプログラムを実行することにより実現される。また、仮想空間生成部24は、ASICやFPGAなどの専用のハードウェアを用いて実現されてもよい。 FIG. 12 is a block diagram showing a functional configuration example of the information processing apparatus 100'according to the present embodiment. Compared with the functional configuration example of the information processing apparatus 100 according to the first embodiment shown in FIG. 4, in this embodiment, motion detection is performed instead of the image capturing unit 11, the image holding unit 13, and the image interpolation unit 14. A unit 23 and a virtual space generation unit 24 are provided. The motion detection unit 23 is realized by using the various sensing devices described above. Further, the virtual space generation unit 24 is realized, for example, by the processor 101 shown in FIG. 3 using the memory 102 to execute a predetermined program stored in the storage device 103 or the like. Further, the virtual space generation unit 24 may be realized by using dedicated hardware such as ASIC or FPGA.

動き検出部23は、本実施形態に係る情報処理装置100’を装着したユーザUの手の動きを検出する。すなわち、動き検出部23は、上述のセンシングデバイスから得られるセンサデータを用いて、時系列で変化するユーザUの手の位置と形状を検出する。例えば、センシングデバイスとしてTOFカメラを用いる場合は、TOFカメラによって距離画像(ピクセルごとに前方の物体までの距離情報を保持した画像)が取得されるため、この距離画像の中でユーザUの手が存在し得る範囲の距離に相当する領域を手領域とみなすことにより、ユーザUの手の位置と形状を検出できる。 The motion detection unit 23 detects the motion of the hand of the user U who wears the information processing device 100'according to the present embodiment. That is, the motion detection unit 23 detects the position and shape of the user U's hand, which changes in time series, by using the sensor data obtained from the above-mentioned sensing device. For example, when a TOF camera is used as a sensing device, a distance image (an image that holds distance information to an object in front for each pixel) is acquired by the TOF camera, so that the user U's hand is included in this distance image. The position and shape of the user U's hand can be detected by regarding the area corresponding to the distance of the possible range as the hand area.

また、データグローブや筋電センサは、ユーザUの手の形状を検出することができる。これらデータグローブや筋電センサを例えばTOFカメラと組み合わせて利用することにより、時系列で変化するユーザUの手の位置と形状をより精度良く検出することができる。TOFカメラの代わりに上述のカメラ104を用いてもよい。 In addition, the data glove and the myoelectric sensor can detect the shape of the user U's hand. By using these data gloves and myoelectric sensors in combination with, for example, a TOF camera, it is possible to more accurately detect the position and shape of the user U's hand, which changes over time. The above-mentioned camera 104 may be used instead of the TOF camera.

仮想空間生成部24は、ユーザUに提示する仮想空間を生成する。仮想空間生成部24が生成する仮想空間内には、上述のように、CGパーツよりなる複数のオブジェクトが存在し、これらCGパーツよりなる複数のオブジェクトの中にはオブジェクト内オブジェクトが含まれている。また、この仮想空間は、動き検出部23により検出されたユーザUの手の動きに合わせて、ユーザUの手を模したCGパーツが動くように生成される。本実施形態では、この仮想空間生成部24により生成される仮想空間の画像が表示部16に表示される。 The virtual space generation unit 24 generates a virtual space to be presented to the user U. As described above, a plurality of objects composed of CG parts exist in the virtual space generated by the virtual space generation unit 24, and the objects in the object are included in the plurality of objects composed of these CG parts. .. Further, this virtual space is generated so that the CG part imitating the hand of the user U moves according to the movement of the hand of the user U detected by the motion detection unit 23. In the present embodiment, the image of the virtual space generated by the virtual space generation unit 24 is displayed on the display unit 16.

また、本実施形態では、仮想空間生成部24により生成される仮想空間内で動くユーザUの手のCGパーツを、指定領域Rを指定するための操作体として用いる。したがって、検出部12は、動き検出部23により検出されたユーザUの手の動き(時系列で変化するユーザUの手の位置と形状)に基づいて、仮想空間生成部24により生成される仮想空間内で動くユーザUの手のCGパーツの位置と形状を判定し、仮想空間内でユーザUの手のCGパーツにより指定される指定領域Rを検出する。 Further, in the present embodiment, the CG part of the user U's hand that moves in the virtual space generated by the virtual space generation unit 24 is used as an operating body for designating the designated area R. Therefore, the detection unit 12 is a virtual space generation unit 24 generated by the virtual space generation unit 24 based on the movement of the user U's hand detected by the motion detection unit 23 (the position and shape of the user U's hand that changes in time series). The position and shape of the CG part of the user U's hand moving in the space are determined, and the designated area R designated by the CG part of the user U's hand is detected in the virtual space.

また、本実施形態では、算出部17が、仮想空間生成部24により生成された仮想空間の画像上で、検出部12により検出された指定領域Rと重なる仮想空間内のオブジェクト(CGパーツ)を対象に、指定領域Rとの重畳度を算出する。その他の処理は、上述の第1実施形態と同様である。 Further, in the present embodiment, the calculation unit 17 creates an object (CG part) in the virtual space that overlaps with the designated area R detected by the detection unit 12 on the image of the virtual space generated by the virtual space generation unit 24. The degree of superimposition with the designated area R is calculated for the target. Other processing is the same as that of the first embodiment described above.

以上のように、本実施形態に係る情報処理装置100’では、検出部12が、ユーザUの手の動きに合わせて仮想空間内で動く手のCGパーツ(「操作体」の一例)により指定される指定領域Rを検出する。そして、算出部17が、仮想空間生成部24により生成された仮想空間の画像上で、検出部12により検出された指定領域Rと重なる仮想空間内のオブジェクト(CGパーツ)を対象に、指定領域Rとの重畳度を算出する。そして、選択部18が、算出部17により算出された重畳度とオブジェクトの大きさとに基づいて、ユーザUの視野内に存在する複数のオブジェクトの中から、ターゲットとなるオブジェクトを選択するようにしている。したがって、本実施形態に係る情報処理装置100’においても、上述の第1実施形態と同様に、ユーザUの視野内に存在する複数のオブジェクトにオブジェクト内オブジェクトが含まれる場合であっても、ユーザUの意図したオブジェクトを正しく選択することができるといった効果が得られる。 As described above, in the information processing device 100'according to the present embodiment, the detection unit 12 is designated by the CG parts (an example of the "operation body") of the hand that moves in the virtual space according to the movement of the hand of the user U. The designated area R to be processed is detected. Then, the calculation unit 17 targets the object (CG part) in the virtual space that overlaps with the designated area R detected by the detection unit 12 on the image of the virtual space generated by the virtual space generation unit 24, and sets the designated area. The degree of superimposition with R is calculated. Then, the selection unit 18 selects a target object from a plurality of objects existing in the field of view of the user U based on the superposition degree calculated by the calculation unit 17 and the size of the object. There is. Therefore, in the information processing device 100'according to the present embodiment, as in the first embodiment described above, even if the plurality of objects existing in the field of view of the user U include the in-object object, the user The effect of being able to correctly select the object intended by U can be obtained.

なお、本実施形態では、ユーザUの動作に応じてユーザUの視野内で動く操作体として、ユーザUの手を模したCGパーツを想定したが、ユーザUの手を模したCGパーツの代わりに、ユーザUの足を模したCGパーツを操作体として用いてもよい。この場合は、ユーザUの手の動きを検出する代わりにユーザUの足の動きを検出し、仮想空間内でユーザUの足のCGパーツにより指定される指定領域Rを検出すればよい。 In the present embodiment, a CG part that imitates the hand of the user U is assumed as an operating body that moves in the field of view of the user U according to the movement of the user U, but instead of the CG part that imitates the hand of the user U. In addition, a CG part imitating the foot of the user U may be used as an operating body. In this case, instead of detecting the movement of the user U's hand, the movement of the user U's foot may be detected, and the designated area R designated by the CG part of the user U's foot may be detected in the virtual space.

また、ユーザUの動作に応じてユーザUの視野内で動く操作体は、例えば、ユーザUの手や足の動きに合わせて仮想空間内で動くロボットアームなど、ユーザUの手や足を模したCGパーツ以外の他のCGパーツであってもよい。 Further, the operating body that moves in the field of view of the user U according to the movement of the user U imitates the hand or foot of the user U, for example, a robot arm that moves in the virtual space according to the movement of the hand or foot of the user U. It may be a CG part other than the CG part.

また、仮想空間内で操作体となるCGパーツを動かすユーザUの動作は、手や足を動かすことに限らず、例えば、情報処理装置100’に接続されたコントローラの操作などであってもよい。 Further, the operation of the user U who moves the CG part serving as the operating body in the virtual space is not limited to moving the hands and feet, and may be, for example, the operation of the controller connected to the information processing device 100'. ..

また、本実施形態は、ユーザUが頭部に装着して使用するHDMに限らず、例えばスマートフォンなど、ユーザUが片手で目の前に置きながら使用できる情報端末に適用することもできる。 Further, the present embodiment is not limited to the HDM worn by the user U on the head and used, and can also be applied to an information terminal such as a smartphone that the user U can use while placing it in front of the eyes with one hand.

<補足説明>
上述の実施形態に係る情報処理装置100(100’)の各機能は、例えば、図3に例示したコンピュータシステムを含むハードウェアと、このコンピュータシステム上で実行されるプログラム(ソフトウェア)との協働により実現することができる。コンピュータシステム上で実行されるプログラムは、例えば、インストール可能な形式または実行可能な形式のファイルで、例えばSDカードなどのコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。また、コンピュータシステム上で実行されるプログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、コンピュータシステム上で実行されるプログラムをインターネットなどのネットワーク経由で提供または配布するように構成してもよい。また、コンピュータ上で実行されるプログラムを、プログラムROMなどに予め組み込んで提供するように構成してもよい。
<Supplementary explanation>
Each function of the information processing apparatus 100 (100') according to the above-described embodiment is, for example, a collaboration between hardware including the computer system illustrated in FIG. 3 and a program (software) executed on the computer system. Can be realized by. A program executed on a computer system is provided as a computer program product, for example, in an installable or executable format file, recorded on a computer-readable recording medium such as an SD card. Further, the program executed on the computer system may be stored on a computer connected to a network such as the Internet and provided by downloading the program via the network. In addition, a program executed on a computer system may be configured to be provided or distributed via a network such as the Internet. Further, the program executed on the computer may be configured to be provided by incorporating it into a program ROM or the like in advance.

上述のコンピュータシステム上で実行されるプログラムは、例えば、検出部12、算出部17、選択部18などの機能的な構成要素を含むモジュール構成となっており、例えば、プロセッサ101が上記記録媒体からプログラムを読み出して実行することにより、上述した各部がメモリ102上にロードされ、メモリ102上に生成されるようになっている。 The program executed on the computer system described above has, for example, a module configuration including functional components such as a detection unit 12, a calculation unit 17, and a selection unit 18. For example, the processor 101 is used from the recording medium. By reading and executing the program, each part described above is loaded on the memory 102 and generated on the memory 102.

以上、本発明の実施形態を説明したが、ここで説明した実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。ここで説明した新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。ここで説明した実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiments of the present invention have been described above, the embodiments described here are presented as examples and are not intended to limit the scope of the invention. The novel embodiment described here can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. The embodiments and modifications thereof described here are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

11 撮像部
12 検出部
13 画像保持部
14 画像補間部
15 画像縮尺変更部
16 表示部
17 算出部
18 選択部
19 フィードバック部
20 オブジェクト保持部
21 キャンセル処理部
22 処理実行部
23 動き検出部
24 仮想空間生成部
11 Imaging unit 12 Detection unit 13 Image holding unit 14 Image interpolation unit 15 Image scale changing unit 16 Display unit 17 Calculation unit 18 Selection unit 19 Feedback unit 20 Object holding unit 21 Cancel processing unit 22 Processing execution unit 23 Motion detection unit 24 Virtual space Generator

Claims (20)

ユーザの動作に応じて前記ユーザの視野内で動く操作体により指定される指定領域を検出する検出部と、
前記ユーザの視野内に存在する複数のオブジェクトであって、他のオブジェクトに内包される一つ以上のオブジェクトを含む前記複数のオブジェクトのうち、前記ユーザの視野内で前記指定領域と重なるオブジェクトについて、前記指定領域との重畳度を算出する算出部と、
前記重畳度とオブジェクトの大きさとに基づいて、前記複数のオブジェクトの中からターゲットとなるオブジェクトを選択する選択部と、
を備える情報処理装置。
A detection unit that detects a designated area designated by an operating body that moves within the user's field of view according to the user's movement,
Of the plurality of objects existing in the user's field of view, including one or more objects included in the other objects, the object overlapping the designated area in the user's field of view. A calculation unit that calculates the degree of superimposition with the designated area,
A selection unit that selects a target object from the plurality of objects based on the degree of superimposition and the size of the object.
Information processing device equipped with.
前記選択部は、前記重畳度が所定の閾値を超えるオブジェクトのうち、大きさが最大のオブジェクトを選択する
請求項1に記載の情報処理装置。
The information processing device according to claim 1, wherein the selection unit selects an object having the largest size among objects whose superposition degree exceeds a predetermined threshold value.
前記選択部は、前記重畳度が所定の閾値を超えるオブジェクトであって、大きさが同等のオブジェクトが複数存在する場合、前記ユーザに最も近いオブジェクトを選択する
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the selection unit selects an object closest to the user when there are a plurality of objects having the same size and the degree of superposition exceeds a predetermined threshold value.
前記指定領域の範囲が、前記操作体の形状または動きに応じて決定される
請求項1乃至3のいずれか一項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 3, wherein the range of the designated area is determined according to the shape or movement of the operating body.
前記算出部は、前記ユーザによる所定の行為に応じて、前記重畳度の算出を開始する
請求項1乃至4のいずれか一項に記載の情報処理装置。
The information processing device according to any one of claims 1 to 4, wherein the calculation unit starts calculating the degree of superimposition in response to a predetermined action by the user.
前記所定の行為は、動きを止める、ジェスチャ、音声コマンドの発話、視線移動、表情変化の少なくともいずれかを含む
請求項5に記載の情報処理装置。
The information processing device according to claim 5, wherein the predetermined action includes at least one of a gesture, a speech of a voice command, a movement of the line of sight, and a change in facial expression.
前記ユーザによる所定の行為に応じて、前記選択部により選択されたオブジェクトをキャンセルするキャンセル処理部をさらに備える
請求項1乃至6のいずれか一項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 6, further comprising a cancel processing unit that cancels an object selected by the selection unit in response to a predetermined action by the user.
前記所定の行為は、同じオブジェクトを繰り返し選択する動作、ジェスチャ、音声コマンドの発話の少なくともいずれかを含む
請求項7に記載の情報処理装置。
The information processing device according to claim 7, wherein the predetermined action includes at least one of an operation of repeatedly selecting the same object, a gesture, and an utterance of a voice command.
前記選択部によりオブジェクトが選択されたことを前記ユーザに認識させるフィードバック処理を行うフィードバック処理部をさらに備える
請求項1乃至8のいずれか一項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 8, further comprising a feedback processing unit that performs feedback processing for causing the user to recognize that an object has been selected by the selection unit.
前記フィードバック処理は、前記選択部により選択されたオブジェクトを視覚的に前記ユーザに認識させる処理と、前記選択部によりオブジェクトが選択されたことを振動により前記ユーザに認識させる処理の少なくともいずれかを含む
請求項9に記載の情報処理装置。
The feedback process includes at least one of a process of visually recognizing the object selected by the selection unit and a process of causing the user to recognize that the object has been selected by the selection unit by vibration. The information processing apparatus according to claim 9.
前記ユーザの前方の実空間を撮像する撮像部と、
前記撮像部により撮像された実空間の画像を表示する表示部と、をさらに備え、
前記操作体は、前記実空間の画像に映り込む前記ユーザの手または足または道具であり、
前記複数のオブジェクトの各々は、前記実空間の画像に映り込む物体または前記実空間の画像上に重畳されたCG(コンピュータグラフィックス)パーツであり、
前記検出部は、前記実空間の画像に映り込む前記ユーザの手または足または道具を検出することにより前記指定領域を検出し、
前記算出部は、前記実空間の画像上で前記指定領域と重なるオブジェクトについて、前記重畳度を算出する
請求項1乃至10のいずれか一項に記載の情報処理装置。
An imaging unit that captures the real space in front of the user,
A display unit that displays a real space image captured by the image pickup unit is further provided.
The operating body is the user's hand or foot or tool reflected in the image in the real space.
Each of the plurality of objects is an object reflected in the real space image or a CG (computer graphics) part superimposed on the real space image.
The detection unit detects the designated area by detecting the user's hand or foot or tool reflected in the image in the real space.
The information processing device according to any one of claims 1 to 10, wherein the calculation unit calculates the degree of superimposition of an object that overlaps with the designated area on the image in the real space.
前記撮像部により過去に撮像された前記実空間の画像を保持する画像保持部と、
前記撮像部により新たに撮像された前記実空間の画像において前記操作体が映り込んだ領域の背景を、前記画像保持部に保持された過去の前記実空間の画像を用いて補間する画像補間部と、をさらに備え、
前記選択部は、前記画像補間部により前記操作体が映り込んだ領域の背景が補間された前記実空間の画像を用いて、前記重畳度を算出する
請求項11に記載の情報処理装置。
An image holding unit that holds an image of the real space previously captured by the imaging unit,
An image interpolation unit that interpolates the background of the region in which the operating body is reflected in the real space image newly captured by the image capturing unit using the past real space image held by the image holding unit. And, with more
The information processing apparatus according to claim 11, wherein the selection unit calculates the degree of superimposition using an image in the real space in which the background of the region in which the operating body is reflected is interpolated by the image interpolation unit.
前記表示部は、前記画像補間部により前記操作体が映り込んだ領域の背景が補間された前記実空間の画像を、前記ユーザの手または足の輪郭を可視化して表示する
請求項12に記載の情報処理装置。
The 12th aspect of the present invention, wherein the display unit visualizes and displays the contour of the user's hand or foot in an image of the real space in which the background of the region in which the operation body is reflected is interpolated by the image interpolation unit. Information processing equipment.
各々がCGパーツよりなる前記複数のオブジェクトを含む仮想空間の画像を表示する表示部をさらに備え、
前記操作体は、前記ユーザの手または足の動きに合わせて前記仮想空間の画像上で動く手または足のCGパーツであり、
前記検出部は、前記ユーザの手または足の動きを検出することにより前記指定領域を検出し、
前記算出部は、前記仮想空間の画像上で前記指定領域と重なるオブジェクトについて、前記重畳度を算出する
請求項1乃至10のいずれか一項に記載の情報処理装置。
Further provided with a display unit for displaying an image of the virtual space including the plurality of objects, each of which is composed of CG parts.
The operating body is a CG part of a hand or foot that moves on an image of the virtual space according to the movement of the user's hand or foot.
The detection unit detects the designated area by detecting the movement of the user's hand or foot.
The information processing device according to any one of claims 1 to 10, wherein the calculation unit calculates the degree of superimposition of an object that overlaps with the designated area on an image of the virtual space.
前記ユーザによる所定の行為に応じて、前記表示部に表示される画像のうち前記操作体を除く画像を拡大または縮小する画像縮尺変更部をさらに備える
請求項11乃至14のいずれか一項に記載の情報処理装置。
The invention according to any one of claims 11 to 14, further comprising an image scale changing unit for enlarging or reducing an image excluding the operating body among the images displayed on the display unit in response to a predetermined action by the user. Information processing equipment.
前記所定の行為は、姿勢変化、操作部の操作、ジェスチャ、音声コマンドの発話、表情変化、の少なくともいずれかを含む
請求項15に記載の情報処理装置。
The information processing device according to claim 15, wherein the predetermined action includes at least one of a posture change, an operation of an operation unit, a gesture, a voice command utterance, and a facial expression change.
前記選択部により選択されたオブジェクトに基づいて所定の処理を実行する処理実行部をさらに備える
請求項1乃至16のいずれか一項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 16, further comprising a process execution unit that executes a predetermined process based on an object selected by the selection unit.
前記所定の処理は、前記選択部により選択されたオブジェクトを含む検索クエリに従って、画像データベースから前記選択部により選択されたオブジェクトに類似するオブジェクトが映った画像を検索する処理である
請求項17に記載の情報処理装置。
The predetermined process is the process of searching an image in which an object similar to the object selected by the selection unit is displayed from an image database according to a search query including an object selected by the selection unit. Information processing device.
情報処理装置において実行される情報処理方法であって、
ユーザの動作に応じて前記ユーザの視野内で動く操作体により指定される指定領域を検出するステップと、
前記ユーザの視野内に存在する複数のオブジェクトであって、他のオブジェクトに内包される一つ以上のオブジェクトを含む前記複数のオブジェクトのうち、前記ユーザの視野内で前記指定領域と重なるオブジェクトについて、前記指定領域との重畳度を算出するステップと、
前記重畳度とオブジェクトの大きさとに基づいて、前記複数のオブジェクトの中からターゲットとなるオブジェクトを選択するステップと、
を含む情報処理方法。
An information processing method executed in an information processing device.
A step of detecting a designated area designated by an operating body that moves within the user's field of view according to the user's movement, and
Of the plurality of objects existing in the user's field of view, including one or more objects included in the other objects, the object overlapping the designated area in the user's field of view. The step of calculating the degree of superimposition with the designated area and
A step of selecting a target object from the plurality of objects based on the degree of superposition and the size of the object, and
Information processing methods including.
コンピュータに、
ユーザの動作に応じて前記ユーザの視野内で動く操作体により指定される指定領域を検出する機能と、
前記ユーザの視野内に存在する複数のオブジェクトであって、他のオブジェクトに内包される一つ以上のオブジェクトを含む前記複数のオブジェクトのうち、前記ユーザの視野内で前記指定領域と重なるオブジェクトについて、前記指定領域との重畳度を算出する機能と、
前記重畳度とオブジェクトの大きさとに基づいて、前記複数のオブジェクトの中からターゲットとなるオブジェクトを選択する機能と、
を実現させるためのプログラム。
On the computer
A function to detect a designated area specified by an operating body that moves within the user's field of view according to the user's movement, and
Of the plurality of objects existing in the user's field of view, including one or more objects included in the other objects, the object overlapping the designated area in the user's field of view. A function to calculate the degree of superimposition with the designated area and
A function to select a target object from the plurality of objects based on the degree of superimposition and the size of the object, and
A program to realize.
JP2019122974A 2019-07-01 2019-07-01 Information processing apparatus, information processing method, and program Pending JP2021009552A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019122974A JP2021009552A (en) 2019-07-01 2019-07-01 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019122974A JP2021009552A (en) 2019-07-01 2019-07-01 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2021009552A true JP2021009552A (en) 2021-01-28

Family

ID=74198655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019122974A Pending JP2021009552A (en) 2019-07-01 2019-07-01 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2021009552A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023153220A1 (en) * 2022-02-09 2023-08-17 ソニーグループ株式会社 Information processing device and information processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023153220A1 (en) * 2022-02-09 2023-08-17 ソニーグループ株式会社 Information processing device and information processing method

Similar Documents

Publication Publication Date Title
JP7191714B2 (en) Systems and methods for direct pointing detection for interaction with digital devices
US20220326781A1 (en) Bimanual interactions between mapped hand regions for controlling virtual and graphical elements
US20240061515A1 (en) Hand gestures for animating and controlling virtual and graphical elements
US20220084279A1 (en) Methods for manipulating objects in an environment
KR101844390B1 (en) Systems and techniques for user interface control
KR101688355B1 (en) Interaction of multiple perceptual sensing inputs
US9377859B2 (en) Enhanced detection of circular engagement gesture
KR101652535B1 (en) Gesture-based control system for vehicle interfaces
EP3527121B1 (en) Gesture detection in a 3d mapping environment
JP5205187B2 (en) Input system and input method
JP4608326B2 (en) Instruction motion recognition device and instruction motion recognition program
US10678342B2 (en) Method of virtual user interface interaction based on gesture recognition and related device
US9063573B2 (en) Method and system for touch-free control of devices
US20100245245A1 (en) Spatial input operation display apparatus
US10591988B2 (en) Method for displaying user interface of head-mounted display device
US10372229B2 (en) Information processing system, information processing apparatus, control method, and program
US20160147307A1 (en) User interface device, user interface method, program, and computer-readable information storage medium
JP2017191426A (en) Input device, input control method, computer program, and storage medium
JP2021009552A (en) Information processing apparatus, information processing method, and program
Siam et al. Human computer interaction using marker based hand gesture recognition
JP2010086367A (en) Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment
JPWO2014054718A1 (en) User interface device, user interface method, program, and computer-readable information storage medium
JP2016071824A (en) Interface device, finger tracking method, and program
WO2023214542A1 (en) Computer program, image processing device, image processing method, and in-vehicle interface device,
Lee et al. Real-time recognition method of counting fingers for natural user interface