JP2017059088A - Calibration information creation apparatus, calibration information creation method, calibration information creation program, attitude detection apparatus, attitude detection method, attitude detection program, and information processing system - Google Patents

Calibration information creation apparatus, calibration information creation method, calibration information creation program, attitude detection apparatus, attitude detection method, attitude detection program, and information processing system Download PDF

Info

Publication number
JP2017059088A
JP2017059088A JP2015184711A JP2015184711A JP2017059088A JP 2017059088 A JP2017059088 A JP 2017059088A JP 2015184711 A JP2015184711 A JP 2015184711A JP 2015184711 A JP2015184711 A JP 2015184711A JP 2017059088 A JP2017059088 A JP 2017059088A
Authority
JP
Japan
Prior art keywords
finger
stimulus
posture
calibration information
presented
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015184711A
Other languages
Japanese (ja)
Inventor
俊介 市原
Shunsuke Ichihara
俊介 市原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2015184711A priority Critical patent/JP2017059088A/en
Publication of JP2017059088A publication Critical patent/JP2017059088A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology for simple and quick calibration between a hand, as a real object, and a virtual video.SOLUTION: A calibration information creation apparatus includes: a feature point detection unit which detects one or a plurality of feature points from a video obtained by imaging a finger after a stimulus based on actual attitude data of the finger is presented to the finger; and a calibration information creation unit which creates calibration information for calibrating a virtual video, on the basis of the one or a plurality of feature points.SELECTED DRAWING: Figure 1

Description

本発明は、校正情報作成装置、校正情報作成方法、校正情報作成プログラム、姿勢検知装置、姿勢検知方法、姿勢検知プログラムおよび情報処理システムに関するものである。   The present invention relates to a calibration information creation apparatus, a calibration information creation method, a calibration information creation program, an attitude detection apparatus, an attitude detection method, an attitude detection program, and an information processing system.

近年、現実空間映像と仮想空間映像とを合成することにより得られる合成映像をユーザの視野に提供する複合現実感システムが開示されている(例えば、特許文献1参照)。例えば、仮想空間映像は、ユーザの視点位置(または視線方向)に応じて生成される。複合現実感システムによれば、現実空間に仮想映像が実在しているような感覚をユーザに提供することが可能であり、仮想現実感システムよりもリアルに実寸感覚を伴った観測をユーザに提供することが可能である。   In recent years, a mixed reality system that provides a synthesized video obtained by synthesizing a real space video and a virtual space video to a user's field of view has been disclosed (for example, see Patent Document 1). For example, the virtual space image is generated according to the viewpoint position (or line-of-sight direction) of the user. According to the mixed reality system, it is possible to provide the user with the sensation that a virtual image actually exists in the real space, and to provide the user with observations that are more realistic than the virtual reality system. Is possible.

複合現実感システムは、様々な分野に応用されている。一例として、設計・製造分野において3次元CAD(computer aided design)により設計された物体の操作性・メンテナンス性・組み立て性を検証する手法として、仮想空間に表示された仮想映像を現実空間に存在する現実物体としての手で操作する手法がある。かかる手法によって、あたかも自分の手で試作中の物体に直接触れているかのような感覚をユーザに与えながら、ユーザに物体を操作・検証させることが可能である。   Mixed reality systems are applied in various fields. As an example, in a design / manufacturing field, a virtual image displayed in a virtual space exists in a real space as a method for verifying the operability, maintainability, and assemblability of an object designed by 3D CAD (computer aided design). There is a method of operating with a hand as a real object. With this method, it is possible to allow the user to operate and verify the object while giving the user a feeling as if he / she is directly touching the object being prototyped with his / her hand.

かかる手法を実現するためには、現実物体としての手にマッチするように仮想映像のパラメータ(例えば、仮想映像の位置、姿勢、拡大倍率など)を校正する必要がある。このように、現実物体としての手にマッチするように仮想映像のパラメータを校正するためには、あらかじめ現実物体に対する仮想映像のパラメータの校正度合いを校正情報として取得するキャリブレーションが実行される必要がある。   In order to realize such a method, it is necessary to calibrate the parameters of the virtual video (for example, the position, orientation, magnification factor, etc. of the virtual video) so as to match the hand as a real object. As described above, in order to calibrate the parameters of the virtual video so as to match the hand as the real object, it is necessary to execute the calibration to acquire the calibration degree of the parameter of the virtual video with respect to the real object as calibration information in advance. is there.

特開2002−159019号公報JP 2002-159019 A

しかしながら、現実物体としての手と仮想映像との間で正確にキャリブレーションを行うためには、現実物体としての手全体の大きさ、現実物体としての手の平の幅・高さ、現実物体としての手の指の長さなどといった多くの要素を考慮する必要がある。さらに、現実物体としての手のように複雑かつ柔軟な形状を持った物体と仮想映像との間のキャリブレーションにおいては、手形状の変形をも考慮する必要がある。   However, in order to accurately perform calibration between the hand as the real object and the virtual image, the size of the entire hand as the real object, the width / height of the palm as the real object, the hand as the real object It is necessary to consider many factors such as finger length. Further, in the calibration between a virtual image and an object having a complicated and flexible shape such as a hand as a real object, it is necessary to consider the deformation of the hand shape.

また、一般的には、空間上の任意の点を指定することができる装置(例えば、マウス、3次元ポインティングデバイスなど)を使用して、拡大倍率を校正するためのすべての特徴点を指定することによって拡大倍率を校正する手法を用いることが多い。しかし、このような手法では、キャリブレーションに長い時間が掛かり、システムのインタフェースの利便性を損なう可能性がある。   In general, an apparatus that can specify an arbitrary point in space (for example, a mouse, a three-dimensional pointing device, etc.) is used to specify all feature points for calibrating the magnification. Therefore, a method for calibrating the magnification is often used. However, with such a method, calibration takes a long time, and the convenience of the system interface may be impaired.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、現実物体としての手と仮想映像との間のキャリブレーションを簡易かつ迅速に行うことが可能な技術を提供することにある。   Accordingly, the present invention has been made in view of the above problems, and an object of the present invention is to enable simple and quick calibration between a hand as a real object and a virtual image. To provide technology.

上記問題を解決するために、本発明のある観点によれば、指の現実の姿勢データに応じた刺激が前記指に提示された後に前記指が撮像された撮像映像から1または複数の特徴点を検出する特徴点検出部と、前記1または複数の特徴点に基づいて、仮想映像を校正するための校正情報を作成する校正情報作成部と、を備える、校正情報作成装置が提供される。   In order to solve the above problem, according to an aspect of the present invention, one or a plurality of feature points from an imaged image in which the finger is imaged after a stimulus corresponding to actual finger posture data is presented to the finger. There is provided a calibration information creation device comprising a feature point detection unit for detecting a calibration point and a calibration information creation unit for creating calibration information for calibrating a virtual image based on the one or more feature points.

前記校正情報作成装置は、前記校正情報に基づいて前記仮想映像を変換することにより提示映像を得る表示変換部を備えてもよい。   The calibration information creation device may include a display conversion unit that obtains a presentation video by converting the virtual video based on the calibration information.

前記校正情報作成装置は、前記仮想映像を生成する映像生成部を備えてもよい。   The calibration information creation apparatus may include a video generation unit that generates the virtual video.

前記校正情報作成装置は、前記提示映像を表示する映像表示部を備えてもよい。   The calibration information creating apparatus may include a video display unit that displays the presentation video.

前記特徴点検出部は、前記現実の姿勢データと前記指の理想の姿勢データとの差分絶対値が閾値を下回った場合に、前記1または複数の特徴点を検出してもよい。   The feature point detection unit may detect the one or more feature points when an absolute difference between the actual posture data and the ideal posture data of the finger falls below a threshold value.

また、本発明の他の観点によれば、指の現実の姿勢データに応じた刺激が前記指に提示された後に前記指が撮像された撮像映像から1または複数の特徴点を検出することと、前記1または複数の特徴点に基づいて、仮想映像を校正するための校正情報を作成することと、を含む、校正情報作成方法が提供される。   According to another aspect of the present invention, one or a plurality of feature points are detected from a captured image in which the finger is imaged after a stimulus corresponding to the actual posture data of the finger is presented to the finger. And creating calibration information for calibrating a virtual image based on the one or more feature points.

また、本発明の他の観点によれば、コンピュータを、指の現実の姿勢データに応じた刺激が前記指に提示された後に前記指が撮像された撮像映像から1または複数の特徴点を検出する特徴点検出部と、前記1または複数の特徴点に基づいて、仮想映像を校正するための校正情報を作成する校正情報作成部と、を備える校正情報作成装置として機能させるための校正情報作成プログラムが提供される。   According to another aspect of the present invention, the computer detects one or a plurality of feature points from a captured image obtained by capturing the finger after a stimulus corresponding to the actual posture data of the finger is presented to the finger. Calibration information creation for functioning as a calibration information creation device comprising: a feature point detection unit that performs calibration information creation unit that creates calibration information for calibrating a virtual image based on the one or more feature points A program is provided.

また、本発明の他の観点によれば、指の現実の姿勢データを検知する指姿勢検知部と、前記現実の姿勢データとあらかじめ定められた前記指の理想の姿勢データとに基づいて、前記指に提示される刺激を制御する刺激情報制御部と、を備える、姿勢検知装置が提供される。   Further, according to another aspect of the present invention, based on a finger posture detection unit that detects actual posture data of a finger, the actual posture data, and the ideal posture data of the finger determined in advance, There is provided a posture detection device including a stimulus information control unit that controls a stimulus presented to a finger.

前記刺激情報制御部は、前記現実の姿勢データと前記理想の姿勢データとの差分に基づいて前記刺激を制御してもよい。   The stimulus information control unit may control the stimulus based on a difference between the actual posture data and the ideal posture data.

前記刺激情報制御部は、前記差分の符号に基づいて、前記指に提示される刺激の位置を制御してもよい。   The stimulus information control unit may control the position of the stimulus presented to the finger based on the sign of the difference.

前記刺激情報制御部は、時間の経過に伴って、前記指に提示される前記刺激の位置を変化させてもよい。   The stimulus information control unit may change the position of the stimulus presented to the finger as time passes.

前記刺激情報制御部は、前記差分の絶対値に基づいて、前記指に提示される前記刺激の大きさを制御してもよい。   The stimulus information control unit may control the magnitude of the stimulus presented to the finger based on the absolute value of the difference.

前記姿勢検知装置は、前記指に刺激を提示する刺激情報提示部を備えてもよい。   The posture detection apparatus may include a stimulus information presentation unit that presents a stimulus to the finger.

前記指姿勢検知部は、接触または非接触により前記現実の姿勢データを検知し、前記刺激情報制御部は、接触または非接触により提示される前記刺激を制御してもよい。   The finger posture detection unit may detect the actual posture data by contact or non-contact, and the stimulus information control unit may control the stimulus presented by contact or non-contact.

前記刺激が前記指に提示された後に前記指が撮像された撮像映像から1または複数の特徴点が検出され、前記1または複数の特徴点に基づいて、仮想映像を校正するための校正情報が作成されてもよい。   One or a plurality of feature points are detected from a captured image obtained by capturing the finger after the stimulus is presented to the finger, and calibration information for calibrating a virtual image based on the one or a plurality of feature points is provided. It may be created.

また、本発明の他の観点によれば、指の現実の姿勢データを検知することと、前記現実の姿勢データとあらかじめ定められた前記指の理想の姿勢データとに基づいて、前記指に提示される刺激を制御することと、を含む、姿勢検知方法が提供される。   According to another aspect of the present invention, the actual posture data of the finger is detected and presented to the finger based on the actual posture data and the predetermined ideal posture data of the finger. Controlling a stimulus to be provided.

また、本発明の他の観点によれば、コンピュータを、指の現実の姿勢データを検知する指姿勢検知部と、前記現実の姿勢データとあらかじめ定められた前記指の理想の姿勢データとに基づいて、前記指に提示される刺激を制御する刺激情報制御部と、を備える姿勢検知装置として機能させるための姿勢検知プログラムが提供される。   According to another aspect of the present invention, the computer is based on a finger posture detection unit that detects actual finger posture data, the actual posture data, and the predetermined ideal finger posture data. There is provided a posture detection program for functioning as a posture detection device including a stimulus information control unit that controls a stimulus presented to the finger.

また、本発明の他の観点によれば、指の現実の姿勢データを検知する指姿勢検知部と、前記現実の姿勢データとあらかじめ定められた前記指の理想の姿勢データとに基づいて、前記指に提示される刺激を制御する刺激情報制御部と、を備える、姿勢検知装置と、前記刺激が前記指に提示された後に前記指が撮像された撮像映像から1または複数の特徴点を検出する特徴点検出部と、前記1または複数の特徴点に基づいて、仮想映像を校正するための校正情報を作成する校正情報作成部と、を備える、校正情報作成装置と、を有する、情報処理システムが提供される。   Further, according to another aspect of the present invention, based on a finger posture detection unit that detects actual posture data of a finger, the actual posture data, and the ideal posture data of the finger determined in advance, A posture detection device comprising: a stimulus information control unit that controls a stimulus presented to the finger; and one or more feature points are detected from a captured image obtained by imaging the finger after the stimulus is presented to the finger A calibration information creation device, comprising: a feature point detection unit that performs calibration information creation unit that creates calibration information for calibrating a virtual image based on the one or more feature points. A system is provided.

以上説明したように本発明によれば、現実物体としての手と仮想映像との間のキャリブレーションを簡易かつ迅速に行うことが可能となる。   As described above, according to the present invention, it is possible to easily and quickly perform calibration between a hand as a real object and a virtual image.

本発明の第1の実施形態の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the 1st Embodiment of this invention. 同実施形態に係る情報処理システムの構成例を示すブロック図である。It is a block diagram showing an example of composition of an information processing system concerning the embodiment. ユーザの現実の人差し指の姿勢を検知する例を説明するための図である。It is a figure for demonstrating the example which detects the attitude | position of a user's real index finger. 接触刺激情報提示部が指の2箇所に取り付けられている状態を示す図である。It is a figure which shows the state in which the contact stimulus information presentation part is attached to two places of a finger | toe. 同実施形態に係る情報処理システムの動作の流れを示すフローチャートである。It is a flowchart which shows the flow of operation | movement of the information processing system which concerns on the embodiment. 各指の理想の姿勢データを説明するための図である。It is a figure for demonstrating the ideal attitude | position data of each finger | toe. 各指の理想の姿勢データを説明するための図である。It is a figure for demonstrating the ideal attitude | position data of each finger | toe. 各指の理想の姿勢データを説明するための図である。It is a figure for demonstrating the ideal attitude | position data of each finger | toe. 各指の理想の姿勢データを説明するための図である。It is a figure for demonstrating the ideal attitude | position data of each finger | toe. 各指の理想の姿勢データを説明するための図である。It is a figure for demonstrating the ideal attitude | position data of each finger | toe. 本発明の第2の実施形態に係る情報処理システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the information processing system which concerns on the 2nd Embodiment of this invention. 同実施形態に係る情報処理システムの構成例を示す図である。It is a figure showing an example of composition of an information processing system concerning the embodiment. 指の現実の姿勢を非接触により検知する技術の概略を説明するための図である。It is a figure for demonstrating the outline of the technique which detects the real attitude | position of a finger | toe by non-contact. 指の現実の姿勢を非接触により検知する技術の概略を説明するための図である。It is a figure for demonstrating the outline of the technique which detects the real attitude | position of a finger | toe by non-contact. 指の現実の姿勢を非接触により検知する技術の概略を説明するための図である。It is a figure for demonstrating the outline of the technique which detects the real attitude | position of a finger | toe by non-contact. 同実施形態に係る情報処理システムの動作の流れを示すフローチャートである。It is a flowchart which shows the flow of operation | movement of the information processing system which concerns on the embodiment. 触覚提示パターンの生成について説明するための図である。It is a figure for demonstrating the production | generation of a tactile sense presentation pattern. 時間の経過に伴って指に提示される刺激の位置を変化させる例を説明するための図である。It is a figure for demonstrating the example which changes the position of the stimulus shown to a finger with progress of time.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する。ただし、実質的に同一の機能構成を有する複数の構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。   In the present specification and drawings, a plurality of constituent elements having substantially the same functional configuration are distinguished by attaching different numerals to the same reference numerals. Further, similar constituent elements of different embodiments are distinguished by attaching different alphabets after the same reference numerals. However, when there is no need to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given.

[1−1.第1の実施形態の概要]
まず、本発明の第1の実施形態の概要について説明する。図1は、本発明の第1の実施形態の概要を説明するための図である。第1の実施形態においては、図1に示すように、校正情報作成装置100が存在する。図1には、校正情報作成装置100が、映像取得部110および映像表示部120を有するグラス型のウェアラブルデバイスであり、ユーザUによって装着されている例が示されているが、校正情報作成装置100の形態は、かかる形態に限定されない。
[1-1. Overview of First Embodiment]
First, an outline of the first embodiment of the present invention will be described. FIG. 1 is a diagram for explaining the outline of the first embodiment of the present invention. In the first embodiment, as shown in FIG. 1, there is a calibration information creation device 100. FIG. 1 shows an example in which the calibration information creation device 100 is a glass-type wearable device having a video acquisition unit 110 and a video display unit 120 and is worn by a user U. The form of 100 is not limited to such a form.

例えば、校正情報作成装置100は、グラス型のウェアラブルデバイスではなく、他のモバイル端末(例えば、スマートフォン、タブレット端末、携帯電話など)であってもよいし、PC(Personal Computer)であってもよい。また、図1には、校正情報作成装置100の内部に映像取得部110および映像表示部120が存在する例が示されているが、映像取得部110および映像表示部120は、校正情報作成装置100の外部に存在していてもよい。   For example, the proofreading information creation apparatus 100 is not a glass-type wearable device, but may be another mobile terminal (for example, a smartphone, a tablet terminal, a mobile phone, etc.), or a PC (Personal Computer). . FIG. 1 shows an example in which the video acquisition unit 110 and the video display unit 120 exist inside the calibration information creation device 100. The video acquisition unit 110 and the video display unit 120 are not included in the calibration information creation device. 100 may exist outside.

図1に示すように、映像取得部110によってユーザの手Haが撮像されて手Haの撮像映像が取得されると、映像表示部120によって撮像映像に仮想映像Viが重畳される。なお、第1の実施形態においては、撮像映像に仮想映像Viが重畳される例を主に説明するが、映像表示部120がシースルー型のウェアラブルデバイスである場合などには、現実の空間に対して仮想映像Viが重畳されてもよい。すなわち、映像表示部120は、ユーザUの視野に仮想映像Viを重畳する。また、図1には、仮想映像Viがボールの画像である例が示されているが、仮想映像Viはボール以外の物体の画像であってもよい。   As shown in FIG. 1, when the image acquisition unit 110 captures the user's hand Ha and acquires the captured image of the hand Ha, the image display unit 120 superimposes the virtual image Vi on the captured image. In the first embodiment, an example in which the virtual video Vi is superimposed on the captured video will be mainly described. However, when the video display unit 120 is a see-through wearable device, the real space is compared. Thus, the virtual video Vi may be superimposed. That is, the video display unit 120 superimposes the virtual video Vi on the field of view of the user U. 1 shows an example in which the virtual video Vi is an image of a ball, the virtual video Vi may be an image of an object other than the ball.

ここで、映像表示部120が撮像映像に仮想映像Viを重畳するためには、現実物体としての手Haにマッチするように仮想映像Viのパラメータ(例えば、仮想映像Viの位置、姿勢、拡大倍率など)を校正する必要がある。現実物体としての手Haにマッチするように仮想映像Viのパラメータを校正するためには、あらかじめ現実物体としての手Haに対する仮想映像Viのパラメータの校正度合いを校正情報として取得するキャリブレーションが実行される必要がある。   Here, in order for the video display unit 120 to superimpose the virtual video Vi on the captured video, parameters of the virtual video Vi (for example, the position, orientation, and magnification of the virtual video Vi so as to match the hand Ha as a real object). Etc.) must be calibrated. In order to calibrate the parameters of the virtual video Vi so as to match the hand Ha as the real object, calibration is executed in advance to acquire the calibration degree of the parameters of the virtual video Vi for the hand Ha as the real object as calibration information. It is necessary to

しかしながら、現実物体としての手Haと仮想映像Viとの間で正確にキャリブレーションを行うためには、現実物体としての手Haの全体の大きさ、現実物体としての手Haの平の幅・高さ、現実物体としての手Haの指の長さなどといった多くの要素を考慮する必要がある。さらに、現実物体としての手Haのように複雑かつ柔軟な形状を持った物体と仮想映像Viとの間のキャリブレーションにおいては、手形状の変形をも考慮する必要がある。   However, in order to accurately perform calibration between the hand Ha as the real object and the virtual image Vi, the overall size of the hand Ha as the real object and the width and height of the flatness of the hand Ha as the real object It is necessary to consider many factors such as the length of the finger of the hand Ha as a real object. Furthermore, in the calibration between the virtual image Vi and an object having a complicated and flexible shape such as the hand Ha as a real object, it is necessary to consider deformation of the hand shape.

また、一般的には、空間上の任意の点を指定することができる装置(例えば、マウス、3次元ポインティングデバイスなど)を使用して、拡大倍率を校正するためのすべての特徴点を指定することによって拡大倍率を校正する手法を用いることが多い。しかし、このような手法では、キャリブレーションに長い時間が掛かり、システムのインタフェースの利便性を損なう可能性がある。   In general, an apparatus that can specify an arbitrary point in space (for example, a mouse, a three-dimensional pointing device, etc.) is used to specify all feature points for calibrating the magnification. Therefore, a method for calibrating the magnification is often used. However, with such a method, calibration takes a long time, and the convenience of the system interface may be impaired.

また、第1の実施形態において、ユーザの数は一人であってもよいが、複数人のユーザによって順次にシステムが利用される場合も想定される。かかる場合には、システムを利用するユーザが代わるたびにキャリブレーションも新たに実行される必要があるため、キャリブレーションが特に迅速に行われることが望まれる。そこで、本明細書においては、現実物体としての手Haと仮想映像Viとの間のキャリブレーションを簡易かつ迅速に行うことが可能な技術について主に提案する。   In the first embodiment, the number of users may be one, but it is also assumed that the system is sequentially used by a plurality of users. In such a case, since it is necessary to newly execute calibration every time the user who uses the system changes, it is desired that the calibration be performed particularly quickly. Therefore, the present specification mainly proposes a technique that can easily and quickly perform calibration between the hand Ha as a real object and the virtual image Vi.

かかる技術として、第1の実施形態においては、ユーザUの手に対して接触により刺激を提示する接触刺激情報提示部230をユーザUが装着する例を説明する。第1の実施形態においては、接触刺激情報提示部230が偏心モータなどによって構成される振動子であり、ユーザUの手に対して接触により提示される刺激が振動による刺激である例を説明する。しかし、ユーザUの手に対して提示される刺激の種類は特に限定されない。例えば、ユーザUの手に対して提示される刺激は、電気による刺激などであってもよい。   As such a technique, in the first embodiment, an example will be described in which the user U wears a contact stimulus information presentation unit 230 that presents a stimulus to the user U's hand by contact. In the first embodiment, an example will be described in which the contact stimulus information presentation unit 230 is a vibrator configured by an eccentric motor or the like, and the stimulus presented by contact to the user U's hand is a stimulus by vibration. . However, the type of stimulus presented to the user U's hand is not particularly limited. For example, the stimulus presented to the user U's hand may be an electrical stimulus or the like.

また、図1には、接触刺激情報提示部230が手袋に対して取り付けられており、ユーザUがその手袋を装着する例が示されている。しかし、接触刺激情報提示部230が手袋以外の物質(例えば、指輪など)に取り付けられ、ユーザUがその物質を装着してもよい。あるいは、接触刺激情報提示部230は、ユーザUの手に直接的に取り付けられてもよい。かかる場合、接触刺激情報提示部230は、ユーザUの手に貼り付けられてもよいし、ユーザUの手にテープなどで巻き付けられてもよい。   FIG. 1 shows an example in which the contact stimulus information presentation unit 230 is attached to a glove and the user U wears the glove. However, the contact stimulus information presentation unit 230 may be attached to a substance other than gloves (for example, a ring), and the user U may wear the substance. Alternatively, the contact stimulus information presentation unit 230 may be directly attached to the user U's hand. In such a case, the contact stimulus information presentation unit 230 may be attached to the user U's hand, or may be wound around the user U's hand with a tape or the like.

以上、本発明の第1の実施形態の概要について説明した。   The outline of the first embodiment of the present invention has been described above.

[1−2.システム構成例]
続いて、本発明の第1の実施形態に係る情報処理システムの構成例について説明する。図2は、本発明の第1の実施形態に係る情報処理システムの構成例を示すブロック図である。図2に示すように、本発明の第1の実施形態に係る情報処理システム10Aは、校正情報作成装置100と姿勢検知装置200Aとを有する。
[1-2. System configuration example]
Next, a configuration example of the information processing system according to the first embodiment of the present invention will be described. FIG. 2 is a block diagram illustrating a configuration example of the information processing system according to the first embodiment of the present invention. As shown in FIG. 2, the information processing system 10A according to the first embodiment of the present invention includes a calibration information creation device 100 and an attitude detection device 200A.

また、図2に示すように、校正情報作成装置100は、映像取得部110と、映像表示部120と、映像生成部130と、表示変換部140と、特徴点検出部150と、校正情報作成部160と、校正情報記憶部170とを備えている。また、図2に示すように、姿勢検知装置200Aは、接触指姿勢検知部210と、刺激情報制御部220と、接触刺激情報提示部230とを備えている。   As shown in FIG. 2, the calibration information creation apparatus 100 includes a video acquisition unit 110, a video display unit 120, a video generation unit 130, a display conversion unit 140, a feature point detection unit 150, and calibration information creation. Unit 160 and a calibration information storage unit 170. As illustrated in FIG. 2, the posture detection device 200 </ b> A includes a contact finger posture detection unit 210, a stimulus information control unit 220, and a contact stimulus information presentation unit 230.

接触指姿勢検知部210は、指の現実の姿勢を検知する指姿勢検知部の一例であり、指の現実の姿勢を接触により検知する。接触指姿勢検知部210は、指の現実の姿勢を接触により検知可能な所定のセンサを含む。ここでは、接触指姿勢検知部210は、指に装着された屈曲センサによって検知された関節の折り曲げ角度に基づいて指の現実の姿勢を検知する例を説明する。しかし、接触指姿勢検知部210は、指に装着された加速度センサによって検知された加速度に基づいて指の現実の姿勢を検知してもよい。   The contact finger posture detection unit 210 is an example of a finger posture detection unit that detects the actual posture of the finger, and detects the actual posture of the finger by contact. The contact finger posture detection unit 210 includes a predetermined sensor that can detect the actual posture of the finger by contact. Here, an example will be described in which the contact finger posture detection unit 210 detects the actual posture of the finger based on the joint bending angle detected by the bending sensor attached to the finger. However, the contact finger posture detection unit 210 may detect the actual posture of the finger based on the acceleration detected by the acceleration sensor attached to the finger.

図3は、ユーザの現実の人差し指の姿勢を検知する例を説明するための図である。図3には、図示を簡便にするために、接触指姿勢検知部210がユーザの人差し指の根元関節での折り曲げ角度を検知する例を示す。しかし、折り曲げ角度が検知される指の種類は人差し指に限定されず、折り曲げ角度が検知される関節も、根元関節に限定されない。さらに、図3には、1つの指における関節1箇所の折り曲げ角度を検知する例を示すが、折り曲げ角度が検知される指の数は複数であってもよいし、折り曲げ角度が検知される1つの指あたりの関節の数は複数であってもよい。   FIG. 3 is a diagram for explaining an example of detecting the actual posture of the index finger of the user. FIG. 3 shows an example in which the contact finger posture detection unit 210 detects the bending angle at the root joint of the user's index finger for the sake of simplicity. However, the kind of finger whose bending angle is detected is not limited to the index finger, and the joint whose bending angle is detected is not limited to the root joint. Further, FIG. 3 shows an example in which the bending angle of one joint in one finger is detected, but the number of fingers whose bending angle is detected may be plural, or the bending angle is detected 1. The number of joints per finger may be plural.

図3を参照すると、現実物体としての手Haが示されている。また、人差し指の根元関節が原点とされ、親指の先端への向きがX軸、手の平側への向きがY軸、人差し指の先端への向きがZ軸と設定され、(dx,dy,dz)という長さ1に正規化された三次元ベクトルによって、接触指姿勢検知部210によって人差し指の現実の姿勢データが検知される。なお、人差し指以外の指の現実の姿勢データも同様に検知され得る。   Referring to FIG. 3, a hand Ha as a real object is shown. Further, the root joint of the index finger is set as the origin, the direction toward the tip of the thumb is set as the X axis, the direction toward the palm side is set as the Y axis, and the direction toward the tip of the index finger is set as the Z axis, (dx, dy, dz) The contact finger posture detection unit 210 detects the actual posture data of the index finger based on the three-dimensional vector normalized to length 1. Note that actual posture data of fingers other than the index finger can be detected in the same manner.

一例として、図3に示された例において、指がZ軸方向に伸びた状態から、手形状を維持しながら現実の指をYZ平面において−45度回転させる場合を想定する。かかる場合には、指の現実の姿勢を示す3次元ベクトル(dx,dy,dz)は、以下の式(数式1)のように表される。   As an example, in the example shown in FIG. 3, it is assumed that the finger is rotated by −45 degrees in the YZ plane while maintaining the hand shape from the state where the finger extends in the Z-axis direction. In such a case, a three-dimensional vector (dx, dy, dz) indicating the actual posture of the finger is expressed as the following formula (Formula 1).

Figure 2017059088
・・・(数式1)
Figure 2017059088
... (Formula 1)

刺激情報制御部220は、指の現実の姿勢データに応じた刺激が指に提示されるように接触刺激情報提示部230を制御する。より具体的には、刺激情報制御部220は、指の現実の姿勢データとあらかじめ定められた指の理想の姿勢データとに基づいて、指に提示される刺激を制御する。理想の姿勢データも、現実の姿勢データと同様に三次元ベクトルによって表現され得る。また、例えば、指の理想の姿勢データは、校正情報作成部160によって保持されている場合、校正情報作成部160から取得されればよい。刺激は、刺激情報制御部220による制御に従って接触刺激情報提示部230によって指に提示される。   The stimulus information control unit 220 controls the contact stimulus information presentation unit 230 so that a stimulus corresponding to the actual posture data of the finger is presented to the finger. More specifically, the stimulus information control unit 220 controls the stimulus presented to the finger based on the actual finger posture data and predetermined ideal finger posture data. The ideal posture data can also be expressed by a three-dimensional vector in the same way as actual posture data. Further, for example, when the ideal posture data of the finger is held by the calibration information creation unit 160, it may be acquired from the calibration information creation unit 160. The stimulus is presented to the finger by the contact stimulus information presentation unit 230 according to the control by the stimulus information control unit 220.

図4は、接触刺激情報提示部230が指の2箇所に取り付けられている状態を示す図である。図4を参照すると、指のうち手の甲側には、接触刺激情報提示部230−1が取り付けられており、指のうち手の平側には、接触刺激情報提示部230−2が取り付けられている。なお、図4には、指の2箇所に接触刺激情報提示部230が取り付けられている例が示されているが、接触刺激情報提示部230が取り付けられる数および位置は限定されない。また、接触刺激情報提示部230が取り付けられる指は、接触指姿勢検知部210と同じ指であればよい。   FIG. 4 is a diagram illustrating a state in which the contact stimulus information presentation unit 230 is attached to two positions of the finger. Referring to FIG. 4, a contact stimulus information presentation unit 230-1 is attached to the back side of the hand of the finger, and a contact stimulus information presentation unit 230-2 is attached to the palm side of the finger. In addition, although the example in which the contact stimulus information presentation part 230 is attached to two places of a finger | toe is shown in FIG. 4, the number and position in which the contact stimulus information presentation part 230 is attached are not limited. The finger to which the contact stimulus information presentation unit 230 is attached may be the same finger as the contact finger posture detection unit 210.

映像取得部110は、撮像装置を含んでおり、その撮像装置による指の撮像映像を取得する。接触刺激情報提示部230によって指への刺激が提示されると、ユーザはその刺激に従って指の姿勢を変化させる。指の姿勢が変化した後は、指の現実の姿勢が指の理想の姿勢に近づいたことが期待される。そこで、特徴点検出部150は、指の現実の姿勢データに応じた刺激が指に提示された後に映像取得部110によって指が撮像された撮像映像から1または複数の特徴点を検出する。   The image acquisition unit 110 includes an imaging device, and acquires a captured image of a finger by the imaging device. When the stimulus to the finger is presented by the contact stimulus information presentation unit 230, the user changes the posture of the finger according to the stimulus. After the finger posture changes, it is expected that the actual posture of the finger approaches the ideal posture of the finger. Therefore, the feature point detection unit 150 detects one or a plurality of feature points from the captured video in which the finger is captured by the video acquisition unit 110 after a stimulus according to the finger's actual posture data is presented to the finger.

特徴点検出部150によって検出される1または複数の特徴点は、どのような点であってもよいが、校正情報の作成に利用されやすい1または複数の特徴点(例えば、指の根元、指先など)であるとよい。また、特徴点検出の手法としては様々な手法が採用され得る。例えば、特徴点検出部150は、コーナー検出による指先検知などの手法を用いて特徴点を検出してもよい。   The one or more feature points detected by the feature point detection unit 150 may be any point, but one or more feature points (for example, the base of the finger, the fingertip) that can be easily used to create calibration information. Etc.). Various methods can be employed as the feature point detection method. For example, the feature point detection unit 150 may detect the feature points using a technique such as fingertip detection by corner detection.

あるいは、特徴点検出部150は、SIFT(Scale−Invariant Feature Transform)、SURF(Speed−Upped Robust Feature)、HOG(Histograms of Oriented Gradients)などの局所特徴量を用いて、特徴量同士の類似性により、あらかじめ学習により登録されている特徴量を有する指先部分または指の根元部分に相当する点を検出してもよいし、その他の特徴量を用いてもよい。   Alternatively, the feature point detection unit 150 uses local feature quantities such as SIFT (Scale-Invariant Feature Transform), SURF (Speed-Upd Robust Feature), HOG (Histograms of Oriented Gradients) and the like. A point corresponding to a fingertip portion or a finger base portion having a feature amount registered in advance by learning may be detected, or another feature amount may be used.

また、上記したように、指の姿勢が変化した後は、指の現実の姿勢が指の理想の姿勢に近づいたことが期待されるが、特徴点検出部150は、指の現実の姿勢が指の理想の姿勢に近づいたことをより確実に把握してもよい。そのために、特徴点検出部150は、指の現実の姿勢データと指の理想の姿勢データとの差分絶対値が閾値を下回った場合に、1または複数の特徴点を検出するのがよい。   In addition, as described above, after the finger posture is changed, it is expected that the actual posture of the finger is close to the ideal posture of the finger. It may be more reliably grasped that the finger is approaching the ideal posture. Therefore, it is preferable that the feature point detection unit 150 detects one or a plurality of feature points when the absolute difference value between the actual posture data of the finger and the ideal posture data of the finger falls below a threshold value.

校正情報作成部160は、特徴点検出部150によって検出された1または複数の特徴点に基づいて、仮想映像を校正するための校正情報を作成する。校正情報は、現実物体としての手に対する仮想映像のパラメータ(例えば、仮想映像の位置、姿勢、拡大倍率など)の校正度合いを示す。かかる構成によれば、現実物体としての手と仮想映像との間のキャリブレーションを簡易かつ迅速に行うことが可能となる。校正情報作成部160によって作成された校正情報は、校正情報記憶部170によって記憶される。   The calibration information creation unit 160 creates calibration information for calibrating the virtual image based on one or more feature points detected by the feature point detection unit 150. The calibration information indicates the degree of calibration of virtual video parameters (for example, the position, posture, magnification factor, etc.) of the virtual video for the hand as a real object. According to such a configuration, calibration between a hand as a real object and a virtual image can be performed easily and quickly. The calibration information created by the calibration information creation unit 160 is stored in the calibration information storage unit 170.

映像生成部130は、仮想映像を生成する。ここで、映像生成部130は、あらかじめ保存されている仮想映像を取得することによって仮想映像を生成してもよいし、コンピュータ・グラフィックスなどによって仮想映像を生成してもよい。表示変換部140は、校正情報記憶部170に記憶された校正情報に基づいて、仮想映像を変換することにより提示映像を得る。映像表示部120は、提示映像を表示する。   The video generation unit 130 generates a virtual video. Here, the video generation unit 130 may generate a virtual video by acquiring a virtual video stored in advance, or may generate a virtual video by computer graphics or the like. The display conversion unit 140 obtains a presentation video by converting the virtual video based on the calibration information stored in the calibration information storage unit 170. The video display unit 120 displays a presentation video.

以上、本発明の第1の実施形態に係る情報処理システム10Aの構成例について説明した。   The configuration example of the information processing system 10A according to the first embodiment of the present invention has been described above.

[1−3.動作例]
続いて、本発明の第1の実施形態に係る情報処理システム10Aの動作の流れの例について説明する。図5は、本発明の第1の実施形態に係る情報処理システム10Aの動作の流れを示すフローチャートである。なお、図5に示したフローチャートは、情報処理システム10Aの動作の流れの例を示したに過ぎない。したがって、情報処理システム10Aの動作は、図5に示した例に限定されない。ここでは、キャリブレーション処理が開始される前に、5本の指それぞれについての理想の姿勢データがあらかじめ登録されている例を説明する。
[1-3. Example of operation]
Then, the example of the flow of operation | movement of 10 A of information processing systems which concern on the 1st Embodiment of this invention is demonstrated. FIG. 5 is a flowchart showing an operation flow of the information processing system 10A according to the first embodiment of the present invention. The flowchart shown in FIG. 5 merely shows an example of the operation flow of the information processing system 10A. Therefore, the operation of the information processing system 10A is not limited to the example shown in FIG. Here, an example will be described in which ideal posture data for each of five fingers is registered in advance before the calibration process is started.

5本の指それぞれについての理想の姿勢データは、上記したような3次元ベクトル(dx,dy,dz)によって表現され得るが、具体的にどのような姿勢のデータであってもよい。例えば、理想の姿勢データは、各指の所定の特徴点が隠蔽されるような姿勢を示すデータであってもよい。かかる理想の姿勢データについて、以下に具体的に説明する。図6A〜図6Eは、各指の理想の姿勢データを説明するための図である。図6A〜図6Eに示すように、5本の指それぞれの先端と根元には、特徴点Fpが存在する。   The ideal posture data for each of the five fingers can be expressed by the three-dimensional vector (dx, dy, dz) as described above, but may be any specific posture data. For example, the ideal posture data may be data indicating a posture in which a predetermined feature point of each finger is hidden. The ideal posture data will be specifically described below. 6A to 6E are diagrams for explaining ideal posture data of each finger. As shown in FIGS. 6A to 6E, feature points Fp exist at the tips and roots of the five fingers.

図6Aに示した例では、親指だけが曲げられることによって、親指の2つの特徴点Fpが隠蔽されている。このときの親指の姿勢が親指の理想の姿勢データとして登録されてよい。同様に、図6Bに示した例では、人差し指だけが曲げられることによって、人差し指の2つの特徴点Fpが隠蔽されている。このときの人差し指の姿勢が人差し指の理想の姿勢データとして登録されてよい。同様に、図6Cに示した例では、中指だけが曲げられることによって、中指の2つの特徴点Fpが隠蔽されている。このときの中指の姿勢が中指の理想の姿勢データとして登録されてよい。   In the example shown in FIG. 6A, the two feature points Fp of the thumb are hidden by bending only the thumb. The thumb posture at this time may be registered as ideal posture data of the thumb. Similarly, in the example shown in FIG. 6B, only the index finger is bent, so that the two characteristic points Fp of the index finger are concealed. The posture of the index finger at this time may be registered as ideal posture data of the index finger. Similarly, in the example shown in FIG. 6C, only the middle finger is bent, so that the two feature points Fp of the middle finger are concealed. At this time, the posture of the middle finger may be registered as ideal posture data of the middle finger.

同様に、図6Dに示した例では、薬指だけが曲げられることによって、薬指の2つの特徴点Fpが隠蔽されている。このときの薬指の姿勢が薬指の理想の姿勢データとして登録されてよい。同様に、図6Eに示した例では、小指だけが曲げられることによって、小指の2つの特徴点Fpが隠蔽されている。このときの小指の姿勢が小指の理想の姿勢データとして登録されてよい。このようにして5本の指それぞれの理想の姿勢データが5組の3次元ベクトル(dx,dy,dz)として登録される。   Similarly, in the example shown in FIG. 6D, only the ring finger is bent, so that the two feature points Fp of the ring finger are concealed. The posture of the ring finger at this time may be registered as ideal posture data of the ring finger. Similarly, in the example shown in FIG. 6E, only the little finger is bent, so that the two feature points Fp of the little finger are concealed. The posture of the little finger at this time may be registered as ideal posture data of the little finger. In this way, the ideal posture data of each of the five fingers is registered as five sets of three-dimensional vectors (dx, dy, dz).

このように、理想の姿勢データが、各指の2つの特徴点Fpが隠蔽されるような姿勢を示すデータである場合、理想の姿勢に現実の姿勢が近づいたときの撮像映像から検出された特徴点からは、折り曲げられている指の2つの特徴点Fpが除外されることになる。そのため、折り曲げられる指と検出される特徴点との対応関係が明確になる。したがって、校正情報を作成するためには、このような理想の姿勢データを用いることが好適であると言える。   As described above, when the ideal posture data is data indicating a posture in which the two feature points Fp of each finger are concealed, the data is detected from the captured image when the actual posture approaches the ideal posture. Two feature points Fp of the finger that is bent are excluded from the feature points. Therefore, the correspondence between the finger to be bent and the detected feature point becomes clear. Therefore, it can be said that it is preferable to use such ideal posture data in order to create calibration information.

なお、ここでは説明の簡便さのために、根元関節で各指を折り曲げる場合を想定したが、各指について折り曲げられる関節の数および位置は、特に限定されない。例えば、各指について折り曲げられる関節の位置は、根元関節以外の関節の位置であってもよい。また、例えば、各指について折り曲げられる関節は、複数であってもよい。かかる場合には、5組の3次元ベクトル(dx,dy,dz)が関節の数に相当する数だけ登録されていればよい。   Here, for convenience of explanation, it is assumed that each finger is bent at the root joint, but the number and positions of the joints bent for each finger are not particularly limited. For example, the position of the joint that is bent for each finger may be the position of a joint other than the root joint. Also, for example, there may be a plurality of joints that can be bent for each finger. In such a case, five sets of three-dimensional vectors (dx, dy, dz) need only be registered in a number corresponding to the number of joints.

例えば、ユーザによる所定の開始操作がなされることによって、キャリブレーション処理が開始されると(ステップS501)、校正情報作成部160は、あらかじめ登録された理想の姿勢データが残っていない場合には(ステップS503において「No」)、ステップS525に動作を移行させる。一方、校正情報作成部160は、あらかじめ登録された理想の姿勢データがまだ残っている場合には(ステップS502において「Yes」)、理想の姿勢データを一つ選ぶ(ステップS505)。   For example, when the calibration process is started by a predetermined start operation by the user (step S501), the calibration information creating unit 160 (when the ideal posture data registered in advance does not remain ( In step S503, “No”), the operation is shifted to step S525. On the other hand, when the ideal posture data registered in advance still remains (“Yes” in step S502), the calibration information creation unit 160 selects one ideal posture data (step S505).

続いて、校正情報作成部160から刺激情報制御部220に理想の姿勢データが送信される(ステップS507)。刺激情報制御部220によって理想の姿勢データが受信されると、接触指姿勢検知部210は、指の現実の姿勢データを接触により取得する(ステップS509)。続いて、刺激情報制御部220は、理想の姿勢データと現実の姿勢データとの差分(姿勢データ間の差分)を計算する(ステップS511)。ここで、姿勢データ間の差分の計算手法の例について説明する。   Subsequently, ideal posture data is transmitted from the calibration information creation unit 160 to the stimulus information control unit 220 (step S507). When the ideal posture data is received by the stimulus information control unit 220, the contact finger posture detection unit 210 acquires the actual posture data of the finger by touching (step S509). Subsequently, the stimulus information control unit 220 calculates a difference between the ideal posture data and the actual posture data (difference between posture data) (step S511). Here, an example of a method for calculating a difference between posture data will be described.

ここでは一例として、図4を用いて説明したように、人差し指に刺激を提示する場合を説明するが、他の指への刺激も人差し指への刺激と同様に提示され得る。例えば、指の理想の姿勢データが3次元ベクトル(rx,ry,rz)で表現される場合、ZY平面におけるZ軸方向を基準とする指の理想の姿勢データR1は、以下の(数式2)のように表現される。   Here, as an example, a case where a stimulus is presented to the index finger will be described as described with reference to FIG. 4, but a stimulus to another finger may be presented in the same manner as a stimulus to the index finger. For example, when the ideal posture data of the finger is expressed by a three-dimensional vector (rx, ry, rz), the ideal posture data R1 of the finger based on the Z-axis direction in the ZY plane is expressed by the following (Equation 2). It is expressed as

Figure 2017059088
・・・(数式2)
Figure 2017059088
... (Formula 2)

また、例えば、指の現実の姿勢データが3次元ベクトル(0,dy,dz)で表現される場合、ZY平面におけるZ軸方向を基準とする指の現実の姿勢データR2は、以下の(数式3)のように表現される。   For example, when the actual posture data of the finger is expressed by a three-dimensional vector (0, dy, dz), the actual posture data R2 of the finger based on the Z-axis direction in the ZY plane is expressed by the following (formula It is expressed as 3).

Figure 2017059088
・・・(数式3)
Figure 2017059088
... (Formula 3)

したがって、指の理想の姿勢データR1と指の現実の姿勢データR2との差分dRは、以下の(数式4)のように表現される。   Accordingly, the difference dR between the ideal posture data R1 of the finger and the actual posture data R2 of the finger is expressed as the following (Formula 4).

Figure 2017059088
・・・(数式4)
Figure 2017059088
... (Formula 4)

続いて、刺激情報制御部220は、差分dRの絶対値と閾値との関係に基づいて、指に刺激を提示するか否かを制御する。具体的には、刺激情報制御部220は、差分dRの絶対値が閾値以上であれば(ステップS513において「≧」)、現実の姿勢を理想の姿勢に近づける必要があると判断して、刺激情報提示対象の指部位を決定する(ステップS514)。刺激情報提示対象の指部位はどのように決定されてもよいが、例えば、差分dRの符号に基づいて決定されてよい。   Subsequently, the stimulus information control unit 220 controls whether to present a stimulus to the finger based on the relationship between the absolute value of the difference dR and the threshold value. Specifically, if the absolute value of the difference dR is equal to or greater than the threshold (“≧” in step S513), the stimulus information control unit 220 determines that the actual posture needs to be close to the ideal posture, and the stimulus The finger part to be presented with information is determined (step S514). Although the finger part for which the stimulus information is to be presented may be determined in any way, for example, it may be determined based on the sign of the difference dR.

例えば、差分dRが正の場合には、現実の姿勢を理想の姿勢に近づけるためにZY平面において指の現実の姿勢を正方向に(Z軸を横軸としY軸を縦軸とした場合における反時計回りに)回転させる必要がある。したがって、刺激情報制御部220は、差分dRが正の場合には、指の現実の姿勢を正方向に回転させることを促すために、ZY平面においてZ軸を基準とした負方向に存在する接触刺激情報提示部230−1を刺激情報提示対象の指部位として決定するとよい。   For example, when the difference dR is positive, in order to bring the actual posture closer to the ideal posture, the actual posture of the finger in the positive direction on the ZY plane (when the Z axis is the horizontal axis and the Y axis is the vertical axis) Must be rotated (counterclockwise). Therefore, when the difference dR is positive, the stimulus information control unit 220 is a contact that exists in the negative direction with reference to the Z axis on the ZY plane in order to urge the actual posture of the finger to rotate in the positive direction. Stimulation information presentation unit 230-1 may be determined as a finger part to be presented with stimulation information.

一方、差分dRが負の場合には、現実の姿勢を理想の姿勢に近づけるためにZY平面において指の現実の姿勢を負方向に(Z軸を横軸としY軸を縦軸とした場合における時計回りに)回転させる必要がある。したがって、刺激情報制御部220は、差分dRが負の場合には、指の現実の姿勢を負方向に回転させることを促すために、ZY平面においてZ軸を基準とした正方向に存在する接触刺激情報提示部230−2を刺激情報提示対象の指部位として決定するとよい。   On the other hand, when the difference dR is negative, in order to bring the actual posture closer to the ideal posture, the actual posture of the finger in the negative direction on the ZY plane (when the Z axis is the horizontal axis and the Y axis is the vertical axis) Must be rotated (clockwise). Therefore, when the difference dR is negative, the stimulus information control unit 220 is a contact that exists in the positive direction with reference to the Z axis on the ZY plane in order to urge the actual posture of the finger to rotate in the negative direction. The stimulation information presentation unit 230-2 may be determined as a finger part for which stimulation information is to be presented.

また、指に提示される刺激の大きさは一定であってもよいが、差分dRがどの程度であるかをユーザに把握させるために、差分dRに応じて変更されるのがよい。すなわち、刺激情報制御部220は、差分dRの絶対値に基づいて、指に提示される刺激の大きさを制御してもよい。刺激情報制御部220は、差分dRの絶対値が大きいほど、指に提示される刺激を大きくすると、差分dRがどの程度であるかを直感的にユーザに把握させることが可能である。   Further, the magnitude of the stimulus presented to the finger may be constant, but may be changed according to the difference dR in order to make the user know how much the difference dR is. That is, the stimulus information control unit 220 may control the magnitude of the stimulus presented to the finger based on the absolute value of the difference dR. The stimulus information control unit 220 can intuitively make the user know how much the difference dR is when the stimulus presented to the finger is increased as the absolute value of the difference dR is larger.

なお、第2の実施形態においても説明するように、刺激情報制御部220は、時間の経過に伴って、指に提示される刺激の位置を変化させてもよい。例えば、刺激情報制御部220は、指のうち理想の姿勢を基準として遠い側から近い側に向けて刺激の位置を変化させてもよい。このようにして時間の経過に伴って、指に提示される刺激の位置を変化させることによって、指の理想の姿勢をユーザに把握させることが可能となる。   Note that, as described in the second embodiment, the stimulus information control unit 220 may change the position of the stimulus presented to the finger as time passes. For example, the stimulus information control unit 220 may change the position of the stimulus from the far side to the near side with reference to the ideal posture of the finger. In this way, by changing the position of the stimulus presented to the finger with the passage of time, it becomes possible for the user to grasp the ideal posture of the finger.

続いて、刺激情報提示対象の指部位として決定された接触刺激情報提示部230は、振動パターンを生成して(ステップS515)、生成した振動パターンによる刺激を指に提示する。刺激が指に提示されると、ユーザが振動パターンに従って指の姿勢を変更する(ステップS517)。指の姿勢の変更によって、指の現実の姿勢が理想の姿勢に近づくことが期待される。刺激を停止するタイミングは限定されないが、差分dRの絶対値が閾値未満となった場合に、直ちに刺激が停止されてもよいし、次の理想の姿勢データについての動作が始まってから刺激が停止されてもよい。   Subsequently, the contact stimulus information presentation unit 230 determined as the finger part to be presented with the stimulus information generates a vibration pattern (step S515), and presents the stimulus based on the generated vibration pattern on the finger. When the stimulus is presented to the finger, the user changes the posture of the finger according to the vibration pattern (step S517). It is expected that the actual posture of the finger approaches the ideal posture by changing the posture of the finger. The timing to stop the stimulation is not limited, but when the absolute value of the difference dR becomes less than the threshold, the stimulation may be stopped immediately, or the stimulation is stopped after the operation for the next ideal posture data starts. May be.

一方、刺激情報制御部220は、差分dRの絶対値が閾値未満であれば(ステップS513において「<」)、現実の姿勢が理想の姿勢に十分に近づいたと判断して、映像取得部110は、ユーザの手の撮像映像を取得する(ステップS519)。続いて、特徴点検出部150は、ユーザの手の撮像映像から1または複数の特徴点を抽出し(ステップS521)、抽出した1または複数の特徴点を指の理想の姿勢データに関連付けて蓄積する(ステップS523)。特徴点の抽出には、理想の姿勢データにあらかじめ関連付けられた特徴点群が参照される。その後、ステップS503に動作が移行される。   On the other hand, if the absolute value of the difference dR is less than the threshold value (“<” in step S513), the stimulus information control unit 220 determines that the actual posture has sufficiently approached the ideal posture, and the video acquisition unit 110 The captured image of the user's hand is acquired (step S519). Subsequently, the feature point detection unit 150 extracts one or more feature points from the captured image of the user's hand (step S521), and stores the extracted one or more feature points in association with ideal posture data of the finger. (Step S523). For feature point extraction, a feature point group previously associated with ideal posture data is referred to. Thereafter, the operation proceeds to step S503.

ステップS503に動作が移行され、校正情報作成部160は、あらかじめ登録された理想の姿勢データが残っている場合には(ステップS503において「Yes」)、ステップS505移行の動作が既に述べたように実行される。また、校正情報作成部160は、あらかじめ登録された理想の姿勢データが残っていない場合には(ステップS503において「No」)、蓄積された特徴点の組から校正情報(例えば、手のサイズ、指関節の位置など)を作成して(ステップS525)、キャリブレーション処理を終了する(ステップS527)。   When the operation is shifted to step S503 and the ideal posture data registered in advance remains (step S503: Yes), the operation of step S505 has already been described. Executed. In addition, when there is no pre-registered ideal posture data (“No” in step S503), the calibration information creation unit 160 calculates calibration information (for example, hand size, The position of the finger joint, etc.) is created (step S525), and the calibration process is terminated (step S527).

キャリブレーション処理が終了した後は、映像生成部130が、仮想映像を生成し、表示変換部140が、校正情報作成部160によって作成された校正情報に基づいて、仮想映像を変換することにより提示映像を得る。映像表示部120は、表示変換部140によって得られた提示映像を表示する。校正情報に基づいて仮想映像を変換する手法については、既に公開されている技術を用いることが可能である(例えば、特開2014−106642号公報)。   After the calibration process is completed, the video generation unit 130 generates a virtual video, and the display conversion unit 140 presents the virtual video based on the calibration information created by the calibration information creation unit 160. Get a picture. The video display unit 120 displays the presentation video obtained by the display conversion unit 140. As a method for converting a virtual video based on the calibration information, a technique that has already been disclosed can be used (for example, Japanese Patent Application Laid-Open No. 2014-106642).

以上、本発明の第1の実施形態に係る情報処理システム10Aの動作の流れの例について説明した。   The example of the operation flow of the information processing system 10A according to the first embodiment of the present invention has been described above.

[1−4.第1の実施形態のまとめ]
本発明の第1の実施形態によれば、特徴点検出部150が、指の現実の姿勢データに応じた接触による刺激が指に提示された後に指が撮像された撮像映像から1または複数の特徴点を検出する。指への刺激が提示されると、ユーザはその刺激に従って指の姿勢を変化させる。指の姿勢が変化した後は、指の現実の姿勢が指の理想の姿勢に近づいたことが期待される。
[1-4. Summary of First Embodiment]
According to the first embodiment of the present invention, the feature point detection unit 150 includes one or a plurality of captured images obtained by capturing a finger after a stimulus by contact according to the actual posture data of the finger is presented to the finger. Detect feature points. When a stimulus to the finger is presented, the user changes the posture of the finger according to the stimulus. After the finger posture changes, it is expected that the actual posture of the finger approaches the ideal posture of the finger.

そして、校正情報作成部160が、1または複数の特徴点に基づいて、仮想映像を校正するための校正情報を作成する。したがって、本発明の第1の実施形態によれば、指の現実の姿勢が指の理想の姿勢に近づいた後に撮像された映像から検出された特徴点に基づいて校正情報が作成されるため、現実物体としての手と仮想映像との間のキャリブレーションを簡易かつ迅速に行うことが可能となる。   Then, the calibration information creation unit 160 creates calibration information for calibrating the virtual image based on one or a plurality of feature points. Therefore, according to the first embodiment of the present invention, the calibration information is created based on the feature points detected from the image captured after the actual posture of the finger approaches the ideal posture of the finger. Calibration between a hand as a real object and a virtual image can be performed easily and quickly.

[2−1.第2の実施形態の概要]
本発明の第1の実施形態においては、接触により指の姿勢が検知され、接触により指に刺激が提示される例を説明した。本発明の第2の実施形態においては、非接触により指の姿勢が検知され、非接触により指に刺激が提示される例を説明する。以下、本発明の第1の実施形態に係る構成と異なる構成について主に説明し、本発明の第1の実施形態に係る構成と同様の構成については、本発明の第1の実施形態に係る構成に付された符号と同一の符号を付して説明を省略する。
[2-1. Outline of Second Embodiment]
In the first embodiment of the present invention, an example has been described in which the posture of a finger is detected by contact and a stimulus is presented to the finger by contact. In the second embodiment of the present invention, an example will be described in which the posture of a finger is detected by non-contact and a stimulus is presented to the finger by non-contact. Hereinafter, the configuration different from the configuration according to the first embodiment of the present invention will be mainly described, and the configuration similar to the configuration according to the first embodiment of the present invention will be described according to the first embodiment of the present invention. The same reference numerals as those used in the configuration are attached and the description thereof is omitted.

[2−2.システム構成例]
続いて、本発明の第2の実施形態に係る情報処理システムの構成例について説明する。図7は、本発明の第2の実施形態に係る情報処理システムの構成例を示すブロック図である。図8は、本発明の第2の実施形態に係る情報処理システムの構成例を示す図である。図7および図8に示すように、本発明の第2の実施形態に係る情報処理システム10Bは、校正情報作成装置100と姿勢検知装置200Bとを有する。
[2-2. System configuration example]
Subsequently, a configuration example of an information processing system according to the second embodiment of the present invention will be described. FIG. 7 is a block diagram showing a configuration example of an information processing system according to the second embodiment of the present invention. FIG. 8 is a diagram illustrating a configuration example of an information processing system according to the second embodiment of the present invention. As shown in FIGS. 7 and 8, an information processing system 10B according to the second embodiment of the present invention includes a calibration information creation device 100 and an attitude detection device 200B.

また、図7に示すように、校正情報作成装置100は、本発明の第1の実施形態と同様な構成を備えている。一方、図7に示すように、姿勢検知装置200Bは、本発明の第1の実施形態と同様に、刺激情報制御部220を備えるが、図7および図8に示すように、本発明の第1の実施形態に係る接触指姿勢検知部210の代わりに非接触指姿勢検知部240を備え、本発明の第1の実施形態に係る接触刺激情報提示部230の代わりに非接触刺激情報提示部250を備えている。   Further, as shown in FIG. 7, the calibration information creating apparatus 100 has the same configuration as that of the first embodiment of the present invention. On the other hand, as shown in FIG. 7, the posture detection device 200 </ b> B includes a stimulus information control unit 220 as in the first embodiment of the present invention, but as shown in FIGS. 7 and 8, A non-contact finger posture detection unit 240 is provided instead of the contact finger posture detection unit 210 according to the first embodiment, and a non-contact stimulus information presentation unit is used instead of the contact stimulus information presentation unit 230 according to the first embodiment of the present invention. 250.

非接触指姿勢検知部240は、指の現実の姿勢を検知する指姿勢検知部の一例であり、指の現実の姿勢を非接触により検知する。非接触指姿勢検知部240は、指の現実の姿勢を非接触により検知可能な所定のセンサを含む。非接触指姿勢検知部240が指の現実の姿勢を非接触により検知する手法としては、既に公開されている技術を用いることが可能である(例えば、米国特許第8638989 B2号明細書)。以下、かかる技術の概略を説明する。   The non-contact finger posture detection unit 240 is an example of a finger posture detection unit that detects the actual posture of the finger, and detects the actual posture of the finger by non-contact. The non-contact finger posture detection unit 240 includes a predetermined sensor that can detect the actual posture of the finger by non-contact. As a method in which the non-contact finger posture detection unit 240 detects the actual posture of the finger by non-contact, a technique that has already been disclosed can be used (for example, US Pat. No. 8,638,892 B2). Hereinafter, an outline of such a technique will be described.

図9A〜図9Cは、指の現実の姿勢を非接触により検知する技術の概略を説明するための図である。図9Aに示すように、カメラ241およびカメラ242が、ユーザの手Haを撮像する。ここで、カメラ241およびカメラ242それぞれの空間における3次元位置は既知であり、カメラ241およびカメラ242それぞれの撮像領域には、重複がある。ここでは、小指および薬指が折り曲げられた左手が、カメラ241およびカメラ242によって撮像されている。   9A to 9C are diagrams for explaining an outline of a technique for detecting an actual posture of a finger in a non-contact manner. As shown in FIG. 9A, the camera 241 and the camera 242 image the user's hand Ha. Here, the three-dimensional positions in the spaces of the camera 241 and the camera 242 are known, and there are overlaps in the imaging areas of the camera 241 and the camera 242, respectively. Here, the left hand in which the little finger and the ring finger are bent is imaged by the camera 241 and the camera 242.

カメラ241およびカメラ242による撮像は、カメラ241およびカメラ242を結ぶ直線を軸とした各方位に対して撮像される。例えば、破線楕円に示すような断面Seが撮像される。断面Seの右側の破線領域は、手の皮膚表面のうち、カメラ241およびカメラ242の双方で同時に撮像された領域であり、非接触指姿勢検知部240は、カメラ241およびカメラ242それぞれの3次元位置に基づいて、その領域の3次元位置を算出する。   Imaging with the camera 241 and the camera 242 is performed with respect to each direction about a straight line connecting the camera 241 and the camera 242 as an axis. For example, a cross section Se as shown by a dashed ellipse is imaged. A broken line area on the right side of the cross section Se is an area of the skin surface of the hand that is simultaneously imaged by both the camera 241 and the camera 242. Based on the position, the three-dimensional position of the region is calculated.

非接触指姿勢検知部240は、このようにして撮像された各断面を、図9Bに示すように、実際にはカメラ241およびカメラ242によって撮像されない領域も含めて楕円に近似し、近似した楕円のうち、算出された3次元位置の集合に最もよく合う楕円Esを算出する。非接触指姿勢検知部240は、このように楕円Esを算出する処理を各断面に対して行い、処理の結果の組み合わせを、図9Bに示すように、ユーザの手の3次元構造として推定する。   As shown in FIG. 9B, the non-contact finger posture detection unit 240 approximates each cross-section imaged in this way to an ellipse including the areas that are not actually imaged by the camera 241 and the camera 242. Among them, the ellipse Es that best fits the set of calculated three-dimensional positions is calculated. The non-contact finger posture detection unit 240 performs the process of calculating the ellipse Es in this manner on each cross section, and estimates the combination of the process results as a three-dimensional structure of the user's hand as shown in FIG. 9B. .

続いて、非接触指姿勢検知部240は、ユーザの手の3次元構造をあらかじめ用意してある手形状のモデルと照合すると、特徴点を推定することが可能である。図9Cには、手の特徴点(関節)Fpが示され、特徴点(関節)Fp同士を結ぶ軸Bnが示されている。軸Bnは、手の指の姿勢を示している。つまり、非接触指姿勢検知部240は、複数の特徴点(関節)Fpそれぞれの位置関係によって、指の姿勢を取得することが可能である。なお、手の皮膚表面の領域の3次元位置の算出には、TOF(Time−of−Flight)が用いられてもよいし、レーザーによる距離画像カメラが用いられてもよい。   Subsequently, the non-contact finger posture detecting unit 240 can estimate a feature point by collating the three-dimensional structure of the user's hand with a hand-shaped model prepared in advance. FIG. 9C shows feature points (joints) Fp of the hand, and an axis Bn connecting the feature points (joints) Fp. The axis Bn indicates the posture of the finger of the hand. That is, the non-contact finger posture detection unit 240 can acquire the finger posture based on the positional relationship between the plurality of feature points (joints) Fp. In addition, TOF (Time-of-Flight) may be used for calculation of the three-dimensional position of the skin surface area of the hand, or a distance image camera using a laser may be used.

非接触刺激情報提示部250は、非接触により指に刺激を提示する。非接触刺激情報提示部250は、典型的には、文献(星,「ハンドトラッキング機能を搭載した空中超音波触覚ディスプレイ」,信学技報,HIP2012−80(2013−3))に記載されているように、超音波を発する素子(以下、「スピーカ」とも言う。)が3次元空間に配置された超音波アレイにより構成される。そして、非接触刺激情報提示部250は、3次元空間に存在する指の所定部位に振動刺激が提示されるように、指の所定位置に触覚神経に感知される振動を伝達する。   The non-contact stimulus information presentation unit 250 presents a stimulus to the finger by non-contact. The non-contact stimulus information presentation unit 250 is typically described in literature (star, “airborne ultrasonic tactile display equipped with a hand tracking function”, IEICE Technical Report, HIP2012-80 (2013-3)). As shown in the figure, an element that emits ultrasonic waves (hereinafter also referred to as “speaker”) is constituted by an ultrasonic array in which the elements are arranged in a three-dimensional space. Then, the non-contact stimulus information presentation unit 250 transmits the vibration sensed by the haptic nerve to a predetermined position of the finger so that the vibration stimulus is presented to the predetermined part of the finger existing in the three-dimensional space.

図8に示された例において、手指に向かう複数の矢印は、各超音波素子から出力される複数の振動エネルギーであり、非接触刺激情報提示部250は、複数のスピーカからの出力が交差する部分において、図8に波線で示したように、手指に振幅刺激を発生させることが可能である。ここで、文献(渡邊他,「複数の超音波振動子アレイを用いた全周囲触覚提示」,ロボティクス・メカトロニクス講演会講演概要集2011,「2A2−006」,2011−05−26)に記載されるように、複数方向に超音波アレイを配置し、複数方向からの刺激伝達ができるようにしてもよい。   In the example shown in FIG. 8, a plurality of arrows directed to fingers are a plurality of vibration energies output from each ultrasonic element, and the non-contact stimulus information presentation unit 250 intersects outputs from a plurality of speakers. In part, it is possible to generate an amplitude stimulus on the finger, as indicated by the wavy line in FIG. Here, it is described in the literature (Watanabe et al., “All-around tactile sensation using a plurality of ultrasonic transducer arrays”, Robotics and Mechatronics Lectures Collection 2011, “2A2-006”, 2011-05-26). As described above, ultrasonic arrays may be arranged in a plurality of directions so that stimulation can be transmitted from a plurality of directions.

[2−3.動作例]
続いて、本発明の第2の実施形態に係る情報処理システム10Bの動作の流れの例について説明する。図10は、本発明の第2の実施形態に係る情報処理システム10Bの動作の流れを示すフローチャートである。なお、図10に示したフローチャートは、情報処理システム10Bの動作の流れの例を示したに過ぎない。したがって、情報処理システム10Bの動作は、図10に示した例に限定されない。ここでは、図5に示した本発明の第1の実施形態に係る情報処理システム10Aの動作との差分を主に説明する。
[2-3. Example of operation]
Then, the example of the flow of operation | movement of the information processing system 10B which concerns on the 2nd Embodiment of this invention is demonstrated. FIG. 10 is a flowchart showing an operation flow of the information processing system 10B according to the second exemplary embodiment of the present invention. The flowchart shown in FIG. 10 merely shows an example of the operation flow of the information processing system 10B. Therefore, the operation of the information processing system 10B is not limited to the example illustrated in FIG. Here, the difference from the operation of the information processing system 10A according to the first embodiment of the present invention shown in FIG. 5 will be mainly described.

本発明の第2の実施形態においては、刺激情報制御部220によって理想の姿勢データが受信されると、非接触指姿勢検知部240は、指の現実の姿勢データを非接触により取得する(ステップS709)。また、本発明の第2の実施形態においても、刺激情報制御部220は、差分の絶対値が閾値以上であれば(ステップS513において「≧」)、刺激情報提示対象の指部位を決定する(ステップS514)。   In the second embodiment of the present invention, when the ideal posture data is received by the stimulus information control unit 220, the non-contact finger posture detection unit 240 acquires the actual posture data of the finger in a non-contact manner (step S709). Also in the second embodiment of the present invention, if the absolute value of the difference is equal to or greater than the threshold value (“≧” in step S513), the stimulus information control unit 220 determines the finger part to which the stimulus information is to be presented ( Step S514).

続いて、刺激情報提示対象の指部位として決定された非接触刺激情報提示部250は、触覚提示パターンを生成する(ステップS715)。図11は、触覚提示パターンの生成について説明するための図である。図11に示すように、刺激情報制御部220によって刺激情報提示対象の指部位が、ユーザの手Haにおける部位Re1および部位Re2に決定された場合を想定する。かかる場合、非接触刺激情報提示部250は、非接触指姿勢検知部240によって検知された複数の特徴点(特徴点群)Fpのうち、ユーザの手Haにおける部位Re1および部位Re2に対応する部位Re1および部位Re2それぞれの3次元位置に基づき、超音波アレイからの出力分布を触覚提示パターンとして決定する。   Subsequently, the non-contact stimulus information presentation unit 250 determined as the finger part to be presented with the stimulus information generates a tactile sense presentation pattern (step S715). FIG. 11 is a diagram for explaining generation of a tactile sense presentation pattern. As shown in FIG. 11, a case is assumed where the stimulus information presenting target finger part is determined to be part Re1 and part Re2 in the user's hand Ha by the stimulus information control unit 220. In such a case, the non-contact stimulus information presentation unit 250 corresponds to the part Re1 and the part Re2 in the user's hand Ha among the plurality of feature points (feature point group) Fp detected by the non-contact finger posture detection unit 240. Based on the three-dimensional positions of Re1 and Re2, the output distribution from the ultrasonic array is determined as a tactile sense presentation pattern.

そして、非接触刺激情報提示部250は、生成した触覚提示パターンによる刺激を指に提示する。刺激が指に提示されると、ユーザが触覚提示パターンに従って指の姿勢を変更する(ステップS717)。指の姿勢の変更によって、指の現実の姿勢が理想の姿勢に近づくことが期待される。なお、第1の実施形態と同様に、刺激情報制御部220は、姿勢データ間の差分の絶対値に基づいて、指に提示される刺激の大きさを制御してもよい。刺激情報制御部220は、差分の絶対値が大きいほど、指に提示される刺激を大きくすると、差分がどの程度であるかを直感的にユーザに把握させることが可能である。   Then, the non-contact stimulus information presentation unit 250 presents the stimulus based on the generated tactile sense presentation pattern on the finger. When the stimulus is presented to the finger, the user changes the finger posture according to the tactile sense presentation pattern (step S717). It is expected that the actual posture of the finger approaches the ideal posture by changing the posture of the finger. Note that, similarly to the first embodiment, the stimulus information control unit 220 may control the size of the stimulus presented to the finger based on the absolute value of the difference between the posture data. When the stimulus information control unit 220 increases the stimulus presented to the finger as the absolute value of the difference increases, the stimulus information control unit 220 can intuitively make the user know how much the difference is.

また、刺激情報制御部220は、時間の経過に伴って、指に提示される刺激の位置を変化させてもよい。時間の経過に伴って、指に提示される刺激の位置を変化させることによって、指の理想の姿勢をユーザに把握させることが可能となる。図12は、時間の経過に伴って指に提示される刺激の位置を変化させる例を説明するための図である。ここでは、親指に刺激を提示する場合を想定する。   Further, the stimulus information control unit 220 may change the position of the stimulus presented to the finger as time passes. By changing the position of the stimulus presented to the finger with the passage of time, it becomes possible for the user to grasp the ideal posture of the finger. FIG. 12 is a diagram for explaining an example in which the position of the stimulus presented to the finger is changed with time. Here, it is assumed that a stimulus is presented to the thumb.

図12を参照すると、指の理想の姿勢Rpに比べて指の現実の姿勢が外側に開いている。このとき、刺激情報制御部220は、時間の経過に伴って(時刻t0、時刻t1、時刻t2の順に時間が経過するにつれて)、提示される刺激の位置を徐々に内側に変化させるとよい(刺激St0、刺激St1、刺激St2の順に刺激を変化させるとよい)。なお、指の理想の姿勢Rpに比べて指の現実の姿勢が内側に開いているときには、刺激情報制御部220は、時間の経過に伴って、提示される刺激の位置を徐々に外側に変化させるとよい。   Referring to FIG. 12, the actual posture of the finger is opened outward as compared to the ideal posture Rp of the finger. At this time, the stimulus information control unit 220 may gradually change the position of the presented stimulus to the inside as time elapses (as time elapses in the order of time t0, time t1, and time t2) ( The stimulation may be changed in the order of stimulation St0, stimulation St1, and stimulation St2.) In addition, when the actual posture of the finger is opened inward compared to the ideal posture Rp of the finger, the stimulus information control unit 220 gradually changes the position of the presented stimulus to the outside as time passes. It is good to let

[2−4.第2の実施形態のまとめ]
本発明の第2の実施形態によれば、本発明の第1の実施形態と同様に、現実物体としての手と仮想映像との間のキャリブレーションを簡易かつ迅速に行うことが可能となる。また、本発明の第2の実施形態によれば、非接触指姿勢検知部240が非接触により指の現実の姿勢を検知し、非接触刺激情報提示部250が非接触により指に刺激を提示する。そのため、本発明の第2の実施形態によれば、ユーザがデバイスを装着する煩わしさを解消することができる。
[2-4. Summary of Second Embodiment]
According to the second embodiment of the present invention, as in the first embodiment of the present invention, calibration between a hand as a real object and a virtual image can be performed easily and quickly. Further, according to the second embodiment of the present invention, the non-contact finger posture detection unit 240 detects the actual posture of the finger without contact, and the non-contact stimulus information presentation unit 250 presents a stimulus to the finger without contact. To do. Therefore, according to the second embodiment of the present invention, it is possible to eliminate the troublesomeness of the user wearing the device.

[3.変形例]
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
[3. Modified example]
The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

例えば、上記では、校正情報作成装置100について説明したが、校正情報作成装置100が有する機能の一部または全部は、ハードウェアにより構成されてもよいし、プログラム(校正情報作成プログラム)によって実現されてもよい。例えば、校正情報作成装置100が有する機能の一部または全部は、CPUによってROMから読み込まれ、RAMに展開されたプログラムが実行されることによって実現されてもよい。また、そのプログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。   For example, in the above description, the calibration information creation apparatus 100 has been described. However, some or all of the functions of the calibration information creation apparatus 100 may be configured by hardware or realized by a program (calibration information creation program). May be. For example, some or all of the functions of the calibration information creating apparatus 100 may be realized by executing a program that is read from the ROM by the CPU and expanded in the RAM. A computer-readable recording medium that records the program can also be provided.

また、上記では、姿勢検知装置200について説明したが、姿勢検知装置200が有する機能の一部または全部は、ハードウェアにより構成されてもよいし、プログラム(姿勢検知プログラム)によって実現されてもよい。例えば、姿勢検知装置200が有する機能の一部または全部は、CPUによってROMから読み込まれ、RAMに展開されたプログラムが実行されることによって実現されてもよい。また、そのプログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。   Moreover, although the attitude | position detection apparatus 200 was demonstrated above, a part or all of the function which the attitude | position detection apparatus 200 has may be comprised by the hardware, and may be implement | achieved by the program (attitude detection program). . For example, some or all of the functions of the posture detection device 200 may be realized by a program read from the ROM by the CPU and loaded in the RAM. A computer-readable recording medium that records the program can also be provided.

10A,10B 情報処理システム
100 校正情報作成装置
110 映像取得部
120 映像表示部
130 映像生成部
140 表示変換部
150 特徴点検出部
160 校正情報作成部
170 校正情報記憶部
200(200A,200B) 姿勢検知装置
210 接触指姿勢検知部
220 刺激情報制御部
230 接触刺激情報提示部
240 非接触指姿勢検知部
241 カメラ
242 カメラ
250 非接触刺激情報提示部

10A, 10B Information processing system 100 Calibration information creation device 110 Video acquisition unit 120 Video display unit 130 Video generation unit 140 Display conversion unit 150 Feature point detection unit 160 Calibration information creation unit 170 Calibration information storage unit 200 (200A, 200B) Attitude detection Device 210 Contact finger posture detection unit 220 Stimulus information control unit 230 Contact stimulus information presentation unit 240 Non-contact finger posture detection unit 241 Camera 242 Camera 250 Non-contact stimulus information presentation unit

Claims (18)

指の現実の姿勢データに応じた刺激が前記指に提示された後に前記指が撮像された撮像映像から1または複数の特徴点を検出する特徴点検出部と、
前記1または複数の特徴点に基づいて、仮想映像を校正するための校正情報を作成する校正情報作成部と、
を備える、校正情報作成装置。
A feature point detection unit that detects one or a plurality of feature points from a captured image in which the finger is imaged after a stimulus according to actual finger posture data is presented to the finger;
A calibration information creation unit that creates calibration information for calibrating a virtual image based on the one or more feature points;
A calibration information creation device comprising:
前記校正情報作成装置は、
前記校正情報に基づいて前記仮想映像を変換することにより提示映像を得る表示変換部を備える、
請求項1に記載の校正情報作成装置。
The calibration information creating device is
A display conversion unit that obtains a presentation video by converting the virtual video based on the calibration information;
The calibration information creation device according to claim 1.
前記校正情報作成装置は、
前記仮想映像を生成する映像生成部を備える、
請求項2に記載の校正情報作成装置。
The calibration information creating device is
A video generation unit for generating the virtual video;
The calibration information creation device according to claim 2.
前記校正情報作成装置は、
前記提示映像を表示する映像表示部を備える、
請求項3に記載の校正情報作成装置。
The calibration information creating device is
A video display unit for displaying the presented video;
The calibration information creation device according to claim 3.
前記特徴点検出部は、前記現実の姿勢データと前記指の理想の姿勢データとの差分絶対値が閾値を下回った場合に、前記1または複数の特徴点を検出する、
請求項1に記載の校正情報作成装置。
The feature point detection unit detects the one or more feature points when a difference absolute value between the actual posture data and the ideal posture data of the finger falls below a threshold;
The calibration information creation device according to claim 1.
指の現実の姿勢データに応じた刺激が前記指に提示された後に前記指が撮像された撮像映像から1または複数の特徴点を検出することと、
前記1または複数の特徴点に基づいて、仮想映像を校正するための校正情報を作成することと、
を含む、校正情報作成方法。
Detecting one or a plurality of feature points from an imaged image obtained by imaging the finger after a stimulus corresponding to the actual posture data of the finger is presented to the finger;
Creating calibration information for calibrating a virtual image based on the one or more feature points;
Calibration information creation method including
コンピュータを、
指の現実の姿勢データに応じた刺激が前記指に提示された後に前記指が撮像された撮像映像から1または複数の特徴点を検出する特徴点検出部と、
前記1または複数の特徴点に基づいて、仮想映像を校正するための校正情報を作成する校正情報作成部と、
を備える校正情報作成装置として機能させるための校正情報作成プログラム。
Computer
A feature point detection unit that detects one or a plurality of feature points from a captured image in which the finger is imaged after a stimulus according to actual finger posture data is presented to the finger;
A calibration information creation unit that creates calibration information for calibrating a virtual image based on the one or more feature points;
A calibration information creation program for causing a calibration information creation device to function.
指の現実の姿勢データを検知する指姿勢検知部と、
前記現実の姿勢データとあらかじめ定められた前記指の理想の姿勢データとに基づいて、前記指に提示される刺激を制御する刺激情報制御部と、
を備える、姿勢検知装置。
A finger posture detector that detects actual posture data of the finger;
A stimulus information control unit that controls a stimulus presented to the finger based on the actual posture data and predetermined ideal posture data of the finger;
An attitude detection device comprising:
前記刺激情報制御部は、前記現実の姿勢データと前記理想の姿勢データとの差分に基づいて前記刺激を制御する、
請求項8に記載の姿勢検知装置。
The stimulus information control unit controls the stimulus based on a difference between the actual posture data and the ideal posture data;
The posture detection apparatus according to claim 8.
前記刺激情報制御部は、前記差分の符号に基づいて、前記指に提示される刺激の位置を制御する、
請求項9に記載の姿勢検知装置。
The stimulus information control unit controls the position of the stimulus presented to the finger based on the sign of the difference.
The posture detection apparatus according to claim 9.
前記刺激情報制御部は、時間の経過に伴って、前記指に提示される前記刺激の位置を変化させる、
請求項8に記載の姿勢検知装置。
The stimulus information control unit changes the position of the stimulus presented to the finger with time.
The posture detection apparatus according to claim 8.
前記刺激情報制御部は、前記差分の絶対値に基づいて、前記指に提示される前記刺激の大きさを制御する、
請求項9に記載の姿勢検知装置。
The stimulus information control unit controls the magnitude of the stimulus presented to the finger based on the absolute value of the difference.
The posture detection apparatus according to claim 9.
前記姿勢検知装置は、
前記指に刺激を提示する刺激情報提示部を備える、
請求項8に記載の姿勢検知装置。
The posture detection device is
A stimulus information presentation unit for presenting a stimulus to the finger;
The posture detection apparatus according to claim 8.
前記指姿勢検知部は、接触または非接触により前記現実の姿勢データを検知し、
前記刺激情報制御部は、接触または非接触により提示される前記刺激を制御する、
請求項8に記載の姿勢検知装置。
The finger posture detection unit detects the actual posture data by contact or non-contact,
The stimulus information control unit controls the stimulus presented by contact or non-contact;
The posture detection apparatus according to claim 8.
前記刺激が前記指に提示された後に前記指が撮像された撮像映像から1または複数の特徴点が検出され、前記1または複数の特徴点に基づいて、仮想映像を校正するための校正情報が作成される、
請求項8に記載の姿勢検知装置。
One or a plurality of feature points are detected from a captured image obtained by capturing the finger after the stimulus is presented to the finger, and calibration information for calibrating a virtual image based on the one or a plurality of feature points is provided. Created,
The posture detection apparatus according to claim 8.
指の現実の姿勢データを検知することと、
前記現実の姿勢データとあらかじめ定められた前記指の理想の姿勢データとに基づいて、前記指に提示される刺激を制御することと、
を含む、姿勢検知方法。
Detecting actual posture data of the finger;
Controlling a stimulus presented to the finger based on the actual posture data and predetermined ideal posture data of the finger;
A posture detection method including:
コンピュータを、
指の現実の姿勢データを検知する指姿勢検知部と、
前記現実の姿勢データとあらかじめ定められた前記指の理想の姿勢データとに基づいて、前記指に提示される刺激を制御する刺激情報制御部と、
を備える姿勢検知装置として機能させるための姿勢検知プログラム。
Computer
A finger posture detector that detects actual posture data of the finger;
A stimulus information control unit that controls a stimulus presented to the finger based on the actual posture data and predetermined ideal posture data of the finger;
A posture detection program for causing a device to function as a posture detection device.
指の現実の姿勢データを検知する指姿勢検知部と、
前記現実の姿勢データとあらかじめ定められた前記指の理想の姿勢データとに基づいて、前記指に提示される刺激を制御する刺激情報制御部と、
を備える、姿勢検知装置と、
前記刺激が前記指に提示された後に前記指が撮像された撮像映像から1または複数の特徴点を検出する特徴点検出部と、
前記1または複数の特徴点に基づいて、仮想映像を校正するための校正情報を作成する校正情報作成部と、
を備える、校正情報作成装置と、
を有する、情報処理システム。

A finger posture detector that detects actual posture data of the finger;
A stimulus information control unit that controls a stimulus presented to the finger based on the actual posture data and predetermined ideal posture data of the finger;
An attitude detection device comprising:
A feature point detection unit for detecting one or more feature points from an imaged image obtained by imaging the finger after the stimulus is presented to the finger;
A calibration information creation unit that creates calibration information for calibrating a virtual image based on the one or more feature points;
A calibration information creation device comprising:
An information processing system.

JP2015184711A 2015-09-18 2015-09-18 Calibration information creation apparatus, calibration information creation method, calibration information creation program, attitude detection apparatus, attitude detection method, attitude detection program, and information processing system Pending JP2017059088A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015184711A JP2017059088A (en) 2015-09-18 2015-09-18 Calibration information creation apparatus, calibration information creation method, calibration information creation program, attitude detection apparatus, attitude detection method, attitude detection program, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015184711A JP2017059088A (en) 2015-09-18 2015-09-18 Calibration information creation apparatus, calibration information creation method, calibration information creation program, attitude detection apparatus, attitude detection method, attitude detection program, and information processing system

Publications (1)

Publication Number Publication Date
JP2017059088A true JP2017059088A (en) 2017-03-23

Family

ID=58391687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015184711A Pending JP2017059088A (en) 2015-09-18 2015-09-18 Calibration information creation apparatus, calibration information creation method, calibration information creation program, attitude detection apparatus, attitude detection method, attitude detection program, and information processing system

Country Status (1)

Country Link
JP (1) JP2017059088A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022064881A1 (en) * 2020-09-28 2022-03-31 ソニーグループ株式会社 Information processing device, information processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022064881A1 (en) * 2020-09-28 2022-03-31 ソニーグループ株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP5936155B2 (en) 3D user interface device and 3D operation method
JP6116784B1 (en) 3D model generation system, 3D model generation method, and program
JP5871345B2 (en) 3D user interface device and 3D operation method
KR20210011425A (en) Image processing method and device, image device, and storage medium
Gannon et al. Tactum: a skin-centric approach to digital design and fabrication
CN110913751B (en) Wearable eye tracking system with slip detection and correction functions
US9449394B2 (en) Image synthesis device, image synthesis system, image synthesis method and program
JP5709440B2 (en) Information processing apparatus and information processing method
WO2020214272A1 (en) Sensor fusion for electromagnetic tracking
JP6548967B2 (en) Image processing apparatus, image processing method and program
Lu et al. Immersive manipulation of virtual objects through glove-based hand gesture interaction
KR102147430B1 (en) virtual multi-touch interaction apparatus and method
EP3871034A2 (en) Ambient electromagnetic distortion correction for electromagnetic tracking
JPWO2014141504A1 (en) 3D user interface device and 3D operation processing method
JP2019008623A (en) Information processing apparatus, information processing apparatus control method, computer program, and storage medium
JP2019096113A (en) Processing device, method and program relating to keypoint data
JP2018119833A (en) Information processing device, system, estimation method, computer program, and storage medium
EP2947549A1 (en) Apparartus and method for navigating through volume image
JP2013097805A (en) Three-dimensional interactive system and three-dimensional interactive method
CN111160088A (en) VR (virtual reality) somatosensory data detection method and device, computer equipment and storage medium
KR20160060582A (en) Device and method for processing visual data, and related computer program product
JP2017059088A (en) Calibration information creation apparatus, calibration information creation method, calibration information creation program, attitude detection apparatus, attitude detection method, attitude detection program, and information processing system
JP7209495B2 (en) Image processing device, image processing method
JP7029253B2 (en) Information processing equipment and its method
JP2018128739A (en) Image processing apparatus, image processing method, computer program and storage medium