JP5981782B2 - Haptic guidance control device, haptic guidance control method, and haptic guidance control program - Google Patents

Haptic guidance control device, haptic guidance control method, and haptic guidance control program Download PDF

Info

Publication number
JP5981782B2
JP5981782B2 JP2012139113A JP2012139113A JP5981782B2 JP 5981782 B2 JP5981782 B2 JP 5981782B2 JP 2012139113 A JP2012139113 A JP 2012139113A JP 2012139113 A JP2012139113 A JP 2012139113A JP 5981782 B2 JP5981782 B2 JP 5981782B2
Authority
JP
Japan
Prior art keywords
guidance
speed
guidance control
haptic
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012139113A
Other languages
Japanese (ja)
Other versions
JP2014002668A (en
Inventor
忠裕 坂井
忠裕 坂井
半田 拓也
拓也 半田
清水 俊宏
俊宏 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2012139113A priority Critical patent/JP5981782B2/en
Publication of JP2014002668A publication Critical patent/JP2014002668A/en
Application granted granted Critical
Publication of JP5981782B2 publication Critical patent/JP5981782B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本願は、力覚誘導制御装置、力覚誘導制御方法、及び力覚誘導制御プログラムに係り、特にユーザに迅速で確実にオブジェクトを把握させるための力覚誘導制御装置、力覚誘導制御方法、及び力覚誘導制御プログラムに関する。   The present application relates to a haptic guidance control device, a haptic guidance control method, and a haptic guidance control program, and in particular, a haptic guidance control device, a haptic guidance control method, and a haptic guidance control method for allowing a user to grasp an object quickly and reliably. The present invention relates to a haptic guidance control program.

従来、視覚障害者等に対して、物体(以下、「オブジェクト」という)の形状や重要な位置を把握させるためには、介助者等が視覚障害者等の手椀を導き、オブジェクトに触れさせることで形状を伝達させなければならない。そこで、従来では、視覚障害者等にオブジェクトを伝える手法として、多数の微小アクチュエータに振動又は凹凸を与え、画像中のオブジェクトを触覚で提示する触覚ディスプレイを用いる手法がある。上述したような触覚ディスプレイの一例としては、例えばKGS社のドットビュー(登録商標)等がある。なお、上述した触覚ディスプレイは、使用するユーザが能動的に指を動かすことでオブジェクトを認識する。また、従来では、触覚ディスプレイに提示されたオブジェクトに関する情報やユーザが触れた位置の内容等を音声で説明する手法が存在する。   Conventionally, in order for a visually handicapped person or the like to grasp the shape or important position of an object (hereinafter referred to as “object”), an assistant or the like guides the hand of the visually handicapped person and touches the object. The shape must be transmitted. Therefore, conventionally, as a method for transmitting an object to a visually impaired person or the like, there is a method using a tactile display that gives vibrations or unevenness to a large number of minute actuators and presents an object in an image with a tactile sense. As an example of the tactile display as described above, there is KGS dot view (registered trademark), for example. Note that the tactile display described above recognizes an object when the user who uses it actively moves his / her finger. Conventionally, there is a method for explaining information about an object presented on a tactile display, contents of a position touched by a user, and the like by voice.

一方、バーチャルリアリティの分野では、3次元の立体形状を伝達することを目的に、仮想的な物体の形状を力覚で提示する装置が存在する。上述したような、力覚提示装置では、例えばユーザの指の3次元座標位置を検出し、コンピュータで作成した仮想物体に衝突した場合に物理的な反力をユーザの手や指にフィードバックする手法が存在する(例えば、非特許文献1参照)。   On the other hand, in the field of virtual reality, there is a device that presents the shape of a virtual object with a force sense for the purpose of transmitting a three-dimensional solid shape. In the force sense presentation device as described above, for example, a method of detecting the three-dimensional coordinate position of the user's finger and feeding back the physical reaction force to the user's hand or finger when the computer collides with a virtual object created by a computer. (For example, refer nonpatent literature 1).

また、従来では、力覚提示装置を用いた2次元情報の提示の例として、GUI(Graphical User Interface)等で作成したアイコンをコンピュータで作成し、仮想的に配置されたアイコンに触れたような感覚をユーザに伝える手法が存在する(例えば、非特許文献2参照)。更に、従来では、空間に存在するオブジェクトの方向や距離を伝えるために、力覚提示装置を用いて指をオブジェクトの方向に誘導する方法が存在する(例えば、特許文献1参照)。   Conventionally, as an example of presentation of two-dimensional information using a force sense presentation device, an icon created with a GUI (Graphical User Interface) or the like is created by a computer, and an icon arranged virtually is touched. There is a technique for transmitting a sense to a user (for example, see Non-Patent Document 2). Further, conventionally, there is a method of guiding a finger in the direction of an object using a force sense presentation device in order to convey the direction and distance of the object existing in the space (see, for example, Patent Document 1).

特開2011−238070号公報JP 2011-238070 A

T.H.Massie:"Initial Haptic Explorations with the Phantom:Virtual touch Through Point Interaction," Degree of Master of Science(1996)T.A. H. Massie: "Initial Haptic Explorations with the Phantom: Virtual touch Through Point Interaction," Degree of Master of Science (1996) W.Yu,S.Brewster:"Multimodal virtual reality versus printed medium in visualization for blind people," 5fth int.ACM conf.Assistive technologies,pp57−64(2002)W. Yu, S .; Brewster: “Multimodal virtual reality versus medium in visualisation for blind people,” 5th int. ACM conf. Assistive technologies, pp 57-64 (2002)

ところで、オブジェクトの中でも、特に図やグラフ等のようなオブジェクトは、対象データによって形状が変化する。特に折れ線グラフのようなオブジェクトは、値の変化が大きい場合もあるため、触感だけで効率よく短時間でユーザに理解させることは困難である。   By the way, among objects, especially objects such as figures and graphs, the shape changes depending on target data. In particular, since an object such as a line graph may have a large change in value, it is difficult for the user to efficiently understand it in a short time using only the tactile sensation.

なお、従来では、上述したように音声で説明する手段が存在するが、音声の説明は補足的なものであるため正確な位置の把握は困難であり、また音声を聞きながらオブジェクトの変化する部分を把握していくため迅速な把握ができない。   Conventionally, as described above, there are means for explaining by voice, but since the explanation of the voice is supplementary, it is difficult to grasp the exact position, and the part where the object changes while listening to the voice Because it keeps track of, you can not grasp quickly.

また、従来手法のように、触覚ディスプレイ等により2次元の情報を提示する手法も存在するが、情報の予備知識や介助者なしに初めてのオブジェクトを触れる場合には、提示される全体の構成や重要な箇所を全て触れなければならないため、情報の重要なポイントを迅速に把握したり、オブジェクトの内容を迅速に伝達することができなかった。   In addition, there is a method of presenting two-dimensional information using a tactile display or the like as in the conventional method. However, when the object is touched for the first time without any prior knowledge or assistance, the overall configuration presented Since all important points must be touched, it was impossible to quickly grasp important points of information or to quickly convey the contents of objects.

更に、特許文献1に示すように、空間に存在するオブジェクトの方向や距離を伝えるために、力覚提示装置を用いて指をオブジェクトの方向に誘導する手法においても、オブジェクトの重要な部分(例えば、グラフの変化部分等)を迅速で確実にユーザに伝えることについては考慮されていない。   Furthermore, as shown in Patent Document 1, an important part of an object (for example, a method for guiding a finger in the direction of an object using a force sense presentation device in order to convey the direction and distance of the object existing in the space) It is not taken into account that the change part of the graph is transmitted to the user quickly and reliably.

開示の技術は、かかる問題を鑑み、ユーザに迅速で確実にオブジェクトを把握させることを目的とする。   In view of such a problem, the disclosed technique aims to allow a user to grasp an object quickly and reliably.

上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。   In order to solve the above problems, the present invention employs means for solving the problems having the following characteristics.

ブジェクトの情報を力覚によりユーザに提示する力覚提示装置に対して前記オブジェクトへの誘導制御を行う力覚誘導制御装置において、前記オブジェクトの位置情報に対応する誘導データを作成する誘導データ作成部と、前記誘導データ作成部により得られる誘導データと、前記オブジェクトに対する現在の誘導位置とに基づいて、前記オブジェクトの誘導位置に対応させて誘導速度を制御する誘導制御部と、前記誘導制御部により得られる誘導速度に基づいて、前記力覚提示装置に力覚提示させる力覚提示制御部とを有し、前記誘導制御部は、前記オブジェクトの中心部と周辺部とで前記誘導速度を変化させる。 In force induced controller for guidance control of the said object relative to the force sense presentation device for presenting information for the object to the user by the haptic, guidance data creation for creating guidance data corresponding to the position information of the object A guidance control unit that controls a guidance speed corresponding to the guidance position of the object based on guidance data obtained by the guidance data creation unit and a current guidance position for the object, and the guidance control unit based on the induction speed obtained by, possess a force sense presenting control unit for force feedback to the force-feedback device, the induction control section changes the induced velocity between the center portion and the peripheral portion of the object Let

開示の技術によれば、ユーザに迅速で確実にオブジェクトを把握させることができる。   According to the disclosed technique, it is possible to cause the user to grasp an object quickly and reliably.

本実施形態における力覚誘導制御装置の概要構成の一例を示す図である。It is a figure which shows an example of schematic structure of the force sense guidance control apparatus in this embodiment. 誘導データ作成部及び誘導制御部の具体的な構成例を示す図である。It is a figure which shows the specific structural example of a guidance data preparation part and a guidance control part. 実施例1における提示内容と対応する誘導制御の一例を示す図である。It is a figure which shows an example of the guidance control corresponding to the presentation content in Example 1. FIG. 実施例1における力覚誘導制御の一例を示す図である。6 is a diagram illustrating an example of force sense guidance control in Embodiment 1. FIG. 線状オブジェクトに対する力覚誘導制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of the force sense guidance control process with respect to a linear object. オブジェクト間領域誘導処理の一例を示すフローチャートである。It is a flowchart which shows an example of the area | region guidance process between objects. 実施例2における提示内容と対応する誘導制御の一例を示す図である。It is a figure which shows an example of the guidance control corresponding to the presentation content in Example 2. FIG. 面状オブジェクトに対する力覚誘導制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of the force sense guidance control process with respect to a planar object. 実施例3おける提示内容と対応する誘導制御の一例を示す図である。It is a figure which shows an example of the guidance control corresponding to the presentation content in Example 3. FIG. 規定入力位置による力覚誘導制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of the force sense guidance control process by a regulation input position.

<本発明の一観点について>
本発明の一観点は、例えば視覚障害者や視覚情報が遮断された状況にいる者(ユーザ)に対して図やグラフ等の2次元情報のオブジェクトの形状を把握させるために、力覚提示装置を用いてユーザの手指を誘導してオブジェクト全体を力覚的に把握させる。このとき、オブジェクトの重要部分(例えば、不連続部分や端部)等に対して誘導速度を変化させる等の制御を行うことで、例えばユーザが一人でもオブジェクトを迅速で確実に把握することができる。
<About one aspect of the present invention>
One aspect of the present invention provides a haptic device for causing a visually impaired person or a person (user) in a situation where visual information is blocked to grasp the shape of an object of two-dimensional information such as a figure or a graph. Is used to guide the user's fingers to grasp the entire object happily. At this time, by performing control such as changing the guidance speed on an important part (for example, a discontinuous part or an end part) of the object, for example, even a single user can quickly and reliably grasp the object. .

次に、本発明の一観点における力覚誘導制御装置、力覚誘導制御方法、及び力覚誘導制御プログラムを好適に実施した形態について、図面等を用いて詳細に説明する。   Next, embodiments in which a force sense guidance control device, a force sense guidance control method, and a force sense guidance control program according to an aspect of the present invention are suitably implemented will be described in detail with reference to the drawings.

<本実施形態における力覚誘導制御装置の概要構成例>
図1は、本実施形態における力覚誘導制御装置の概要構成の一例を示す図である。図1に示す力覚誘導制御装置10は、オブジェクト記述部11と、オブジェクト提示データ作成部12と、誘導パラメータ記述部13と、誘導データ作成部14と、誘導シーケンス記述部15と、誘導データ蓄積部16と、誘導制御部17と、力覚誘導制御部18と、誘導位置検出部19と、誘導切替部20とを有するよう構成されている。なお、力覚誘導制御装置10には、力覚提示装置30が有線又は無線等により接続されている。力覚誘導制御装置10は、力覚提示装置30に本実施形態に係る誘導制御を行わせることで、ユーザに対して力覚によりオブジェクトの形状等を迅速かつ確実に把握させる。
<Outline configuration example of force sense guidance control device in this embodiment>
FIG. 1 is a diagram illustrating an example of a schematic configuration of a haptic guidance control device according to the present embodiment. A haptic guidance control apparatus 10 shown in FIG. 1 includes an object description unit 11, an object presentation data creation unit 12, a guidance parameter description unit 13, a guidance data creation unit 14, a guidance sequence description unit 15, and guidance data storage. The unit 16, the guidance control unit 17, the force sense guidance control unit 18, the guidance position detection unit 19, and the guidance switching unit 20 are configured. A force sense presentation device 30 is connected to the force sense guidance control device 10 by wire or wireless. The haptic guidance control device 10 causes the haptic presentation device 30 to perform guidance control according to the present embodiment so that the user can quickly and reliably grasp the shape of the object by the haptic sense.

オブジェクト記述部11は、ユーザに提示するオブジェクトのサイズや形状、空間座標、オブジェクトの触察した時の摩擦や硬さの提示パラメータを記述する。また、オブジェクト記述部11は、例えば複数のオブジェクトを用いて1つのオブジェクトを構成させるオブジェクト情報を記述することもできる。また、オブジェクト記述部11は、各オブジェクトの属性情報を記述する。属性情報とは、例えばオブジェクトの種類を示す情報であってもよく、オブジェクトの始点と終点の情報等であってもよい。   The object description unit 11 describes the size and shape of the object to be presented to the user, spatial coordinates, and presentation parameters for friction and hardness when the object is touched. Moreover, the object description part 11 can also describe the object information which comprises one object, for example using a some object. The object description unit 11 describes attribute information of each object. The attribute information may be, for example, information indicating the type of object, information on the start point and end point of the object, or the like.

ここで、本実施形態におけるオブジェクトとは、例えばユーザに力覚により触察させる対象の図やグラフ、アイコン等を示すがこれに限定されるものではない。また、本実施形態において、オブジェクトの輪郭やグラフ等の線等を構成する要素となるオブジェクトを「線状オブジェクト」といい、オブジェクトとして提示する部分が所定の領域(面)を有するオブジェクト(つまり、線状オブジェクト以外のオブジェクト)を「面状オブジェクト」という。各オブジェクトは、属性情報と共に管理される。なお、以下に説明では、必要に応じて「線状オブジェクト」及び「面状オブジェクト」を単に「オブジェクト」と総称する。   Here, the object in the present embodiment is, for example, a target diagram, graph, icon, or the like to be touched by the user with force, but is not limited thereto. Further, in the present embodiment, an object that is an element constituting an object outline or a line such as a graph is referred to as a “line object”, and an object to be presented as an object has an area (surface) (that is, an object) An object other than a linear object) is called a “planar object”. Each object is managed together with attribute information. In the following description, “linear objects” and “planar objects” are simply collectively referred to as “objects” as necessary.

オブジェクト提示データ作成部12は、オブジェクト記述部11で記述されたオブジェクトを力覚提示装置30で再現するための提示データを作成する。なお、オブジェクト提示データ作成部12は、接続される力覚提示装置30の種類に対応した提示データを作成する。なお、オブジェクト提示データ作成部12は、例えば複数のオブジェクトに対応して、オブジェクトの形状と配置の他、仮想力覚提示オブジェクトを作成することができる。   The object presentation data creation unit 12 creates presentation data for reproducing the object described by the object description unit 11 by the force sense presentation device 30. The object presentation data creation unit 12 creates presentation data corresponding to the type of force sense presentation device 30 to be connected. The object presentation data creation unit 12 can create a virtual force sense presentation object in addition to the shape and arrangement of the objects, for example, corresponding to a plurality of objects.

誘導パラメータ記述部13は、本実施形態におけるオブジェクトに対して力覚で手指を誘導する際の誘導パラメータを記述する。なお、誘導パラメータとは、例えば画面上に配置されたオブジェクトの数や内容(種類)、オブジェクトの触察部分の形状情報(例えば、凹型、凸型等)、各オブジェクトの空間座標、オブジェクトの不連続部分の摩擦や粘性、誘導速度(例えば、各オブジェクトに対する移動加速度、減速度等を含む)、属性情報等のうち、少なくとも1つを含むが、これに限定されるものではない。また、誘導パラメータ記述部13は、ユーザに複数のオブジェクトを順に誘導する際に、各オブジェクトの移動加速度、減速度等を規定することもできる。   The guidance parameter description unit 13 describes guidance parameters for guiding a finger with a force sense to an object in the present embodiment. The guidance parameters are, for example, the number and contents (types) of objects arranged on the screen, shape information (for example, concave shape, convex shape, etc.) of the touched portion of the object, spatial coordinates of each object, object non-existence. Including, but not limited to, at least one of friction and viscosity of continuous portions, induced speed (including, for example, moving acceleration and deceleration for each object), attribute information, and the like. The guidance parameter description unit 13 can also define the movement acceleration, deceleration, and the like of each object when sequentially guiding a plurality of objects to the user.

誘導データ作成部14は、誘導パラメータ記述部13で記述された誘導パラメータを抽出し、力覚誘導制御装置10に接続された力覚提示装置30に対応させて空間座標位置を移動する力覚誘導制御を行うための誘導データを作成する。なお、誘導データとは、例えばオブジェクトの重心(又は中心)位置や、誘導時におけるオブジェクト始点、終点位置、面状オブジェクトに対して内接円誘導や外周誘導等を行うための誘導データ等のうち、少なくとも1つを含むが、これに限定されるものではない。更に、誘導データ作成部14は、複数のオブジェクトを連結させて1つのオブジェクトを構成する場合の誘導データを作成することもできる。   The guidance data creation unit 14 extracts the guidance parameter described by the guidance parameter description unit 13 and moves the spatial coordinate position corresponding to the haptic presentation device 30 connected to the haptic guidance control device 10. Create guidance data for control. The guidance data includes, for example, the center of gravity (or center) position of the object, the object start point and end point position at the time of guidance, guidance data for performing inscribed circle guidance, outer circumference guidance, etc. for the planar object, etc. , Including but not limited to at least one. Furthermore, the guidance data creation unit 14 can create guidance data when a plurality of objects are connected to form one object.

誘導シーケンス記述部15は、ユーザに提示する複数のオブジェクト(例えば、連続する線状オブジェクトや面状オブジェクト)を誘導する際の順序を誘導シーケンスとして記述する。   The guidance sequence description unit 15 describes the order in which a plurality of objects (for example, continuous linear objects and planar objects) to be presented to the user are guided as a guidance sequence.

誘導データ蓄積部16は、誘導データ作成部14により得られる誘導データに関する情報と、誘導シーケンス記述部15により得られる誘導シーケンスに関する情報とを蓄積する。また、誘導データ蓄積部16は、力覚誘導制御装置10に接続された力覚提示装置30を駆動させるためのデータを蓄積する。   The guidance data storage unit 16 accumulates information on the guidance data obtained by the guidance data creation unit 14 and information on the guidance sequence obtained by the guidance sequence description unit 15. The guidance data accumulation unit 16 accumulates data for driving the haptic presentation device 30 connected to the haptic guidance control device 10.

誘導制御部17は、誘導データ蓄積部16により得られる移動情報や誘導位置検出部19から得られる現在の誘導位置情報等に基づいて、誘導速度や誘導位置等を制御する。例えば、誘導制御部17は、オブジェクトの重要部分で誘導速度を変化させる。具体的には、誘導制御部17は、例えばオブジェクトの中心部と周辺部(端部、不連続点)とで誘導速度を変化させることができるが、誘導制御部17における制御内容についてはこれに限定されるものではない。   The guidance control unit 17 controls the guidance speed, the guidance position, and the like based on the movement information obtained from the guidance data storage unit 16 and the current guidance position information obtained from the guidance position detection unit 19. For example, the guidance control unit 17 changes the guidance speed at an important part of the object. Specifically, the guidance control unit 17 can change the guidance speed between, for example, the center and the periphery (end, discontinuous point) of the object. It is not limited.

力覚誘導制御部18は、オブジェクト提示データ作成部12により得られるオブジェクト提示データに対して、誘導制御部17から得られる制御情報に基づいて力覚提示装置30に誘導制御信号等を出力する。   The haptic guidance control unit 18 outputs a guidance control signal or the like to the haptic presentation device 30 based on the control information obtained from the guidance control unit 17 with respect to the object presentation data obtained by the object presentation data creation unit 12.

誘導位置検出部19は、力覚提示装置30における現在の誘導位置を検出する。具体的には、誘導位置検出部19は、力覚提示装置30から現在の位置情報(例えば、3次元座標)等を取得してもよく、力覚提示制御部18から力覚提示装置30に出力している制御信号の内容から現在の位置情報を取得してもよい。   The guidance position detection unit 19 detects the current guidance position in the force sense presentation device 30. Specifically, the guidance position detection unit 19 may acquire current position information (for example, three-dimensional coordinates) from the force sense presentation device 30, and the force sense presentation control unit 18 sends the force sense presentation device 30 to the force sense presentation device 30. The current position information may be acquired from the contents of the output control signal.

誘導切替部20は、力覚提示装置30に対する誘導制御のON/OFFを行い、オブジェクトの内容を理解させるために手指を誘導する誘導モードと、誘導がなく自由に触察できる自由触察モードとの切り替えを行う。   The guidance switching unit 20 performs guidance control on the force sense presentation device 30 to turn on / off and guides a finger to understand the contents of the object, and a free tactile mode in which a user can feel freely without guidance. Switch.

具体的には、誘導切替部20が誘導制御をOFFした場合、誘導中止指示が発生し、誘導制御部17は、本実施形態における誘導制御を中止し、その間、ユーザは自由な位置に指等を移動させてオブジェクトを触察することができる(自由触察モード)。この場合、誘導制御は行われていないが、オブジェクトに触れることによる摩擦や粘性等の力覚制御は行われている。   Specifically, when the guidance switching unit 20 turns off the guidance control, a guidance stop instruction is generated, and the guidance control unit 17 stops the guidance control in the present embodiment, during which the user moves a finger or the like to a free position. The object can be touched by moving (free touch mode). In this case, guidance control is not performed, but force control such as friction and viscosity by touching an object is performed.

また、誘導切替部20が誘導制御をONした場合、誘導再開指示が発生し、誘導制御部17は、直前まで誘導していたオブジェクトの位置から引き続き誘導制御を行う(誘導モード)。   When the guidance switching unit 20 turns on guidance control, a guidance resumption instruction is generated, and the guidance control unit 17 continues guidance control from the position of the object that has been guided to immediately before (guidance mode).

なお、誘導切替部20による切り替えは、例えば予め設定されたスイッチやボタン等を用いて行うことができる。また、図1の例では、誘導切替部20を有した構成を示しているが、これに限定されるものではなく、例えば誘導切替部20を有していない構成であってもよい。   The switching by the guidance switching unit 20 can be performed using, for example, a preset switch or button. In addition, in the example of FIG. 1, the configuration including the guidance switching unit 20 is illustrated, but the configuration is not limited thereto, and for example, a configuration not including the guidance switching unit 20 may be used.

力覚提示装置30は、例えばユーザの1又は複数の指先に対して力覚を与える装置や、手指全体に力覚を与える装置等の既存の装置を用いることができる。なお、図1では、力覚提示装置30の一例として、ユーザの指の動作を誘導して力覚によりオブジェクトを認識させる装置を示しているが、本実施形態においてはこれに限定されるものではない。   As the force sense presentation device 30, for example, an existing device such as a device that gives a force sense to one or more fingertips of a user or a device that gives a force sense to the entire finger can be used. In FIG. 1, as an example of the force sense presentation device 30, a device that induces an action of a user's finger and recognizes an object by a force sense is shown. However, the present embodiment is not limited to this. Absent.

<誘導データ作成部14及び誘導制御部17の具体的な構成例>
次に、上述した誘導データ作成部14及び誘導制御部17の具体的な構成例について、図を用いて説明する。図2は、誘導データ作成部及び誘導制御部の具体的な構成例を示す図である。なお、図2の例では、説明の便宜上、誘導データ作成部14と、誘導データ蓄積部16と、誘導制御部17と、誘導切替部20とを示している。
<Specific Configuration Example of Guidance Data Creation Unit 14 and Guidance Control Unit 17>
Next, specific configuration examples of the guidance data creation unit 14 and the guidance control unit 17 described above will be described with reference to the drawings. FIG. 2 is a diagram illustrating a specific configuration example of the guidance data creation unit and the guidance control unit. In the example of FIG. 2, for the convenience of explanation, the guidance data creation unit 14, the guidance data storage unit 16, the guidance control unit 17, and the guidance switching unit 20 are illustrated.

図2において、誘導データ作成部14は、線状オブジェクト抽出部41と、面状オブジェクト抽出部42と、オブジェクト重心位置算出部43と、オブジェクト始点・終点位置検出部44と、オブジェクト内接円・外周誘導データ作成部45とを有するよう構成されている。   In FIG. 2, the guidance data creation unit 14 includes a linear object extraction unit 41, a planar object extraction unit 42, an object centroid position calculation unit 43, an object start / end position detection unit 44, an object inscribed circle / An outer periphery guidance data creation unit 45 is included.

また、図2において、誘導制御部17は、誘導速度設定部51と、オブジェクト位置設定部52と、オブジェクト内接円・外周誘導制御部53と、誘導位置・速度制御部54とを有するよう構成されている。   2, the guidance control unit 17 includes a guidance speed setting unit 51, an object position setting unit 52, an object inscribed circle / outer periphery guidance control unit 53, and a guidance position / speed control unit 54. Has been.

誘導データ作成部14において、線状オブジェクト抽出部41は、誘導パラメータ記述部13から得られる誘導パラメータに含まれる1又は複数のオブジェクト情報から、線状オブジェクトを抽出する。線状オブジェクト抽出部41は、抽出した線状オブジェクトをオブジェクト重心位置算出部43に出力する。   In the guidance data creation unit 14, the linear object extraction unit 41 extracts a linear object from one or more pieces of object information included in the guidance parameter obtained from the guidance parameter description unit 13. The linear object extraction unit 41 outputs the extracted linear object to the object centroid position calculation unit 43.

面状オブジェクト抽出部42は、誘導パラメータ記述13から得られる誘導パラメータに含まれる1又は複数のオブジェクト情報から、面状オブジェクトを抽出する。面状オブジェクト抽出部42は、抽出した面状オブジェクトをオブジェクト重心位置算出部43、オブジェクト始点・終点位置検出部44、及びオブジェクト内接円・外周誘導データ作成部45に出力する。   The planar object extraction unit 42 extracts a planar object from one or more pieces of object information included in the guidance parameter obtained from the guidance parameter description 13. The planar object extraction unit 42 outputs the extracted planar object to the object center-of-gravity position calculation unit 43, the object start / end position detection unit 44, and the object inscribed circle / outer periphery guidance data creation unit 45.

なお、上述した線状オブジェクトと面状オブジェクトの抽出は、例えば誘導パラメータに含まれるオブジェクト毎に、予め線状オブジェクト又は面状オブジェクトを識別する属性情報を付与しておき、その属性情報を参照することで、各オブジェクトを抽出することができるが、抽出手法についてはこれに限定されるものではない。   The above-described extraction of the linear object and the planar object is performed by, for example, adding attribute information for identifying the linear object or the planar object in advance for each object included in the guidance parameter, and referring to the attribute information. Thus, each object can be extracted, but the extraction method is not limited to this.

オブジェクト重心位置算出部43は、線状オブジェクト抽出部41から得られる線状オブジェクト、又は、面状オブジェクト抽出部42から得られる面状オブジェクトの重心位置を算出する。なお、オブジェクト重心位置算出部43は、入力される各オブジェクトに対して重心を抽出する。更に、オブジェクト重心位置算出部43は、入力される線状オブジェクト又は面状オブジェクトに対する中心を算出してもよい。オブジェクト重心位置算出部43は、算出された各オブジェクトの重心位置情報を誘導データ蓄積部16に出力する。   The object centroid position calculating unit 43 calculates the centroid position of the linear object obtained from the linear object extracting unit 41 or the planar object obtained from the planar object extracting unit 42. The object centroid position calculation unit 43 extracts the centroid for each input object. Furthermore, the object gravity center position calculation unit 43 may calculate the center with respect to the input linear object or planar object. The object centroid position calculation unit 43 outputs the calculated centroid position information of each object to the guidance data storage unit 16.

オブジェクト始点・終点位置検出部44は、面状オブジェクト抽出部42により得られる面状オブジェクトに対して、誘導する際の始点及び終点の位置を抽出する。具体的には、オブジェクト始点・終点位置検出部44は、例えば誘導パラメータに含まれる各オブジェクトの空間座標から面状オブジェクトの始点及び終点の位置を抽出してもよい。オブジェクト始点・終点位置検出部44は、抽出したオブジェクトの始点位置や終点位置を誘導データ蓄積部16に出力する。   The object start / end position detection unit 44 extracts the positions of the start point and end point when guiding the planar object obtained by the planar object extraction unit 42. Specifically, the object start / end position detection unit 44 may extract the positions of the start and end points of the planar object from the spatial coordinates of each object included in the guidance parameter, for example. The object start point / end point position detection unit 44 outputs the start point position and end point position of the extracted object to the guidance data storage unit 16.

オブジェクト内接円・外周誘導データ作成部45は、例えば面状オブジェクト抽出部42から得られる面状オブジェクトに対して内接する円又はオブジェクトの外周の誘導データを作成する。具体的には、オブジェクト内接円・外周誘導データ作成部45は、例えば誘導パラメータに含まれる各オブジェクトの空間座標から面状オブジェクトの内接円又はオブジェクトの外周の誘導データを作成することができるが、これに限定されるものではない。   The object inscribed circle / outer periphery guidance data creation unit 45 creates, for example, guidance data of the circle or the outer periphery of the object inscribed in the planar object obtained from the planar object extraction unit 42. Specifically, the object inscribed circle / outer periphery guidance data creation unit 45 can create guidance data for the inscribed circle of the planar object or the outer circumference of the object from the spatial coordinates of each object included in the guidance parameter, for example. However, the present invention is not limited to this.

更に、オブジェクト内接円・外周誘導データ作成部45は、ユーザに提示する全ての面状オブジェクトに対して、内接円又は外周の何れか1つを用いて誘導データを作成してもよく、各面状オブジェクトの形状に対応させて内接円又は外周を選択して誘導データを作成してもよい。なお、本実施形態において、内接円又は外周の誘導を行うのは、面状オブジェクトに対する形状や大きさを迅速に把握させるためである。オブジェクト内接円・外周誘導データ作成部45は、作成した位置情報を誘導データ蓄積部16に出力する。   Further, the object inscribed circle / peripheral guidance data creation unit 45 may create guidance data using any one of the inscribed circle or the outer circumference for all planar objects presented to the user. The guidance data may be created by selecting an inscribed circle or an outer periphery corresponding to the shape of each planar object. In the present embodiment, the reason for guiding the inscribed circle or the outer periphery is to quickly grasp the shape and size of the planar object. The object inscribed circle / outer periphery guidance data creation unit 45 outputs the created position information to the guidance data storage unit 16.

誘導データ蓄積部16は、オブジェクト重心位置算出部43、オブジェクト始点・終点位置検出部44、及びオブジェクト内接円・外周誘導データ作成部45から得られる各情報を蓄積する。   The guidance data accumulation unit 16 accumulates information obtained from the object gravity center position calculation unit 43, the object start / end position detection unit 44, and the object inscribed circle / outer periphery guidance data creation unit 45.

次に、誘導制御部17において、誘導速度設定部51は、オブジェクト毎に誘導速度の最大値と最小値を設定する。なお、誘導速度の最大値と最小値は、オブジェクト毎に変えてもよく、同一の値であってもよい。誘導速度設定部51は、設定された誘導速度を誘導位置・速度制御部54に出力する。   Next, in the guidance control unit 17, the guidance speed setting unit 51 sets the maximum value and the minimum value of the guidance speed for each object. The maximum value and the minimum value of the guide speed may be changed for each object, or may be the same value. The guide speed setting unit 51 outputs the set guide speed to the guide position / speed control unit 54.

オブジェクト位置設定部52は、誘導データ蓄積部16に蓄積されているオブジェクト始点・終点位置検出部44から得られるオブジェクト毎の始点位置、終点位置の情報に基づいて、誘導位置を設定する。オブジェクト位置設定部52は、得られた誘導位置を誘導位置・速度制御部54に出力する。   The object position setting unit 52 sets the guidance position based on the information of the start point position and end point position for each object obtained from the object start / end position detection unit 44 accumulated in the guidance data accumulation unit 16. The object position setting unit 52 outputs the obtained guidance position to the guidance position / speed control unit 54.

オブジェクト内接円・外周誘導制御部53は、誘導データ蓄積部16に蓄積されたオブジェクト内接円・外周誘導データ作成部45から得られるオブジェクト毎の内接円又は外周の誘導データに基づいて、内接円又は外周の誘導位置を制御する。また、オブジェクト内接円・外周誘導制御部53は、得られた誘導データを誘導位置・速度制御部54に出力する。   The object inscribed circle / outer periphery guidance control unit 53 is based on the inscribed circle or outer periphery guidance data for each object obtained from the object inscribed circle / outer periphery guidance data creation unit 45 accumulated in the guidance data accumulation unit 16. Control the guidance position of the inscribed circle or outer circumference. The object inscribed circle / outer periphery guidance control unit 53 outputs the obtained guidance data to the guidance position / speed control unit 54.

誘導位置・速度制御部54は、誘導速度設定部51から得られる誘導速度情報、オブジェクト位置設定部52から得られる位置制御情報、及び、オブジェクト内接円・外周誘導制御部53から得られる内接円・外周誘導制御情報に基づいて、各オブジェクトに対する位置と速度を統合的に制御し、力覚誘導制御装置10に接続された力覚提示装置30に対応する誘導位置情報と位置に対応する速度制御情報とを誘導制御情報として出力する。   The guidance position / velocity control unit 54 includes guidance speed information obtained from the guidance speed setting unit 51, position control information obtained from the object position setting unit 52, and inscription obtained from the object inscribed circle / outer periphery guidance control unit 53. Based on the circle / periphery guidance control information, the position and speed for each object are integratedly controlled, and the guidance position information corresponding to the force sense presentation device 30 connected to the force sense guidance control device 10 and the speed corresponding to the position. Control information is output as guidance control information.

なお、誘導位置・速度制御部54は、誘導切替部20からのON/OFFの切替信号に基づいて誘導制御の中止、再開等を行う。例えば、誘導切替部20からの切替信号がOFF状態の場合、誘導位置・速度制御部54は、現在のオブジェクトに対する誘導位置や誘導速度、内接円・外周誘導情報等の誘導制御情報を内部メモリ等に一時的に記憶し、誘導切替部20からON状態とする切替信号がくるまで誘導制御情報を力覚提示制御部18に出力しない。また、誘導位置・速度制御部54は、誘導切替部20からの切替信号がON状態の場合、一時的に記録された誘導制御情報を力覚提示制御部18に出力する。これにより、オブジェクト全体に対する誘導制御の途中であってもユーザからの誘導切替部20を用いた切替信号により、誘導制御を中断して、ユーザが自由にオブジェクトを触察することができる。また、誘導制御の再開後は、今まで誘導された位置から引き続いて誘導制御を行うことができる。   The guidance position / speed control unit 54 suspends or restarts the guidance control based on the ON / OFF switching signal from the guidance switching unit 20. For example, when the switching signal from the guidance switching unit 20 is in the OFF state, the guidance position / speed control unit 54 stores guidance control information such as guidance position and guidance speed for the current object, inscribed circle / outer circumference guidance information, etc. in the internal memory. The guidance control information is not output to the force sense presentation control unit 18 until a switching signal is received from the guidance switching unit 20 to be turned on. In addition, when the switching signal from the guidance switching unit 20 is ON, the guidance position / speed control unit 54 outputs the temporarily recorded guidance control information to the force sense presentation control unit 18. Thereby, even in the middle of the guidance control for the entire object, the guidance control is interrupted by the switching signal using the guidance switching unit 20 from the user, and the user can freely touch the object. In addition, after resuming the guidance control, the guidance control can be performed continuously from the position that has been guided so far.

<本実施形態における提示内容と対応する誘導制御の各実施例>
次に、本実施形態における提示内容と対応する誘導制御の各実施例について、図を用いて説明する。
<Examples of guidance control corresponding to the presentation contents in this embodiment>
Next, each example of guidance control corresponding to the presentation contents in the present embodiment will be described with reference to the drawings.

<実施例1>
図3は、実施例1における提示内容と対応する誘導制御の一例を示す図である。図3(a)は、オブジェクトに対する速度制御の一例を示し、図3(b)は、基準となる平面に表示された誘導対象のオブジェクトの一例を示している。
<Example 1>
FIG. 3 is a diagram illustrating an example of guidance control corresponding to the presentation content in the first embodiment. FIG. 3A shows an example of speed control for an object, and FIG. 3B shows an example of an object to be guided displayed on a reference plane.

実施例1では、例えば線状オブジェクト(Obj)60を力覚提示装置30でユーザに提示する場合に、ユーザに一定の速度で線状オブジェクト60を触察させるのではなく、例えば図3(a)に示すように、線状オブジェクト60の始点付近と終点付近で速度を変化させる。つまり、線状オブジェクト60の中心部と周辺部とで速度を変化させる。具体的には、線状オブジェクト60内で始点(周辺部)を加速度(+a)、終点を減速度(−a)、重心(中心)部を最大速度(Vmax)に設定する。   In the first embodiment, for example, when the linear object (Obj) 60 is presented to the user by the force sense presentation device 30, the user does not touch the linear object 60 at a constant speed, for example, FIG. ), The speed is changed near the start point and the end point of the linear object 60. That is, the speed is changed between the central portion and the peripheral portion of the linear object 60. Specifically, in the linear object 60, the start point (peripheral part) is set to acceleration (+ a), the end point is set to deceleration (-a), and the center of gravity (center) part is set to the maximum speed (Vmax).

なお、実施例1における誘導速度の最大(Vmax)と最小(Vmin)については、上述した誘導速度設定部51により設定される。また、どの程度の加速度により速度の変化させるかについては、例えば線状オブジェクト60の長さ等に対応して設定することができる。また、始点付近の速度変化を行う第1の距離(L2−L1)と、終点付近の速度変化を行う第2の距離(L4−L3)についても、例えば線状オブジェクトの長さ等に対応して設定することができる。なお、線状オブジェクト60の始点付近と終点付近の速度の変化量(加速、減速)については、同一でもよく、また同一でなくてもよい。また、上述した第1の距離と第2の距離については、同一の距離でなくてもよい。   In addition, the maximum (Vmax) and minimum (Vmin) of the guide speed in the first embodiment are set by the guide speed setting unit 51 described above. The degree of acceleration at which the speed is changed can be set in accordance with the length of the linear object 60, for example. The first distance (L2-L1) for changing the speed near the start point and the second distance (L4-L3) for changing the speed near the end point also correspond to, for example, the length of the linear object. Can be set. Note that the amount of change (acceleration, deceleration) in the vicinity of the start point and the end point of the linear object 60 may or may not be the same. Further, the first distance and the second distance described above may not be the same distance.

ここで、図3(b)の例では、基準となる平面61に対して、折れ線グラフのオブジェクト(Obj〜Obj)60−1と、図(例えば、円形)のオブジェクト(Obj)60−2と、折れ線グラフに対応する軸(縦軸、横軸)のオブジェクト(Obj、Obj10)60−3とが示されている。また、オブジェクト601,60−3は、線状オブジェクトであり、オブジェクト60−2は、面状オブジェクトである。実施例1では、図3(b)に示すような複数のオブジェクトが1つのコンテンツの中に含まれている。 Here, in the example of FIG. 3B, a line graph object (Obj 1 to Obj 7 ) 60-1 and an object (Obj 8 ) 60 of the figure (for example, a circle) with respect to the reference plane 61. -2 and the objects (Obj 9 , Obj 10 ) 60-3 of the axes (vertical axis, horizontal axis) corresponding to the line graph are shown. The objects 601 and 60-3 are linear objects, and the object 60-2 is a planar object. In the first embodiment, a plurality of objects as shown in FIG. 3B are included in one content.

なお、折れ線のオブジェクト60−1や軸のオブジェクト60−3は、複数のオブジェクトを連結させて1つのオブジェクトを構成している。ここで、複数のオブジェクトを連結させる場合には、例えば折れ線グラフであれば、線の折れている部分で分割したオブジェクトを作成し、作成したオブジェクト同士を連結させることが好ましい。なお、折れ線のオブジェクト60−1には、オブジェクトObjのように曲線部分が含まれていてよい。 The broken line object 60-1 and the axis object 60-3 constitute a single object by connecting a plurality of objects. Here, when connecting a plurality of objects, for example, in the case of a line graph, it is preferable to create an object divided at a portion where the line is broken and connect the created objects. Note that the polyline object 60-1, may contain curved portions as the object Obj 6.

また、グラフの折れている部分は、オブジェクト上の重要部分であり、ユーザに把握して欲しい部分である。そのため、実施例1では、例えば図3(a)に示すように、速度変化による誘導制御を行い、線の端部や折れている部分の速度を低速にすることで、オブジェクトの形状を迅速で確実にユーザに把握させることができる。   The broken part of the graph is an important part on the object and is a part that the user wants to grasp. Therefore, in the first embodiment, for example, as shown in FIG. 3A, the guidance control is performed by changing the speed, and the speed of the end portion of the line or the bent portion is reduced, thereby making the shape of the object quick. The user can be surely grasped.

なお、誘導制御による速度変化は、例えば図3(b)に示すオブジェクト(Obj)60−2や、軸(縦軸、横軸)のオブジェクト(Obj、Obj10)60−3に対して行うこともできる。 Note that the speed change by the guidance control is, for example, for the object (Obj 8 ) 60-2 shown in FIG. 3B and the object (Obj 9 , Obj 10 ) 60-3 on the axis (vertical axis, horizontal axis). It can also be done.

ここで、実施例1では、力覚提示装置30を用いてオブジェクトObj〜Obj10を所定の順序でユーザの手指等に提示させる。具体的には、オブジェクトObjからObj10の順番で力覚によりユーザに提示する。その場合、手指の移動経路には、オブジェクトを触った状態で移動する部分(オブジェクト有)と、オブジェクトを触っていない状態で移動する部分(オブジェクト無)が含まれる。例えば、オブジェクトObjからObjに移動する経路が、オブジェクトを触っていない部分である。 Here, in the first embodiment, the objects Obj 1 to Obj 10 are presented to the user's fingers and the like in a predetermined order using the force sense presentation device 30. Specifically, the objects Obj 1 to Obj 10 are presented to the user by force. In this case, the movement path of the finger includes a part that moves when the object is touched (with an object) and a part that moves without touching the object (no object). For example, the path moving from the object Obj 7 to Obj 8 is a portion where the object is not touched.

したがって、力覚によりオブジェクトを提示するときの提示パラメータは、例えば高さh、粗さσ、摩擦μ、硬さcの物理量で以下のような形式で記述される。
オブジェクト有:Fp={高さh,粗さσ,摩擦(動・静)μ,硬さc
オブジェクト無:Fn={高さh,粗さσ,摩擦(動・静)μ,硬さc
上述した例によれば、図3(b)において、オブジェクト60のない平面61上の提示パラメータはFnとなる。
Therefore, the presentation parameters when presenting an object by force sense are described in the following format, for example, with physical quantities of height h, roughness σ, friction μ, and hardness c.
Object present: Fp = {height h i , roughness σ i , friction (dynamic / static) μ i , hardness c i }
No object: Fn = {height h 0 , roughness σ 0 , friction (dynamic / static) μ 0 , hardness c 0 }
According to the example described above, in FIG. 3B, the presentation parameter on the plane 61 without the object 60 is Fn.

つまり、実施例1では、それぞれのオブジェクトの提示領域内では提示パラメータに応じた触感を与えることができる。また、オブジェクトの有無により異なる提示パラメータを設定することで、明確にオブジェクトの有無を認知させることができる。なお、オブジェクトの触察には、例えば、上述した誘導切替部20を用いて、自由触察モードと誘導モードとを切り替えることができる。   That is, in the first embodiment, a tactile sensation according to the presentation parameter can be given in the presentation area of each object. In addition, by setting different presentation parameters depending on the presence or absence of an object, the presence or absence of the object can be clearly recognized. Note that the object touching can be switched between the free touching mode and the guiding mode using, for example, the above-described guidance switching unit 20.

また、上述した誘導パラメータ記述部13で記述される誘導パラメータは、具体的には誘導モードにおいて、オブジェクト間の重心間の方向に移動して手指を誘導する際のオブジェクト内での速度を規定する。この場合、誘導パラメータは、オブジェクトの有無により以下のような形式で記述する。
オブジェクト有:FIp={加速度+a,減速度−a,最大速度Vmax,最小速度Vmin,誘導力F
オブジェクト無:FIn={加速度+a,減速度−a,最大速度Vmax,最小速度Vmin,誘導力F
なお、上述の添字iが各オブジェクトに対応して割り当てられる変数を示し、上述の添字jが各オブジェクト間の移動に対応して割り当てられる変数を示している。
Further, the guidance parameter described in the guidance parameter description unit 13 specifically defines the speed in the object when the finger is guided by moving in the direction between the centers of gravity between the objects in the guidance mode. . In this case, the guidance parameter is described in the following format depending on the presence or absence of an object.
Object present: FIp = {acceleration + a i , deceleration−a i , maximum speed Vmax i , minimum speed Vmin i , induction force F i }
No object: FIn = {acceleration + a j , deceleration−a j , maximum speed Vmax j , minimum speed Vmin j , induction force F j }
In addition, the above-mentioned subscript i shows the variable allocated corresponding to each object, and the above-mentioned subscript j has shown the variable allocated corresponding to the movement between each object.

実施例1における誘導パラメータでは、例えばオブジェクトがある場合にはオブジェクト毎、オブジェクトがない場合にはオブジェクト間毎に、加速度+a,減速度−a,最大速度Vmax,最小速度Vminを規定することで、力覚により確実にオブジェクトを把握することができる。なお、オブジェクトがない場合の誘導パラメータは、例えば上述した提示パラメータと同様に固定の値(例えば、FIn={加速度+a,減速度−a,最大速度Vmax,最小速度Vmin,誘導力F})であってもよい。また、上述した自由触察モードでは、誘導パラメータには拘束されない触察が可能となるため、より確実にオブジェクトを把握することができる。 In the guidance parameters in the first embodiment, for example, by specifying acceleration + a, deceleration-a, maximum speed Vmax, and minimum speed Vmin for each object when there is an object, and between objects when there is no object, An object can be grasped reliably by a force sense. The guidance parameter when there is no object is a fixed value (for example, FIn = {acceleration + a 0 , deceleration−a 0 , maximum speed Vmax 0 , minimum speed Vmin 0 , guidance force, for example) as in the presentation parameter described above. F 0 }). Further, in the above-described free palpation mode, it is possible to perform palpation that is not restricted by the guidance parameter, and thus it is possible to grasp the object more reliably.

誘導シーケンス記述部15により記述される誘導シーケンスは、例えば図3(b)のような提示を行う場合には、以下のように記述することができるが、これに限定されるものではない。
誘導順序情報IS={Obj+Obj+Obj+Obj+Obj+Obj+Obj+NoObj+Obj+NoObj+Obj+Obj10
なお、「NoObj」とは、オブジェクトのない経路(オブジェクト間領域)を示す。
The guidance sequence described by the guidance sequence description unit 15 can be described as follows when the presentation as shown in FIG. 3B is performed, for example, but is not limited thereto.
Guiding order information IS = {Obj 1 + Obj 2 + Obj 3 + Obj 4 + Obj 5 + Obj 6 + Obj 7 + NoObj + Obj 8 + NoObj + Obj 9 + Obj 10 }
Note that “NoObj” indicates a path without an object (inter-object area).

ここで、実施例1では、例えば図3(b)に示すオブジェクトObj〜Objを連続して誘導させるために、図3(b)に示すように、高さhで各オブジェクトを、基準となる平面61から提示する場合に、そのオブジェクト60−1に対する指の誘導経路(通り道)に所定の溝(凹部)を設け、その溝の中又は上を指が通過するように誘導してもよい。これにより、ユーザの指が誘導制御中にオブジェクトから逸脱することを防止することができ、より確実にオブジェクトの誘導を行うことができる。なお、本実施形態ではこれに限定されるものではなく、例えば凸部であってもよい。 Here, in Example 1, in order to continuously guide the objects Obj 1 to Obj 7 shown in FIG. 3B, for example, as shown in FIG. In the case of presenting from the plane 61, a predetermined groove (concave portion) is provided in the finger guide path (passage) for the object 60-1, and the finger is guided so as to pass through or above the groove. Good. Thereby, it is possible to prevent the user's finger from deviating from the object during the guidance control, and the object can be guided more reliably. In addition, in this embodiment, it is not limited to this, For example, a convex part may be sufficient.

また、図3(b)に示す図のオブジェクト(Obj)60−2については、例えばオブジェクトObjの中心まで所定の速度で誘導してもよく、また、外周を触察させるように誘導してもよい。 Further, the object (Obj 8 ) 60-2 shown in FIG. 3B may be guided to a center of the object Obj 8 at a predetermined speed, or may be guided so as to touch the outer periphery. May be.

更に、図3(b)に示す軸のオブジェクト(縦軸オブジェクトObj、横軸オブジェクトObj10)60−3は、折れ線グラフのオブジェクト60−1の誘導制御を行う前に触察させるのが好ましいが、これに限定されるものではない。また、軸のオブジェクト(Obj、Obj10)60−3は、Obj〜Objとは連続させずに触察させてもよい。 Further, it is preferable that the axis objects (vertical object Obj 9 , horizontal axis object Obj 10 ) 60-3 shown in FIG. 3B are touched before guidance control of the object 60-1 of the line graph is performed. However, the present invention is not limited to this. The axis objects (Obj 9 , Obj 10 ) 60-3 may be touched without being continuous with Obj 1 to Obj 8 .

上述したように、オブジェクト毎に速度制御等を行うことで、図3(b)に示す折れ線グラフ等の場合には、線の変化のある部分をユーザに容易に把握させることができ、図やグラフ等のオブジェクトを確実に認識させることができる。   As described above, by performing speed control or the like for each object, in the case of a line graph or the like shown in FIG. 3B, the user can easily grasp the portion where the line changes, Objects such as graphs can be reliably recognized.

ここで、図4は、実施例1における力覚誘導制御の一例を示す図である。なお、図4は、上述した図3(b)に示すオブジェクト(Obj〜Obj7)に対する力覚誘導制御の例を示している。 Here, FIG. 4 is a diagram illustrating an example of force sense guidance control according to the first embodiment. FIG. 4 shows an example of haptic guidance control for the objects (Obj 1 to Obj 7 ) shown in FIG.

つまり、図4の例では、誘導シーケンス(誘導順序情報)として、IS1={Obj+Obj+Obj+Obj+Obj+Obj+Obj+NoObj}が設定され、設定された誘導シーケンスにしたがい、上述した提示パラメータ(Fp、Fn)及び誘導パラメータ(FIp、FIn)を用いて各オブジェクトの誘導を行う。なお、図4の例では、オブジェクト間領域NoObjの終点がオブジェクトObjの重心となる。また、図4の例では、オブジェクト間領域NoObj始点から終点(オブジェクトObjの重心)まで最大速度で誘導しているが、速度制御については、これに限定されるものではなく、例えばオブジェクト間領域NoObj用に設定された所定の速度で誘導してもよい。 That is, in the example of FIG. 4, IS1 = {Obj 1 + Obj 2 + Obj 3 + Obj 4 + Obj 5 + Obj 6 + Obj 7 + NoObj} is set as an induction sequence (guidance order information), and the above-described induction sequence is followed. Each object is guided using the presentation parameters (Fp, Fn) and the guidance parameters (FIp, FIn). In the example of FIG. 4, the end point of the object between the regions NoObj is the centroid of the object Obj 8. In the example of FIG. 4, the guidance is performed at the maximum speed from the start point to the end point (the center of gravity of the object Obj 8 ) from the inter-object area NoObj. However, the speed control is not limited to this. The guidance may be performed at a predetermined speed set for NoObj.

また、各オブジェクトは、最小速度及び最大速度の範囲内で速度制御が行われている。例えば、オブジェクトObjに示すように、オブジェクトObjの長さXに対して、中心(又は重心)位置(x/2)までは所定の加速度+aで加速していくが、最大速度を超えないように速度制御がなされる。また、中心位置を通過後は、所定の減速度−aで減速していき最小速度未満になることがないように速度制御がなされる。上述したように、最小速度及び最大速度の範囲内で速度制御を行うことで、ユーザに対する急激な速度変化を防止することができる。したがって、迅速かつ確実にユーザにオブジェクトを把握させることができる。 Each object is speed controlled within the range of the minimum speed and the maximum speed. For example, as shown in the object Obj 4, the length X of the object Obj 4, but the center (or centroid) position to (x / 2) is gradually accelerated at a predetermined acceleration + a 4, exceeds the maximum speed Speed control is done so that there is no. Further, after passing through the center position, the speed is controlled so as not to decelerate at a predetermined deceleration -a 4 and to become less than the minimum speed. As described above, by performing speed control within the range of the minimum speed and the maximum speed, it is possible to prevent a rapid speed change for the user. Therefore, it is possible to make the user grasp the object quickly and reliably.

<力覚誘導制御処理の一例>
ここで、線状オブジェクトとして折れ線を構成するオブジェクトの力覚誘導制御処理の一例について、フローチャートを用いて説明する。図5は、線状オブジェクトに対する力覚誘導制御処理の一例を示すフローチャートである。
<Example of haptic guidance control processing>
Here, an example of haptic guidance control processing of an object that forms a polygonal line as a linear object will be described using a flowchart. FIG. 5 is a flowchart illustrating an example of a force sense guidance control process for a linear object.

図5の例において、力覚誘導制御処理は、提示するオブジェクトと誘導パラメータ等の設定(記述)を行い(S01)、更に、誘導シーケンスの設定(記述)を行う(S02)。ここで、力覚誘導制御処理は、誘導する全オブジェクトに対して設定が終了しているか否かを判断し(S03)、全オブジェクトの設定が終了していない場合(S03において、NO)、S01に戻る。また、S03の処理において、全オブジェクトの設定が終了している場合(S03において、YES)、誘導シーケンスにより設定された順序に基づいて誘導対象のオブジェクトが抽出される(S04)。ここで、パラメータiを1増加し(S05)、オブジェクトObj(i)の誘導を開始する(S06)。また、力覚誘導制御処理は、現在のオブジェクト内の誘導位置を検出する(S07)。このとき、力覚誘導制御処理は、現在の誘導速度Vが最大速度Vmaxより大きい場合には、現在の誘導速度Vを最大速度Vmaxとし、現在の誘導速度Vが最小速度Vminより小さい場合には、現在の誘導速度Vを最小速度Vminとする(S08)。つまり、S08の処理では、最小速度Vから最大速度Vmaxの範囲内で速度の制御を行う。したがって、上述したS06の処理では、オブジェクトの始点より加速度+aで誘導し、オブジェクトObj(i)の重心(又は中心)位置まで速度が上昇するが、実際の誘導速度は、設定した最大速度Vmaxにて制限される。これにより、変化の大きさを調整することができる。 In the example of FIG. 5, the haptic guidance control process sets (describes) an object to be presented, guidance parameters, etc. (S01), and further sets (describes) a guidance sequence (S02). Here, in the haptic guidance control process, it is determined whether or not the setting has been completed for all objects to be guided (S03). If the setting of all objects has not been completed (NO in S03), S01 Return to. Further, in the process of S03, when all the objects have been set (YES in S03), the guidance target object is extracted based on the order set by the guidance sequence (S04). Here, the parameter i is incremented by 1 (S05), and the guidance of the object Obj (i) is started (S06). Further, the haptic guidance control process detects the guidance position in the current object (S07). At this time, the force sensation guidance control process determines that the current guidance speed V is the maximum speed Vmax when the current guidance speed V is greater than the maximum speed Vmax, and the current guidance speed V is less than the minimum speed Vmin. The current guide speed V is set as the minimum speed Vmin (S08). That is, in the process of S08, the speed is controlled within the range from the minimum speed V to the maximum speed Vmax. Accordingly, in the above-described processing of S06, the object is guided at the acceleration + ai from the start point of the object, and the speed increases to the center of gravity (or center) position of the object Obj (i), but the actual guided speed is the set maximum speed Vmax. Limited by. Thereby, the magnitude | size of a change can be adjusted.

ここで、力覚誘導制御処理は、S07の処理により得られる誘導位置情報から、オブジェクトの重心位置(又は中心位置)に到達したか否かを判断し(S09)、オブジェクトの重心位置(又は中心位置)に到達していない場合(S09において、NO)、S07の処理に戻る。また、力覚誘導制御処理は、オブジェクトの重心位置(又は中心位置)に到達した場合(S09において、YES)、オブジェクト時点で減速度−aで速度を制御する(S10)。 Here, the haptic guidance control process determines whether or not the center of gravity position (or center position) of the object has been reached from the guidance position information obtained by the processing of S07 (S09), and the center of gravity position (or center of the object). If the position has not been reached (NO in S09), the process returns to S07. Moreover, the force induced control process, (in S09, YES) when it reaches the position of the center of gravity of the object (or the center position), controlling the speed at deceleration -a i in the object point (S10).

また、力覚誘導制御処理は、上述したS08の処理と同様に、現在の誘導速度Vが最大速度Vmaxより大きい場合には、現在の誘導速度Vを最大速度Vmaxとし、現在の誘導速度Vが最小速度Vminより小さい場合には、現在の誘導速度Vを最小速度Vminとする(S11)。   Similarly to the process of S08 described above, when the current guidance speed V is greater than the maximum speed Vmax, the force guidance control process sets the current guidance speed V to the maximum speed Vmax, and the current guidance speed V is When the speed is smaller than the minimum speed Vmin, the current guide speed V is set as the minimum speed Vmin (S11).

ここで、力覚誘導制御処理は、Obj(i)の誘導を終了するか否かを判断し(S12)、誘導を終了しない場合(S12において、NO)、S10の処理に戻る。また、力覚誘導制御処理は、Obj(i)の誘導を終了する場合(S12において、YES)、オブジェクト間の誘導があるか否かを判断する(S13)。力覚誘導制御処理は、オブジェクト間誘導がある場合(S13において、YES)、オブジェクト間領域誘導処理を行い(S14)、S04の処理に戻り、誘導シーケンスにより設定されている順序に基づいて次のオブジェクトを抽出する。なお、S14の処理内容については、後述する。   Here, in the haptic guidance control process, it is determined whether or not the guidance of Obj (i) is terminated (S12). If the guidance is not terminated (NO in S12), the process returns to S10. Further, in the haptic guidance control process, when the guidance of Obj (i) is terminated (YES in S12), it is determined whether or not there is guidance between objects (S13). When there is an inter-object guidance (YES in S13), the haptic guidance control process performs an inter-object region guidance process (S14), returns to the process of S04, and performs the following based on the order set by the guidance sequence. Extract objects. The processing content of S14 will be described later.

また、力覚誘導制御処理は、S13の処理において、オブジェクト間誘導がない場合(S13において、NO)、次に、全オブジェクトに対する誘導が終了したか否かを判断する(S15)。力覚誘導制御処理は、全オブジェクトに対する誘導が終了していない場合(S15において、NO)、S04の処理に戻り誘導シーケンスにより設定されている順序に基づいて次のオブジェクトを抽出する。   Also, in the haptic guidance control process, when there is no guidance between objects in the process of S13 (NO in S13), it is next determined whether or not the guidance for all objects has been completed (S15). In the haptic guidance control process, when guidance for all objects has not been completed (NO in S15), the process returns to S04 and the next object is extracted based on the order set by the guidance sequence.

また、力覚誘導制御処理は、全オブジェクトの処理が終了した場合(S15において、YES)、力覚誘導制御処理を終了する。   Further, the force sense control process ends the force sense control process when all objects have been processed (YES in S15).

<S14:オブジェクト間領域誘導処理>
次に、上述したS14におけるオブジェクト間領域誘導処理の一例について、フローチャートを用いて説明する。図6は、オブジェクト間領域誘導処理の一例を示すフローチャートである。図6において、オブジェクト間領域誘導処理は、誘導位置がオブジェクトの終点の場合には最小速度になり、また誘導シーケンスに設定された次のオブジェクトの始点まで誘導された後は、上述した内容と同様の誘導を継続する。
<S14: Inter-object area guidance process>
Next, an example of the inter-object region guidance process in S14 described above will be described using a flowchart. FIG. 6 is a flowchart illustrating an example of the inter-object region guidance process. In FIG. 6, the inter-object region guiding process has the minimum speed when the guiding position is the end point of the object, and after being guided to the start point of the next object set in the guiding sequence, is the same as described above. Continue guiding.

したがって、力覚誘導制御処理においてオブジェクト間を移動する場合には、オブジェクトがない場合の提示パラメータFn(j)及び誘導パラメータFIn(j)を抽出する(S21)。ここで、S21の処理としては、例えば初期値である提示パラメータFn={h,σ,μ,c}と誘導パラメータFIn={+a,−a,Vmax,Vmin,F}を抽出し、その抽出した各パラメータを全てののオブジェクト間に対して適用してもよい。 Therefore, when moving between objects in the force sense guidance control process, the presentation parameter Fn (j) and the guidance parameter FIn (j) when there is no object are extracted (S21). Here, as the processing of S21, for example, the presentation parameter Fn = {h 0 , σ 0 , μ 0 , c 0 }, which is an initial value, and the guidance parameter FIn = {+ a 0 , −a 0 , Vmax 0 , Vmin 0 , Vmin 0 , F 0 } may be extracted and the extracted parameters may be applied to all objects.

なお、図6の例に示すオブジェクト間領域誘導処理では、変数jに1を増加することで(S22)、各オブジェクト間で異なるパラメータを抽出することができる。オブジェクト間領域誘導処理は、S21で抽出された各パラメータを用いて2つのオブジェクト間(Obj(i)〜Obj(i+1))の誘導を開始する(S23)。なお、S23の処理では、オブジェクト間用の所定の加速度(例えば、加速度+a)による加速を行ってもよい。これにより、ユーザにオブジェクトの誘導なのかオブジェクト間の誘導なのかを容易に把握させることができる。なお、この区間は一定の速度(例えば、最小速度や、最高速度、それ以外の速度)でもよい。 In the inter-object region guiding process shown in the example of FIG. 6, by increasing 1 to the variable j (S22), different parameters can be extracted between the objects. The inter-object region guiding process starts guiding between two objects (Obj (i) to Obj (i + 1)) using each parameter extracted in S21 (S23). In the process of S23, acceleration by a predetermined acceleration (for example, acceleration + a j ) between objects may be performed. As a result, the user can easily grasp whether the guidance is for the object or between the objects. Note that this section may be a constant speed (for example, the minimum speed, the maximum speed, or other speed).

オブジェクト間領域誘導処理は、誘導パラメータFinのパラメータ値に基づいて、オブジェクト間を誘導する。   The inter-object region guidance process guides between objects based on the parameter value of the guidance parameter Fin.

具体的には、オブジェクト間領域誘導処理は、オブジェクト間の誘導位置を検出し(S24)、現在の誘導位置がオブジェクト間の距離の中心位置に到達したか否かを判断する(S25)。オブジェクト間領域誘導処理は、現在の誘導位置が中心位置に到達していない場合(S25において、NO)、S24の処理に戻る。   Specifically, the inter-object region guidance process detects the guidance position between objects (S24), and determines whether or not the current guidance position has reached the center position of the distance between objects (S25). The inter-object region guidance process returns to the process of S24 when the current guidance position has not reached the center position (NO in S25).

また、オブジェクト間領域誘導処理は、現在の誘導位置が中心位置に到達している場合(S25において、YES)、オブジェクト間用の所定の減速度(例えば、減速度−a)による減速を行いながら、2つのオブジェクト間(Obj(i)〜Obj(i+1))を誘導する(S26)。なお、S26の処理では、誘導速度が最小速度より小さくならないように制御される。 Further, in the inter-object area guiding process, when the current guiding position has reached the center position (YES in S25), the object is decelerated by a predetermined deceleration for the object (for example, deceleration -a j ). However, the two objects (Obj (i) to Obj (i + 1)) are guided (S26). In the process of S26, the guide speed is controlled so as not to be smaller than the minimum speed.

次に、オブジェクト間領域誘導処理は、オブジェクト間誘導を終了するか否かを判断し(S27)、オブジェクト間誘導を終了しない場合(S27において、NO)、S26の処理に戻る。また、オブジェクト間領域誘導処理は、オブジェクト間誘導を終了する場合(S27において、YES)、オブジェクト間領域誘導処理を終了する。   Next, in the inter-object region guiding process, it is determined whether or not the inter-object guiding is to be ended (S27). When the inter-object guiding is not to be ended (NO in S27), the process returns to S26. In the inter-object area guiding process, when the inter-object guiding is finished (YES in S27), the inter-object area guiding process is finished.

上述したように、本実施形態では、線状オブジェクト内或いはオブジェクト間の移動において所定の速度制御を行うことにより、例えばグラフ等の不連続点(例えば、折れ線グラフにおける折れ部分)や曲線部分を迅速で確実にユーザに把握させることができる。   As described above, in the present embodiment, by performing predetermined speed control in movement within or between linear objects, discontinuous points such as graphs (for example, broken portions in a line graph) and curved portions can be quickly displayed. The user can be surely grasped.

<実施例2>
次に、本実施形態における提示内容と対応する誘導制御の実施例2について、図を用いて説明する。実施例2では、例えば面状のオブジェクトの誘導制御について説明する。
<Example 2>
Next, Example 2 of guidance control corresponding to the presentation contents in the present embodiment will be described with reference to the drawings. In the second embodiment, for example, guidance control of a planar object will be described.

図7は、実施例2における提示内容と対応する誘導制御の一例を示す図である。なお、図7(a)は、面状オブジェクト70における誘導例を示し、図7(b)は、面状オブジェクト70の速度制御例を示し、図7(c)は、各面状オブジェクト70における内接円の誘導例を示し、図7(d)は、各面状オブジェクト70における外周の誘導例を示している。   FIG. 7 is a diagram illustrating an example of guidance control corresponding to the presentation content in the second embodiment. 7A shows an example of guidance in the planar object 70, FIG. 7B shows an example of speed control of the planar object 70, and FIG. An inscribed circle guidance example is shown, and FIG. 7D shows an outer circumference guidance example in each planar object 70.

面状オブジェクト70の場合には、例えば基準となる平面61に1又は複数のオブジェクト70(図7(a)の例では、オブジェクトObj〜Obj)が提示されている場合には、各オブジェクトのある程度の大きさが触察で把握できるようにするのが好ましい。 In the case of the planar object 70, for example, when one or more objects 70 (objects Obj 1 to Obj 5 in the example of FIG. 7A) are presented on the reference plane 61, each object It is preferable to be able to grasp a certain size of this by touch.

そこで、実施例2では、例えば図7(a)に示すように、各オブジェクトObj〜Obj重心を誘導シーケンスで設定された誘導順序に基づいて通過する誘導制御を行う。なお、図7(a)の例では、各オブジェクトObj〜Objの重心位置に基づいて誘導するのではなく、中心位置に基づいて誘導してもよい。 Thus, in the second embodiment, for example, as illustrated in FIG. 7A, guidance control is performed to pass the centroids of the objects Obj 1 to Obj 5 based on the guidance order set in the guidance sequence. In the example of FIG. 7A, the guidance may be performed based on the center position, not based on the center-of-gravity positions of the objects Obj 1 to Obj 5 .

ここで、実施例2において、図7(a)に示すような重心位置に基づいて誘導制御を行う重心位置誘導方式の場合、提示パラメータは、上述した実施例1と同様にFp(オブジェクト有)、Fn(オブジェクト無)で表すことができ、誘導パラメータについてもFIp(オブジェクト有)、FIn(オブジェクト無)で表すことができる。   Here, in the second embodiment, in the case of the center-of-gravity position guidance method in which guidance control is performed based on the center-of-gravity position as illustrated in FIG. 7A, the presentation parameter is Fp (object present) as in the first embodiment. , Fn (no object), and the induction parameter can also be expressed as FIp (with object) and FIn (without object).

また、実施例2では、面状オブジェクト70の誘導について、上述した実施例1と同様に、図7(b)に示すように、オブジェクトが把握し易いようにオブジェクト内で速度を変化させて誘導を行う。実施例2では、例えば面状オブジェクト70に対して誘導し始める最初の端部を始点とし、面状オブジェクト70から出る最後の端部を終点として、それぞれの点の付近で速度変化による誘導を行う。   Further, in the second embodiment, the guidance of the planar object 70 is performed by changing the speed in the object so that the object can be easily grasped, as shown in FIG. I do. In the second embodiment, for example, the first end that starts to be guided with respect to the planar object 70 is set as the start point, and the last end that exits from the planar object 70 is set as the end point. .

なお、図7(b)の例では、面状オブジェクト70の始点での速度を最大速度Vmaxとし、そこから減速度−aで減速していき、更に重心から先の誘導については、加速度+aで加速していき面状オブジェクト70の終点で最大速度Vmaxとなるように速度制御を行う。なお、上述した制御においては、最小速度Vmin未満になることがないように制御される。上述した速度制御は、逆であってもよく、面状オブジェクト70の始点及び終点で最小速度Vminとなり、重心位置で最大速度Vmaxとなるように制御してもよい。   In the example of FIG. 7B, the speed at the starting point of the planar object 70 is set to the maximum speed Vmax, and then the vehicle is decelerated with a deceleration −a. Further, for guidance beyond the center of gravity, the acceleration is + a. The speed is controlled so that the maximum speed Vmax is reached at the end point of the planar object 70 by accelerating. In the above-described control, control is performed so as not to be less than the minimum speed Vmin. The speed control described above may be reversed, and control may be performed so that the minimum speed Vmin is obtained at the start point and the end point of the planar object 70 and the maximum speed Vmax is obtained at the center of gravity position.

また、面状オブジェクト70に対する誘導手法としては、例えば図7(c)に示すように、オブジェクトの重心位置に誘導し内接円を誘導提示(内接円誘導)する手法を用いることができる。具体的には、図7(c)に示すようにオブジェクトObj〜Objに対して、最初に重心に誘導した後、内接円上の所定の点(始点a)まで誘導し、所定の方向に円周誘導を行い、1周した後、再び重心に戻る制御を行う。なお、図7(c)の例では、オブジェクトObjからObjへの誘導時に重心間による誘導を行っているが、誘導内容についてはこれに限定されるものではなく、例えば図7(c)に示すオブジェクトObjからObjへの誘導のように、オブジェクト間が最短距離となる経路で誘導を行ってもよい。 As a guidance method for the planar object 70, for example, as shown in FIG. 7C, a method of guiding to the center of gravity of the object and guiding and presenting an inscribed circle (inscribed circle guidance) can be used. Specifically, as shown in FIG. 7C, the objects Obj 1 to Obj 3 are first guided to the center of gravity and then guided to a predetermined point (start point a) on the inscribed circle. Circumferential guidance is performed in the direction, and control is performed to return to the center of gravity again after one round. In the example of FIG. 7C, guidance between the centers of gravity is performed at the time of guidance from the object Obj 1 to Obj 2 , but the guidance content is not limited to this. For example, FIG. 7C As in the case of guidance from the object Obj 2 to Obj 3 shown in FIG.

また、具体例2では、図7(d)に示すように、オブジェクトの重心位置に誘導しオブジェクトの外周を誘導提示(オブジェクト外周誘導)する手法を用いることができる。   Further, in the second specific example, as shown in FIG. 7D, a method of guiding to the center of gravity of the object and guiding and presenting the outer periphery of the object (object outer periphery guiding) can be used.

例えば、図7(d)に示すオブジェクトObjの場合には、重心位置に誘導した後、外周の所定の位置(始点a)に誘導し、所定の方向に外周誘導を行い、1周した後、再び重心に戻る制御を行う。また、外周誘導が終了後、次のオブジェクトへ誘導する。また、図7(d)に示すオブジェクトObjの場合には、重心へ誘導した後、始点aに誘導し、経路a→b→c→d→aの順で外周誘導を行い、外周誘導が終了後に、再び重心へ戻る。また、図7(d)に示すオブジェクトObjの場合も同様に、経路a→b→c→d→e→f→g→h→i→j→aの順で外周誘導を行い、再び重心に戻り、その後、端部aから端部eに誘導して力覚誘導制御を終了する。また、図7(d)の例では、各オブジェクト間の誘導時に重心間による誘導を行っているが、誘導内容についてはこれに限定されるものはない。 For example, in the case of the object Obj 1 shown in FIG. 7D, after guiding to the center of gravity position, guiding to a predetermined position (start point a) on the outer periphery, performing outer periphery guidance in a predetermined direction, and then making one turn Then, control to return to the center of gravity is performed again. Further, after the outer periphery guidance is completed, the guidance is performed to the next object. In the case of the object Obj 2 shown in FIG. 7D, after guiding to the center of gravity, guiding to the starting point a and guiding the periphery in the order of route a → b → c → d → a. After finishing, it returns to the center of gravity again. Similarly, in the case of the object Obj 3 shown in FIG. 7D, the outer periphery guidance is performed in the order of the route a → b → c → d → e → f → g → h → i → j → a, and the center of gravity is again obtained. After that, the haptic guidance control is terminated by guiding from the end a to the end e. In the example of FIG. 7D, guidance between the centers of gravity is performed during guidance between the objects, but the guidance content is not limited to this.

なお、上述した内接円誘導や外周誘導については、例えば各オブジェクトに対応させて内接円誘導又はオブジェクト外周誘導を組み合わせてもよい。   Note that the inscribed circle guidance and the outer circumference guidance described above may be combined with, for example, inscribed circle guidance or object circumference guidance corresponding to each object.

<面状オブジェクトに対する力覚誘導制御処理の一例>
ここで、面状オブジェクトに対する力覚誘導制御処理の一例について、フローチャートを用いて説明する。図8は、面状オブジェクトに対する力覚誘導制御処理の一例を示すフローチャートである。なお、図8の処理の例では、重心位置誘導方式による面状オブジェクトの誘導制御処理を示している。
<Example of haptic guidance control processing for planar object>
Here, an example of the haptic guidance control process for the planar object will be described with reference to a flowchart. FIG. 8 is a flowchart illustrating an example of a force sense guidance control process for a planar object. Note that the example of the process in FIG. 8 illustrates a planar object guidance control process using the center-of-gravity position guidance method.

図8において、力覚誘導制御処理は、オブジェクト重心位置算出部43により各オブジェクトの重心を検出する(S31)。次に、力覚誘導制御処理は、誘導シーケンスで設定された順序に基づいて誘導対象のオブジェクトを抽出し(S32)、オブジェクトObj(i)の重心に誘導する(S33)。なお、S33の処理では、重心位置への誘導時に例えば図7(b)に示すような速度制御を行う。具体的には、予め設定された最大速度Vmaxで誘導を開始し、減速度−aで減速しながら、重心位置まで誘導する。 In FIG. 8, in the haptic guidance control process, the object gravity center position calculation unit 43 detects the gravity center of each object (S31). Next, the haptic guidance control process extracts a guidance target object based on the order set in the guidance sequence (S32), and guides it to the center of gravity of the object Obj (i) (S33). In the process of S33, for example, speed control as shown in FIG. 7B is performed at the time of guidance to the center of gravity. Specifically, to start the induction at the maximum speed Vmax set in advance, while decelerated at the deceleration -a i, is guided to the center of gravity position.

ここで、誘導提示処理は、オブジェクト内の誘導位置を検出しながら(S34)、現在の誘導速度Vが最大速度Vmaxより大きい場合には、現在の誘導速度Vを最大速度Vmaxとし、現在の誘導速度Vが最小速度Vminより小さい場合には、現在の誘導速度Vを最小速度Vminとする(S35)。つまり、S35の処理により、誘導速度は、誘導速度設定部51により最大速度と最小速度が制限される。   Here, the guidance presentation process detects the guidance position in the object (S34), and if the current guidance speed V is greater than the maximum speed Vmax, the current guidance speed V is set to the maximum speed Vmax, and the current guidance is displayed. If the speed V is smaller than the minimum speed Vmin, the current guide speed V is set as the minimum speed Vmin (S35). That is, the maximum speed and the minimum speed of the guide speed are limited by the guide speed setting unit 51 by the process of S35.

ここで、誘導提示処理は、オブジェクト内の誘導位置が重心位置にあるか否かを判断し(S36)、重心位置にない場合(S36において、NO)、S34の処理に戻る。また、誘導提示処理は、重心位置にある場合(S36において、YES)、面状オブジェクト70に対する所定の誘導を行う。   Here, in the guidance presentation process, it is determined whether or not the guidance position in the object is at the center of gravity position (S36). If the guidance position is not at the center of gravity position (NO in S36), the process returns to S34. Further, the guidance presentation process performs a predetermined guidance for the planar object 70 when the center of gravity is located (YES in S36).

図8の例では、図7(c)に示すような内接円誘導を行う例を説明する。誘導提示処理は、重心位置に誘導されると、例えば図7(c)に示すように始点aに移動し(S37)、オブジェクト内接円・外周誘導データ作成部45で算出された内接円をオブジェクト内接円・外周誘導制御53で制御し、等速で内接円周を移動して誘導し(S38)、再度始点aより重心に移動する(S39)。その後、誘導提示処理は、次のオブジェクトに移動する。上述したように、内接円誘導を用いることで、オブジェクトの位置だけではなく、面状オブジェクト70の大よそのサイズも迅速に把握することができる。   In the example of FIG. 8, an example of performing inscribed circle guidance as shown in FIG. 7C will be described. When the guidance presentation process is guided to the center of gravity position, for example, the guidance presentation process moves to the starting point a as shown in FIG. 7C (S37), and the inscribed circle calculated by the object inscribed circle / outer circumference guidance data creation unit 45 Is controlled by the object inscribed circle / outer periphery guidance control 53, and is guided by moving the inscribed circle at a constant speed (S38), and again moves from the starting point a to the center of gravity (S39). Thereafter, the guidance presentation process moves to the next object. As described above, by using the inscribed circle guidance, not only the position of the object but also the approximate size of the planar object 70 can be quickly grasped.

誘導提示処理は、S39の処理後、オブジェクトObj(i)の誘導を所定の加速度(例えば、加速度+a)で開始する(S40)。また、誘導提示処理は、上述したように、現在の誘導速度Vが最大速度Vmaxより大きい場合には、現在の誘導速度Vを最大速度Vmaxとし、現在の誘導速度Vが最小速度Vminより小さい場合には、現在の誘導速度Vを最小速度Vminとする(S41)。つまり、S35の処理の場合、誘導速度は、誘導速度設定部51により最大速度と最小速度が制限される。 The guidance presentation process starts the guidance of the object Obj (i) at a predetermined acceleration (for example, acceleration + a i ) after the process of S39 (S40). Further, as described above, in the guidance presentation process, when the current guidance speed V is greater than the maximum speed Vmax, the current guidance speed V is set to the maximum speed Vmax, and the current guidance speed V is less than the minimum speed Vmin. The current guide speed V is set to the minimum speed Vmin (S41). That is, in the process of S35, the maximum speed and the minimum speed of the guide speed are limited by the guide speed setting unit 51.

次に、誘導提示処理は、Obj(i)の誘導を終了するか否かを判断し(S42)、Obj(i)の誘導を終了しない場合(S42において、NO)、S40の処理に戻る。また、誘導提示処理は、Obj(i)の誘導を終了する場合(S42において、YES)、面状オブジェクト70の誘導提示処理を終了する。   Next, in the guidance presentation process, it is determined whether or not the guidance of Obj (i) is to be terminated (S42). If the guidance of Obj (i) is not terminated (NO in S42), the process returns to S40. In the guidance presentation process, when the guidance of Obj (i) is terminated (YES in S42), the guidance presentation process of the planar object 70 is terminated.

なお、図8の例では、S37〜S39の処理において内接円誘導方式を用いたが、本実施形態においてはこれに限定されるものではない。例えば、S37〜S39の処理において、例えば図7(d)に示すようなオブジェクト外周誘導を行なってもよい。この場合には、オブジェクト内接円・外周誘導データ作成部45で抽出された外周位置の情報に基づきオブジェクトの周囲を移動し、再度重心位置に戻った後に、次のオブジェクトに移動する。なお、オブジェクト内接円・外周誘導データ作成部45において外周を移動する誘導を行う場合には、外周部分を上述した線状オブジェクトとして扱うことができる。このように、オブジェクト外周誘導を用いることで、ユーザは、オブジェクトの位置と形状を確実に把握することができる。   In the example of FIG. 8, the inscribed circle guidance method is used in the processes of S37 to S39, but the present embodiment is not limited to this. For example, in the processing of S37 to S39, for example, object outer periphery guidance as shown in FIG. In this case, the object moves around the object based on the information on the outer periphery position extracted by the object inscribed circle / periphery guidance data creation unit 45, returns to the center of gravity again, and then moves to the next object. When the object inscribed circle / peripheral guidance data creation unit 45 performs guidance for moving the outer circumference, the outer circumference can be handled as the linear object described above. Thus, by using the object outer periphery guidance, the user can surely grasp the position and shape of the object.

更に、他の例としては、上述したS37〜S39の処理を行わずに、図7(a)に示すように、単純に重心位置を移動して誘導する方式がある。この場合、重心位置に到達した時点で加速度+aで次に指定されたオブジェクトに移動する。この手法を用いることで、ユーザは、面状オブジェクトの位置を迅速に把握することができる。このように、実施例2では、オブジェクトの位置の認知の速さとオブジェクトのサイズや形状の認知を含めた誘導の観点より、上述した内容の誘導方式から選択的に力覚誘導制御を行うことができる。   Furthermore, as another example, as shown in FIG. 7A, there is a method in which the center of gravity position is simply moved and guided without performing the above-described processing of S37 to S39. In this case, when the center of gravity is reached, the object moves to the next designated object with acceleration + a. By using this method, the user can quickly grasp the position of the planar object. As described above, in the second embodiment, from the viewpoint of guidance including recognition of the position of the object and recognition of the size and shape of the object, force guidance control can be selectively performed from the guidance method of the above-described content. it can.

<実施例3>
次に、本実施形態における提示内容と対応する誘導制御の実施例3について、図を用いて説明する。実施例3では、実施例2と同様に面状のオブジェクトの誘導制御について説明するが、実施例3では、予め規定された入出力位置に基づいて誘導を行う規定入出力位置誘導方式と誘導速度制御の一例について説明する。
<Example 3>
Next, Example 3 of guidance control corresponding to the presentation contents in the present embodiment will be described with reference to the drawings. In the third embodiment, guidance control of a planar object will be described as in the second embodiment. In the third embodiment, a prescribed input / output position guidance method and guidance speed for performing guidance based on a predefined input / output position. An example of control will be described.

図9は、実施例3おける提示内容と対応する誘導制御の一例を示す図である。図9におけるオブジェクトは、5つのオブジェクト70(Obj〜Obj)を有している。なお、図9に示すように、実施例3では、規定入出力位置誘導方式と力覚誘導速度制御により、速度を制御してオブジェクトの位置をユーザに把握させる。 FIG. 9 is a diagram illustrating an example of guidance control corresponding to the presentation content in the third embodiment. The object in FIG. 9 has five objects 70 (Obj 1 to Obj 5 ). As shown in FIG. 9, in the third embodiment, the speed is controlled by the specified input / output position guidance method and the force sense speed control so that the user can grasp the position of the object.

上述した実施例2では、図7(a)に示すように、重心位置(又は中心位置)に基づく誘導について示したが、面状オブジェクト70に対しては、ある程度の形状や大きさを把握する必要があるため、始点と終点の位置をどこに設定するのかも重要な条件となる。   In the second embodiment described above, as shown in FIG. 7A, guidance based on the center of gravity position (or center position) has been shown. However, for the planar object 70, a certain degree of shape and size are grasped. Since it is necessary, it is also an important condition where the start point and the end point are set.

例えば、始点と終点の設定方法としては、予め設定された規定値を入力して始点と終点を設定する手法や、平面上に配置されるオブジェクトの位置に応じて誘導経路が短くなるように自動的に始点と終点とを設定する手法を用いることができる。   For example, as a method for setting the start point and the end point, a method for setting the start point and the end point by inputting preset predetermined values, or automatic so that the guide route is shortened according to the position of the object placed on the plane. In general, a method of setting the start point and the end point can be used.

実施例3に示す規定入出力位置誘導方式では、例えば図9に示すように、オブジェクト70間の誘導に際し、オブジェクト70の始点となる入力位置と終点となる出力位置を規定し、その間を直線的に誘導する。また、オブジェクト間の誘導速度は、上述の内容と同様にオブジェクトの中心(重心)位置を境に減速・定速・加速が行われるように速度を制御する。   In the prescribed input / output position guidance system shown in the third embodiment, for example, as shown in FIG. 9, when guiding between objects 70, an input position that is the start point of the object 70 and an output position that is the end point of the object 70 are defined, and the interval between them is linear. To guide. Further, the guidance speed between objects is controlled so that deceleration, constant speed, and acceleration are performed at the center (center of gravity) position of the object as in the above description.

ここで、上述した規定入出力位置(始点及び終点)の設定は、例えば予め始点と終点の位置座標をオブジェクトの属性情報に含めることができる。この場合、オブジェクトに対する誘導パラメータは、例えば以下のように記述される。
オブジェクト:FIp={加速度+a,減速度−a,最大速度Vmax,最小速度Vmin,誘導力F,始点(X,Y),終点(X,Y)}
なお、図9の例では、オブジェクトObj〜Objの誘導順序で誘導制御を行う。また、図9の例では、オブジェクトObjは始点a、終点bを通る直線を誘導経路とし、Objは始点a、終点cを通る直線を誘導経路とし、Objは始点a、終点eを通る直線を誘導経路とし、Objは始点a、終点cを通る直線を誘導経路としている。更に、実施例3では、オブジェクトObjに対して、例えば自動検出した終点cや規定入出力位置により設定した終点c'とを用いることで、任意の誘導経路を選択して誘導することができる。また、実施例3では、各誘導経路において、図9に示すようにオブジェクト毎に速度制御を行うことで、ユーザに迅速で確実にオブジェクトを把握させることができる。
Here, in the setting of the specified input / output positions (start point and end point) described above, for example, the position coordinates of the start point and end point can be included in the attribute information of the object in advance. In this case, the guidance parameter for the object is described as follows, for example.
Object: FIp = {acceleration + a, deceleration-a, maximum speed Vmax, minimum speed Vmin, induction force F, start point (X s , Y s ), end point (X e , Y e )}
In the example of FIG. 9, guidance control is performed in the guidance order of the objects Obj 1 to Obj 5 . In the example of FIG. 9, the object Obj 1 has a straight line passing through the start point a and the end point b as a guide route, Obj 2 has a straight line through the start point a and the end point c, and Obj 3 has a start point a and an end point e. A straight line passing through is used as a guide route, and Obj 4 uses a straight line passing through the start point a and the end point c as a guide route. Furthermore, in the third embodiment, an arbitrary guidance route can be selected and guided with respect to the object Obj 5 by using, for example, the automatically detected end point c or the end point c ′ set by the specified input / output position. . Further, in the third embodiment, by performing speed control for each object as shown in FIG. 9 in each guidance route, the user can be quickly and surely grasped the object.

<規定入力位置による力覚誘導制御処理の一例>
次に、面状オブジェクトの規定入力位置による力覚誘導制御処理の一例について、フローチャートを用いて説明する。図10は、規定入力位置による力覚誘導制御処理の一例を示すフローチャートである。
<Example of haptic guidance control processing based on specified input position>
Next, an example of a haptic guidance control process based on a prescribed input position of a planar object will be described using a flowchart. FIG. 10 is a flowchart illustrating an example of the haptic guidance control process based on the specified input position.

具体的には、図10に示す力覚誘導制御処理は、規定入出力位置を設定し(S51)、その後、力覚誘導を開始すると、オブジェクト始点・終点位置検出部44にて始点(X,Y)と終点(X,Y)が検出される(S52)。ここで、力覚誘導制御処理は、オブジェクト位置設定部52において誘導位置を始点aに移動する(S53)。 Specifically, the haptic guidance control process shown in FIG. 10 sets a prescribed input / output position (S51), and then starts the haptic guidance, and then the object start point / end point position detection unit 44 starts (X s , Y s ) and the end point (X e , Y e ) are detected (S52). Here, in the haptic guidance control process, the object position setting unit 52 moves the guidance position to the starting point a (S53).

ここで、面状オブジェクト内では、上述した図7(b)に示すような速度制御が行われる。具体的には、力覚誘導制御処理は、オブジェクト内の誘導位置を検出しながら(S54)、現在の誘導速度Vが最大速度Vmaxより大きい場合には、現在の誘導速度Vを最大速度Vmaxとし、現在の誘導速度Vが最小速度Vminより小さい場合には、現在の誘導速度Vを最小速度Vminとする(S55)。つまり、S55の処理の場合には、誘導速度は最大速度Vmaxと最小速度Vminで制限されながら始点aから終点bに直線的に誘導される。   Here, speed control as shown in FIG. 7B is performed in the planar object. Specifically, the haptic guidance control process detects the guidance position in the object (S54), and if the current guidance speed V is greater than the maximum speed Vmax, the current guidance speed V is set to the maximum speed Vmax. If the current guide speed V is smaller than the minimum speed Vmin, the current guide speed V is set as the minimum speed Vmin (S55). That is, in the process of S55, the guide speed is linearly guided from the start point a to the end point b while being limited by the maximum speed Vmax and the minimum speed Vmin.

ここで、力覚誘導制御処理は、誘導位置が終点bに到達したか否かを判断し(S56)、終点bに到達していない場合(S56において、NO)、S54の処理に戻る。また、終点bに到達した場合(S56において、YES)、処理を終了する。   Here, in the haptic guidance control process, it is determined whether or not the guidance position has reached the end point b (S56). When the end point b has not been reached (NO in S56), the process returns to the process of S54. If the end point b has been reached (YES in S56), the process ends.

ここで、実施例3では、規定入出力位置誘導方式の他の例として、X軸における端点を自動検出する手法がある。この方法は、オブジェクトの水平方向(X軸方向)で最小と最大の座標を検出し、それぞれを始点(X,Y)と終点(X,Y)とする。誘導及び速度制御の方法は、規定入出力位置設定と同様であり、始点aから終点bまで直線的に誘導する。例えば、図9に示すオブジェクトObjが上述した手法に対応している。オブジェクトObjの例では、端点aが始点となり、端点eが終点となる。したがって、オブジェクトObjの誘導経路は、直線a→eとなる。 Here, in the third embodiment, as another example of the specified input / output position guidance method, there is a method of automatically detecting an end point on the X axis. In this method, the minimum and maximum coordinates in the horizontal direction (X-axis direction) of the object are detected and set as a start point (X 1 , Y 1 ) and an end point (X 2 , Y 2 ), respectively. The method of guidance and speed control is the same as that of the prescribed input / output position setting, and the guidance is linearly performed from the start point a to the end point b. For example, an object Obj 3 shown in FIG. 9 corresponds to the method described above. In the example of the object Obj 3 , the end point a is the start point and the end point e is the end point. Therefore, the guidance path of the object Obj 3 is a straight line a → e.

この手法を用いた場合、図10に示すS51の処理では、X軸端点の自動検出を行い、S52の処理で各オブジェクト端点a,bを検出する。また、S53〜S56については、同様の処理を行う。   When this method is used, the X-axis end point is automatically detected in the process of S51 shown in FIG. 10, and the object end points a and b are detected in the process of S52. The same processing is performed for S53 to S56.

上述したように、実施例3の規定入出力位置誘導方式では、迅速なオブジェクトの位置関係を伝達できる他、始点と終点を規定することで、例えば意図的にオブジェクトの長軸方向のサイズ等を認知させることができる。また、オブジェクトの中心部と周辺部とで誘導速度を変化させることにより、オブジェクトの位置関係や疑似的な凹凸感等を迅速で確実に把握することができる。   As described above, in the specified input / output position guidance method of the third embodiment, in addition to being able to transmit the positional relationship of the object quickly, by defining the start point and the end point, for example, the size of the object in the long axis direction can be intentionally set. It can be recognized. In addition, by changing the guide speed between the center portion and the peripheral portion of the object, it is possible to quickly and reliably grasp the positional relationship of the object, the pseudo unevenness, and the like.

<誘導切替部20について>
なお、本実施形態では、上述したように、誘導切替部20を用いて誘導制御を中止し自由な触察を可能とすることができる。また、力覚誘導制御を再開する場合には、誘導制御の内容に対応する再開手法を用いることができる。
<About the guidance switching unit 20>
In the present embodiment, as described above, the guidance control can be stopped using the guidance switching unit 20 to enable free touch. Moreover, when restarting force sense guidance control, the restart method corresponding to the content of guidance control can be used.

例えば、面状オブジェクト70に対して上述した重心位置誘導方式を用いている場合には、中止したオブジェクトの重心位置に移動して誘導を再開する。また、線状オブジェクト60の場合や、面状オブジェクト70に対して上述した規定入出力位置誘導方式を用いている場合には、中止時の位置情報を記憶しておき、記憶された位置から誘導を再開する。   For example, when the above-described center-of-gravity position guidance method is used for the planar object 70, the guidance is resumed by moving to the center-of-gravity position of the canceled object. Further, in the case of the linear object 60 or when the above-described prescribed input / output position guidance method is used for the planar object 70, the position information at the time of suspension is stored, and guidance is performed from the stored position. To resume.

更に、面状オブジェクトに対して内接円誘導方式又はオブジェクト外周誘導方式を用いている場合には、始点aに移動して誘導を再開する。   Further, when the inscribed circle guidance method or the object outer circumference guidance method is used for the planar object, the guidance is resumed by moving to the start point a.

なお、本実施形態においては、これに限定されるものではなく、上述の再開方法から何れかを選択したり、組み合わせたりすることができる。   In the present embodiment, the present invention is not limited to this, and any one of the above-described restart methods can be selected or combined.

<実行プログラム(力覚誘導制御プログラム)>
ここで、上述した力覚誘導制御装置10は、一態様として、CPU(Central Processing Unit)、RAM(Random Access Memory)等の揮発性の記憶媒体、ROM(Read Only Memory)等の不揮発性の記憶媒体、マウスやキーボード、ポインティングデバイス等の入力装置、画像やデータを表示する表示手段、並びに外部と通信するためのインタフェースを備えたコンピュータによって構成することができる。
<Execution program (haptic guidance control program)>
Here, the haptic guidance control apparatus 10 described above has, as one aspect, a volatile storage medium such as a CPU (Central Processing Unit) and a RAM (Random Access Memory), and a nonvolatile storage such as a ROM (Read Only Memory). It can be configured by a computer having an input device such as a medium, a mouse, a keyboard, and a pointing device, a display means for displaying images and data, and an interface for communicating with the outside.

したがって、力覚誘導制御装置10が有する上述した各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現可能となる。また、これらのプログラムは、磁気ディスク(フロッピィーディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記録媒体に格納して頒布することもできる。   Therefore, the above-described functions of the haptic guidance control apparatus 10 can be realized by causing the CPU to execute a program describing these functions. These programs can also be stored and distributed in a recording medium such as a magnetic disk (floppy disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, or the like.

つまり、上述した各構成における処理をコンピュータに実行させるための実行プログラム(力覚誘導制御プログラム)を生成し、例えば汎用のパーソナルコンピュータ等にそのプログラムをインストールすることにより、上述した力覚誘導制御処理を実現することができる。   That is, by generating an execution program (force sense guidance control program) for causing a computer to execute the processing in each configuration described above and installing the program in, for example, a general-purpose personal computer, the above-described force sense guidance control processing is performed. Can be realized.

上述したように本発明の一観点によれば、ユーザに迅速で確実にオブジェクトを把握させることができる。具体的には、力覚提示において、ユーザが自ら手指を動かしてコンテンツを把握していた能動的な触察に加え、かな文字、各種のグラフ(折れ線グラフ、棒グラフ、円グラフ等を広く含む)、地図の輪郭、その他の物体等のオブジェクトに対して、所定の順序で手指を力覚で誘導する受動的な提示を行うことで、視覚障害者や視覚情報が遮断された状況にいる者であっても、迅速で確実にオブジェクトを把握することができる。   As described above, according to one aspect of the present invention, it is possible to cause a user to grasp an object quickly and reliably. Specifically, in force presentation, in addition to the active touch that the user has grasped the content by moving his / her fingers, Kana characters and various graphs (including line graphs, bar graphs, pie charts, etc.) For visually impaired persons or persons who are in a situation where visual information is blocked by passively presenting the fingers with a force sense in predetermined order to objects such as map outlines and other objects Even if it exists, the object can be grasped quickly and reliably.

なお、上述した本実施形態では、力覚誘導制御装置10と力覚提示装置30とを別体の構成にしたが、これに限定されるものではなく、力覚誘導制御装置10と力覚提示装置30とが一体に構成されていてもよい。その場合には、例えば力覚誘導制御装置10が、力覚提示装置30に内蔵される構成例が想定される。   In addition, in this embodiment mentioned above, although the force sense guidance control apparatus 10 and the force sense presentation apparatus 30 were made into the different structure, it is not limited to this, The force sense guidance control apparatus 10 and force sense presentation The apparatus 30 may be configured integrally. In this case, for example, a configuration example in which the force sense guidance control device 10 is built in the force sense presentation device 30 is assumed.

以上、本実施形態について詳述したが、特定の実施形態に限定されるものではなく、特許請求の範囲に記載された範囲内において、上記変形例以外にも種々の変形及び変更が可能である。   Although the present embodiment has been described in detail above, the present invention is not limited to the specific embodiment, and various modifications and changes other than the above-described modifications are possible within the scope described in the claims. .

10 力覚誘導制御装置
11 オブジェクト記述部
12 オブジェクト提示データ作成部
13 誘導パラメータ記述部
14 誘導データ作成部
15 誘導シーケンス記述部
16 誘導データ蓄積部
17 誘導制御部
18 力覚誘導制御部
19 誘導位置検出部
20 誘導切替部
30 力覚提示装置
41 線状オブジェクト抽出部
42 面状オブジェクト抽出部
43 オブジェクト重心位置算出部
44 オブジェクト始点・終点位置検出部
45 オブジェクト内接円・外周誘導データ作成部
51 誘導速度設定部
52 オブジェクト位置設定部
53 オブジェクト内接円・外周誘導制御部
54 誘導位置・速度制御部
60 オブジェクト
61 平面
70 面状オブジェクト
DESCRIPTION OF SYMBOLS 10 Haptic guidance control apparatus 11 Object description part 12 Object presentation data creation part 13 Guidance parameter description part 14 Guidance data creation part 15 Guidance sequence description part 16 Guidance data storage part 17 Guidance control part 18 Haptic guidance control part 19 Guidance position detection Unit 20 guidance switching unit 30 force sense presentation device 41 linear object extraction unit 42 planar object extraction unit 43 object centroid position calculation unit 44 object start point / end point position detection unit 45 object inscribed circle / outer periphery guidance data creation unit 51 guidance speed Setting unit 52 Object position setting unit 53 Object inscribed circle / periphery guidance control unit 54 Guide position / speed control unit 60 Object 61 Plane 70 Planar object

Claims (7)

オブジェクトの情報を力覚によりユーザに提示する力覚提示装置に対して前記オブジェクトへの誘導制御を行う力覚誘導制御装置において、
前記オブジェクトの位置情報に対応する誘導データを作成する誘導データ作成部と、
前記誘導データ作成部により得られる誘導データと、前記オブジェクトに対する現在の誘導位置とに基づいて、前記オブジェクトの誘導位置に対応させて誘導速度を制御する誘導制御部と、
前記誘導制御部により得られる誘導速度に基づいて、前記力覚提示装置に力覚提示させる力覚提示制御部とを有し、
前記誘導制御部は、
前記オブジェクトの中心部と周辺部とで前記誘導速度を変化させることを特徴とする力覚誘導制御装置。
In a haptic guidance control apparatus that performs guidance control on the object with respect to a haptic presentation apparatus that presents object information to the user by haptic sense,
A guidance data creation unit that creates guidance data corresponding to the position information of the object;
A guidance control unit that controls the guidance speed in accordance with the guidance position of the object based on the guidance data obtained by the guidance data creation unit and the current guidance position with respect to the object;
Based on the induction speed obtained by the guidance control unit, possess a force sense presenting control unit for force feedback to the force-feedback device,
The guidance control unit
A haptic guidance control apparatus , wherein the guidance speed is changed between a central part and a peripheral part of the object .
前記誘導データ作成部は、
前記オブジェクトの誘導位置において、前記オブジェクト内を誘導する始点と終点とを設定し、設定された始点と終点を直線で移動する誘導データを作成することを特徴とする請求項1に記載の力覚誘導制御装置。
The guidance data creation unit
In inductive position of the object, the force of claim 1, characterized in that to create a derived data set the start and end points for guiding the object to move in a straight line set start and end points Guidance control device.
前記誘導データ作成部は、
複数のオブジェクトを連結して1つのオブジェクトを構成する誘導データを作成することを特徴とする請求項1又は2に記載の力覚誘導制御装置。
The guidance data creation unit
The haptic guidance control apparatus according to claim 1 or 2 , wherein a plurality of objects are connected to create guidance data constituting one object.
前記誘導データ作成部は、前記オブジェクトが所定の領域を有する面状オブジェクトの場合に、前記面状オブジェクトの重心又は中心を算出し、
前記誘導制御部は、前記面状オブジェクトの重心間又は中心間を誘導するよう誘導位置を制御することを特徴とする請求項1乃至の何れか1項に記載の力覚誘導制御装置。
The guidance data creation unit calculates the center of gravity or center of the planar object when the object is a planar object having a predetermined area;
The haptic guidance control apparatus according to any one of claims 1 to 3 , wherein the guidance control unit controls a guidance position so as to guide between the centers of gravity or between the centers of the planar objects.
前記誘導制御部は、
前記面状オブジェクトの重心又は中心から、前記面状オブジェクトに内接する円、又は、前記面状オブジェクト自体の外周に誘導するよう制御することを特徴とする請求項に記載の力覚誘導制御装置。
The guidance control unit
5. The haptic guidance control device according to claim 4 , wherein control is performed so as to guide the center of the planar object from a center of gravity or a center thereof to a circle inscribed in the planar object or an outer periphery of the planar object itself. .
前記誘導データ作成部は、
前記オブジェクトが線状オブジェクトの場合に、前記線状オブジェクトに触察する部分に凹型又は凸型の形状を生成することを特徴とする請求項1乃至の何れか1項に記載の力覚誘導制御装置。
The guidance data creation unit
If the object is a linear object, the force induction control according to any one of claims 1 to 3, characterized in that to produce a concave or convex shape portion Judging touch the linear object apparatus.
コンピュータを、請求項1乃至6のいずれか1項に記載の力覚誘導制御装置として機能させることを特徴とする力覚誘導制御プログラム。A haptic guidance control program that causes a computer to function as the haptic guidance control device according to any one of claims 1 to 6.
JP2012139113A 2012-06-20 2012-06-20 Haptic guidance control device, haptic guidance control method, and haptic guidance control program Active JP5981782B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012139113A JP5981782B2 (en) 2012-06-20 2012-06-20 Haptic guidance control device, haptic guidance control method, and haptic guidance control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012139113A JP5981782B2 (en) 2012-06-20 2012-06-20 Haptic guidance control device, haptic guidance control method, and haptic guidance control program

Publications (2)

Publication Number Publication Date
JP2014002668A JP2014002668A (en) 2014-01-09
JP5981782B2 true JP5981782B2 (en) 2016-08-31

Family

ID=50035764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012139113A Active JP5981782B2 (en) 2012-06-20 2012-06-20 Haptic guidance control device, haptic guidance control method, and haptic guidance control program

Country Status (1)

Country Link
JP (1) JP5981782B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6298705B2 (en) * 2014-05-01 2018-03-20 日本放送協会 Haptic guidance presentation device
JP6387762B2 (en) * 2014-09-19 2018-09-12 日本電気株式会社 Haptic presentation device, information terminal, haptic presentation method, and program
JP6960952B2 (en) * 2019-03-19 2021-11-05 マレリ株式会社 Information processing device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165665A (en) * 2003-12-02 2005-06-23 Canon Inc Operation assist device and method for virtual object, computer program, and computer readable recording medium
JP5235424B2 (en) * 2008-01-21 2013-07-10 キヤノン株式会社 Information processing apparatus and method
JP5513974B2 (en) * 2010-05-11 2014-06-04 日本放送協会 Virtual force sense presentation device and virtual force sense presentation program

Also Published As

Publication number Publication date
JP2014002668A (en) 2014-01-09

Similar Documents

Publication Publication Date Title
US20210056764A1 (en) Transmodal input fusion for a wearable system
US9977500B2 (en) Thresholds for determining feedback in computing devices
KR101646616B1 (en) Apparatus and Method for Controlling Object
CN110209337B (en) Method and apparatus for gesture-based user interface
JP5161690B2 (en) Information processing apparatus and control method thereof
KR100590576B1 (en) Apparatus and method for providing haptics of image
JP6005831B1 (en) Program and information processing method
US9772743B1 (en) Implementation of a movable control pad on a touch enabled device
JP2014501415A (en) User interface method and system based on natural gestures
KR20100066721A (en) Method of controlling virtual object or view point on two dimensional interactive display
JP2020526831A (en) Interactive input control in a simulated three-dimensional (3D) environment
US9851815B2 (en) System, method for controlling user terminal using magnetic field, user terminal comprising the same
JP5981782B2 (en) Haptic guidance control device, haptic guidance control method, and haptic guidance control program
JP2016218774A (en) program
CN104380235A (en) Wrap-around navigation
JP5953418B1 (en) Program, electronic apparatus, system and method for improving user input operability
JP2017119080A (en) Program and information processing method
JP2017049700A (en) Input device, integrated input system, control method of input device, and program
EP3724743B1 (en) Method for capturing haptic content in multiple communication devices
JP2017208024A (en) Haptic feedback device
JP6298705B2 (en) Haptic guidance presentation device
KR101496017B1 (en) Touch screen controlling method in mobile device, and mobile device threof
JP6126639B2 (en) A portable game device having a touch panel display and a game program.
WO2024042816A1 (en) Information processing apparatus, information processing method, and program
WO2022196222A1 (en) Detection processing device, detection processing method, and information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160729

R150 Certificate of patent or registration of utility model

Ref document number: 5981782

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250