JP6794763B2 - Display system - Google Patents

Display system Download PDF

Info

Publication number
JP6794763B2
JP6794763B2 JP2016203674A JP2016203674A JP6794763B2 JP 6794763 B2 JP6794763 B2 JP 6794763B2 JP 2016203674 A JP2016203674 A JP 2016203674A JP 2016203674 A JP2016203674 A JP 2016203674A JP 6794763 B2 JP6794763 B2 JP 6794763B2
Authority
JP
Japan
Prior art keywords
file
force sense
perception
receiving
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016203674A
Other languages
Japanese (ja)
Other versions
JP2018067048A (en
Inventor
武士 前川
武士 前川
陽介 谷口
陽介 谷口
克行 杉田
克行 杉田
英明 副島
英明 副島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2016203674A priority Critical patent/JP6794763B2/en
Publication of JP2018067048A publication Critical patent/JP2018067048A/en
Application granted granted Critical
Publication of JP6794763B2 publication Critical patent/JP6794763B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、表示システムに関する。より特定的には、本発明は、利便性を向上することのできる表示システムに関する。 The present invention relates to a display system . More specifically, the present invention relates to a display system that can improve convenience.

電子写真式の画像形成装置には、スキャナー機能、ファクシミリ機能、複写機能、プリンターとしての機能、データ通信機能、およびサーバー機能を備えたMFP(Multi Function Peripheral)、ファクシミリ装置、複写機、プリンターなどがある。 Electrophotographic image forming devices include an MFP (Multi Function Peripheral) equipped with a scanner function, a facsimile function, a copying function, a printer function, a data communication function, and a server function, a facsimile machine, a copying machine, a printer, and the like. is there.

MFPは、HDD(Hard Disk Drive)などの記憶装置を備えている。記憶装置は、MFPのユーザーが個人で用いることのできる記憶領域(ボックス領域)を含んでいる。MFPのユーザーは、自身の携帯端末などに保存されているファイルをボックス領域に保存したり、ボックス領域に保存されているファイルを自身の携帯端末などに送信したりすることが可能である。 The MFP includes a storage device such as an HDD (Hard Disk Drive). The storage device includes a storage area (box area) that can be used individually by the user of the MFP. The user of the MFP can save the file saved in his / her mobile terminal or the like in the box area, or send the file saved in the box area to his / her mobile terminal or the like.

ところで、近年、力覚提示デバイスが提案されている。力覚提示デバイスとは、物体と接触した際の反力感覚である力覚を装着者に対して与えるデバイスである。力覚提示デバイスは、今後、小型で装着できるものが一般化するものと予想される。力覚提示デバイスは、各種職業技術訓練、遠隔操作、健康医療福祉機器などへの応用が期待されている。 By the way, in recent years, a force sense presentation device has been proposed. The force sense presentation device is a device that gives the wearer a force sense, which is a reaction force sense when the object comes into contact with the object. It is expected that small force-sensitive devices that can be worn will become common in the future. The force sense presentation device is expected to be applied to various vocational skill training, remote control, health, medical and welfare equipment, and the like.

力覚提示デバイスに関する技術は、たとえば下記特許文献1などに開示されている。下記特許文献1には、単一の情報を利用して、複数種類の力触覚提示装置を適切に動作させることが可能な情報処理装置が開示されている。情報処理装置は、画像オブジェクトの特徴量に基づいて、IF(インターフェース)部に接続された力触覚提示装置に提示する力を算出する。情報処理装置は、力触覚提示装置の種類に応じて、当該算出された力をIF部に接続された力触覚提示装置に適合する力に補正する。情報処理装置は、補正された提示力を示す信号を、IF部を介して力触覚提示装置に出力する。 The technique relating to the force sense presentation device is disclosed in, for example, Patent Document 1 below. The following Patent Document 1 discloses an information processing device capable of appropriately operating a plurality of types of force-tactile presentation devices by using a single piece of information. The information processing device calculates the force to be presented to the force-tactile presentation device connected to the IF (interface) unit based on the feature amount of the image object. The information processing device corrects the calculated force to a force suitable for the force-tactile presenting device connected to the IF unit according to the type of the force-tactile presenting device. The information processing device outputs a signal indicating the corrected presentation force to the force-tactile presentation device via the IF unit.

また、オブジェクトの処理に関する技術は、たとえば下記特許文献2などに開示されている。下記特許文献2の情報処理装置は、入力操作受付部と、距離特定部と、制御部とを備えている。入力操作受付部は、タッチパネルが積層された表示部の表示面(2次元平面)に略平行な物体の移動を、タッチパネルに対するタッチ操作として受け付ける。距離特定部は、タッチ操作がなされた場合の物体についての、表示部の表示面(2次元平面)からの距離を検出する。制御部は、入力操作受付部により受け付けられたタッチ操作の種類(物体の移動の軌跡に応じて異なる種類)と、距離特定部により検出された距離に基づいて、表示されたオブジェクトに関する処理の実行を可変制御する。 Further, a technique related to object processing is disclosed in, for example, Patent Document 2 below. The information processing device of Patent Document 2 below includes an input operation receiving unit, a distance specifying unit, and a control unit. The input operation receiving unit receives the movement of an object substantially parallel to the display surface (two-dimensional plane) of the display unit on which the touch panels are stacked as a touch operation on the touch panel. The distance specifying unit detects the distance from the display surface (two-dimensional plane) of the display unit to the object when the touch operation is performed. The control unit executes processing related to the displayed object based on the type of touch operation received by the input operation reception unit (different type according to the movement trajectory of the object) and the distance detected by the distance identification unit. Is variably controlled.

特開2008−305109号公報Japanese Unexamined Patent Publication No. 2008-305109 特開2016−095885号公報Japanese Unexamined Patent Publication No. 2016-095885

タッチパネルUI(User Interface)を備えた表示装置において、ファイルの保存場所を移動する場合(たとえば表示装置からMFPにファイルを移動する場合)、ユーザーは、表示装置のディスプレイに表示されたオブジェクト(ファイルに関連するオブジェクト)を選択し、そのオブジェクトに対してドラッグ操作などを行う。表示装置は、ユーザーからの操作を受け付けた後で、ファイルの保存場所を移動する処理を開始する。 In a display device equipped with a touch panel UI (User Interface), when moving the storage location of a file (for example, when moving a file from the display device to the MFP), the user can use the object displayed on the display of the display device (to the file). Select the related object) and perform a drag operation on that object. After receiving the operation from the user, the display device starts the process of moving the storage location of the file.

ユーザーは、ディスプレイに表示されたオブジェクトを一見しただけでは、オブジェクトに関連付けられたファイルの属性(サイズや権限など)を把握することはできない。このため、ユーザーは、ファイルの保存場所を移動するドラッグ操作を行った後で、その操作が適切でないことを知る場合があった。言い換えれば、ユーザーは、ファイルの保存場所を移動するドラッグ操作が完了する前に、その操作が適切であるか否かを容易に判断することができなかった。その結果、表示装置の利便性の低下を招いていた。 At first glance, the user cannot see the attributes (size, permissions, etc.) of the file associated with the object. For this reason, the user may find that the operation is not appropriate after performing a drag operation to move the storage location of the file. In other words, the user could not easily determine whether the operation was appropriate before the drag operation to move the file storage location was completed. As a result, the convenience of the display device has been reduced.

一例として、移動しようとするファイルのサイズが大きい場合には、ファイルの移動に時間を要し、ファイルを移動している間の表示装置の応答速度の低下を招く。また、ファイルのコピーが禁止されている場合には、ドラッグ操作を行ったとしてもファイルを移動することはできない。これらの場合には、ユーザーは、ファイルの保存場所を移動するドラッグ操作を行った後で、その操作が不適切であったと判断する可能性が高い。 As an example, when the size of the file to be moved is large, it takes time to move the file, which causes a decrease in the response speed of the display device while moving the file. Also, if copying of the file is prohibited, the file cannot be moved even if the drag operation is performed. In these cases, the user is likely to determine that the operation was inappropriate after performing a drag operation to move the file storage location.

ファイルを処理する操作が完了する前に、その処理に関する操作が適切であるか否かを容易に判断することができないという問題は、表示装置上でファイルを操作する場合に共通して起こり得る問題であった。 The problem of not being able to easily determine whether an operation related to a file is appropriate before the operation of processing the file is completed is a common problem when operating a file on a display device. Met.

本発明は、上記課題を解決するためのものであり、その目的は、利便性を向上することのできる表示システムを提供することである。 The present invention is for solving the above problems, and an object of the present invention is to provide a display system capable of improving convenience.

本発明の一の局面に従う表示システムは、表示装置と、表示装置とは別体でありユーザーの手首に装着される力覚デバイスとを備えた表示システムであって、表示装置は、ファイルに関連付けられたオブジェクトを表示する表示手段と、表示手段にて表示したオブジェクトを選択する操作をユーザーから受け付ける選択受付手段と、選択受付手段にて操作を受け付けた場合に、選択されたオブジェクトに関連付けられたファイルの属性を抽出する抽出手段と、抽出手段にて抽出した属性に応じて決定した知覚の内容を、力覚デバイスに通知する通知手段とを含み、力覚デバイスは、表示装置から知覚の内容の通知を受信する受信手段と、知覚の内容を受信手段にて受信した後で、選択されたオブジェクトに対する操作を検知する操作検知手段と、選択されたオブジェクトに対する操作を操作検知手段にて検知した場合に、受信手段にて受信した知覚の内容に応じた知覚である力覚をユーザーに付与する付与手段とを含む。
上記表示システムにおいて好ましくは、表示装置は、ファイルの属性と知覚との関係が記載されたテーブルを記憶する記憶装置と、抽出手段にて抽出した属性に基づいて、テーブルを用いて知覚の内容を決定する決定手段とをさらに含み、通知手段は、決定手段にて決定した知覚の内容を力覚デバイスに通知する。
上記表示システムにおいて好ましくは、記憶装置は、複数のテーブルを記憶し、複数のテーブルの各々に記載されたファイルの属性の種類は互いに異なり、表示装置は、複数のテーブルの優先順位の設定を受け付ける優先順位設定受付手段をさらに含む。
上記表示システムにおいて好ましくは、複数のテーブルの各々に記載されたファイルの属性の種類は、ファイルのサイズ、ファイルの数、ファイルの権限、またはファイルの作成者である。
上記表示システムにおいて好ましくは、表示装置は、テーブルに記載されるファイルの属性と知覚との関係の設定を受け付けるテーブル設定受付手段をさらに含む。
上記表示システムにおいて好ましくは、力覚デバイスは、選択受付手段にて操作を受け付けてからの経過時間が閾値を超えた場合に、付与手段にて付与する力覚を緩和する緩和手段をさらに含む。
上記表示システムにおいて好ましくは、選択受付手段にて操作を受け付けてからの経過時間が閾値を超えた場合に、緩和手段は、付与手段による力覚の付与を停止する。
上記表示システムにおいて好ましくは、操作検知手段は、選択されたオブジェクトをドラッグする操作を検知し、付与手段は、操作検知手段にてドラッグ操作を検知した場合に、受信手段にて受信した知覚の内容に応じた知覚である力覚の付与を開始する。
上記表示システムにおいて好ましくは、通知手段は、抽出手段にて抽出した属性に応じて決定した、強度、方向、およびタイミングのうち少なくとも1つが異なる知覚の内容を、力覚デバイスに通知する。
A display system according to one aspect of the present invention is a display system including a display device and a force sensory device that is separate from the display device and is worn on the user's wrist, and the display device is associated with a file. A display means for displaying the displayed object, a selection reception means for accepting an operation for selecting an object displayed by the display means from the user, and a selection reception means associated with the selected object when the operation is received by the selection reception means. The force sense device includes an extraction means for extracting the attributes of the file and a notification means for notifying the force sense device of the content of perception determined according to the attributes extracted by the extraction means. The receiving means for receiving the notification of the above, the operation detecting means for detecting the operation on the selected object after receiving the content of perception by the receiving means, and the operation detecting means for detecting the operation on the selected object. In some cases, it includes a giving means for giving the user a sense of force, which is a perception according to the content of the perception received by the receiving means .
In the above display system, preferably, the display device uses a storage device that stores a table in which the relationship between the attributes of the file and the perception is described, and the content of the perception using the table based on the attributes extracted by the extraction means. Further including a deciding means for determining, the notifying means notifies the haptic device of the content of the perception determined by the deciding means.
In the above display system, preferably, the storage device stores a plurality of tables, the types of the attributes of the files described in each of the plurality of tables are different from each other, and the display device accepts the setting of the priority of the plurality of tables. Includes priority setting reception means.
In the above display system, preferably, the type of file attribute described in each of the plurality of tables is the file size, the number of files, the file permissions, or the file creator.
Preferably, in the display system, the display device further includes a table setting receiving means that accepts the setting of the relationship between the attribute of the file described in the table and the perception.
In the above display system, preferably, the force sense device further includes a relaxation means for relaxing the force sense given by the giving means when the elapsed time from receiving the operation by the selection receiving means exceeds the threshold value.
In the above display system, preferably, when the elapsed time from receiving the operation by the selection receiving means exceeds the threshold value, the relaxation means stops the giving of the force sense by the giving means.
In the above display system, preferably, the operation detecting means detects the operation of dragging the selected object, and the giving means detects the drag operation by the operation detecting means, and the content of the perception received by the receiving means. Start giving the sense of force, which is the perception according to.
In the above display system, preferably, the notification means notifies the haptic device of the content of perception in which at least one of the intensity, the direction, and the timing is different, which is determined according to the attribute extracted by the extraction means.

本発明によれば、利便性を向上することのできる表示システムを提供することができる。
According to the present invention, it is possible to provide a display system capable of improving convenience.

本発明の一実施の形態における表示システムの概念的な構成を示す概念図である。It is a conceptual diagram which shows the conceptual structure of the display system in one Embodiment of this invention. 本発明の一実施の形態における表示システムのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware structure of the display system in one Embodiment of this invention. 本発明の一実施の形態において、携帯端末100の操作表示部110に表示される基本画面を模式的に示す図である。FIG. 5 is a diagram schematically showing a basic screen displayed on the operation display unit 110 of the mobile terminal 100 in one embodiment of the present invention. 本発明の一実施の形態において、携帯端末100が記憶する属性テーブル152を模式的に示す図である。It is a figure which shows typically the attribute table 152 stored in the mobile terminal 100 in one Embodiment of this invention. 本発明の一実施の形態における知覚変換テーブル153aを模式的に示す図である。It is a figure which shows typically the perception conversion table 153a in one Embodiment of this invention. 本発明の一実施の形態における知覚変換テーブル153bを模式的に示す図である。It is a figure which shows typically the perception conversion table 153b in one Embodiment of this invention. 本発明の一実施の形態における知覚変換テーブル153cを模式的に示す図である。It is a figure which shows typically the perceptual conversion table 153c in one Embodiment of this invention. 本発明の一実施の形態における優先順位テーブル154を模式的に示す図である。It is a figure which shows typically the priority table 154 in one Embodiment of this invention. 本発明の一実施の形態における表示システムの動作を示すシーケンス図の前半部分である。It is the first half part of the sequence diagram which shows the operation of the display system in one Embodiment of this invention. 本発明の一実施の形態における表示システムの動作を示すシーケンス図の後半部分である。It is the latter half part of the sequence diagram which shows the operation of the display system in one Embodiment of this invention. 図9のステップS7において、携帯端末100の操作表示部110に表示される知覚変換テーブルの設定画面を模式的に示す図である。FIG. 5 is a diagram schematically showing a setting screen of a perception conversion table displayed on the operation display unit 110 of the mobile terminal 100 in step S7 of FIG. 図10のステップS32において、力覚値に応じた負荷を力覚デバイス200がユーザーURに対して印加した状態を模式的に示す図である。It is a figure which shows typically the state which the force sense device 200 applied the load corresponding to the force sense value to the user UR in step S32 of FIG. 本発明の一実施の形態における携帯端末100の動作を示すフローチャートである。It is a flowchart which shows the operation of the mobile terminal 100 in one Embodiment of this invention. 本発明の一実施の形態の第1の変形例において、携帯端末100が記憶する知覚変換テーブル153を模式的に示す図である。It is a figure which shows typically the perception conversion table 153 which a mobile terminal 100 stores in the 1st modification of one Embodiment of this invention. 本発明の一実施の形態の第2の変形例における携帯端末100の動作を模式的に示す図である。It is a figure which shows typically the operation of the mobile terminal 100 in the 2nd modification of one Embodiment of this invention. 本発明の一実施の形態の第2の変形例における視覚変換テーブル153を模式的に示す図である。It is a figure which shows typically the visual conversion table 153 in the 2nd modification of one Embodiment of this invention.

以下、本発明の実施の形態について、図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

以下の実施の形態では、表示装置が携帯端末である場合について説明する。表示装置は携帯端末である場合の他、携帯電話、タブレットPC(Personal Computer)、または画像形成装置などの機器の操作を受け付ける操作パネルなどであってもよい。 In the following embodiment, a case where the display device is a mobile terminal will be described. The display device may be a mobile terminal, a mobile phone, a tablet PC (Personal Computer), an operation panel that accepts operations of a device such as an image forming device, or the like.

[表示システムの構成] [Display system configuration]

始めに、本実施の形態における表示システムの構成について説明する。 First, the configuration of the display system according to the present embodiment will be described.

図1は、本発明の一実施の形態における表示システムの概念的な構成を示す概念図である。 FIG. 1 is a conceptual diagram showing a conceptual configuration of a display system according to an embodiment of the present invention.

図1を参照して、本実施の形態における表示システムは、携帯端末100(表示装置の一例)と、力覚デバイス(力覚提示デバイス)200とを備えている。携帯端末100と力覚デバイス200とは、たとえば近距離無線通信などの無線通信により相互に通信を行う。 With reference to FIG. 1, the display system according to the present embodiment includes a mobile terminal 100 (an example of a display device) and a force sense device (force sense presentation device) 200. The mobile terminal 100 and the force sensor 200 communicate with each other by wireless communication such as short-range wireless communication.

ユーザーURは、携帯端末100および力覚デバイス200を使用可能なユーザーである。ユーザーURは、一方の手で携帯端末100を持ちながら、力覚デバイス200を手首に装着したもう一方の手で携帯端末100の操作表示部110を操作する。 The user UR is a user who can use the mobile terminal 100 and the force sensory device 200. While holding the mobile terminal 100 with one hand, the user UR operates the operation display unit 110 of the mobile terminal 100 with the other hand wearing the force sensor 200 on the wrist.

携帯端末100は、ファイルに関連付けられたオブジェクトを操作表示部110に表示し、表示したオブジェクトを選択する操作をユーザーURから受け付ける。携帯端末100は、オブジェクトを選択する操作を受け付けた場合に、選択されたオブジェクトに関連付けられたファイルの属性を抽出する。携帯端末100は、抽出した属性に応じた知覚をユーザーURに与える。 The mobile terminal 100 displays an object associated with the file on the operation display unit 110, and receives an operation of selecting the displayed object from the user UR. When the mobile terminal 100 accepts the operation of selecting an object, the mobile terminal 100 extracts the attributes of the file associated with the selected object. The mobile terminal 100 gives the user UR a perception according to the extracted attributes.

本実施の形態では、携帯端末100は、抽出した属性に応じて、強度、方向、およびタイミングのうち少なくとも1つが異なる力覚を与える指示を、ユーザーURが装着している力覚デバイス200に対して送信する。力覚デバイス200は、指示に従って力覚をユーザーURに与える。 In the present embodiment, the mobile terminal 100 gives an instruction to the force sense device 200 worn by the user UR to give a force sense in which at least one of the intensity, the direction, and the timing is different depending on the extracted attributes. And send. The force sense device 200 gives the force sense to the user UR according to the instruction.

図2は、本発明の一実施の形態における表示システムのハードウェア構成を示すブロック図である。 FIG. 2 is a block diagram showing a hardware configuration of a display system according to an embodiment of the present invention.

図2を参照して、携帯端末100は、ユーザーURからの操作を受け付ける被操作端末であり、CPU101と、ROM102と、RAM103と、記憶装置104と、無線通信部105と、近距離無線通信部106と、座標管理部107と、属性判断部108と、知覚変換部109と、操作表示部110とを含んでいる。CPU101には、ROM102、RAM103、記憶装置104、無線通信部105、近距離無線通信部106、座標管理部107、属性判断部108、知覚変換部109、および操作表示部110の各々がバスを介して接続されている。 With reference to FIG. 2, the mobile terminal 100 is an operated terminal that receives an operation from the user UR, and is a CPU 101, a ROM 102, a RAM 103, a storage device 104, a wireless communication unit 105, and a short-range wireless communication unit. It includes 106, a coordinate management unit 107, an attribute determination unit 108, a perceptual conversion unit 109, and an operation display unit 110. In the CPU 101, each of the ROM 102, the RAM 103, the storage device 104, the wireless communication unit 105, the short-range wireless communication unit 106, the coordinate management unit 107, the attribute determination unit 108, the perceptual conversion unit 109, and the operation display unit 110 via a bus. Is connected.

CPU101は、ROM102に記憶された制御プログラムを実行することにより、携帯端末100全体の制御を行う。 The CPU 101 controls the entire mobile terminal 100 by executing the control program stored in the ROM 102.

ROM102は、たとえばフラッシュROMである。ROM102には、CPU101が実行する各種プログラムと、各種固定データとが格納されている。ROM102は、書換え不可能なものであってもよい。 The ROM 102 is, for example, a flash ROM. Various programs executed by the CPU 101 and various fixed data are stored in the ROM 102. The ROM 102 may be non-rewritable.

RAM103は、CPU101のメインメモリである。RAM103は、CPU101が各種プログラムを実行するときに必要なデータや画像データを一時的に記憶するためなどに用いられる。 The RAM 103 is the main memory of the CPU 101. The RAM 103 is used for temporarily storing data and image data necessary for the CPU 101 to execute various programs.

記憶装置104は、たとえばHDD(Hard Disk Drive)よりなっており、力覚デバイス200との連携のためのアプリケーションである知覚通知アプリ151のプログラムと、属性テーブル152と、知覚変換テーブル153、優先順位テーブル154などの各種情報を記憶している。 The storage device 104 is composed of, for example, an HDD (Hard Disk Drive), and includes a program of a perception notification application 151, which is an application for cooperation with a force sense device 200, an attribute table 152, a perception conversion table 153, and a priority. Various information such as table 154 is stored.

無線通信部105は、CPU101からの指示に従って、TCP/IPなどの通信プロトコルによって、力覚デバイス200などの他の機器との間で無線通信を行う。 The wireless communication unit 105 performs wireless communication with another device such as the force sensor 200 by a communication protocol such as TCP / IP according to an instruction from the CPU 101.

近距離無線通信部106は、たとえばBluetooth(登録商標)などの近距離無線通信規格に基づいて、力覚デバイス200などの他の機器との間で近距離無線通信を行う。 The short-range wireless communication unit 106 performs short-range wireless communication with other devices such as the force sensor 200 based on a short-range wireless communication standard such as Bluetooth (registered trademark).

座標管理部107は、属性テーブル152を参照することで、ユーザーURからの操作を受け付けた位置の座標に存在するオブジェクトを特定する。 The coordinate management unit 107 identifies an object existing at the coordinates of the position where the operation from the user UR is received by referring to the attribute table 152.

属性判断部108は、属性テーブル152を参照することで、座標管理部107によって特定されたオブジェクトに関連付けられたファイルの属性を抽出する。 The attribute determination unit 108 extracts the attributes of the file associated with the object specified by the coordinate management unit 107 by referring to the attribute table 152.

知覚変換部109は、知覚変換テーブル153を参照することで、属性判断部108にて判断された属性に応じた知覚であって、ユーザーURに与える知覚を決定する。 By referring to the perception conversion table 153, the perception conversion unit 109 determines the perception given to the user UR, which is the perception according to the attribute determined by the attribute determination unit 108.

操作表示部110は、タッチパネルディスプレイなどからなる表示部と、タッチパネルディスプレイに表示されたソフトウェアキーなどからなる操作部とを含んでいる。操作表示部110は、各種操作をユーザーから受け付け、オブジェクトを含む画面などの各種情報をユーザーに対して表示する。 The operation display unit 110 includes a display unit including a touch panel display and the like, and an operation unit including software keys and the like displayed on the touch panel display. The operation display unit 110 receives various operations from the user and displays various information such as a screen including an object to the user.

力覚デバイス200は、装着しているユーザーURに対し、携帯端末100からの指示に従って力覚を与える。力覚デバイス200は、CPU201と、ROM202と、RAM203と、記憶装置204と、無線通信部205と、近距離無線通信部206と、力覚提示部207と、操作表示部208と、位置取得部209とを含んでいる。CPU201には、ROM202、RAM203、記憶装置204、無線通信部205、近距離無線通信部206、力覚提示部207、操作表示部208、および位置取得部209の各々がバスを介して接続されている。 The force sense device 200 gives a force sense to the wearing user UR according to an instruction from the mobile terminal 100. The force sense device 200 includes a CPU 201, a ROM 202, a RAM 203, a storage device 204, a wireless communication unit 205, a short-range wireless communication unit 206, a force sense presentation unit 207, an operation display unit 208, and a position acquisition unit. 209 and is included. ROM 202, RAM 203, storage device 204, wireless communication unit 205, short-range wireless communication unit 206, force sense presentation unit 207, operation display unit 208, and position acquisition unit 209 are each connected to the CPU 201 via a bus. There is.

CPU201は、力覚デバイス200全体の動作を制御する。CPU201は、制御プログラムに基づいて処理を行う。 The CPU 201 controls the operation of the entire force sensory device 200. The CPU 201 performs processing based on the control program.

ROM202は、CPU201が実行する制御プログラムなどを記憶する。 The ROM 202 stores a control program or the like executed by the CPU 201.

RAM203はCPU201の作業用のメモリであり、各種情報を一時的に記憶する。 The RAM 203 is a working memory of the CPU 201, and temporarily stores various information.

記憶装置204は、力覚デバイス200を装着しているユーザーURに対して力覚を与えるためのアプリケーションである力覚提示アプリ251のプログラムなどの各種情報を記憶している。 The storage device 204 stores various information such as a program of the force sense presentation application 251 which is an application for giving a force sense to the user UR wearing the force sense device 200.

無線通信部205は、CPU201からの指示に従って、TCP/IPなどの通信プロトコルによって、携帯端末100などの他の機器との間で無線通信を行う。 The wireless communication unit 205 performs wireless communication with another device such as the mobile terminal 100 by a communication protocol such as TCP / IP according to an instruction from the CPU 201.

近距離無線通信部206は、たとえばBluetooth(登録商標)などの近距離無線通信規格に基づいて、携帯端末100などの他の機器との間で近距離無線通信を行う。 The short-range wireless communication unit 206 performs short-range wireless communication with other devices such as the mobile terminal 100 based on a short-range wireless communication standard such as Bluetooth (registered trademark).

力覚提示部207は、力覚デバイス200を装着しているユーザーURに対して力覚を与える(提示する)。 The force sense presentation unit 207 gives (presents) a force sense to the user UR wearing the force sense device 200.

操作表示部208は、各種入力をユーザーURから受け付け、各種情報をユーザーURに対して表示する。 The operation display unit 208 receives various inputs from the user UR and displays various information to the user UR.

位置取得部209は、加速度センサー、地磁気センサー、およびGPS(Global Positioning System)受信機などにより構成されている。位置取得部209は、力覚デバイス200の位置の情報を取得する。また位置取得部206は、装着しているユーザーURによる自機の移動の方向および加速度を検知する。 The position acquisition unit 209 includes an acceleration sensor, a geomagnetic sensor, a GPS (Global Positioning System) receiver, and the like. The position acquisition unit 209 acquires the position information of the force sense device 200. Further, the position acquisition unit 206 detects the direction and acceleration of movement of the own machine by the wearing user UR.

図3は、本発明の一実施の形態において、携帯端末100の操作表示部110に表示される基本画面を模式的に示す図である。 FIG. 3 is a diagram schematically showing a basic screen displayed on the operation display unit 110 of the mobile terminal 100 in one embodiment of the present invention.

図3を参照して、基本画面は、ユーザーの操作対象となるアイテムである複数のオブジェクトOB1、OB2、OB3、およびOB4を含んでいる。オブジェクトOB1は「ファイルA1」のオブジェクトである。オブジェクトOB2は「ファイルA2」のオブジェクトである。オブジェクトOB3は「フォルダB」のオブジェクトであり、フォルダB内には「ファイルB1」および「ファイルB2」が保存されている。オブジェクトOB4は「アプリC」のオブジェクトである。オブジェクトOB1、OB2、およびOB3は、ファイルに関連するオブジェクトである。オブジェクトOB4は、アプリケーションを起動するためのオブジェクトであり、ファイルに関連するオブジェクトではない。 With reference to FIG. 3, the basic screen includes a plurality of objects OB1, OB2, OB3, and OB4 which are items to be operated by the user. The object OB1 is an object of "file A1". Object OB2 is an object of "file A2". Object OB3 is an object of "folder B", and "file B1" and "file B2" are stored in the folder B. Object OB4 is an object of "App C". Objects OB1, OB2, and OB3 are objects associated with the file. The object OB4 is an object for starting an application, and is not an object related to a file.

図4は、本発明の一実施の形態において、携帯端末100が記憶する属性テーブル152を模式的に示す図である。 FIG. 4 is a diagram schematically showing an attribute table 152 stored in the mobile terminal 100 in one embodiment of the present invention.

図4を参照して、属性テーブル152は、操作表示部110に表示される画面に含まれるオブジェクトの座標(x,y)と、オブジェクト名と、オブジェクトに関連するファイルの属性との関係を記載したテーブルである。属性テーブル152は、操作表示部110に表示される画面ごとに予め作成されている。図4に示す属性テーブル152は、図2の基本画面に関する属性テーブル152である。なお、オブジェクトの座標の表記の仕方は任意であるが、ここでは、操作表示部110の左上の角が原点とされ、操作表示部110の図3中右方向がx方向、図3中下方向がy方向とされている。 With reference to FIG. 4, the attribute table 152 describes the relationship between the coordinates (x, y) of the object included in the screen displayed on the operation display unit 110, the object name, and the attributes of the file related to the object. It is a table. The attribute table 152 is created in advance for each screen displayed on the operation display unit 110. The attribute table 152 shown in FIG. 4 is an attribute table 152 related to the basic screen of FIG. The notation of the coordinates of the object is arbitrary, but here, the upper left corner of the operation display unit 110 is the origin, the right direction in FIG. 3 of the operation display unit 110 is the x direction, and the lower direction in FIG. Is the y direction.

図4に示す属性テーブル152は、オブジェクトOB1、OB2、OB3、OB4の各々に関する情報を含んでいる。たとえば最上段の情報によれば、(10,30)、(30,30)、(10,70)、および(30,70)で囲まれる領域には、ファイルA1というオブジェクト名のオブジェクト(図3のオブジェクトOB1に相当)が存在しており、このオブジェクトに関連付けられているファイルは、6MBのサイズを有し、ユーザーUR1によって作成され、コピーが許可されていることが分かる。上から3段目の情報は、2つのファイルが関連付けられたオブジェクトOB3の情報であるため、それぞれのファイルの属性が記載されている。最下段の情報は、ファイルに関連付けられていないオブジェクトOB4に関する情報であるため、ファイル属性の欄は空欄になっている。 The attribute table 152 shown in FIG. 4 contains information about each of the objects OB1, OB2, OB3, and OB4. For example, according to the information at the top, the area surrounded by (10,30), (30,30), (10,70), and (30,70) has an object named file A1 (FIG. 3). It can be seen that the object OB1) exists, and the file associated with this object has a size of 6MB, is created by user UR1, and is allowed to be copied. Since the information in the third row from the top is the information of the object OB3 in which the two files are associated, the attributes of each file are described. Since the information at the bottom is information about the object OB4 that is not associated with the file, the file attribute column is blank.

図5〜図7は、本発明の一実施の形態における知覚変換テーブル153を模式的に示す図である。 5 to 7 are diagrams schematically showing a perceptual conversion table 153 according to an embodiment of the present invention.

図5〜図7を参照して、知覚変換テーブル153は、ファイルの属性と、ユーザーURに与える知覚との関係が記載されたテーブルである。ファイルの属性とは、たとえばファイルのサイズ、ファイルの数、ファイルの権限、またはファイルの作成者などである。 With reference to FIGS. 5 to 7, the perception conversion table 153 is a table in which the relationship between the attributes of the file and the perception given to the user UR is described. File attributes include, for example, file size, number of files, file permissions, or file creator.

本実施の形態では、ユーザーURに対して力覚を与える。以降の説明において、ユーザーURに与える力覚の具体的な内容(方向、強度、タイミングなど)を、力覚値と記すことがある。 In this embodiment, the user UR is given a sense of force. In the following description, the specific content (direction, intensity, timing, etc.) of the force sense given to the user UR may be referred to as a force sense value.

携帯端末100は知覚変換テーブル153として、複数の知覚変換テーブル153a、153b、および153cを記憶している。複数の知覚変換テーブル153a、153b、および153cの各々に記載されたファイルの属性の種類は互いに異なっている。なお、携帯端末200は、1つのみの知覚変換テーブル153を記憶していてもよい。 The mobile terminal 100 stores a plurality of perceptual conversion tables 153a, 153b, and 153c as the perceptual conversion table 153. The types of file attributes listed in each of the plurality of perceptual transformation tables 153a, 153b, and 153c are different from each other. The mobile terminal 200 may store only one perceptual conversion table 153.

図5に示す知覚変換テーブル153aは、ファイルサイズと力覚値との関係が記載された力覚変換テーブルである。知覚変換テーブル153aには、ファイルサイズが10MB以上である場合に、θ=0度の方向に1kgという強い力覚を与えることが記載されている。また、ファイルサイズが5MB以上10MB未満である場合に、θ=0度の方向に0.5kgという弱い力覚を与えることが記載されている。さらに、ファイルサイズが5MB未満である場合に、力覚を与えないことが記載されている。 The perceptual conversion table 153a shown in FIG. 5 is a force sense conversion table in which the relationship between the file size and the force sense value is described. It is described in the perceptual conversion table 153a that when the file size is 10 MB or more, a strong force sense of 1 kg is given in the direction of θ = 0 degrees. Further, it is described that when the file size is 5 MB or more and less than 10 MB, a weak force sense of 0.5 kg is given in the direction of θ = 0 degrees. Furthermore, it is stated that when the file size is less than 5 MB, no force is given.

ここで、θは、操作表示部110の表示面に対して垂直な方向に沿って携帯端末100へ向かう方向(端末方向)をθ=0度とし、操作表示部110の表示面に対して垂直な方向に沿って携帯端末100から離れる方向をθ=180度とした角度である。θの基準となる方向(操作表示部110の表示面に対して垂直な方向に沿って携帯端末100へ向かう方向)は、携帯端末100と力覚デバイス200との間の近距離無線通信により特定される。 Here, θ is perpendicular to the display surface of the operation display unit 110, with θ = 0 degrees in the direction toward the mobile terminal 100 (terminal direction) along the direction perpendicular to the display surface of the operation display unit 110. The angle is such that θ = 180 degrees in the direction away from the mobile terminal 100 along the vertical direction. The reference direction of θ (the direction toward the mobile terminal 100 along the direction perpendicular to the display surface of the operation display unit 110) is specified by short-range wireless communication between the mobile terminal 100 and the haptic device 200. Will be done.

図6に示す知覚変換テーブル153bは、ファイルの権限と力覚値との関係が記載された力覚変換テーブルである。知覚変換テーブル153bには、ファイルのコピーが禁止されている場合に、θ=0度、90度、180度の各々の方向に対して順番に1kgという強い力覚を3秒間与えることが記載されている。また、ファイルのコピーが許可されている場合に、力覚を与えないことが記載されている。 The perceptual conversion table 153b shown in FIG. 6 is a force-sense conversion table in which the relationship between the file authority and the force-sense value is described. It is described in the perceptual conversion table 153b that when copying of a file is prohibited, a strong force sensation of 1 kg is sequentially given in each direction of θ = 0 degree, 90 degree, and 180 degree for 3 seconds. ing. It also states that if copying of the file is permitted, it will not give a sense of force.

知覚変換テーブル153bには、ファイルの読取りや書込みの権限と力覚値との関係がさらに記載されていてもよい。 The perceptual conversion table 153b may further describe the relationship between the read / write authority of the file and the force value.

図7に示す知覚変換テーブル153cは、オブジェクトに関連付けられたファイルの数と力覚値との関係が記載された力覚変換テーブルである。知覚変換テーブル153cには、オブジェクトに関連付けられたファイルの数が4個以上である場合に、θ=0度の方向に1kgという強い力覚を与えることが記載されている。また、オブジェクトに関連付けられたファイルの数が1〜3個である場合に、θ=180度の方向に0.5kgという強い力覚を与えることが記載されている。 The perceptual conversion table 153c shown in FIG. 7 is a force conversion table in which the relationship between the number of files associated with the object and the force value is described. It is described in the perceptual transformation table 153c that when the number of files associated with the object is 4 or more, a strong force sense of 1 kg is given in the direction of θ = 0 degrees. Further, it is described that when the number of files associated with the object is 1 to 3, a strong force sense of 0.5 kg is given in the direction of θ = 180 degrees.

なお、知覚変換テーブル153に記載されている知覚が力覚値である場合、力覚値は、ファイルの属性に応じて、方向、強度、またはタイミングのうち少なくともいずれか1つが異なるものであればよい。また、知覚変換テーブル153に記載されるファイルの属性と知覚との関係については、ユーザーURによる設定が可能である。 When the perception described in the perception conversion table 153 is a force sense value, the force sense value is different if at least one of the direction, the intensity, and the timing is different depending on the attribute of the file. Good. Further, the relationship between the perception and the attribute of the file described in the perception conversion table 153 can be set by the user UR.

図8は、本発明の一実施の形態における優先順位テーブル154を模式的に示す図である。 FIG. 8 is a diagram schematically showing a priority table 154 according to an embodiment of the present invention.

図8を参照して、優先順位テーブル154は、知覚変換テーブル153a、153b、および153cの各々と、設定されている優先順位および有効性との関係が記載されたテーブルである。図8の優先順位テーブル154によれば、ファイルサイズの知覚変換テーブル153aおよびファイル権限の知覚変換テーブル153bが有効にされている一方で、ファイル数の知覚変換テーブル153cは無効にされていることが分かる。また、ファイル権限の知覚変換テーブル153b、ファイルサイズの知覚変換テーブル153a、およびファイル数の知覚変換テーブル153cという優先順序が設定されていることが分かる(無効にされた知覚変換テーブル153cの優先順位は自動的に最も低く設定される)。 With reference to FIG. 8, the priority table 154 is a table in which each of the perceptual transformation tables 153a, 153b, and 153c is described with respect to the set priority and effectiveness. According to the priority table 154 of FIG. 8, the perceptual conversion table 153a for the file size and the perceptual conversion table 153b for the file authority are enabled, while the perceptual conversion table 153c for the number of files is disabled. I understand. It can also be seen that the priority order of the perceptual conversion table 153b for file authority, the perceptual conversion table 153a for file size, and the perceptual conversion table 153c for the number of files is set (the priority of the invalid perceptual conversion table 153c is Automatically set to the lowest).

なお、優先順位テーブル154における知覚変換テーブルの優先順位および有効性については、後述するように、ユーザーURによる設定が可能である。 The priority and effectiveness of the perception conversion table in the priority table 154 can be set by the user UR, as will be described later.

[表示システムの構成] [Display system configuration]

続いて、本実施の形態における表示システムの動作について説明する。 Subsequently, the operation of the display system in the present embodiment will be described.

図9および図10は、本発明の一実施の形態における表示システムの動作を示すシーケンス図である。 9 and 10 are sequence diagrams showing the operation of the display system according to the embodiment of the present invention.

図9を参照して、ユーザーURは、携帯端末100および力覚デバイス200の各々において、力覚提示機能を起動するための所定の操作(たとえば知覚通知アプリ151および力覚提示アプリ251を起動する操作)を行う(S1)。携帯端末100および力覚デバイス200は、ユーザーURからの操作を受け付けると、セキュリティ維持のために互いを認証する作業であるペアリングを行う。具体的には、携帯端末100は、ペアリングのための信号を周囲に送信する(S3)。力覚デバイス200は、携帯端末100からの信号を受信すると、ペアリングのための応答信号を携帯端末100に送信する(S5)。これにより、携帯端末100と力覚デバイス200との間の近距離無線通信が確立される。 With reference to FIG. 9, the user UR activates a predetermined operation (for example, the perception notification application 151 and the force sense presentation application 251) for activating the force sense presentation function in each of the mobile terminal 100 and the force sense device 200. Operation) is performed (S1). When the mobile terminal 100 and the force sensor 200 receive an operation from the user UR, they perform pairing, which is a work of authenticating each other in order to maintain security. Specifically, the mobile terminal 100 transmits a signal for pairing to the surroundings (S3). Upon receiving the signal from the mobile terminal 100, the force sense device 200 transmits a response signal for pairing to the mobile terminal 100 (S5). As a result, short-range wireless communication between the mobile terminal 100 and the force sensor 200 is established.

携帯端末100は、力覚デバイス200との間の近距離無線通信が確立されると、知覚変換テーブルの設定画面(図11)を操作表示部110に表示することで、ユーザーURに対して知覚変換テーブルの設定を要求する(S7)。ユーザーURは、知覚変換テーブルの設定画面を通じて知覚変換テーブルの設定を行い(S9)、知覚変換テーブルの設定完了を携帯端末100に通知する(S11)。携帯端末100は、ユーザーURからの設定完了の通知を受け付けると、設定された内容を保存する(S12)。 When the short-range wireless communication with the force sense device 200 is established, the mobile terminal 100 perceives the user UR by displaying the setting screen (FIG. 11) of the perception conversion table on the operation display unit 110. Request the setting of the conversion table (S7). The user UR sets the perceptual conversion table through the setting screen of the perceptual conversion table (S9), and notifies the mobile terminal 100 of the completion of the setting of the perceptual conversion table (S11). When the mobile terminal 100 receives the notification of the completion of the setting from the user UR, the mobile terminal 100 saves the set content (S12).

ここで、ステップS7〜S12の処理を詳細に説明する。 Here, the processing of steps S7 to S12 will be described in detail.

図11は、図9のステップS7において、携帯端末100の操作表示部110に表示される知覚変換テーブルの設定画面を模式的に示す図である。 FIG. 11 is a diagram schematically showing a setting screen of a perception conversion table displayed on the operation display unit 110 of the mobile terminal 100 in step S7 of FIG.

図9および図11を参照して、ステップS7で表示される知覚変換テーブルの設定画面は、知覚変換テーブルの設定を要求するメッセージMGと、キーKY1、KY2、KY3、KY4、KY5、KY6、KY7、およびKY8とを含んでいる。設定画面の上部には、メッセージMGが表示されている。設定画面の下部右側には、キーKY1、KY2、KY3、KY4、KY5、KY6、KY7、およびKY8が表示されている。設定画面の下部左側には、「ファイルサイズ」、「ファイル権限」、および「ファイル数」という知覚変換テーブルの各項目が表示されている。キーKY1およびKY2は、ファイルサイズの知覚変換テーブル153aに対応するキーである。キーKY3およびKY4は、ファイル権限の知覚変換テーブル153bに対応するキーである。キーKY5およびおKY6は、ファイル数の知覚変換テーブル153cに対応するキーである。キーKY1、KY3、およびKY5は、知覚変換テーブルの優先順序を設定するためのキーである。キーKY2、KY4、およびKY6は、テーブルの有効性を設定するためのキーである。 With reference to FIGS. 9 and 11, the setting screen of the perception conversion table displayed in step S7 includes a message MG requesting the setting of the perception conversion table, and keys KY1, KY2, KY3, KY4, KY5, KY6, KY7. , And KY8. Message MG is displayed at the top of the setting screen. The keys KY1, KY2, KY3, KY4, KY5, KY6, KY7, and KY8 are displayed on the lower right side of the setting screen. On the lower left side of the setting screen, each item of the perceptual conversion table called "file size", "file authority", and "number of files" is displayed. The keys KY1 and KY2 are keys corresponding to the perceptual conversion table 153a of the file size. The keys KY3 and KY4 are keys corresponding to the perceptual conversion table 153b of the file authority. The keys KY5 and KY6 are keys corresponding to the perceptual conversion table 153c of the number of files. The keys KY1, KY3, and KY5 are keys for setting the priority order of the perceptual transformation table. The keys KY2, KY4, and KY6 are keys for setting the validity of the table.

ステップS9において、ユーザーURは、キーKY1、KY3、およびKY5の各々を任意の順序で押下することで、知覚変換テーブル153a、153b、および153cの優先順序を設定する。またユーザーURは、キーKY2、KY4、およびKY6の各々における「ON」または「OFF」の部分を押下することで、知覚変換テーブル153a、153b、および153cの有効性を設定する。 In step S9, the user UR sets the priority order of the perceptual conversion tables 153a, 153b, and 153c by pressing each of the keys KY1, KY3, and KY5 in an arbitrary order. The user UR also sets the validity of the perceptual conversion tables 153a, 153b, and 153c by pressing the "ON" or "OFF" portion of each of the keys KY2, KY4, and KY6.

キーKY1、KY3、およびKY5の各々が任意の順序で押下されると、携帯端末100は、押下された順序で、各知覚変換テーブルに「1」、「2」、「3」という優先順序を設定する。ここでは、ファイル権限の知覚変換テーブル153b、ファイルサイズの知覚変換テーブル153a、およびファイル数の知覚変換テーブル153cという順序で知覚変換テーブルの優先順序が設定されている。 When each of the keys KY1, KY3, and KY5 is pressed in an arbitrary order, the mobile terminal 100 assigns the priority order of "1", "2", and "3" to each perception conversion table in the pressed order. Set. Here, the priority order of the perceptual conversion table is set in the order of the perceptual conversion table 153b of the file authority, the perceptual conversion table 153a of the file size, and the perceptual conversion table 153c of the number of files.

キーKY2、KY4、またはKY6における「ON」の部分が押下された場合には、携帯端末100は、その知覚変換テーブルを有効にする。ユーザーによってキーKY2、KY4、またはKY6における「OFF」の部分が押下された場合には、携帯端末100は、その知覚変換テーブルを無効にし、知覚を決定する際に使用しない。ここでは、ファイル権限の知覚変換テーブル153aおよびファイルサイズの知覚変換テーブル153bが有効にされており、ファイル数の知覚変換テーブル153cが無効にされている。 When the "ON" portion of the keys KY2, KY4, or KY6 is pressed, the mobile terminal 100 activates its perceptual conversion table. When the "OFF" part of the keys KY2, KY4, or KY6 is pressed by the user, the mobile terminal 100 invalidates the perception conversion table and does not use it when determining the perception. Here, the perceptual conversion table 153a for file authority and the perceptual conversion table 153b for file size are enabled, and the perceptual conversion table 153c for the number of files is disabled.

ステップS11において、ユーザーURは、「OK」キーKY7を押下することで、知覚変換テーブルの設定完了を携帯端末100に通知する。 In step S11, the user UR notifies the mobile terminal 100 of the completion of the setting of the perceptual conversion table by pressing the "OK" key KY7.

ステップS12において、携帯端末100は、キーKY7が押下されると設定された内容を確定し、設定された内容を優先順位テーブル154に登録する。 In step S12, the mobile terminal 100 determines the set contents when the key KY7 is pressed, and registers the set contents in the priority table 154.

一方、携帯端末100は、「キャンセル」キーKY8が押下されると、設定された内容をキャンセルする。 On the other hand, when the "cancel" key KY8 is pressed, the mobile terminal 100 cancels the set contents.

図9を参照して、ステップS12の処理に続いて、携帯端末100は、自機の動作状態を通常モードから、受け付けた操作に応じた力覚を与える力覚通知モードに変更する(S13)。次に携帯端末100は、自機の動作状態を力覚通知モードに変更した事実を操作表示部110に一定時間表示することによりユーザーURに通知し(S15)、オブジェクトを含む基本画面(図3)を操作表示部110に表示する(S16)。 With reference to FIG. 9, following the process of step S12, the mobile terminal 100 changes the operating state of its own device from the normal mode to the force sense notification mode that gives force sense according to the received operation (S13). .. Next, the mobile terminal 100 notifies the user UR by displaying the fact that the operating state of the own device has been changed to the force sense notification mode on the operation display unit 110 for a certain period of time (S15), and the basic screen including the object (FIG. 3). ) Is displayed on the operation display unit 110 (S16).

ステップS16の処理に続いて、ユーザーURは、操作表示部110に表示された基本画面内のオブジェクトをタッチ操作などにより選択する。ここではオブジェクトOB1が選択されたものとする。 Following the process of step S16, the user UR selects an object in the basic screen displayed on the operation display unit 110 by a touch operation or the like. Here, it is assumed that the object OB1 is selected.

携帯端末100は、操作表示部110への操作を受け付けると、属性テーブル152(図4)を参照して、操作を受け付けた座標にオブジェクトが存在するか否かを判別し、操作を受け付けた座標にオブジェクトが存在する場合、そのオブジェクトの選択を受け付ける(S19)。この処理は、座標管理部107を用いて行われる。ここでは、オブジェクトOB1の選択を受け付ける。 When the mobile terminal 100 receives an operation on the operation display unit 110, the mobile terminal 100 refers to the attribute table 152 (FIG. 4) to determine whether or not an object exists at the coordinates at which the operation is accepted, and the coordinates at which the operation is accepted. If an object exists in, the selection of the object is accepted (S19). This process is performed using the coordinate management unit 107. Here, the selection of the object OB1 is accepted.

次に携帯端末100は、属性テーブル152(図4)を参照して、選択されたオブジェクトに関連付けられたファイルの属性を抽出する(S21)。この処理は、属性判断部108を用いて行われる。ここでは、オブジェクトOB1に関連付けられたファイルA1の属性(サイズ:6MB、作成者:ユーザーUR1、コピー:可)が抽出される。 Next, the mobile terminal 100 refers to the attribute table 152 (FIG. 4) and extracts the attributes of the file associated with the selected object (S21). This process is performed using the attribute determination unit 108. Here, the attributes (size: 6MB, creator: user UR1, copy: acceptable) of the file A1 associated with the object OB1 are extracted.

続いて携帯端末100は、優先順位テーブル154を参照し、最も高い優先順位を有する知覚変換テーブル153を取得する(S23)。携帯端末100は、取得した知覚変換テーブル153を用いて、抽出した属性に対応する力覚値を参照する。 Subsequently, the mobile terminal 100 refers to the priority table 154 and acquires the perceptual conversion table 153 having the highest priority (S23). The mobile terminal 100 uses the acquired perceptual conversion table 153 to refer to the force sensory value corresponding to the extracted attribute.

携帯端末100は、参照した力覚値における強度が0.0kgよりも大きい場合には、参照した力覚値に力覚値を決定し(S25)、決定した力覚値を力覚デバイス200に通知する(S27)。 When the intensity at the referenced force sense value is greater than 0.0 kg, the mobile terminal 100 determines the force sense value based on the referenced force sense value (S25), and transfers the determined force sense value to the force sense device 200. Notify (S27).

携帯端末100は、参照した力覚値における強度が0である場合には、参照した力覚値を破棄する。そして携帯端末100は、一つだけ低い優先順位を有する知覚変換テーブル153をさらに取得し、取得した知覚変換テーブル153を用いて、抽出した属性に対応する力覚値を参照する。携帯端末100は、全ての有効な知覚変換テーブル153について、参照した力覚値が0である場合には、力覚値を0に決定し(S25)、決定した力覚値を力覚デバイス200に通知する(S27)。 When the intensity at the referenced force sense value is 0, the mobile terminal 100 discards the referenced force sense value. Then, the mobile terminal 100 further acquires the perceptual conversion table 153 having only one lower priority, and uses the acquired perceptual conversion table 153 to refer to the force sensory value corresponding to the extracted attribute. When the referenced force sense value is 0, the mobile terminal 100 determines the force sense value to 0 for all the valid perceptual conversion tables 153 (S25), and sets the determined force sense value to the force sense device 200. (S27).

ここでは、最も優先順位の高い知覚変換テーブルは知覚変換テーブル153b(図6)である。しかし、抽出したファイルA1の権限はコピー可であり、参照した力覚値は0である。このため、抽出したファイルA1の6MBというサイズを用いて、二番目に優先順位の高い知覚変換テーブルである知覚変換テーブル153a(図5)における「方向θ=0、強度0.5kg」という力覚値を参照し、力覚デバイス200に通知する力覚値としてこの力覚値が決定される。 Here, the perceptual transformation table having the highest priority is the perceptual transformation table 153b (FIG. 6). However, the authority of the extracted file A1 is copyable, and the referenced force value is 0. Therefore, using the size of the extracted file A1 of 6 MB, the force sense of "direction θ = 0, intensity 0.5 kg" in the perceptual conversion table 153a (FIG. 5), which is the second highest priority perceptual conversion table. This force sense value is determined as a force sense value to be notified to the force sense device 200 by referring to the value.

図10を参照して、力覚デバイス200は、携帯端末100から力覚値を受信する(S29)。 With reference to FIG. 10, the force sense device 200 receives the force sense value from the mobile terminal 100 (S29).

ユーザーURは、選択したオブジェクトOB1に対して所望の操作(たとえば、ファイルA1の保存場所を移動するためのドラッグ操作)を開始する(S31)。 The user UR initiates a desired operation (for example, a drag operation for moving the storage location of the file A1) on the selected object OB1 (S31).

力覚デバイス200は、位置取得部209を用いてユーザーURによる所望の操作を受け付けると、力覚値に応じた力覚(負荷)をユーザーURに対して与える(S32)。 When the force sense device 200 receives a desired operation by the user UR using the position acquisition unit 209, the force sense device 200 gives the force sense (load) corresponding to the force sense value to the user UR (S32).

なお、ステップS32において、力覚デバイス200は、携帯端末100から力覚値を受信した場合に、所望の操作の開始の有無にかかわらず力覚値に応じた力覚を直ちにユーザーに与えてもよい。 In step S32, when the force sense device 200 receives the force sense value from the mobile terminal 100, the force sense device 200 may immediately give the user a force sense value according to the force sense value regardless of whether or not a desired operation is started. Good.

図12は、図10のステップS32において、力覚値に応じた負荷を力覚デバイス200がユーザーURに対して印加した状態を模式的に示す図である。 FIG. 12 is a diagram schematically showing a state in which the force sense device 200 applies a load corresponding to the force sense value to the user UR in step S32 of FIG.

図12を参照して、力覚デバイス200は、矢印AR1で示すように「方向θ=0、強度0.5kg」という力覚値に応じた力覚(負荷)をユーザーURに対して与える。θは、操作表示部110の表示面に対して垂直な方向に沿って携帯端末100へ向かう方向(端末方向)であるため、ユーザーURが受ける力覚は、操作表示部110の表示面に対して垂直に携帯端末100へ向かう方向となっている。 With reference to FIG. 12, the force sense device 200 gives the user UR a force sense (load) corresponding to the force sense value of “direction θ = 0, intensity 0.5 kg” as shown by the arrow AR1. Since θ is the direction toward the mobile terminal 100 (terminal direction) along the direction perpendicular to the display surface of the operation display unit 110, the force sense received by the user UR is relative to the display surface of the operation display unit 110. The direction is vertically toward the mobile terminal 100.

図10を参照して、ユーザーURは、力覚デバイス200から力覚を受けると(S33)、その力覚からファイルの属性を類推し、類推したファイルの属性に基づいて所望の操作を継続するか否かを判断する(S35)。たとえばユーザーURがファイルA1のサイズが大きいと類推した場合、ユーザーURは、ファイルA1の移動に長い時間を要することを憂慮してファイルA1を移動する操作を中止することが想定される。また、ユーザーURがファイルA1のコピーが禁止されていると類推した場合、ユーザーURは、ファイルA1をコピーする操作を中止することが想定される。 With reference to FIG. 10, when the user UR receives a force sense from the force sense device 200 (S33), the attribute of the file is inferred from the force sense, and the desired operation is continued based on the attribute of the inferred file. Whether or not it is determined (S35). For example, if the user UR infers that the size of the file A1 is large, it is assumed that the user UR cancels the operation of moving the file A1 because it takes a long time to move the file A1. Further, if the user UR infers that copying of the file A1 is prohibited, it is assumed that the user UR cancels the operation of copying the file A1.

次に携帯端末100は、オブジェクトが選択されてからの経過時間が閾値(たとえば3.0秒)を超えたか否かを判断する(S37)。携帯端末100は、経過時間が閾値を超えた場合に、決定した力覚値を0に変更し(S39)、力覚値を0にすることを力覚デバイス200に通知する(S41)。 Next, the mobile terminal 100 determines whether or not the elapsed time since the object was selected exceeds the threshold value (for example, 3.0 seconds) (S37). When the elapsed time exceeds the threshold value, the mobile terminal 100 changes the determined force sense value to 0 (S39) and notifies the force sense device 200 that the force sense value is set to 0 (S41).

力覚デバイス200は、通知を受信すると、力覚の印加を停止する(S43)。 Upon receiving the notification, the force sense device 200 stops applying the force sense (S43).

図13は、本発明の一実施の形態における携帯端末100の動作を示すフローチャートである。 FIG. 13 is a flowchart showing the operation of the mobile terminal 100 according to the embodiment of the present invention.

図13を参照して、携帯端末100のCPU101は、操作表示部110へのタッチ操作を検出したか否かを判別する(S101)。ステップS101において、操作表示部110へのタッチ操作を検出したと判別するまで、CPU101は、ステップS101の処理を繰り返す。 With reference to FIG. 13, the CPU 101 of the mobile terminal 100 determines whether or not a touch operation to the operation display unit 110 has been detected (S101). In step S101, the CPU 101 repeats the process of step S101 until it is determined that the touch operation to the operation display unit 110 has been detected.

ステップS101において、操作表示部110へのタッチ操作を検出したと判別した場合(S101でYES)、CPU101は、タッチされた座標を操作表示部110から取得する(S103)。次にCPU101は、属性テーブル152を参照し、取得した座標にオブジェクトが存在すればそれを特定する(S105)。続いてCPU101は、オブジェクトを特定したか否かを判別する(S107)。 If it is determined in step S101 that a touch operation to the operation display unit 110 has been detected (YES in S101), the CPU 101 acquires the touched coordinates from the operation display unit 110 (S103). Next, the CPU 101 refers to the attribute table 152 and identifies the object if it exists at the acquired coordinates (S105). Subsequently, the CPU 101 determines whether or not the object has been specified (S107).

ステップS107において、オブジェクトを特定したと判別した場合(S107でYES)、CPU101は、特定したオブジェクトにファイルが関連付けられているか否かを判別する(S109)。 If it is determined in step S107 that the object has been identified (YES in S107), the CPU 101 determines whether or not a file is associated with the identified object (S109).

ステップS109において、特定したオブジェクトにファイルが関連付けられていると判別した場合(S109でYES)、CPU101は、知覚変換テーブル153を参照し、ファイルの属性に基づいて力覚値を決定し(S111)、決定した力覚値を力覚デバイス200に通知する(S113)。続いてCPU101は、タッチ操作を検出してからの経過時間を取得し(S115)、経過時間が閾値を超えたか否かを判別する(S117)。経過時間が閾値を超えたと判別するまで、CPU101はステップS117の処理を繰り返す。 If it is determined in step S109 that the file is associated with the specified object (YES in S109), the CPU 101 refers to the perceptual conversion table 153 and determines the force value based on the attributes of the file (S111). , The determined force sense value is notified to the force sense device 200 (S113). Subsequently, the CPU 101 acquires the elapsed time since the touch operation is detected (S115), and determines whether or not the elapsed time exceeds the threshold value (S117). The CPU 101 repeats the process of step S117 until it is determined that the elapsed time exceeds the threshold value.

ステップS117において、経過時間が閾値を超えたと判別した場合(S117でYES)、CPU101は、力覚値を0とすることを力覚デバイス200に通知し(S119)、処理を終了する。 When it is determined in step S117 that the elapsed time exceeds the threshold value (YES in S117), the CPU 101 notifies the force sense device 200 that the force sense value is set to 0 (S119), and ends the process.

ステップS107において、オブジェクトを特定しないと判別した場合(S107でNO)、またはステップS109において、特定したオブジェクトにファイルが関連付けられていないと判別した場合(S109でNO)、CPU101は処理を終了する。 If it is determined in step S107 that the object is not specified (NO in S107), or if it is determined in step S109 that the file is not associated with the specified object (NO in S109), the CPU 101 ends the process.

本実施の形態によれば、オブジェクトを選択したユーザーは、選択したオブジェクトに関連付けられたファイルの属性に応じた知覚を受けるので、ファイルの属性を感覚的に知ることができる。その結果、選択したファイルを処理する操作が完了する前に、その処理に関する操作が適切であるか否かを容易に判断することができ、利便性を向上することができる。 According to the present embodiment, the user who selects the object is perceived according to the attributes of the file associated with the selected object, so that the attributes of the file can be intuitively known. As a result, it is possible to easily determine whether or not the operation related to the processing is appropriate before the operation for processing the selected file is completed, and the convenience can be improved.

[第1の変形例] [First modification]

上述の実施の形態では、オブジェクトを選択する操作を受け付けてからの経過時間が閾値を超えた場合に、ユーザーURへの力覚の付与を停止する携帯端末100の動作について説明した。携帯端末100は、この動作に代えて、オブジェクトを選択する操作を受け付けてからの経過時間が閾値を超えた場合に、ユーザーURに付与する力覚の強度を0でない値に緩和してもよい。閾値は複数であってもよい。 In the above-described embodiment, the operation of the mobile terminal 100 that stops the application of the force sense to the user UR when the elapsed time from receiving the operation of selecting the object exceeds the threshold value has been described. Instead of this operation, the mobile terminal 100 may relax the intensity of the force sense given to the user UR to a value other than 0 when the elapsed time from receiving the operation of selecting an object exceeds the threshold value. .. There may be a plurality of threshold values.

図14は、本発明の一実施の形態の第1の変形例において、携帯端末100が記憶する知覚変換テーブル153を模式的に示す図である。 FIG. 14 is a diagram schematically showing a perception conversion table 153 stored in the mobile terminal 100 in the first modification of the embodiment of the present invention.

図14を参照して、本変形例の知覚変換テーブル153には、オブジェクトを選択する操作を受け付けてからの経過時間が閾値(たとえば5.0秒)以下である場合の力覚値Aと、オブジェクトを選択する操作を受け付けてからの経過時間が閾値を超えた場合の力覚値Bとが設定されている。力覚値Aの内容は、図5の知覚変換テーブル153aの内容と同じである。力覚値Bの各項目の力覚値の強度は、力覚値Aの各項目の力覚値の強度よりも緩和されている。 With reference to FIG. 14, the perceptual conversion table 153 of the present modification shows the force sense value A when the elapsed time from receiving the operation of selecting an object is equal to or less than the threshold value (for example, 5.0 seconds). The force sensory value B when the elapsed time from receiving the operation of selecting an object exceeds the threshold value is set. The content of the force sensory value A is the same as the content of the perceptual conversion table 153a of FIG. The intensity of the force sense value of each item of the force sense value B is relaxed more than the intensity of the force sense value of each item of the force sense value A.

力覚値Bでは、具体的には、ファイルサイズが10MB以上である場合の強度は1kgから0.5kgに緩和されており、ファイルサイズが5MB以上10MB未満である場合の強度は0.5kgから0.0kgに緩和されている。ファイルサイズが5MB未満である場合の強度は、0.0kgのままである。 In the force sense value B, specifically, the intensity when the file size is 10 MB or more is relaxed from 1 kg to 0.5 kg, and the intensity when the file size is 5 MB or more and less than 10 MB is from 0.5 kg. It has been relaxed to 0.0 kg. The strength when the file size is less than 5 MB remains 0.0 kg.

なお、本変形例において、オブジェクトを選択する操作を受け付けてからの経過時間が、上記の閾値よりも長い別の閾値(たとえば10.0秒)を超えた場合に、力覚の付与が停止されてもよい。また、オブジェクトを選択する操作を受け付けてからの経過時間とともに、力覚値の強度が段階的に緩和されてもよい。 In this modified example, when the elapsed time from receiving the operation of selecting an object exceeds another threshold value (for example, 10.0 seconds) longer than the above threshold value, the application of force sense is stopped. You may. Further, the intensity of the force sense value may be gradually relaxed with the elapsed time from receiving the operation of selecting the object.

本変形例によれば、オブジェクトを選択してから時間が経過すると力覚が緩和されるので、ユーザーURに対して不要な力覚を与えることを回避しつつ、オブジェクトに関連付けられたファイルの属性を継続的に知らせることができる。 According to this variant, the force sensation is relaxed as time passes after the object is selected, so the attributes of the file associated with the object while avoiding giving unnecessary force sensation to the user UR. Can be continuously informed.

[第2の変形例] [Second variant]

上述の実施の形態では、ユーザーURに対してファイルの属性に応じた力覚を与える場合について示した。ユーザーURに対して与える知覚は力覚の他、視覚、嗅覚、または聴覚などであってもよい。本変形例では、ユーザーURに対してファイルの属性に応じた視覚(視覚的効果)を与える場合について説明する。すなわち、本変形例における携帯端末100は、オブジェクトを選択する操作を受け付けた場合に、選択されたオブジェクトに関連付けられたファイルの属性を抽出し、抽出した属性に応じた視覚をユーザーURに付与する。 In the above-described embodiment, the case where the user UR is given a force sense according to the attribute of the file is shown. The perception given to the user UR may be visual, olfactory, auditory, etc., in addition to force. In this modification, a case where the user UR is given a visual sense (visual effect) according to the attributes of the file will be described. That is, when the mobile terminal 100 in this modification accepts the operation of selecting an object, it extracts the attributes of the file associated with the selected object and imparts the user UR a visual according to the extracted attributes. ..

なお、本変形例の動作は、携帯端末100単独の動作であり、本変形例において力覚デバイス200は不要である。 The operation of this modification is the operation of the mobile terminal 100 alone, and the force sense device 200 is unnecessary in this modification.

図15は、本発明の一実施の形態の第2の変形例における携帯端末100の動作を模式的に示す図である。なお図15では、説明の便宜上、基本画面におけるオブジェクトOB2のみが示されている。図15中の点線は、オブジェクトOB2の初期位置を示している。 FIG. 15 is a diagram schematically showing the operation of the mobile terminal 100 in the second modification of the embodiment of the present invention. Note that FIG. 15 shows only the object OB2 on the basic screen for convenience of explanation. The dotted line in FIG. 15 indicates the initial position of the object OB2.

図15を参照して、携帯端末100の操作表示部110には基本画面が表示されている。基本画面において、オブジェクトOB2は初期位置に存在している。ユーザーURは、オブジェクトOB2を選択し(図15(a))、操作表示部110上で図15中下方向にオブジェクトOB2を移動させるドラッグ操作を行う(図15(b))。 With reference to FIG. 15, the basic screen is displayed on the operation display unit 110 of the mobile terminal 100. On the basic screen, the object OB2 exists at the initial position. The user UR selects the object OB2 (FIG. 15 (a)) and performs a drag operation on the operation display unit 110 to move the object OB2 in the downward direction in FIG. 15 (FIG. 15 (b)).

携帯端末100は、ドラッグ操作を受け付けると、操作表示部110上において、受け付けたドラッグ操作の方向にオブジェクトを移動させる。携帯端末100は、ドラッグ操作に対するオブジェクトOB2の追従性を、ファイルの属性に応じて変化させる。 When the mobile terminal 100 accepts the drag operation, the mobile terminal 100 moves the object in the direction of the accepted drag operation on the operation display unit 110. The mobile terminal 100 changes the followability of the object OB2 to the drag operation according to the attributes of the file.

携帯端末100は、知覚変換テーブルを参照し、ファイルの属性に応じた遅れ時間を決定する。そして、オブジェクトOB2が、ドラッグ操作を行う操作指よりも決定した遅れ時間だけ遅れて追従するように、操作表示部110上でオブジェクトOB2を移動させる。具体的には、オブジェクトOB2は、決定した遅れ時間が経過するまでは初期位置に留まる(図15(b))。オブジェクトOB2は、決定した遅れ時間が経過した後で、操作表示部110上で操作指の方向に徐々に移動する(図15(c))。オブジェクトOB2は、最終的に操作指の位置まで移動する(図15(d))。 The mobile terminal 100 refers to the perceptual conversion table and determines the delay time according to the attributes of the file. Then, the object OB2 is moved on the operation display unit 110 so that the object OB2 follows the operation finger that performs the drag operation with a delay time determined. Specifically, the object OB2 stays in the initial position until the determined delay time elapses (FIG. 15 (b)). The object OB2 gradually moves in the direction of the operation finger on the operation display unit 110 after the determined delay time has elapsed (FIG. 15 (c)). The object OB2 finally moves to the position of the operating finger (FIG. 15 (d)).

図16は、本発明の一実施の形態の第2の変形例における視覚変換テーブル153を模式的に示す図である。 FIG. 16 is a diagram schematically showing a visual conversion table 153 in a second modification of the embodiment of the present invention.

図16に示す知覚変換テーブル153は、ファイルサイズと遅れ時間との関係が記載されたテーブルである。この知覚変換テーブル153では、ファイルサイズが大きい程長い遅れ時間が設定されている。具体的には、この知覚変換テーブル153には、ファイルサイズが10MB以上である場合には遅れ時間を2秒にすることが記載されている。また、ファイルサイズが5MB以上10MB未満である場合には遅れ時間を1秒にすることが記載されている。さらに、ファイルサイズが5MB未満である場合には遅れ時間を0にすることが記載されている。 The perceptual conversion table 153 shown in FIG. 16 is a table in which the relationship between the file size and the delay time is described. In this perceptual conversion table 153, the larger the file size, the longer the delay time is set. Specifically, the perceptual conversion table 153 describes that the delay time is set to 2 seconds when the file size is 10 MB or more. Further, it is described that the delay time is set to 1 second when the file size is 5 MB or more and less than 10 MB. Further, it is described that the delay time is set to 0 when the file size is less than 5 MB.

本変形例によれば、力覚デバイス200を用いなくても、オブジェクトに関連付けられたファイルの属性をユーザーURに対して感覚的に伝えることができる。 According to this modification, the attributes of the file associated with the object can be intuitively transmitted to the user UR without using the force sense device 200.

なお、第1および第2の変形例における表示システムの上述以外の構成および動作は、上述の実施の形態の構成および動作と同様であるため、それらの説明は繰り返さない。 Since the configurations and operations of the display system other than the above in the first and second modifications are the same as the configurations and operations of the above-described embodiment, their description will not be repeated.

[その他] [Other]

上述の実施の形態および変形例は適宜組み合わせることができる。たとえば、第1の変形例と第2の変形例とを組み合わせることにより、ユーザーURに対して与える視覚、嗅覚、または聴覚の視覚を段階的に緩和してもよい。 The above-described embodiments and modifications can be combined as appropriate. For example, by combining the first modification and the second modification, the visual, olfactory, or auditory vision given to the user UR may be gradually relaxed.

上述の実施の形態における処理は、ソフトウェアにより行っても、ハードウェア回路を用いて行ってもよい。また、上述の実施の形態における処理を実行するプログラムを提供することもできるし、そのプログラムをCD−ROM、フレキシブルディスク、ハードディスク、ROM、RAM、メモリカードなどの記録媒体に記録してユーザーに提供することにしてもよい。プログラムは、CPUなどのコンピューターにより実行される。また、プログラムはインターネットなどの通信回線を介して、装置にダウンロードするようにしてもよい。 The processing in the above-described embodiment may be performed by software or by using a hardware circuit. It is also possible to provide a program that executes the processing according to the above-described embodiment, and record the program on a recording medium such as a CD-ROM, a flexible disk, a hard disk, a ROM, a RAM, or a memory card and provide the program to the user. You may decide to do it. The program is executed by a computer such as a CPU. Further, the program may be downloaded to the device via a communication line such as the Internet.

上述の実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 It should be considered that the above embodiments are exemplary in all respects and not restrictive. The scope of the present invention is shown by the scope of claims rather than the above description, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

100 携帯端末
101,201 CPU(Central Processing Unit)
102,202 ROM(Read Only Memory)
103,203 RAM(Random Access Memory)
104,204 記憶装置
105,205 無線通信部
106,206 近距離無線通信部
107 座標管理部
108 属性判断部
109 知覚変換部
110 操作表示部
151 知覚通知アプリ
152 属性テーブル
153,153a,153b,153c 知覚変換テーブル
154 優先順位テーブル
200 力覚デバイス
206 位置取得部
207 力覚提示部
208 操作表示部
209 位置取得部
251 力覚提示アプリ
KY1,KY2,KY3,KY4,KY5,KY6,KY7,KY8 キー
MG メッセージ
OB,OB1,OB2,OB3,OB4 オブジェクト
UR ユーザー
100 Mobile Terminal 101,201 CPU (Central Processing Unit)
102,202 ROM (Read Only Memory)
103,203 RAM (Random Access Memory)
104,204 Storage device 105,205 Wireless communication unit 106,206 Short-range wireless communication unit 107 Coordinate management unit 108 Attribute judgment unit 109 Perception conversion unit 110 Operation display unit 151 Perception notification application 152 Attribute table 153, 153a, 153b, 153c Perception Conversion table 154 Priority table 200 Power sense device 206 Position acquisition unit 207 Power sense presentation unit 208 Operation display unit 209 Position acquisition unit 251 Power sense presentation application KY1, KY2, KY3, KY4, KY5, KY6, KY7, KY8 key MG OB, OB1, OB2, OB3, OB4 object UR user

Claims (9)

表示装置と、前記表示装置とは別体でありユーザーの手首に装着される力覚デバイスとを備えた表示システムであって、
前記表示装置は、
ファイルに関連付けられたオブジェクトを表示する表示手段と、
前記表示手段にて表示したオブジェクトを選択する操作を前記ユーザーから受け付ける選択受付手段と、
前記選択受付手段にて操作を受け付けた場合に、選択されたオブジェクトに関連付けられたファイルの属性を抽出する抽出手段と、
前記抽出手段にて抽出した属性に応じて決定した知覚の内容を、前記力覚デバイスに通知する通知手段とを含み、
前記力覚デバイスは、
前記表示装置から前記知覚の内容の通知を受信する受信手段と、
前記知覚の内容を前記受信手段にて受信した後で、選択されたオブジェクトに対する操作を検知する操作検知手段と、
選択されたオブジェクトに対する操作を前記操作検知手段にて検知した場合に、前記受信手段にて受信した前記知覚の内容に応じた知覚である力覚を前記ユーザーに付与する付与手段とを含む、表示システム。
A display system including a display device and a force sensor device that is separate from the display device and is worn on the user's wrist.
The display device is
A display means to display the objects associated with the file, and
A selection receiving means that accepts an operation of selecting an object displayed by the display means from the user,
An extraction means that extracts the attributes of the file associated with the selected object when the operation is accepted by the selection reception means, and
Including a notification means for notifying the force sense device of the content of perception determined according to the attribute extracted by the extraction means.
The force sense device is
A receiving means for receiving a notification of the content of the perception from the display device, and
An operation detecting means for detecting an operation on a selected object after receiving the content of the perception by the receiving means, and an operation detecting means.
When the operation detecting means detects an operation on the selected object , the display includes a giving means for imparting a force sense, which is a perception corresponding to the content of the perception received by the receiving means, to the user. system.
前記表示装置は、
ファイルの属性と知覚との関係が記載されたテーブルを記憶する記憶装置と、
前記抽出手段にて抽出した属性に基づいて、前記テーブルを用いて前記知覚の内容を決定する決定手段とをさらに含み、
前記通知手段は、前記決定手段にて決定した前記知覚の内容を前記力覚デバイスに通知する、請求項1に記載の表示システム
The display device is
A storage device that stores a table that describes the relationship between file attributes and perception,
Further including a determination means for determining the content of the perception using the table based on the attributes extracted by the extraction means.
The display system according to claim 1, wherein the notification means notifies the force sensor device of the content of the perception determined by the determination means.
前記記憶装置は、複数の前記テーブルを記憶し、前記複数のテーブルの各々に記載されたファイルの属性の種類は互いに異なり、
前記表示装置は、前記複数のテーブルの優先順位の設定を受け付ける優先順位設定受付手段をさらに含む、請求項2に記載の表示システム
The storage device stores a plurality of the tables, and the types of file attributes described in each of the plurality of tables are different from each other.
The display system according to claim 2, wherein the display device further includes a priority setting receiving means for receiving the setting of the priority of the plurality of tables.
前記複数のテーブルの各々に記載されたファイルの属性の種類は、ファイルのサイズ、ファイルの数、ファイルの権限、またはファイルの作成者である、請求項3に記載の表示システムThe display system according to claim 3, wherein the type of file attribute described in each of the plurality of tables is the size of the file, the number of files, the authority of the file, or the creator of the file. 前記表示装置は、前記テーブルに記載されるファイルの属性と知覚との関係の設定を受け付けるテーブル設定受付手段をさらに含む、請求項2〜4のいずれかに記載の表示システムThe display system according to any one of claims 2 to 4, wherein the display device further includes a table setting receiving means for receiving a setting of a relationship between the attribute of a file described in the table and perception. 前記力覚デバイスは、前記選択受付手段にて操作を受け付けてからの経過時間が閾値を超えた場合に、前記付与手段にて付与する力覚を緩和する緩和手段をさらに含む、請求項1〜5のいずれかに記載の表示システム The force sense device further includes a relaxation means for alleviating the force sense given by the giving means when the elapsed time from receiving the operation by the selection receiving means exceeds the threshold value. The display system according to any one of 5. 前記選択受付手段にて操作を受け付けてからの経過時間が閾値を超えた場合に、前記緩和手段は、前記付与手段による力覚の付与を停止する、請求項6に記載の表示システムThe display system according to claim 6, wherein when the elapsed time from receiving the operation by the selection receiving means exceeds the threshold value, the relaxation means stops the giving of the force sense by the giving means. 前記操作検知手段は、選択されたオブジェクトをドラッグする操作を検知し、
前記付与手段は、前記操作検知手段にてドラッグ操作を検知した場合に、前記受信手段にて受信した前記知覚の内容に応じた知覚である力覚の付与を開始する、請求項1〜7のいずれかに記載の表示システム
The operation detection means detects an operation of dragging the selected object and detects the operation .
The giving means, when the drag operation is detected by the operation detecting means , starts giving a force sense which is a perception according to the content of the perception received by the receiving means , claim 1 to 7. The display system described in either.
前記通知手段は、前記抽出手段にて抽出した属性に応じて決定した、強度、方向、およびタイミングのうち少なくとも1つが異なる前記知覚の内容を、前記力覚デバイスに通知する、請求項1〜8のいずれかに記載の表示システムThe notification unit was determined in accordance with the attribute extracted by the extraction means, the intensity, direction, and at least one of contents of said different perceptual out timing notifying the haptic device, according to claim 8 The display system described in any of.
JP2016203674A 2016-10-17 2016-10-17 Display system Active JP6794763B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016203674A JP6794763B2 (en) 2016-10-17 2016-10-17 Display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016203674A JP6794763B2 (en) 2016-10-17 2016-10-17 Display system

Publications (2)

Publication Number Publication Date
JP2018067048A JP2018067048A (en) 2018-04-26
JP6794763B2 true JP6794763B2 (en) 2020-12-02

Family

ID=62087073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016203674A Active JP6794763B2 (en) 2016-10-17 2016-10-17 Display system

Country Status (1)

Country Link
JP (1) JP6794763B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001296950A (en) * 2000-04-14 2001-10-26 Fuji Xerox Co Ltd Tactile force presenting device and recording medium
JP4561888B2 (en) * 2008-07-01 2010-10-13 ソニー株式会社 Information processing apparatus and vibration control method in information processing apparatus
US9927873B2 (en) * 2009-03-12 2018-03-27 Immersion Corporation Systems and methods for using textures in graphical user interface widgets
JP5490508B2 (en) * 2009-12-11 2014-05-14 京セラ株式会社 Device having touch sensor, tactile sensation presentation method, and tactile sensation presentation program
US9448713B2 (en) * 2011-04-22 2016-09-20 Immersion Corporation Electro-vibrotactile display
JP6061528B2 (en) * 2012-07-23 2017-01-18 キヤノン株式会社 Operating device, control method and program thereof, and recording medium

Also Published As

Publication number Publication date
JP2018067048A (en) 2018-04-26

Similar Documents

Publication Publication Date Title
US9753567B2 (en) Electronic medium display device that performs page turning in response to user operation pressing screen, page turning method, and program
JP5306105B2 (en) Display control device, display control device control method, program, and storage medium
US20150035746A1 (en) User Interface Device
CN103207670A (en) Touch free operation of devices by use of depth sensors
KR20160131103A (en) Metadata-based photo and/or video animation
JP2014063387A5 (en)
JP2015118541A (en) Information processing apparatus, control method therefor, program, and storage medium
JP2010113539A (en) Information processing method, information processing apparatus, and program
JP5486721B2 (en) Display control device, display control device control method, program, and storage medium
JP2013037391A5 (en)
JP5618554B2 (en) Information input device, information input method and program
JP5974685B2 (en) Display device and program
JP6794763B2 (en) Display system
JP5558899B2 (en) Information processing apparatus, processing method thereof, and program
WO2017163566A1 (en) Program, computer device, program execution method, and system
US9230393B1 (en) Method and system for advancing through a sequence of items using a touch-sensitive component
US9454233B2 (en) Non-transitory computer readable medium
US9235694B2 (en) Recording medium, authentication device, and authentication method
JP6062984B2 (en) Information processing apparatus and information display method
JP6347701B2 (en) Information processing apparatus, information processing method, and program
JP2017188140A (en) Program, computer device, program execution method, and system
JP2020154660A (en) Display device and display method
JP6074403B2 (en) System, program, and method capable of pointer operation on head mounted display by touch panel type device
KR101541639B1 (en) Electronic device and method for controlling electronic device
JP6169462B2 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201026

R150 Certificate of patent or registration of utility model

Ref document number: 6794763

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150