WO2021005681A1 - 力覚提示装置、力覚提示方法 - Google Patents

力覚提示装置、力覚提示方法 Download PDF

Info

Publication number
WO2021005681A1
WO2021005681A1 PCT/JP2019/026987 JP2019026987W WO2021005681A1 WO 2021005681 A1 WO2021005681 A1 WO 2021005681A1 JP 2019026987 W JP2019026987 W JP 2019026987W WO 2021005681 A1 WO2021005681 A1 WO 2021005681A1
Authority
WO
WIPO (PCT)
Prior art keywords
force sense
data
unit
force
movement
Prior art date
Application number
PCT/JP2019/026987
Other languages
English (en)
French (fr)
Inventor
裕 千明
五味 裕章
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to US17/624,559 priority Critical patent/US20220277625A1/en
Priority to JP2021530374A priority patent/JPWO2021005681A1/ja
Priority to PCT/JP2019/026987 priority patent/WO2021005681A1/ja
Publication of WO2021005681A1 publication Critical patent/WO2021005681A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Definitions

  • the present invention relates to a technique for presenting a force sense, and particularly to a technique for presenting a force sense according to the movement of an object having no power source.
  • force sense presentation technology is used in various fields such as remote control of robots and video games.
  • the force sense presenting device described in Patent Document 1 and Non-Patent Document 1 is a device that presents a pseudo force sense using an oscillator such as a vibrator, and grips a small mobile terminal equipped with the device. It is possible to present the user with a sense of force such as being pulled in a specific direction.
  • the force sense presentation technology By combining the force sense presentation technology with the robot, it is possible to present the force sense according to the movement of the robot. For example, by feeding back the force applied to the housing of the robot to the user as a force sense when controlling the robot, it is possible to provide a simulated experience in which the force sense is given by the robot. In this case, a mechanism for interlocking the force sense presented by the force sense presentation device with the movement of the robot is required.
  • parts such as an actuator, a servomotor, an electric control unit such as an ESC (Electronic Speed Controller), and a power supply. Robots constructed using these parts are generally expensive, and the mechanism may become complicated and the housing may become large. Therefore, even if the force sense presentation device is miniaturized, it is difficult to miniaturize the entire system including the robot and to realize simple operation in daily life.
  • an object of the present invention is to provide a technique for presenting a sense of force according to the movement of a physical object (hereinafter referred to as a passive object) having no power source.
  • One aspect of the present invention is a passive object which is an object having no power source, a motion detection unit which generates data related to the motion of the passive object (hereinafter referred to as first motion data), and a passive object from the first motion data.
  • a force sense presentation unit that determines data related to force sense corresponding to the movement of an object (hereinafter referred to as force sense data) and gives force sense to the user based on the force sense data, and the passive object of the user. Includes a body movement wire that transmits body movements.
  • One aspect of the present invention is from a passive object which is an object having no power source, a motion detection unit that generates data related to the movement of the force sense presentation unit (hereinafter referred to as second motion data), and the second motion data.
  • a force sense presentation unit that determines data related to force sense corresponding to the movement of the passive object (hereinafter referred to as force sense data) and gives force sense to the user based on the force sense data, and the user to the passive object.
  • force sense data includes a body movement wire that conveys the body movement of the object.
  • One aspect of the present invention is a positional relationship detection unit that generates data (hereinafter, referred to as positional relationship data) relating to a passive object that is an object having no power source and the relative positional relationship between the passive object and the force sense presentation unit.
  • a force sense presentation unit that determines data related to force sense corresponding to the movement of the passive object (hereinafter referred to as force sense data) from the positional relationship data and gives force sense to the user based on the force sense data.
  • a body movement wire that transmits the body movement of the user to the passive object, and the like.
  • FIG. 1 is a block diagram showing the configuration of the force sense presentation device 100.
  • FIG. 2 is a flowchart showing the operation of the force sense presentation device 100.
  • the force sense presentation device 100 includes a passive object 110, a motion detection unit 120, a force sense presentation unit 130, and a body movement wire 140.
  • the force sense presentation device 100 becomes a system that allows the user to virtually experience a walk.
  • the passive object 110 is an object having no power source. Therefore, the passive object 110 moves by receiving an external force, and the movement becomes passive.
  • the passive object 110 is preferably relatively lightweight in consideration of the burden on the user.
  • the shape of the passive object 100 may be any shape.
  • the passive object 100 may be a dog-shaped balloon.
  • the motion detection unit 120 detects the motion of the passive object 110, generates data related to the motion of the passive object 110 (hereinafter, referred to as first motion data), and outputs the generated first motion data to the force sense presentation unit 130. ..
  • the motion detection unit 120 is mounted or attached to the passive object 110.
  • FIG. 3 is a block diagram showing the configuration of the motion detection unit 120.
  • the motion detection unit 120 includes a sensor 121, a communication unit 128, and a battery 129.
  • the sensor 121 detects the movement of the passive object 110 and generates the first movement data.
  • the sensor 121 may be an acceleration sensor, a gyro sensor, a geomagnetic sensor, a GPS, or an inertial measurement unit (IMU) in which various sensors are combined.
  • the communication unit 128 transmits / receives data, and for example, transmits the first motion data indicating the detection result of the sensor 121 to the force sense presentation unit 130.
  • the communication method includes a serial port capable of input / output of signals or a communication interface in the form of various general-purpose connectors (for example, phone connector, RCA connector, XLR type connector). Wired communication using a communication cable provided with the above can be used.
  • the format of the detection result of the sensor 121 is generally a signal peculiar to the sensor, but a signal that has been subjected to arithmetic processing such as electrical conversion processing, smoothing, and delay in advance is output to the communication unit 128 as the first motion data. It may be. Instead of executing these processes by the motion detection unit 120, the force sense presentation unit 130 may execute these processes.
  • the battery 129 supplies power to the sensor 121 and the communication unit 128.
  • a power cable may be used to supply power from the force sense presentation unit 130.
  • the motion detection unit 120 can be made smaller and lighter.
  • the force sense presentation unit 130 determines data related to force sense corresponding to the movement of the passive object 110 from the first motion data output by the motion detection unit 120 (hereinafter referred to as force sense data), and based on the force sense data. Give the user a sense of force.
  • the force sense presentation unit 130 is a mobile device that the user holds, and the force sense is given to the user's hand (fingers or palms).
  • the force sense presentation unit 130 can be configured by using the device that generates asymmetric vibration described in Patent Document 1.
  • FIG. 4 is a block diagram showing the configuration of the force sense presentation unit 130.
  • the force sense presentation unit 130 includes a force sense data determination unit 131, a vibration generation unit 132, an actuator 133, a communication unit 138, and a battery 139.
  • the force sense data determination unit 131 determines the force sense data from the first motion data output by the motion detection unit 120.
  • the vibration generation unit 132 generates vibration according to the force sense data determined by the force sense data determination unit 131.
  • the actuator 133 pseudo-presents a sense of force to the user by using the vibration generated by the vibration generating unit 132.
  • the communication unit 138 transmits / receives data, for example, receives the first motion data transmitted by the communication unit 128 of the motion detection unit 120.
  • the communication unit 138 uses a communication method corresponding to the communication unit 128.
  • the battery 139 supplies electric power to the force sense data determination unit 131, the vibration generation unit 132, the actuator 133, and the communication unit 138.
  • the body movement wire 140 connects the passive object 110 and the force sense presentation unit 130, and transmits the body movement of the user holding the force sense presentation unit 130 to the passive object 110.
  • the body movement wire 140 may be of any material and shape as long as it has a rigidity sufficient to transmit the body movement of the user to the passive object 110. Therefore, the body movement wire 140 does not necessarily have to be metal.
  • the operation of the force sense presentation device 100 will be described with reference to FIG.
  • the motion detection unit 120 detects the motion of the passive object 110 and generates the first motion data (S120).
  • the force sense presentation unit 130 determines the force sense data from the first motion data generated in S120, and gives the force sense to the user based on the force sense data (S130). Then, when a new body movement is generated due to the movement of the user's body, the body movement is transmitted to the passive object 110 using the body movement wire 140 as a medium, and the process described above is repeated.
  • the force sense presentation device 100 determines the force sense data according to the data, and presents the force sense to the user in a pseudo manner based on the force sense data.
  • the movement of the passive object 110 and the force sense presented by the force sense presentation unit 130 correspond to each other.
  • an acceleration sensor as the sensor 121 of the motion detection unit 120
  • a device described in Patent Document 1 as the force sense presentation unit 130 that is, a device capable of perceiving the force sense as a traction force in a specific direction.
  • it is mounted (mounted) on the passive object 110 so that the direction of any of the X-axis, Y-axis, and Z-axis of the accelerometer is the direction of walking, and based on the measurement results on that axis.
  • the first motion data is input to the force sense presentation unit 130.
  • the passive object even when the physical object does not have a power source, it is possible to present a sense of force according to the movement of the physical object. That is, even if the passive object does not have a power source, the passive object moves based on the body movement accompanying the movement of the user, and it is possible to present the user with a sense of force according to the movement.
  • the device described in Patent Document 1 it is possible to present the user with the feeling of being drawn by a passive object.
  • a passive object it becomes possible to experience a realistic virtual experience of force according to the movement of a physical object inexpensively and easily.
  • the motion detection unit 220 is mounted (attached) to the force sense presentation unit 230 instead of the passive object 110.
  • FIG. 6 is a block diagram showing the configuration of the force sense presentation device 200.
  • FIG. 7 is a flowchart showing the operation of the force sense presentation device 200.
  • the force sense presenting device 200 includes a passive object 110, a motion detection unit 220, a force sense presentation unit 230, and a body movement wire 140.
  • the motion detection unit 220 detects the movement of the force sense presentation unit 230, generates data related to the movement of the force sense presentation unit 230 (hereinafter referred to as second motion data), and uses the generated second motion data as the force sense presentation unit. Output to 230.
  • the motion detection unit 220 is mounted or attached to the force sense presentation unit 230.
  • FIG. 8 is a block diagram showing the configuration of the motion detection unit 220.
  • the motion detection unit 220 includes a sensor 221 and a battery 129.
  • the sensor 221 detects the movement of the force sense presenting unit 230 and generates the second movement data. Similar to the sensor 121, the sensor 221 can use an acceleration sensor, a gyro sensor, a geomagnetic sensor, a GPS, or an inertial measurement unit in which various sensors are combined.
  • the battery 129 supplies power to the sensor 221.
  • the force sense presentation unit 230 determines data related to force sense corresponding to the movement of the passive object 110 from the second movement data output by the motion detection unit 220 (hereinafter referred to as force sense data), and based on the force sense data. Give the user a sense of force.
  • the force sense presentation unit 230 is a mobile device held by the user, and the force sense is given to the user's hand (fingers or palms).
  • the force sense presentation unit 230 can be configured by using the device that generates asymmetric vibration described in Patent Document 1.
  • FIG. 9 is a block diagram showing the configuration of the force sense presentation unit 230.
  • the force sense presentation unit 230 includes a force sense data determination unit 231, a vibration generation unit 132, an actuator 133, and a battery 139.
  • the force sense data determination unit 231 determines the force sense data from the second motion data output by the motion detection unit 220.
  • the force sense data determination unit 231 includes a recording unit (not shown) that records the correspondence between the movement of the force sense presentation unit 230 and the movement of the passive object 110, and uses the correspondence relationship to obtain force sense data from the second movement data. To determine.
  • FIG. 10 shows an example of the correspondence relationship.
  • the correspondence relationship can be obtained, for example, by analyzing an image of a user using the force sense presentation device 200 and extracting the movement of the force sense presentation unit 230 and the movement of the passive object 110.
  • the force sense data determination unit 231 may record in the recording unit as a function that models the correspondence between the movement of the force sense presentation unit 230 and the movement of the passive object 110.
  • the function takes the movement of the force sense presenting unit 230 as an input and outputs the movement of the passive object 110.
  • the function is given in consideration of conversion by a predetermined filter or processing that gives a time delay, the magnitude and direction of the force sense presented by the force sense presentation unit 230 and the time for presenting the force sense are changed.
  • the vibration generation unit 132 generates vibration according to the force sense data determined by the force sense data determination unit 231.
  • the actuator 133 pseudo-presents a sense of force to the user by using the vibration generated by the vibration generating unit 132.
  • the battery 139 supplies electric power to the force sense data determination unit 231, the vibration generation unit 132, and the actuator 133.
  • the force sense presentation unit 230 includes the force sense data determination unit 231.
  • the function of the force sense data determination unit 231 may be provided by a server on the cloud.
  • the motion detection unit 220 includes the sensor 221 and the battery 129, and the communication unit 128 (not shown), and the force sense presentation unit 230 communicates with the vibration generation unit 132, the actuator 133, and the battery 139. Includes part 138 (not shown). The operation will be described below.
  • the motion detection unit 220 transmits the generated second motion data to a server having the function of the force sense data determination unit 231.
  • the server determines the force sense data from the received second motion data and transmits the force sense data to the force sense presentation unit 230.
  • the force sense presentation unit 230 gives the force sense to the user based on the received force sense data.
  • the motion detection unit 220 detects the motion of the force sense presentation unit 230 and generates the second motion data (S220).
  • the force sense presentation unit 230 determines the force sense data from the second motion data generated in S220, and gives the force sense to the user based on the force sense data (S230).
  • the body movement accompanying the movement of the user's body is transmitted to the passive object 110 using the body movement wire 140 as a medium. Then, when a new body movement is generated due to the movement of the user's body, the process described above is repeated.
  • the communication unit required for the motion detection unit 120 and the force sense presentation unit 130 is no longer required for the motion detection unit 220 and the force sense presentation unit 230, the number of parts of the motion detection unit 220 and the force sense presentation unit 230 is increased. It becomes possible to reduce the cost. Since the passive object 110 is not equipped with a motion detection unit, the total weight on the passive object 110 side is reduced, and it is possible to reduce physical fatigue when the user uses it and provide a more entertaining experience. Become.
  • FIG. 11 is a block diagram showing the configuration of the force sense presentation device 300.
  • FIG. 12 is a flowchart showing the operation of the force sense presentation device 300.
  • the force sense presentation device 300 includes a passive object 110, a positional relationship detection unit 320, a force sense presentation unit 330, and a body movement wire 140.
  • the positional relationship detection unit 320 detects the relative positional relationship between the passive object 110 and the force sense presentation unit 330, and data relating to the relative positional relationship between the passive object 110 and the force sense presentation unit 330 (hereinafter referred to as positional relationship data). ) Is generated, and the generated positional relationship data is output to the force sense presentation unit 330.
  • the positional relationship detection unit 320 is not mounted (attached) to either the passive object 110 or the force sense presentation unit 330.
  • FIG. 13 is a block diagram showing the configuration of the positional relationship detection unit 320.
  • the positional relationship detection unit 320 includes a sensor 321, a communication unit 128, and a battery 129.
  • the sensor 321 detects the relative positional relationship between the passive object 110 and the force sense presenting unit 330, and generates positional relationship data.
  • the sensor 321 is configured using, for example, a camera fixed to a wall or ceiling. In this case, the sensor 321 detects the relative positional relationship between the passive object 110 and the force sense presenting unit 330 by analyzing the image of the user, and generates the positional relationship data. Further, the sensor 321 is configured by using, for example, a fixed laser distance sensor.
  • the senor 321 detects the relative positional relationship between the passive object 110 and the force sense presenting unit 330 using the measured distance data, and generates the positional relationship data.
  • the communication unit 128 transmits / receives data, and for example, transmits positional relationship data indicating the detection result of the sensor 321 to the force sense presentation unit 330.
  • the battery 329 supplies power to the sensor 321 and the communication unit 128.
  • the force sense presentation unit 330 determines data related to force sense corresponding to the movement of the passive object 110 from the position relationship data output by the position relationship detection unit 320 (hereinafter referred to as force sense data), and based on the force sense data. Give the user a sense of force.
  • the force sense presentation unit 330 is a mobile device held by the user, and the force sense is given to the user's hand (fingers or palms).
  • the force sense presentation unit 330 can be configured by using the device that generates asymmetric vibration described in Patent Document 1.
  • FIG. 14 is a block diagram showing the configuration of the force sense presentation unit 330.
  • the force sense presentation unit 330 includes a force sense data determination unit 331, a vibration generation unit 132, an actuator 133, a communication unit 138, and a battery 139.
  • the force sense data determination unit 331 determines the force sense data from the position relationship data output by the position relationship detection unit 320.
  • the vibration generation unit 132 generates vibration according to the force sense data determined by the force sense data determination unit 331.
  • the actuator 133 pseudo-presents a sense of force to the user by using the vibration generated by the vibration generating unit 132.
  • the communication unit 138 transmits / receives data, and receives, for example, the positional relationship data transmitted by the communication unit 128 of the positional relationship detection unit 320.
  • the battery 139 supplies electric power to the force sense data determination unit 331, the vibration generation unit 132, the actuator 133, and the communication unit 138.
  • the positional relationship detection unit 320 detects the relative positional relationship between the passive object 110 and the force sense presentation unit 330, and generates positional relationship data (S320).
  • the force sense presentation unit 330 determines the force sense data from the positional relationship data generated in S320, and gives the force sense to the user based on the force sense data (S330). Then, when a new body movement is generated due to the movement of the user's body, the body movement is transmitted to the passive object 110 using the body movement wire 140 as a medium, and the process described above is repeated.
  • FIG. 15 is a diagram showing an example of a functional configuration of a computer that realizes each of the above-mentioned devices.
  • the processing in each of the above-mentioned devices can be carried out by causing the recording unit 2020 to read a program for causing the computer to function as each of the above-mentioned devices, and operating the control unit 2010, the input unit 2030, the output unit 2040, and the like.
  • the device of the present invention is, for example, as a single hardware entity, an input unit to which a keyboard or the like can be connected, an output unit to which a liquid crystal display or the like can be connected, and a communication device (for example, a communication cable) capable of communicating outside the hardware entity.
  • Communication unit CPU (Central Processing Unit, cache memory, registers, etc.) to which can be connected, RAM and ROM as memory, external storage device as hard hardware, and input, output, and communication units of these , CPU, RAM, ROM, has a connecting bus so that data can be exchanged between external storage devices.
  • a device (drive) or the like capable of reading and writing a recording medium such as a CD-ROM may be provided in the hardware entity.
  • a general-purpose computer or the like is a physical entity equipped with such hardware resources.
  • the external storage device of the hardware entity stores the program required to realize the above-mentioned functions and the data required for processing this program (not limited to the external storage device, for example, reading a program). It may be stored in a ROM, which is a dedicated storage device). Further, the data obtained by the processing of these programs is appropriately stored in a RAM, an external storage device, or the like.
  • each program stored in the external storage device (or ROM, etc.) and the data necessary for processing each program are read into the memory as needed, and are appropriately interpreted, executed, and processed by the CPU. ..
  • the CPU realizes a predetermined function (each configuration requirement represented by the above, ... Department, ... means, etc.).
  • the present invention is not limited to the above-described embodiment, and can be appropriately modified without departing from the spirit of the present invention. Further, the processes described in the above-described embodiment are not only executed in chronological order according to the order described, but may also be executed in parallel or individually depending on the processing capacity of the device that executes the processes or if necessary. ..
  • the processing function in the hardware entity (device of the present invention) described in the above embodiment is realized by a computer
  • the processing content of the function that the hardware entity should have is described by a program. Then, by executing this program on the computer, the processing function in the hardware entity is realized on the computer.
  • the program that describes this processing content can be recorded on a computer-readable recording medium.
  • the computer-readable recording medium may be, for example, a magnetic recording device, an optical disk, a photomagnetic recording medium, a semiconductor memory, or the like.
  • a hard disk device, a flexible disk, a magnetic tape, or the like as a magnetic recording device is used as an optical disk
  • a DVD (Digital Versatile Disc), a DVD-RAM (Random Access Memory), or a CD-ROM (Compact Disc Read Only) is used as an optical disk.
  • Memory CD-R (Recordable) / RW (ReWritable), etc.
  • MO Magnetto-Optical disc
  • EP-ROM Electroically Erasable and Programmable-Read Only Memory
  • semiconductor memory can be used.
  • this program is carried out, for example, by selling, transferring, renting, etc., a portable recording medium such as a DVD or CD-ROM on which the program is recorded.
  • the program may be stored in the storage device of the server computer, and the program may be distributed by transferring the program from the server computer to another computer via a network.
  • a computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. Then, when the process is executed, the computer reads the program stored in its own storage device and executes the process according to the read program. Further, as another execution form of this program, a computer may read the program directly from a portable recording medium and execute processing according to the program, and further, the program is transferred from the server computer to this computer. It is also possible to execute the process according to the received program one by one each time. In addition, the above processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition without transferring the program from the server computer to this computer. May be.
  • the program in this embodiment includes information used for processing by a computer and equivalent to the program (data that is not a direct command to the computer but has a property of defining the processing of the computer, etc.).
  • the hardware entity is configured by executing a predetermined program on the computer, but at least a part of these processing contents may be realized in terms of hardware.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

動力源を持たない物理オブジェクトの動きに応じた力覚を提示する技術を提供する。動力源を持たないオブジェクトであるパッシブオブジェクトと、前記パッシブオブジェクトの動きに関するデータ(以下、第1動きデータという)を生成する動き検出部と、前記第1動きデータからパッシブオブジェクトの動きに対応する力覚に関するデータ(以下、力覚データという)を決定し、当該力覚データに基づいて力覚を利用者に与える力覚提示部と、前記パッシブオブジェクトに前記利用者の体動を伝える体動用ワイヤと、を含む。

Description

力覚提示装置、力覚提示方法
 本発明は、力覚を提示する技術に関し、特に動力源を持たないオブジェクトの動きに応じた力覚を提示する技術に関する。
 力覚を提示する技術(以下、力覚提示技術という)は、ロボットの遠隔制御やビデオゲームなど様々な分野で利用されている。例えば、特許文献1や非特許文献1に記載の力覚提示デバイスはバイブレータ等の振動子を用いて擬似的に力覚を提示するデバイスであり、当該デバイスを搭載した小型のモバイル端末を把持する利用者に対して特定の方向へ牽引されるといった力覚を提示することができる。
特開2017-63916号公報
Tomohiro Amemiya, Shinya Takamuku, Sho Ito, and Hiroaki Gomi,"Buru-Navi3 Gives You a Feeling of Being Pulled",NTT Technical Review, Vol.12, No.11, Nov. 2014.
 力覚提示技術をロボットと組み合わせることにより、ロボットの動きに応じた力覚を提示することができる。例えば、ロボットを制御する際にロボットの筐体にかかる力を利用者に力覚としてフィードバックすることで、ロボットから力覚が与えられるような擬似体験を提供することが可能となる。この場合、ロボットの動きに対して力覚提示デバイスで提示する力覚を連動させる仕組みが必要となる。一般に、ロボットに動きを発生させるためには、アクチュエータやサーボモータ、ESC(Electronic Speed Controller)等の電気制御ユニット、電源等などの部品をロボットに備える必要がある。これらの部品を用いて構成されるロボットは、一般に高価なうえ、機構も複雑化し筐体も大型化してしまう可能性がある。そのため、力覚提示デバイスが小型化されたとしても、ロボットを含めたシステム全体の小型化や、日常での簡便な運用を実現することは難しくなってしまう。
 そこで本発明では、動力源を持たない物理オブジェクト(以下、パッシブオブジェクトという)の動きに応じた力覚を提示する技術を提供することを目的とする。
 本発明の一態様は、動力源を持たないオブジェクトであるパッシブオブジェクトと、前記パッシブオブジェクトの動きに関するデータ(以下、第1動きデータという)を生成する動き検出部と、前記第1動きデータからパッシブオブジェクトの動きに対応する力覚に関するデータ(以下、力覚データという)を決定し、当該力覚データに基づいて力覚を利用者に与える力覚提示部と、前記パッシブオブジェクトに前記利用者の体動を伝える体動用ワイヤと、を含む。
 本発明の一態様は、動力源を持たないオブジェクトであるパッシブオブジェクトと、力覚提示部の動きに関するデータ(以下、第2動きデータという)を生成する動き検出部と、前記第2動きデータからパッシブオブジェクトの動きに対応する力覚に関するデータ(以下、力覚データという)を決定し、当該力覚データに基づいて力覚を利用者に与える力覚提示部と、前記パッシブオブジェクトに前記利用者の体動を伝える体動用ワイヤと、を含む。
 本発明の一態様は、動力源を持たないオブジェクトであるパッシブオブジェクトと、前記パッシブオブジェクトと力覚提示部との相対的位置関係に関するデータ(以下、位置関係データという)を生成する位置関係検出部と、前記位置関係データからパッシブオブジェクトの動きに対応する力覚に関するデータ(以下、力覚データという)を決定し、当該力覚データに基づいて力覚を利用者に与える力覚提示部と、前記パッシブオブジェクトに前記利用者の体動を伝える体動用ワイヤと、を含む。
 本発明によれば、物理オブジェクトが動力源を持たない場合であっても、その動きに応じた力覚を提示することが可能となる。
力覚提示装置100の構成の一例を示すブロック図である。 力覚提示装置100の動作の一例を示すフローチャートである。 動き検出部120の構成の一例を示すブロック図である。 力覚提示部130の構成の一例を示すブロック図である。 力覚提示装置100の動作の様子を示す図である。 力覚提示装置200の構成の一例を示すブロック図である。 力覚提示装置200の動作の一例を示すフローチャートである。 動き検出部220の構成の一例を示すブロック図である。 力覚提示部230の構成の一例を示すブロック図である。 力覚提示装置200の動作の様子を示す図である。 力覚提示装置300の構成の一例を示すブロック図である。 力覚提示装置300の動作の一例を示すフローチャートである。 位置関係検出部320の構成の一例を示すブロック図である。 力覚提示部330の構成の一例を示すブロック図である。 本発明の実施形態における各装置を実現するコンピュータの機能構成の一例を示す図である。
 以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
<第1実施形態>
 以下、図1~図2を参照して、力覚提示装置100を説明する。図1は、力覚提示装置100の構成を示すブロック図である。図2は、力覚提示装置100の動作を示すフローチャートである。図1に示すように力覚提示装置100は、パッシブオブジェクト110と、動き検出部120と、力覚提示部130と、体動用ワイヤ140を含む。例えば、パッシブオブジェクト110として犬型オブジェクトを用いると、力覚提示装置100は利用者に散歩を仮想的に体験させるシステムとなる。
[パッシブオブジェクト110]
 パッシブオブジェクト110は、動力源を持たないオブジェクトである。したがって、パッシブオブジェクト110は外力を受けることにより動くものであり、その動きは受動的なものとなる。パッシブオブジェクト110は利用者の負担を考慮すると比較的軽量であるのが好ましい。また、パッシブオブジェクト100の形状はどのようなものであってもよい。例えば、パッシブオブジェクト100は犬型の形状をした風船であってもよい。
[動き検出部120]
 動き検出部120は、パッシブオブジェクト110の動きを検出し、パッシブオブジェクト110の動きに関するデータ(以下、第1動きデータという)を生成し、生成した第1動きデータを力覚提示部130に出力する。動き検出部120は、パッシブオブジェクト110に搭載または取り付けられる。
 図3は動き検出部120の構成を示すブロック図である。図3に示すように動き検出部120は、センサ121と、通信部128と、バッテリー129を含む。センサ121は、パッシブオブジェクト110の動きを検出し、第1動きデータを生成する。センサ121は、加速度センサ、ジャイロセンサ、地磁気センサ、GPS、あるいは種々のセンサを組み合わせた慣性計測装置(Inertial Measurement Unit(IMU))であってもよい。通信部128は、データを送受信するものであり、例えば、センサ121の検出結果を示す第1動きデータを力覚提示部130へ送信する。通信方法には、Bluetooth(登録商標)のような無線通信の他、信号の入出力が可能なシリアルポートまたは汎用の各種コネクタ(例えば、フォンコネクタ、RCAコネクタ、XLRタイプコネクタ)形状の通信用インターフェースを備えた通信ケーブルを用いた有線通信を用いることができる。なお、センサ121の検出結果の形式は一般にセンサに固有の信号となるが、予め電気変換処理、平滑化や遅延などの演算処理を施した信号を第1動きデータとして通信部128に出力するようにしてもよい。なお、これらの処理を動き検出部120で実行する代わりに、力覚提示部130で実行するようにしてもよい。バッテリー129は、センサ121と通信部128に電力を供給する。
 なお、動き検出部120にバッテリーを搭載する代わりに、例えば、電力ケーブルを用いて力覚提示部130から電力を供給するようにしてもよい。このような構成とすることで、動き検出部120の小型化、軽量化が実現できる。
[力覚提示部130]
 力覚提示部130は、動き検出部120が出力した第1動きデータからパッシブオブジェクト110の動きに対応する力覚に関するデータ(以下、力覚データという)を決定し、当該力覚データに基づいて力覚を利用者に与える。力覚提示部130は、利用者が把持するモバイル型デバイスであり、力覚は利用者の手(指や手のひら)に対して与えられることになる。例えば、力覚提示部130は、特許文献1に記載の非対称振動を発生するデバイスを用いて構成することができる。
 図4は力覚提示部130の構成を示すブロック図である。図4に示すように力覚提示部130は、力覚データ決定部131と、振動生成部132と、アクチュエータ133と、通信部138と、バッテリー139を含む。力覚データ決定部131は、動き検出部120が出力した第1動きデータから力覚データを決定する。振動生成部132は、力覚データ決定部131が決定した力覚データに応じた振動を生成する。アクチュエータ133は、振動生成部132が生成した振動を用いて利用者に力覚を擬似的に提示する。通信部138は、データを送受信するものであり、例えば、動き検出部120の通信部128が送信した第1動きデータを受信する。通信部138は、通信部128と対応する通信方法を用いる。バッテリー139は、力覚データ決定部131と振動生成部132とアクチュエータ133と通信部138に電力を供給する。
[体動用ワイヤ140]
 体動用ワイヤ140は、パッシブオブジェクト110と力覚提示部130とを接続するものであり、パッシブオブジェクト110に力覚提示部130を把持した利用者の体動を伝える。なお、体動用ワイヤ140は、利用者の体動をパッシブオブジェクト110に伝えることができる程度の剛性を有している素材であればよく、どのような材質、形状のものであってもよい。したがって、体動用ワイヤ140は必ずしも金属である必要はない。
 以下、図2を参照し、力覚提示装置100の動作について説明する。力覚提示部130を把持した利用者が動き始めると、利用者の身体の動きに伴う体動が生じ、体動用ワイヤ140を媒体として当該体動がパッシブオブジェクト110に伝わる。動き検出部120は、パッシブオブジェクト110の動きを検出し、第1動きデータを生成する(S120)。力覚提示部130は、S120で生成した第1動きデータから力覚データを決定し、当該力覚データに基づいて力覚を利用者に与える(S130)。そして、利用者の身体の動きに伴う体動が新たに生じると、体動用ワイヤ140を媒体として当該体動がパッシブオブジェクト110に伝わり、上記説明した処理が繰り返される。
 パッシブオブジェクト110を犬型オブジェクトとして利用者に散歩を仮想的に体験させる力覚提示装置100の動作例について説明する(図5参照)。利用者が力覚提示部130を把持して歩き出すといった散歩の初期動作を行うと、利用者の身体には歩行に伴う体動が生じ、パッシブオブジェクト110にも当該体動が体動用ワイヤ140を通じて伝わり、パッシブオブジェクト110に動きが生じる。次に、パッシブオブジェクト110に搭載された(または取り付けられた)動き検出部120がパッシブオブジェクト110の動きを検出、パッシブオブジェクト110の動きに関するデータ(第1動きデータ)を生成する。動き検出部120の通信部128は生成された第1動きデータを送信し、力覚提示部130の通信部138は当該データを受信する。力覚提示部130は当該データに応じた力覚データを決定し、当該力覚データに基づいて力覚を利用者に擬似的に提示する。
 図5に示す通り、パッシブオブジェクト110の動きと力覚提示部130が提示する力覚は対応したものとなる。例えば、動き検出部120のセンサ121として加速度センサを、力覚提示部130として特許文献1に記載のデバイス(つまり、力覚をある特定の方向に向かう牽引力として知覚させることが可能なデバイス)を用いる場合、加速度センサのX軸、Y軸、Z軸のいずれかの軸の向きが歩行の進行方向となるようにパッシブオブジェクト110に搭載した(取り付けた)上で、その軸における計測結果に基づく第1動きデータを力覚提示部130に入力する。
 本実施形態の発明によれば、物理オブジェクトが動力源を持たない場合であっても、その動きに応じた力覚を提示することが可能となる。つまり、動力源を持たないパッシブオブジェクトであっても、利用者の動きに伴う体動に基づきパッシブオブジェクトが動き、その動きに応じた力覚を利用者に提示することが可能となる。特許文献1に記載のデバイスを用いる場合、あたかもパッシブオブジェクトに引かれているような感覚を利用者に提示することが可能になる。また、パッシブオブジェクトを用いることにより、安価かつ簡易に物理オブジェクトの動きに応じた力覚をリアルに仮想体験できるようになる。
<第2実施形態>
 力覚提示装置200では、動き検出部220がパッシブオブジェクト110でなく力覚提示部230に搭載される(取り付けられる)。
 以下、図6~図7を参照して、力覚提示装置200を説明する。図6は、力覚提示装置200の構成を示すブロック図である。図7は、力覚提示装置200の動作を示すフローチャートである。図6に示すように力覚提示装置200は、パッシブオブジェクト110と、動き検出部220と、力覚提示部230と、体動用ワイヤ140を含む。
[動き検出部220]
 動き検出部220は、力覚提示部230の動きを検出し、力覚提示部230の動きに関するデータ(以下、第2動きデータという)を生成し、生成した第2動きデータを力覚提示部230に出力する。動き検出部220は、力覚提示部230に搭載または取り付けられる。
 図8は動き検出部220の構成を示すブロック図である。図8に示すように動き検出部220は、センサ221と、バッテリー129を含む。センサ221は、力覚提示部230の動きを検出し、第2動きデータを生成する。センサ221には、センサ121と同様、加速度センサ、ジャイロセンサ、地磁気センサ、GPS、あるいは種々のセンサを組み合わせた慣性計測装置を用いることができる。バッテリー129は、センサ221に電力を供給する。
[力覚提示部230]
 力覚提示部230は、動き検出部220が出力した第2動きデータからパッシブオブジェクト110の動きに対応する力覚に関するデータ(以下、力覚データという)を決定し、当該力覚データに基づいて力覚を利用者に与える。力覚提示部230は、利用者が把持するモバイル型デバイスであり、力覚は利用者の手(指や手のひら)に対して与えられることになる。例えば、力覚提示部230は、特許文献1に記載の非対称振動を発生するデバイスを用いて構成することができる。
 図9は力覚提示部230の構成を示すブロック図である。図9に示すように力覚提示部230は、力覚データ決定部231と、振動生成部132と、アクチュエータ133と、バッテリー139を含む。力覚データ決定部231は、動き検出部220が出力した第2動きデータから力覚データを決定する。力覚データ決定部231は、力覚提示部230の動きとパッシブオブジェクト110の動きの対応関係を記録する記録部(図示しない)を含み、当該対応関係を用いて第2動きデータから力覚データを決定する。図10に当該対応関係の一例を示す。当該対応関係は、例えば、力覚提示装置200を利用する利用者の様子を撮影した映像を解析し、力覚提示部230の動きとパッシブオブジェクト110の動きを抽出することで得られる。また、力覚データ決定部231は、力覚提示部230の動きとパッシブオブジェクト110の動きの対応関係をモデル化した関数として記録部に記録するのでもよい。当該関数は、力覚提示部230の動きを入力とし、パッシブオブジェクト110の動きを出力するものである。当該関数が所定のフィルタによる変換や時間的な遅延を与える処理を考慮したものとして与えられる場合、力覚提示部230で提示される力覚の大きさや向き、力覚を提示する時間を変化させることが可能となり、パッシブオブジェクト110の動きに基づく擬似的な力覚をよりリアルに利用者に提示することができる。振動生成部132は、力覚データ決定部231が決定した力覚データに応じた振動を生成する。アクチュエータ133は、振動生成部132が生成した振動を用いて利用者に力覚を擬似的に提示する。バッテリー139は、力覚データ決定部231と振動生成部132とアクチュエータ133に電力を供給する。
 なお、上記説明では、力覚提示部230が力覚データ決定部231を含むものとしたが、力覚データ決定部231の機能がクラウド上のサーバにより提供されるようにしてもよい。この場合、動き検出部220は、センサ221と、バッテリー129と、通信部128(図示しない)とを含み、力覚提示部230は、振動生成部132と、アクチュエータ133と、バッテリー139と、通信部138(図示しない)とを含む。以下、その動作について説明する。動き検出部220は生成した第2動きデータを力覚データ決定部231の機能を備えたサーバに送信する。次に、当該サーバは受信した第2動きデータから力覚データを決定し、力覚データを力覚提示部230に送信する。そして、力覚提示部230は、受信した力覚データに基づいて力覚を利用者に与える。
 以下、図7を参照し、力覚提示装置200の動作について説明する。力覚提示部230を把持した利用者が動き始めると、利用者の身体の動きに伴う体動が生じる。動き検出部220は、力覚提示部230の動きを検出し、第2動きデータを生成する(S220)。力覚提示部230は、S220で生成した第2動きデータから力覚データを決定し、当該力覚データに基づいて力覚を利用者に与える(S230)。利用者の身体の動きに伴う体動が体動用ワイヤ140を媒体としてパッシブオブジェクト110に伝わる。そして、利用者の身体の動きに伴う体動が新たに生じると、上記説明した処理が繰り返される。
 本実施形態の発明によれば、物理オブジェクトが動力源を持たない場合であっても、その動きに応じた力覚を提示することが可能となる。また、動き検出部120と力覚提示部130で必要であった通信部が、動き検出部220と力覚提示部230では不要となるため、動き検出部220と力覚提示部230の部品点数が減り、低コスト化を図ることが可能となる。パッシブオブジェクト110に動き検出部が搭載されないため、パッシブオブジェクト110側の総重量が減り、利用者が利用する際の肉体的な疲労を軽減してより興趣性の高い体験を提供することが可能となる。
<第3実施形態>
 以下、図11~図12を参照して、力覚提示装置300を説明する。図11は、力覚提示装置300の構成を示すブロック図である。図12は、力覚提示装置300の動作を示すフローチャートである。図11に示すように力覚提示装置300は、パッシブオブジェクト110と、位置関係検出部320と、力覚提示部330と、体動用ワイヤ140を含む。
[位置関係検出部320]
 位置関係検出部320は、パッシブオブジェクト110と力覚提示部330との相対的位置関係を検出し、パッシブオブジェクト110と力覚提示部330との相対的位置関係に関するデータ(以下、位置関係データという)を生成し、生成した位置関係データを力覚提示部330に出力する。なお、位置関係検出部320は、パッシブオブジェクト110、力覚提示部330のいずれにも搭載される(取り付けられる)ものではない。
 図13は位置関係検出部320の構成を示すブロック図である。図13に示すように位置関係検出部320は、センサ321と、通信部128と、バッテリー129を含む。センサ321は、パッシブオブジェクト110と力覚提示部330との相対的位置関係を検出し、位置関係データを生成する。センサ321は、例えば、壁または天井に固定されたカメラを用いて構成される。この場合、センサ321は、利用者を撮影した映像を分析することにより、パッシブオブジェクト110と力覚提示部330の相対的位置関係を検出し、位置関係データを生成する。また、センサ321は、例えば、固定されたレーザー距離センサを用いて構成される。この場合、センサ321は、計測した距離データを用いてパッシブオブジェクト110と力覚提示部330の相対的位置関係を検出し、位置関係データを生成する。通信部128は、データを送受信するものであり、例えば、センサ321の検出結果を示す位置関係データを力覚提示部330へ送信する。バッテリー329は、センサ321と通信部128に電力を供給する。
[力覚提示部330]
 力覚提示部330は、位置関係検出部320が出力した位置関係データからパッシブオブジェクト110の動きに対応する力覚に関するデータ(以下、力覚データという)を決定し、当該力覚データに基づいて力覚を利用者に与える。力覚提示部330は、利用者が把持するモバイル型デバイスであり、力覚は利用者の手(指や手のひら)に対して与えられることになる。例えば、力覚提示部330は、特許文献1に記載の非対称振動を発生するデバイスを用いて構成することができる。
 図14は力覚提示部330の構成を示すブロック図である。図14に示すように力覚提示部330は、力覚データ決定部331と、振動生成部132と、アクチュエータ133と、通信部138と、バッテリー139を含む。力覚データ決定部331は、位置関係検出部320が出力した位置関係データから力覚データを決定する。振動生成部132は、力覚データ決定部331が決定した力覚データに応じた振動を生成する。アクチュエータ133は、振動生成部132が生成した振動を用いて利用者に力覚を擬似的に提示する。通信部138は、データを送受信するものであり、例えば、位置関係検出部320の通信部128が送信した位置関係データを受信する。バッテリー139は、力覚データ決定部331と振動生成部132とアクチュエータ133と通信部138に電力を供給する。
 以下、図12を参照し、力覚提示装置300の動作について説明する。力覚提示部330を把持した利用者が動き始めると、利用者の身体の動き体動が生じ、体動用ワイヤ140を媒体として当該体動がパッシブオブジェクト110に伝わり、パッシブオブジェクト110も動く。位置関係検出部320は、パッシブオブジェクト110と力覚提示部330との相対的位置関係を検出し、位置関係データを生成する(S320)。力覚提示部330は、S320で生成した位置関係データから力覚データを決定し、当該力覚データに基づいて力覚を利用者に与える(S330)。そして、利用者の身体の動きに伴う体動が新たに生じると、体動用ワイヤ140を媒体として当該体動がパッシブオブジェクト110に伝わり、上記説明した処理が繰り返される。
 本実施形態の発明によれば、物理オブジェクトが動力源を持たない場合であっても、その動きに応じた力覚を提示することが可能となる。
<補記>
 図15は、上述の各装置を実現するコンピュータの機能構成の一例を示す図である。上述の各装置における処理は、記録部2020に、コンピュータを上述の各装置として機能させるためのプログラムを読み込ませ、制御部2010、入力部2030、出力部2040などに動作させることで実施できる。
 本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD-ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
 ハードウェアエンティティの外部記憶装置には、上述の機能を実現するために必要となるプログラムおよびこのプログラムの処理において必要となるデータなどが記憶されている(外部記憶装置に限らず、例えばプログラムを読み出し専用記憶装置であるROMに記憶させておくこととしてもよい)。また、これらのプログラムの処理によって得られるデータなどは、RAMや外部記憶装置などに適宜に記憶される。
 ハードウェアエンティティでは、外部記憶装置(あるいはROMなど)に記憶された各プログラムとこの各プログラムの処理に必要なデータが必要に応じてメモリに読み込まれて、適宜にCPUで解釈実行・処理される。その結果、CPUが所定の機能(上記、…部、…手段などと表した各構成要件)を実現する。
 本発明は上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。また、上記実施形態において説明した処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されるとしてもよい。
 既述のように、上記実施形態において説明したハードウェアエンティティ(本発明の装置)における処理機能をコンピュータによって実現する場合、ハードウェアエンティティが有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記ハードウェアエンティティにおける処理機能がコンピュータ上で実現される。
 この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD-RAM(Random Access Memory)、CD-ROM(Compact Disc Read Only Memory)、CD-R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP-ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。
 また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
 このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
 また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、ハードウェアエンティティを構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
 上述の本発明の実施形態の記載は、例証と記載の目的で提示されたものである。網羅的であるという意思はなく、開示された厳密な形式に発明を限定する意思もない。変形やバリエーションは上述の教示から可能である。実施形態は、本発明の原理の最も良い例証を提供するために、そして、この分野の当業者が、熟考された実際の使用に適するように本発明を色々な実施形態で、また、色々な変形を付加して利用できるようにするために、選ばれて表現されたものである。すべてのそのような変形やバリエーションは、公正に合法的に公平に与えられる幅にしたがって解釈された添付の請求項によって定められた本発明のスコープ内である。

Claims (6)

  1.  動力源を持たないオブジェクトであるパッシブオブジェクトと、
     前記パッシブオブジェクトの動きに関するデータ(以下、第1動きデータという)を生成する動き検出部と、
     前記第1動きデータからパッシブオブジェクトの動きに対応する力覚に関するデータ(以下、力覚データという)を決定し、当該力覚データに基づいて力覚を利用者に与える力覚提示部と、
     前記パッシブオブジェクトに前記利用者の体動を伝える体動用ワイヤと、
     を含む力覚提示装置。
  2.  動力源を持たないオブジェクトであるパッシブオブジェクトと、
     力覚提示部の動きに関するデータ(以下、第2動きデータという)を生成する動き検出部と、
     前記第2動きデータからパッシブオブジェクトの動きに対応する力覚に関するデータ(以下、力覚データという)を決定し、当該力覚データに基づいて力覚を利用者に与える力覚提示部と、
     前記パッシブオブジェクトに前記利用者の体動を伝える体動用ワイヤと、
     を含む力覚提示装置。
  3.  動力源を持たないオブジェクトであるパッシブオブジェクトと、
     前記パッシブオブジェクトと力覚提示部との相対的位置関係に関するデータ(以下、位置関係データという)を生成する位置関係検出部と、
     前記位置関係データからパッシブオブジェクトの動きに対応する力覚に関するデータ(以下、力覚データという)を決定し、当該力覚データに基づいて力覚を利用者に与える力覚提示部と、
     前記パッシブオブジェクトに前記利用者の体動を伝える体動用ワイヤと、
     を含む力覚提示装置。
  4.  動力源を持たないオブジェクトであるパッシブオブジェクトと、動き検出部と、力覚提示部と、前記パッシブオブジェクトに利用者の体動を伝える体動用ワイヤとを含む力覚提示装置において、
     前記動き検出部が、前記パッシブオブジェクトの動きに関するデータ(以下、第1動きデータという)を生成する動き検出ステップと、
     前記力覚提示部が、前記第1動きデータからパッシブオブジェクトの動きに対応する力覚に関するデータ(以下、力覚データという)を決定し、当該力覚データに基づいて力覚を前記利用者に与える力覚提示ステップと、
     を実行する力覚提示方法。
  5.  動力源を持たないオブジェクトであるパッシブオブジェクトと、動き検出部と、力覚提示部と、前記パッシブオブジェクトに利用者の体動を伝える体動用ワイヤとを含む力覚提示装置において、
     前記動き検出部が、前記力覚提示部の動きに関するデータ(以下、第2動きデータという)を生成する動き検出ステップと、
     前記力覚提示部が、前記第2動きデータからパッシブオブジェクトの動きに対応する力覚に関するデータ(以下、力覚データという)を決定し、当該力覚データに基づいて力覚を前記利用者に与える力覚提示ステップと、
     を実行する力覚提示方法。
  6.  動力源を持たないオブジェクトであるパッシブオブジェクトと、位置関係検出部と、力覚提示部と、前記パッシブオブジェクトに利用者の体動を伝える体動用ワイヤとを含む力覚提示装置において、
     前記位置関係検出部が、前記パッシブオブジェクトと前記力覚提示部との相対的位置関係に関するデータ(以下、位置関係データという)を生成する位置関係検出ステップと、
     前記力覚提示部が、前記位置関係データからパッシブオブジェクトの動きに対応する力覚に関するデータ(以下、力覚データという)を決定し、当該力覚データに基づいて力覚を前記利用者に与える力覚提示ステップと、
     を実行する力覚提示方法。
PCT/JP2019/026987 2019-07-08 2019-07-08 力覚提示装置、力覚提示方法 WO2021005681A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/624,559 US20220277625A1 (en) 2019-07-08 2019-07-08 Force sense presentation apparatus, force sense presentation method
JP2021530374A JPWO2021005681A1 (ja) 2019-07-08 2019-07-08
PCT/JP2019/026987 WO2021005681A1 (ja) 2019-07-08 2019-07-08 力覚提示装置、力覚提示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/026987 WO2021005681A1 (ja) 2019-07-08 2019-07-08 力覚提示装置、力覚提示方法

Publications (1)

Publication Number Publication Date
WO2021005681A1 true WO2021005681A1 (ja) 2021-01-14

Family

ID=74113984

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/026987 WO2021005681A1 (ja) 2019-07-08 2019-07-08 力覚提示装置、力覚提示方法

Country Status (3)

Country Link
US (1) US20220277625A1 (ja)
JP (1) JPWO2021005681A1 (ja)
WO (1) WO2021005681A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5823844A (en) * 1994-08-17 1998-10-20 Markowitz; Eli Interactive vibrating toy
JP2017063916A (ja) * 2015-09-29 2017-04-06 日本電信電話株式会社 提示する力覚を決定する装置、方法、およびプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6293798B1 (en) * 1999-11-10 2001-09-25 Skyline Products System and method for an RC controller and software
US9625905B2 (en) * 2001-03-30 2017-04-18 Immersion Corporation Haptic remote control for toys
US10613627B2 (en) * 2014-05-12 2020-04-07 Immersion Corporation Systems and methods for providing haptic feedback for remote interactions

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5823844A (en) * 1994-08-17 1998-10-20 Markowitz; Eli Interactive vibrating toy
JP2017063916A (ja) * 2015-09-29 2017-04-06 日本電信電話株式会社 提示する力覚を決定する装置、方法、およびプログラム

Also Published As

Publication number Publication date
JPWO2021005681A1 (ja) 2021-01-14
US20220277625A1 (en) 2022-09-01

Similar Documents

Publication Publication Date Title
US11093036B2 (en) Tracking arm movements to generate inputs for computer systems
US10540006B2 (en) Tracking torso orientation to generate inputs for computer systems
CN102681958B (zh) 使用物理姿势传输数据
JP6478535B2 (ja) 触覚変換を行うためのシステム及び方法
CN102441276B (zh) 使用便携式游戏装置来记录或修改在主游戏系统上实时运行的游戏或应用
JP2005515903A (ja) ロボット用センサおよびアクチュエータのハードウェア抽象化層内における抽象化および集合化
CN105555222A (zh) 医用机械臂装置、医用机械臂控制系统、医用机械臂控制方法、及程序
JP2010061667A (ja) ホストコンピュータを利用して力フィードバックインタフェースを制御する方法および装置
US11009964B2 (en) Length calibration for computer models of users to generate inputs for computer systems
WO2020032249A1 (ja) 情報処理装置、仲介装置、シミュレートシステム及び情報処理方法
JP2020026026A (ja) 情報処理装置、仲介装置、シミュレートシステム及び情報処理方法
CN113752250A (zh) 机器人关节的控制方法、装置、机器人及存储介质
KR20190058979A (ko) 진동을 제공하는 방법 및 이를 지원하는 전자 장치
JP2013008360A (ja) 制御機器として用いられる運動制御子
WO2021005681A1 (ja) 力覚提示装置、力覚提示方法
US11216165B2 (en) Content processing method and electronic device for supporting same
Tsekleves et al. Wii your health: a low-cost wireless system for home rehabilitation after stroke using Wii remotes with its expansions and blender
US11454646B2 (en) Initiation of calibration of multiple sensor modules related to an orientation of a user of the sensor modules
CN110427106B (zh) 体感动作数据处理方法、设备及计算机可读存储介质
CN115480483A (zh) 机器人的动力学参数辨识方法、装置、设备及介质
JP6903137B2 (ja) 振動制御装置
US20230103932A1 (en) Motion Sensor Modules with Dynamic Protocol Support for Communications with a Computing Device
KR102612430B1 (ko) 전이학습을 이용한 딥러닝 기반 사용자 손 동작 인식 및 가상 현실 콘텐츠 제공 시스템
WO2021059495A1 (ja) 方向計算装置、方向計算方法、プログラム
WO2021024782A1 (ja) データ生成装置、及びデータ生成システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19937297

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021530374

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19937297

Country of ref document: EP

Kind code of ref document: A1