JP2018049669A - Chat interface with haptic feedback functionality - Google Patents

Chat interface with haptic feedback functionality Download PDF

Info

Publication number
JP2018049669A
JP2018049669A JP2018001319A JP2018001319A JP2018049669A JP 2018049669 A JP2018049669 A JP 2018049669A JP 2018001319 A JP2018001319 A JP 2018001319A JP 2018001319 A JP2018001319 A JP 2018001319A JP 2018049669 A JP2018049669 A JP 2018049669A
Authority
JP
Japan
Prior art keywords
haptic
message
user
chat
interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018001319A
Other languages
Japanese (ja)
Inventor
ウィエス,エヴァン,エフ.
Evan F Wies
チャン,ディーン,シー.
Dean C Chang
ラフ,マイケル,ピー.
Michael P Ruf
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2018049669A publication Critical patent/JP2018049669A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1827Network arrangements for conference optimisation or adaptation

Abstract

PROBLEM TO BE SOLVED: To provide a chat interface allowing a user to exchange haptic chat messages with other users in a chat session over a computer network.SOLUTION: A device comprises an input device, a network interface, a microphone, and a processor in communication with the network interface and the input device. The processor is configured to receive input including a text message from a user, associate a haptic command with the text message, and send the text message and the haptic command to a remote device.SELECTED DRAWING: Figure 1

Description

本発明は、概して、人間がコンピュータシステムとやりとりができるようにするためのインターフェースデバイスに係わり、より詳細には、ユーザからコンピュータシステムに入力を提供し、ユーザへのフォースフィードバックを実現するコンピュータインターフェースデバイスに係わる。   The present invention generally relates to an interface device for allowing a human to interact with a computer system, and more particularly to a computer interface device that provides input from a user to the computer system and provides force feedback to the user. Related to.

インターフェースデバイスを使用すると、ユーザはコンピュータ上で、ゲームをプレイする、シミュレーションまたは仮想現実環境を経験する、コンピュータ支援設計システムを使用する、グラフィックユーザインターフェース(GUI)を操作する、あるいはそれ以外の場合画面上に描かれるイベントまたは画像に影響を及ぼすなどの機能及びタスクを実行するために、コンピュータシステムによって表示される環境と対話することができる。このような対話に使用される共通の人間−コンピュータインターフェースデバイスは、表示された環境を制御するコンピュータシステムに接続されるジョイスティック、マウス、トラックボール、スタイラス、タブレット、感圧ボール等を含む。一般的には、コンピュータは、ジョイスティックハンドルまたはマウスなどのユーザが操作できる物理オブジェクトのユーザの操作に応えて環境を更新し、ユーザに視覚的及び音声的なフィードバックを提供する。コンピュータは、位置を示す信号をコンピュータに送信するインターフェースデバイス上に設けられるセンサによってユーザがユーザオブジェクトを操作するのを感知する。   With an interface device, a user can play a game on a computer, experience a simulation or virtual reality environment, use a computer-aided design system, operate a graphical user interface (GUI), or otherwise screen It can interact with the environment displayed by the computer system to perform functions and tasks such as affecting the events or images drawn above. Common human-computer interface devices used for such interactions include joysticks, mice, trackballs, styluses, tablets, pressure sensitive balls, etc. that are connected to a computer system that controls the displayed environment. Generally, a computer updates the environment in response to a user's manipulation of a physical object that can be manipulated by the user, such as a joystick handle or mouse, and provides visual and audio feedback to the user. The computer senses that the user operates the user object by means of a sensor provided on the interface device that transmits a signal indicating the position to the computer.

いくつかのインターフェースデバイスでは、「フォースフィードバック」としても知られているハプティックフィードバックもユーザに与えられる。これらの種類のインターフェースデバイスは、インターフェースデバイスのユーザによって操作可能なオブジェクトを操作するユーザによって感じられる物理的なセンセーションを提供できる。例えば、ロジテック社(Logitech.Inc.)のウィングマン(Wingman)フォースジョイスティックまたはウィングマンフォースフィードバックマウスは、コンピュータに接続されてよく、制御装置のユーザにフォースを与える。デバイスでは1つまたは複数のモータまたは他のアクチュエータが使用され、制御コンピュータシステムに接続される。コンピュータシステムは、アクチュエータに制御信号またはコマンドを送信することにより、表示されているイベント及び対話に関連および調和して、及び表示されているイベント及び対話と連係するジョイスティック上の力を制御する。このようにして、コンピュータシステムは、ユーザがジョイスティックまたはインターフェースデバイスの他のオブジェクトを掴んでいる、あるいは触っているときに、供給される他のフィードバックと関連してユーザに物理的なフォースセンセーションを伝えることができる。例えば、ユーザが操作可能なオブジェクトを移動し、表示されているカーソルに、別の表示されているグラフィックオブジェクトと対話させると、コンピュータは、アクチュエータにユーザオブジェクトに対するフォースを出力させるコマンドを発行し、ユーザに感触のセンセーションを伝えることができる。   In some interface devices, the user is also provided with haptic feedback, also known as “force feedback”. These types of interface devices can provide physical sensations felt by a user operating an object that can be operated by a user of the interface device. For example, a Wingman force joystick or Wingman force feedback mouse from Logitech. Inc. may be connected to a computer to provide force to the user of the controller. The device uses one or more motors or other actuators and is connected to a control computer system. The computer system controls forces on the joystick that are related to and coordinated with the displayed events and interactions by sending control signals or commands to the actuators. In this way, the computer system conveys a physical force sensation to the user in conjunction with other feedback provided when the user is grasping or touching a joystick or other object of the interface device. be able to. For example, if the user moves an object that can be manipulated and causes the displayed cursor to interact with another displayed graphic object, the computer issues a command that causes the actuator to output a force on the user object. Can convey a sensation of feeling to

フォースフィードバックは、エフェクトだけではなく考えとメッセージも伝達するために使用できる。フォースは、多くの例で、テキストまたは音声メッセージの中では明白ではない可能性がある追加情報をメッセージの受取人に与える。例えば、インターネット上で別のユーザに送信されるテキストメッセージは、ユーザが、表現されているトピックまたは他のメッセージサブテキストについてどれほど強く感じているのかを示す情報を含んでいない可能性がある。ユーザは、横から見ると笑っている顔に似ているコロンと右括弧マーク:)として表現されるユーモラスなメッセージを示す「スマイリー」などの、感情またはメッセージのアイコンによる表現である「エモティコン」として知られている周知のアイコンまたは記号を使用してこのサブテキストを表現しようとすることができる。スマイリーエモティコンの変化が、種々の他の感情を表現できる。しかしながら、このようなエモティコンと記号は、それらが伝達するメッセージの複雑さ、及び異なるメッセージの考えられる範囲という点で限られている。対照的に、ハプティックフィードバックは、このようなサブテキストを他のユーザに対してより説得力のある様式で表現するために、はるかに複雑で直接的な方法を提供できる。   Force feedback can be used to convey not only effects but also thoughts and messages. The Force, in many instances, gives the message recipient additional information that may not be obvious in text or voice messages. For example, a text message sent to another user over the Internet may not contain information indicating how strong the user feels about the topic being expressed or other message subtext. As an emoticon, which is an emotional or message icon representation, such as “smiley” that represents a humorous message represented as a colon and right parenthesis mark :) that resembles a smiling face when viewed from the side This known sub-text can be expressed using known icons or symbols. Changes in smiley emoticons can express a variety of other emotions. However, such emoticons and symbols are limited in terms of the complexity of the messages they carry and the possible range of different messages. In contrast, haptic feedback can provide a much more complex and direct way to represent such subtext in a more persuasive manner for other users.

米国特許第5,379,811号明細書US Pat. No. 5,379,811 米国特許第6,169,540号明細書US Pat. No. 6,169,540 米国特許第5,734,373号明細書US Pat. No. 5,734,373 米国特許第6,028,593号明細書US Pat. No. 6,028,593 米国特許第6,161,126号明細書US Pat. No. 6,161,126

本発明は、ユーザが、コンピュータネットワーク上で他のユーザとハプティックチャットメッセージを交換できるようにするインターフェースを目的としている。ユーザは、チャット環境でより多様化し、説得力のあるメッセージを送信できるようにするハプティックインターフェースデバイスを有する一人または複数のリモートユーザにハプティックセンセーションを引き起こすメッセージを提供できる。   The present invention is directed to an interface that allows a user to exchange haptic chat messages with other users over a computer network. A user can provide a message that causes haptic sensation to one or more remote users having a haptic interface device that allows them to send more diversified and compelling messages in a chat environment.

より詳細には、本発明の請求項1に記載の方法は、テキストメッセージを含む入力を、受信することと、前記テキストメッセージに、ハプティックコマンドを関連付けることと、前記テキストメッセージ、および前記ハプティックコマンドを、一人または複数の受取人へ伝送することとを含む方法である。
請求項2記載の発明は、前記テキストメッセージを伝送することが、無線ネットワーク全体に、前記テキストメッセージを伝送することを含む請求項1の方法である。
More particularly, the method according to claim 1 of the present invention comprises receiving input comprising a text message, associating the text message with a haptic command, the text message, and the haptic command. Transmitting to one or more recipients.
The invention of claim 2 is the method of claim 1, wherein transmitting the text message includes transmitting the text message over a wireless network.

請求項3記載の発明は、前記テキストメッセージ、および前記ハプティックコマンドが、シミュレーションされた人物によって伝送される請求項1の方法である。
請求項4記載の発明は、前記ハプティックコマンドが、オーサリングされたハプティックコマンドを含む請求項1の方法である。
請求項5記載の発明は、前記ハプティックコマンドを、ハプティックコマンドの標準化されたライブラリから選択することをさらに含む請求項1の方法である。
The invention according to claim 3 is the method according to claim 1, wherein the text message and the haptic command are transmitted by a simulated person.
The invention according to claim 4 is the method according to claim 1, wherein the haptic command includes an authored haptic command.
The invention according to claim 5 is the method of claim 1, further comprising selecting the haptic command from a standardized library of haptic commands.

請求項6記載の発明は、入力デバイスと、ネットワークインターフェースと、マイクロフォン、前記ネットワークインターフェース、および前記入力デバイスと通信するプロセッサとを含み、前記プロセッサが、テキストメッセージを含む入力を、受信し、前記テキストメッセージに、ハプティックコマンドを関連付け、前記テキストメッセージ、および前記ハプティックコマンドを、一人または複数の受取人に伝送するように構成されている
デバイスである。
The invention of claim 6 includes an input device, a network interface, a microphone, the network interface, and a processor in communication with the input device, the processor receiving an input including a text message, and the text A device configured to associate a haptic command with a message and transmit the text message and the haptic command to one or more recipients.

請求項7記載の発明は、前記ネットワークインターフェースが、無線ネットワークインターフェースである請求項6のデバイスである。
請求項8記載の発明は、前記テキストメッセージ、および前記ハプティックコマンドが、シミュレーションされた人物によって伝送される請求項6のデバイスである。
請求項9記載の発明は、前記ハプティックコマンドが、オーサリングされたハプティックコマンドを含む請求項6のデバイスである。
The invention according to claim 7 is the device according to claim 6, wherein the network interface is a wireless network interface.
The invention according to claim 8 is the device according to claim 6, wherein the text message and the haptic command are transmitted by a simulated person.
The invention according to claim 9 is the device according to claim 6, wherein the haptic command includes an authored haptic command.

請求項10記載の発明は、前記プロセッサが、前記ハプティックコマンドを、ハプティックコマンドの標準化されたライブラリから選択するようにさらに構成されている請求項6のデバイスである。
請求項11記載の発明は、プログラムコードを含むコンピュータ読み取り可能媒体であって、前記プログラムコードが、テキストメッセージを含む入力を受信するためのプログラムコードと、前記テキストメッセージに、ハプティックコマンドを関連付けるためのプログラムコードと、前記テキストメッセージ、および前記ハプティックコマンドを、一人または複数の受取人へ伝送するためのプログラムコードとを含むコンピュータ読み取り可能媒体である。
The invention of claim 10 is the device of claim 6 wherein the processor is further configured to select the haptic command from a standardized library of haptic commands.
The invention according to claim 11 is a computer readable medium including a program code, the program code for receiving an input including a text message, and a haptic command associated with the text message. A computer readable medium comprising program code and program code for transmitting the text message and the haptic command to one or more recipients.

請求項12記載の発明は、前記テキストメッセージおよび前記ハプティックコマンドを伝送するためのプログラムコードが、前記テキストメッセージ、および前記ハプティックコマンドを、無線ネットワークを介して伝送するためのプログラムコードを含む請求項11のコンピュータ読み取り可能媒体である。
請求項13記載の発明は、前記テキストメッセージおよび前記ハプティックコマンドを伝送するためのプログラムコードが、前記テキストメッセージ、および前記ハプティックコマンドを、シミュレーションされた人物によって伝送するためのプログラムコードを含む請求項11のコンピュータ読み取り可能媒体である。
According to a twelfth aspect of the present invention, the program code for transmitting the text message and the haptic command includes a program code for transmitting the text message and the haptic command via a wireless network. Computer readable medium.
The invention according to claim 13 is characterized in that the program code for transmitting the text message and the haptic command includes program code for transmitting the text message and the haptic command by a simulated person. Computer readable medium.

請求項14記載の発明は、前記ハプティックコマンドが、オーサリングされたハプティックコマンドを含む請求項11のコンピュータ読み取り可能媒体である。
請求項15記載の発明は、前記プログラムコードが、前記ハプティックコマンドを、ハプティックコマンドの標準化されたライブラリから選択するためのプログラムコードをさらに含む請求項11のコンピュータ読み取り可能媒体である。
The invention according to claim 14 is the computer-readable medium according to claim 11, wherein the haptic command includes an authored haptic command.
The invention according to claim 15 is the computer-readable medium according to claim 11, wherein the program code further includes program code for selecting the haptic command from a standardized library of haptic commands.

テキストメッセージを含む入力を、ユーザから受信することと、前記テキストメッセージに、ハプティックコマンドを関連付けることと、前記テキストメッセージ、および前記ハプティックコマンドを、リモートデバイスへ伝送することとを含む方法が提供されてもよい。
前記テキストメッセージを伝送することは、無線ネットワーク全体に、前記テキストメッセージを伝送することを含んでもよい。
A method is provided that includes receiving input including a text message from a user, associating a haptic command with the text message, and transmitting the text message and the haptic command to a remote device. Also good.
Transmitting the text message may include transmitting the text message across a wireless network.

入力デバイスと、ネットワークインターフェースと、マイクロフォン、前記ネットワークインターフェース、および前記入力デバイスと通信するプロセッサとを含み、前記プロセッサが、テキストメッセージを含む入力を、ユーザから受信し、前記テキストメッセージに、ハプティックコマンドを関連付け、前記テキストメッセージ、および前記ハプティックコマンドを、リモートデバイスに伝送するように構成されているデバイスが提供されてもよい。   An input device, a network interface, a microphone, the network interface, and a processor in communication with the input device, wherein the processor receives an input including a text message from a user, and sends a haptic command to the text message. A device may be provided that is configured to transmit the association, the text message, and the haptic command to a remote device.

前記ネットワークインターフェースは、無線ネットワークインターフェースであってもよい。
当該デバイスは、手で持つデバイスであってもよい。
音声を含む入力を、ユーザから受信することと、前記音声に関連付けられたハプティックコマンドを決定することと、前記音声、および前記ハプティックコマンドを、リモートデバイスに伝送することとを含む方法が提供されてもよい。
The network interface may be a wireless network interface.
The device may be a hand-held device.
A method is provided that includes receiving input including a voice from a user, determining a haptic command associated with the voice, and transmitting the voice and the haptic command to a remote device. Also good.

前記ハプティックコマンドを決定することは、ハプティック効果のユーザによる選択に基づくものであってもよい。
前記ハプティックコマンドを決定することは、前記音声の音声認識に基づくものであってもよい。
マイクロフォンと、インターネットを用いて通信するように構成されたネットワークインターフェースと、入力デバイスと、前記マイクロフォン、前記ネットワークインターフェース、および前記入力デバイスと通信するプロセッサとを含み、前記プロセッサが、前記マイクロフォンから、音声メッセージを受信し、前記音声メッセージに関連付けられたハプティック効果を決定し、前記音声メッセージ、および前記ハプティック効果を、前記ネットワークインターフェースを用いて、リモートデバイスに伝送するように構成されているデバイスが提供されてもよい。
Determining the haptic command may be based on a user selection of a haptic effect.
Determining the haptic command may be based on speech recognition of the speech.
A microphone, a network interface configured to communicate using the Internet, an input device, and a processor in communication with the microphone, the network interface, and the input device, the processor receiving audio from the microphone A device is provided that is configured to receive a message, determine a haptic effect associated with the voice message, and transmit the voice message and the haptic effect to a remote device using the network interface. May be.

前記プロセッサは、前記ハプティック効果を、ハプティック効果のユーザによる選択に基づいて決定するように、さらに構成されていてもよい。
前記プロセッサは、前記ハプティック効果を、前記音声メッセージの音声認識に基づいて決定するように、さらに構成されていてもよい。
前記ネットワークインターフェースは、無線ネットワークインターフェースであってもよい。
The processor may be further configured to determine the haptic effect based on a user selection of the haptic effect.
The processor may be further configured to determine the haptic effect based on speech recognition of the voice message.
The network interface may be a wireless network interface.

当該デバイスは、手で持つデバイスであってもよい。
ネットワーク全体で他のユーザにハプティックメッセージを提供できる、ローカルコンピュータにより表示されるチャットインターフェースが提供されてもよい。チャットインターフェースは、ローカルコンピュータのディスプレイ装置に表示され、送信されたフォース情報を含むことができる発信チャットメッセージを提供するローカルコンピュータのユーザからの入力データはチャットインターフェースで受信されてもよい。発信チャットメッセージは、コンピュータネットワークを介してローカルホストコンピュータに接続されるリモートコンピュータに送信され、リモートコンピュータはチャットインターフェースを表示し、少なくとも部分的にはフォース情報に基づくリモートコンピュータのユーザにハプティックセンセーションを出力することができてもよい。受信されたフォース情報を含む場合もあるリモートコンピュータからの入信メッセージが、チャットインターフェースで受信されてもよい。入信チャットメッセージは、ローカルコンピュータのユーザに対し、ディスプレイ装置上に表示されてもよい。ハプティックセンセーションは、ローカルコンピュータに結合されるハプティックデバイスを使用してローカルコンピュータのユーザに出力することができ、該ハプティックセンセーションはリモートコンピュータから受信される受信済みフォース情報に少なくとも部分的に基づいてもよい。
The device may be a hand-held device.
A chat interface displayed by the local computer may be provided that can provide haptic messages to other users throughout the network. The chat interface is displayed on the display device of the local computer and input data from a user of the local computer providing an outgoing chat message that can include transmitted force information may be received at the chat interface. Outgoing chat messages are sent over a computer network to a remote computer connected to the local host computer, which displays the chat interface and outputs a haptic sensation to the remote computer user based at least in part on the force information You may be able to. An incoming message from a remote computer that may include received force information may be received at the chat interface. The incoming chat message may be displayed on the display device to the user of the local computer. The haptic sensation can be output to a user of the local computer using a haptic device coupled to the local computer, and the haptic sensation may be based at least in part on received force information received from the remote computer. .

ローカルコンピュータ及びリモートコンピュータは、IRCサーバなどのサーバマシンにネットワークを介してそれぞれ結合されるか、あるいはピアツーピア接続を介して互いに結合できてもよい。チャットインターフェースは、好ましくは、それぞれがチャットメッセージ中のフォース情報として送信されるためにユーザによって選択可能である複数の使用可能なハプティックエフェクトを含む。また、チャットインターフェースにより、ユーザはリモートコンピュータに送信されるフォース情報によって参照されるカスタムハプティックセンセーションも作成できてもよい。フォース情報は、好ましくはサウンド情報とも関連付けられ、その結果リモートコンピュータは、ハプティックセンセーションの出力と協調してサウンドエフェクトを出力してもよい。1つの実施形態では、受信されたフォース(または他の)情報は、そのチャットインターフェースと同時にローカルコンピュータ上で実行している、ユーザへのハプティックセンセーションの出力を制御するバックグラウンドアプリケーションによって処理することができる。   The local computer and the remote computer may be respectively coupled to a server machine such as an IRC server via a network, or may be coupled to each other via a peer-to-peer connection. The chat interface preferably includes a plurality of available haptic effects, each selectable by the user to be transmitted as force information in a chat message. The chat interface may also allow the user to create a custom haptic sensation that is referenced by force information sent to the remote computer. The force information is preferably also associated with the sound information so that the remote computer may output the sound effect in cooperation with the output of the haptic sensation. In one embodiment, the received force (or other) information may be processed by a background application that controls the output of the haptic sensation to the user running on the local computer simultaneously with the chat interface. it can.

送信されたフォース情報は、リモートコンピュータにあるハプティックデバイスにフォースセンセーションを出力するために必要とされる追加のフォース情報を検索するためのネットワークロケーションとして、その後リモートコンピュータ上のチャットインターフェースに使用されるネットワークアドレスを含むことがある。例えば、該ネットワークアドレスは、ハプティックデバイスにより出力できる、標準的なハプティックセンセーションとカスタマイズされたハプティックセンセーションのライブラリを記憶するウェブサーバのアドレスである場合がある。さらに、カスタムフォース情報は、カスタムフォース情報に基づいてハプティックセンセーションを出力するためにアップロードされたカスタムフォース情報が別のクライアントコンピュータによってダウンロードできるネットワークアドレスにあるサーバにクライアントマシンからアップロードできてもよい。チャットメッセージ中のフォース情報は、代わりに、所望されるハプティックセンセーションを特徴付けるデータを含むことがある。好ましくは、チャットインターフェースにより、ローカルコンピュータのユーザは、フォースコマンドとして送信されるか、あるいはフォース情報をリモートコンピュータに送信させるテキスト文字を含むテキストコマンドを入力できる。テキストフォースコマンドは、好ましくはリモートコンピュータのチャットインターフェースに表示され、テキストフォースコマンドの性質を示すための少なくとも1つの区切り文字を含むか、あるいはエモティコンのために使用される文字などの所定の文字(複数の場合がある)である場合がある。チャットメッセージは、音声フォーマットまたは他のフォーマットを取ることもあり、1つの実施形態では、ハプティックセンセーションを波形コンテンツに基づかせるために、チャットメッセージ中の音声波形を分析できるようにする。   The sent force information is then used as a network location to find additional force information needed to output force sensation to the haptic device on the remote computer, and then used in the chat interface on the remote computer May contain an address. For example, the network address may be the address of a web server that stores a library of standard and customized haptic sensations that can be output by a haptic device. Further, the custom force information may be uploaded from a client machine to a server at a network address where the custom force information uploaded to output a haptic sensation based on the custom force information can be downloaded by another client computer. The force information in the chat message may instead include data characterizing the desired haptic sensation. Preferably, the chat interface allows a local computer user to enter a text command that includes text characters that are sent as force commands or cause force information to be sent to a remote computer. The text force command is preferably displayed in the chat interface of the remote computer and includes at least one delimiter to indicate the nature of the text force command, or a predetermined character (such as a character used for emoticons). May be). Chat messages may take an audio format or other format, and in one embodiment, the audio waveform in the chat message can be analyzed to base haptic sensation on the waveform content.

ハプティックセンセーションを使用してチャットメッセージに対する機能拡張を可能とするための機能をコンピュータ上のチャットインターフェース内で提供してもよい。ユーザは所望されるハプティックセンセーションを選択する、あるいはチャットセッション中の一人または複数の他のユーザにメッセージを提供するためにハプティックセンセーションをカスタマイズすることさえできる。ハプティックセンセーションは、広範囲の感情及びメッセージの他のコンテンツとサブテキストを伝達できるようにし、コンピュータネットワーク全体で所望されるメッセージを表すためのさらに多くの自由をユーザに与えてもよい。   A function may be provided in a chat interface on a computer to enable extension of chat messages using haptic sensations. The user can even select the desired haptic sensation or even customize the haptic sensation to provide a message to one or more other users during the chat session. The haptic sensation may allow a wide range of emotions and other content and subtext of the message to be communicated, giving the user more freedom to represent the desired message throughout the computer network.

チャットセッションで他のユーザにハプティックメッセージを提供できる、ローカルコンピュータによって表示されるチャットインターフェースを提供するための方法は、前記ローカルコンピュータのディスプレイ装置で前記チャットインターフェースの表示を生じさせることと、前記ローカルコンピュータのユーザから前記チャットインターフェースへの、発信チャットメッセージを提供する入力データを受信し、前記発信チャットメッセージが送信されたフォース情報を含むことと、前記発信チャットメッセージを、ネットワークを介して前記ローカルホストコンピュータに接続されるリモートコンピュータに送信させ、前記リモートコンピュータが前記フォース情報に少なくとも部分的に基づいて前記リモートコンピュータのユーザにハプティックセンセーションを出力することと、前記リモートコンピュータから前記チャットインターフェースへの入信チャットメッセージを受信することと、前記ローカルコンピュータの前記ユーザに対し、ディスプレイ装置上に入信チャットメッセージを表示することと、を備えてもよい。   A method for providing a chat interface displayed by a local computer capable of providing a haptic message to another user in a chat session causes the display of the chat interface on a display device of the local computer, and the local computer Receiving input data for providing an outgoing chat message from the user to the chat interface, including force information to which the outgoing chat message was transmitted, and sending the outgoing chat message to the local host computer via a network. To a remote computer connected to the remote computer, the remote computer to a user of the remote computer based at least in part on the force information Outputting a ptic sensation; receiving an incoming chat message from the remote computer to the chat interface; and displaying an incoming chat message on a display device to the user of the local computer. You may prepare.

前記リモートコンピュータは、前記リモートコンピュータの前記ユーザにチャットインターフェースを表示してもよい。
前記リモートコンピュータは、前記リモートコンピュータに結合されるハプティックフィードバックインターフェースデバイスを使用して前記ハプティックセンセーションを出力してもよい。
The remote computer may display a chat interface to the user of the remote computer.
The remote computer may output the haptic sensation using a haptic feedback interface device coupled to the remote computer.

前記入信チャットメッセージは、受信されたフォース情報を含み、前記ローカルコンピュータが前記ローカルコンピュータの前記ユーザに、前記受信されたフォース情報に少なくとも部分的に基づくハプティックセンセーションを出力してもよい。
前記ローカルコンピュータ及び前記リモートコンピュータは、それぞれ前記ネットワークを介してサーバマシンに結合されてもよい。
The incoming chat message may include received force information, and the local computer may output a haptic sensation based at least in part on the received force information to the user of the local computer.
The local computer and the remote computer may each be coupled to a server machine via the network.

前記チャットインターフェースは、前記フォース情報として送信されるために前記ユーザによって選択可能な複数の使用可能なハプティックエフェクトを含んでもよい。
前記リモートコンピュータは、前記ハプティックセンセーションの前記出力と協調してサウンドエフェクトを出力するように、前記フォース情報がサウンド情報と関連付けられてもよい。
The chat interface may include a plurality of available haptic effects that can be selected by the user to be transmitted as the force information.
The force information may be associated with sound information so that the remote computer outputs a sound effect in cooperation with the output of the haptic sensation.

前記チャットインターフェースは、前記ユーザが、前記リモートコンピュータに送信される前記フォース情報により参照されるカスタムハプティックセンセーションを作成できるようにしてもよい。
前記チャットインターフェースは、それぞれが特定のハプティックセンセーションと関連付けられる複数のボタンを含み、前記ユーザが、前記特定のハプティックセンセーションに関連付けられる前記ボタンを選択することによって特定のハプティックセンセーションを生じさせてもよい。
The chat interface may allow the user to create a custom haptic sensation referenced by the force information sent to the remote computer.
The chat interface may include a plurality of buttons each associated with a particular haptic sensation, and the user may cause a particular haptic sensation by selecting the button associated with the particular haptic sensation.

前記フォース情報は、チャットセッションの複数のユーザの部分集合だけに送信され、前記ユーザの部分集合が前記ローカルコンピュータで前記ユーザにより選択されてもよい。
前記チャットインターフェースに含まれる複数のボタンは、前記ローカルコンピュータで前記ユーザにより選択されるユーザの前記部分集合だけに前記フォース情報を送信する一連のウィスパボタンを含んでもよい。
The force information may be transmitted to only a subset of a plurality of users in a chat session, and the subset of users may be selected by the user at the local computer.
The plurality of buttons included in the chat interface may include a series of whisper buttons that transmit the force information only to the subset of users selected by the user at the local computer.

前記フォース情報が、前記リモートコンピュータに結合される前記ハプティックデバイスへのフォースセンセーションの前記出力を命令するために、前記リモートコンピュータでチャットインターフェースにより認識されるコマンドを含んでもよい。
前記フォース情報は、前記リモートコンピュータ上で、前記リモートコンピュータに結合される前記ハプティックデバイスへフォースセンセーションを出力するために必要とされる追加フォース情報を検索するネットワークロケーションとしてチャットインターフェースによって使用されるネットワークアドレスを含んでもよい。
The force information may include a command recognized by a chat interface at the remote computer to command the output of a force sensation to the haptic device coupled to the remote computer.
The force information is a network address used by the chat interface as a network location on the remote computer to retrieve additional force information needed to output force sensation to the haptic device coupled to the remote computer. May be included.

前記ネットワークアドレスは、前記ハプティックデバイスによって出力できる標準ハプティックセンセーション及びカスタマイズされたハプティックセンセーションのライブラリを記憶するウェブサーバのアドレスであってもよい。
当該方法は、前記ネットワークアドレスでサーバにカスタムフォース情報をアップロードすることをさらに備えてもよく、この場合、前記アップロードされたカスタムフォース情報は、前記カスタムフォース情報に基づいてハプティックセンセーションを出力するために前記リモートコンピュータによってダウンロードできてもよい。
The network address may be the address of a web server that stores a library of standard and customized haptic sensations that can be output by the haptic device.
The method may further comprise uploading custom force information to a server at the network address, wherein the uploaded custom force information is for outputting a haptic sensation based on the custom force information. It may be downloaded by the remote computer.

前記フォース情報は、出力される特定のハプティックセンセーションを指定し、前記特定のハプティックセンセーションを特徴付けるデータを含んでもよい。
前記チャットインターフェースは、前記フォース情報を前記リモートコンピュータに対し送信させるためのテキストコマンドを前記ローカルコンピュータの前記ユーザが入力できるようにしてもよい。
The force information may include data specifying a specific haptic sensation to be output and characterizing the specific haptic sensation.
The chat interface may allow the user of the local computer to input a text command for sending the force information to the remote computer.

ローカルコンピュータ上で、実行中のチャットセッションで他のクライアントコンピュータと通信できるチャットインターフェースを提供するための方法は、前記ローカルコンピュータで実行中の前記チャットインターフェースを提供することと、前記ローカルコンピュータのユーザから前記チャットインターフェースへの、発信チャットメッセージを提供する入力データを受信することと、前記発信チャットメッセージを、ネットワークを介して前記ローカルホストコンピュータに接続されるリモートコンピュータに送信させることと、前記リモートコンピュータから前記チャットインターフェースへの入信チャットメッセージを受信することと、前記ローカルコンピュータの前記ユーザに前記入信チャットメッセージを出力することと、前記ローカルコンピュータに結合されるハプティックデバイスを使用して前記ローカルコンピュータの前記ユーザに、前記リモートコンピュータから受信される前記受信チャットメッセージに少なくとも部分的に基づくハプティックセンセーションを出力することと、を備えてもよい。   A method for providing a chat interface that can communicate with other client computers in a running chat session on a local computer includes providing the chat interface running on the local computer and from a user of the local computer. Receiving input data to provide an outgoing chat message to the chat interface; causing the outgoing chat message to be transmitted to a remote computer connected to the local host computer over a network; from the remote computer; Receiving an incoming chat message to the chat interface; outputting the incoming chat message to the user of the local computer; Outputting a haptic sensation based at least in part on the received chat message received from the remote computer to the user of the local computer using a haptic device coupled to the local computer. Good.

前記入信チャットメッセージが受信されたフォース情報を含み、前記ハプティックセンセーションが前記受信されたフォース情報に少なくとも部分的に基づき、前記発信チャットメッセージが送信されたフォース情報を含んでもよい。
前記ローカルコンピュータは、ディスプレイ装置に前記チャットインターフェースを表示し、前記リモートコンピュータは、前記リモートコンピュータのユーザにリモートチャットインターフェースを表示し、前記リモートコンピュータが前記ローカルコンピュータから受信される前記送信されたフォース情報に少なくとも部分的に基づいて、前記リモートコンピュータの前記ユーザにハプティックセンセーションを出力してもよい。
The incoming chat message may include received force information, and the haptic sensation may include force information from which the outgoing chat message is transmitted based at least in part on the received force information.
The local computer displays the chat interface on a display device, the remote computer displays a remote chat interface to a user of the remote computer, and the transmitted force information received by the remote computer from the local computer A haptic sensation may be output to the user of the remote computer based at least in part.

前記リモートコンピュータは、前記リモートコンピュータに結合されるハプティックフィードバックインターフェースデバイスを使用して前記ハプティックセンセーションを出力してもよい。
前記ローカルコンピュータ及び前記リモートコンピュータは、それぞれ前記ネットワークを介してサーバマシンに結合されてもよい。
The remote computer may output the haptic sensation using a haptic feedback interface device coupled to the remote computer.
The local computer and the remote computer may each be coupled to a server machine via the network.

前記入信チャットメッセージは、前記ローカルコンピュータ上で実行している前記チャットインターフェースによって、前記ローカルコンピュータの前記ユーザに前記ハプティックセンセーションを出力するために必要とされる追加フォース情報を検索するロケーションとして認識されているネットワークアドレスを含んでもよい。
前記送信されたフォース情報は、出力される特定のハプティックセンセーションを指定し、前記特定のハプティックセンセーションを特徴付けるデータを含んでもよい。
The incoming chat message is recognized by the chat interface running on the local computer as a location to search for additional force information needed to output the haptic sensation to the user of the local computer. Network address may be included.
The transmitted force information may include data specifying a particular haptic sensation to be output and characterizing the particular haptic sensation.

前記サーバマシンは、インターネットリレーチャット(IRC)サーバを含み、前記チャットインターフェースは、標準IRCプロトコルを使用して前記IRCサーバと通信してもよい。
前記入信チャットメッセージは、サウンド情報と関連付けられ、その結果前記ローカルコンピュータが前記ハプティックセンセーションの前記出力と協調してサウンドエフェクトを出力してもよい。
The server machine may include an Internet Relay Chat (IRC) server, and the chat interface may communicate with the IRC server using a standard IRC protocol.
The incoming chat message may be associated with sound information so that the local computer outputs a sound effect in cooperation with the output of the haptic sensation.

前記入信チャットメッセージは、1つまたは複数の表示された画像と関連付けられ、その結果前記ローカルコンピュータが前記ハプティックセンセーションの前記出力と協調して前記1つまたは複数の表示された画像を表示してもよい。
前記ネットワークアドレスは、前記ハプティックデバイスによって出力できる標準的なハプティックセンセーション及びカスタマイズされたハプティックセンセーションのライブラリを記憶するウェブサーバのアドレスであってもよい。
The incoming chat message is associated with one or more displayed images so that the local computer displays the one or more displayed images in cooperation with the output of the haptic sensation. Also good.
The network address may be the address of a web server that stores a library of standard and customized haptic sensations that can be output by the haptic device.

この方法は、前記ネットワークアドレスにあるサーバにカスタムフォース情報をアップロードすることをさらに備えてもよく、この場合、前記アップロードされたカスタムフォース情報が、前記カスタムフォース情報に基づいてハプティックセンセーションを出力するために前記リモートコンピュータによってダウンロードできてもよい。
前記チャットインターフェースは、前記ローカルコンピュータの前記ユーザが、前記送信されたフォース情報を前記リモートコンピュータに送信させるためにテキストフォースコマンドを入力できるようにしてもよい。
The method may further comprise uploading custom force information to a server at the network address, wherein the uploaded custom force information outputs a haptic sensation based on the custom force information. Or may be downloaded by the remote computer.
The chat interface may allow the user of the local computer to enter a text force command to cause the transmitted force information to be transmitted to the remote computer.

前記テキストフォースコマンドは、前記リモートコンピュータのチャットインターフェースに表示され、前記テキストフォースコマンドの性質を示すための少なくとも1つのデリミタ文字を含んでもよい。
前記テキストフォースコマンドは、前記リモートコンピュータの前記チャットインターフェースに表示され、エモティコンの少なくとも1つのテキスト文字を含んでもよい。
The text force command may be displayed on a chat interface of the remote computer and may include at least one delimiter character to indicate the nature of the text force command.
The text force command may be displayed on the chat interface of the remote computer and include at least one text character of emoticon.

前記入信チャットメッセージ及び前記発信チャットメッセージは、前記チャットインターフェースで表示するためのテキスト文字を記述するデータを含み、前記送信され、受信されたフォース情報がテキスト文字を記述する前記データとしても提供されてもよい。
前記入力データ及び前記入信チャットメッセージは、音声出力を生じさせる音声データとして提供されてもよい。
The incoming chat message and the outgoing chat message include data describing text characters for display on the chat interface, and the transmitted and received force information is also provided as the data describing text characters. May be.
The input data and the incoming chat message may be provided as voice data that causes voice output.

前記入力データ及び前記入信チャットメッセージは、ディスプレイ装置によって表示されるテキスト文字として提供されてもよい。
前記入信チャットメッセージは、前記リモートコンピュータの前記ユーザの音声を表現する波形として提供されてもよい。
前記波形は、前記ローカルコンピュータによって分析され、前記分析は、前記ハプティックデバイスによって出力される前記ハプティックセンセーションと関連付けられる前記波形のコンテンツを検出してもよい。
The input data and the incoming chat message may be provided as text characters displayed by a display device.
The incoming chat message may be provided as a waveform representing the voice of the user of the remote computer.
The waveform may be analyzed by the local computer, and the analysis may detect content of the waveform associated with the haptic sensation output by the haptic device.

前記コンテンツは、前記チャットメッセージの1つまたは複数のエモティコンを示し、前記ハプティックセンセーションが前記1つまたは複数のエモティコンと関連付けられてもよい。
コンピュータネットワーク全体で他のクライアントコンピュータにハプティックメッセージを提供することができる、ローカルコンピュータによって表示されるチャットインターフェースを提供するために前記ローカルコンピュータによって実行されるプログラム命令を記憶するコンピュータ読み取り可能媒体において、プログラム命令が、前記ローカルコンピュータのディスプレイ装置で前記チャットインターフェースの表示を生じさせるステップと、前記ローカルコンピュータのユーザから前記チャットインターフェースへの、出力チャットメッセージを提供する入力データを受信するステップと、前記発信チャットメッセージを、前記コンピュータネットワークを介して前記ローカルホストコンピュータに接続されるリモートコンピュータに送信させるステップと、前記リモートコンピュータから前記チャットインターフェースへの入信メッセージを受信するステップと、前記ローカルコンピュータの前記ユーザにディスプレイ装置上で前記入信チャットメッセージを表示するステップと、前記ローカルコンピュータに結合されるハプティックデバイスを使用して前記ローカルコンピュータの前記ユーザに、前記リモートコンピュータから受信される前記入信チャットメッセージに少なくとも部分的に基づくハプティックセンセーションを出力するステップと、を備えてもよい。
The content may indicate one or more emoticons of the chat message, and the haptic sensation may be associated with the one or more emoticons.
A program in a computer readable medium storing program instructions executed by a local computer to provide a chat interface displayed by the local computer, which can provide haptic messages to other client computers throughout the computer network Instructions for causing display of the chat interface on a display device of the local computer; receiving input data providing an output chat message from a user of the local computer to the chat interface; Messages are sent to a remote computer connected to the local host computer via the computer network. Sending the incoming message to the chat interface from the remote computer, displaying the incoming chat message on a display device to the user of the local computer, and Outputting a haptic sensation based at least in part on the incoming chat message received from the remote computer to the user of the local computer using a coupled haptic device.

前記発信チャットメッセージは、送信されたフォース情報を含み、前記入信チャットメッセージは、受信されたフォース情報を含み、前記ハプティックセンセーションは、前記リモートコンピュータから受信される前記受信されたフォース情報に少なくとも部分的に基づいてもよい。
前記発信チャットメッセージ及び前記入信チャットメッセージは、テキスト文字を記述するデータを含んでもよい。
The outgoing chat message includes transmitted force information, the incoming chat message includes received force information, and the haptic sensation is at least partially in the received force information received from the remote computer. It may be based on.
The outgoing chat message and the incoming chat message may include data describing text characters.

前記送信され、受信されたフォース情報は、テキスト文字として提供されてもよい。
前記受信されたフォース情報は、前記チャットインターフェースと同時に前記ローカルコンピュータ上で実行している、前記ハプティックデバイスによって前記ユーザに前記ハプティックセンセーションを前記出力することを制御するバックグラウンドアプリケーションによって処理されてもよい。
The transmitted and received force information may be provided as text characters.
The received force information may be processed by a background application running on the local computer simultaneously with the chat interface and controlling the output of the haptic sensation to the user by the haptic device. .

前記受信されたフォース情報は、前記ローカルコンピュータの前記ユーザに前記ハプティックセンセーションを出力するために必要とされる追加フォース情報を検索するロケーションとして前記ローカルコンピュータ上で実行している前記チャットインターフェースによって認識されるネットワークアドレスを含んでもよい。
前記プログラム命令は、さらに前記ネットワークアドレスにあるサーバにカスタムフォース情報をアップロードするステップを実行し、前記アップロードされたカスタムフォース情報が前記カスタムフォース情報に基づいてハプティックセンセーションを出力するために前記リモートコンピュータによってダウンロードできてもよい。
The received force information is recognized by the chat interface running on the local computer as a location to search for additional force information needed to output the haptic sensation to the user of the local computer. Network address.
The program instructions further execute a step of uploading custom force information to a server at the network address, and the uploaded custom force information is output by the remote computer to output a haptic sensation based on the custom force information. May be downloaded.

ローカルコンピュータによって表示される、コンピュータネットワーク全体で他のクライアントコンピュータにハプティックメッセージを提供できるチャットインターフェースを提供するための装置は、前記ローカルコンピュータのディスプレイ装置上でチャットインターフェースの表示を生じさせ、前記ローカルコンピュータの前記ユーザにディスプレイ装置上で入信チャットメッセージの表示を生じさせるための手段と、前記ローカルコンピュータのユーザから前記チャットインターフェースへの、発信チャットメッセージを提供する入力データを受信するための手段と、前記コンピュータネットワークを介して前記ローカルホストコンピュータに接続されるリモートコンピュータに送信される前記出力チャットメッセージを生じさせるための手段と、前記リモートコンピュータから前記チャットインターフェースへの前記入信メッセージを受信するための手段と、前記ローカルコンピュータに結合されるハプティックデバイスを使用して前記ローカルコンピュータの前記ユーザに、前記リモートコンピュータから受信される前記入信チャットメッセージに少なくとも部分的に基づくハプティックセンセーションを出力するための手段と、を備えてもよい。   An apparatus for providing a chat interface displayed by a local computer and capable of providing haptic messages to other client computers across a computer network causes a display of the chat interface on a display device of the local computer, the local computer Means for causing the user to display an incoming chat message on a display device; means for receiving input data to provide an outgoing chat message from a user of the local computer to the chat interface; and Causing the outgoing chat message to be sent over a computer network to a remote computer connected to the local host computer Means for receiving the incoming message from the remote computer to the chat interface and to the user of the local computer using a haptic device coupled to the local computer. And means for outputting a haptic sensation based at least in part on the incoming chat message received from.

本発明の優位点及び他の優位点は、本発明の以下の明細書を読み、図面の複数の図を研究すると当業者に明らかになるだろう。   Advantages and other advantages of the present invention will become apparent to those of ordinary skill in the art upon reading the following specification of the invention and studying the drawings of the drawing.

本発明でクライアントコンピュータとして使用するのに適切なハプティックシステムを描くブロック図である。FIG. 2 is a block diagram depicting a haptic system suitable for use as a client computer in the present invention. 本発明で使用するのに適したネットワーク構成を描くブロック図である。1 is a block diagram depicting a network configuration suitable for use with the present invention. FIG. ハプティックメッセージを送受信できるようにする、本発明とともに用いられるチャットインターフェースの1つの実施形態の画面表示である。FIG. 6 is a screen display of one embodiment of a chat interface used with the present invention that enables transmission and reception of haptic messages. ハプティックエフェクトが、ハプティックメッセージとして送信されるために選択される図3aのチャットインターフェースの画面表示である。3b is a screen display of the chat interface of FIG. 3a where a haptic effect is selected to be sent as a haptic message. ユーザがカスタムハプティックエフェクトについての情報を指定できるようにするための図3aのチャットインターフェースの入力画面の画面表示である。FIG. 4 is a screen display of the chat interface input screen of FIG. 3a for allowing the user to specify information about the custom haptic effect. ユーザが別のサーバに記憶されるリストからハプティックエフェクトを検索、試験できるようにするための図3aのチャットインターフェースの選択画面の画面表示である。FIG. 3b is a screen display of the chat interface selection screen of FIG. 3a for allowing the user to search and test haptic effects from a list stored on another server. ハプティックメッセージを送信するために使用されるボタンを含む、図3bのチャットインターフェースの別の実施態様の画面表示である。4 is a screen display of another embodiment of the chat interface of FIG. 3b, including buttons used to send haptic messages.

図1は、本発明とともに使用するための、ホストコンピュータシステムによって制御される、フォースフィードバックインターフェースシステム10を描くブロック図である。インターフェースシステム10は、ホストコンピュータシステム12とインターフェースデバイス14を含む。
ホストコンピュータシステム12は、好ましくは、IBMと互換性のあるパーソナルコンピュータまたはMacintoshパーソナルコンピュータなどのパーソナルコンピュータ、あるいはSUNまたはSilicon Graphicsのワークステーションなどのワークステーションである。代わりに、ホストコンピュータシステム12は、Nintendo、SegaまたはSonyから市販されているシステムなどの家庭用テレビゲームシステム、テレビに接続する「セットトップボックス」あるいは「ネットワークコンピュータ」等の1つである場合がある。ホストコンピュータシステム12は、好ましくは、周辺機器及びインターフェースデバイス14を介してユーザ22が対話しているホストアプリケーションプログラムを実現する。例えば、ホストアプリケーションプログラムは、テレビゲーム、医療シミュレーション、科学分析プログラム、オペレーティングシステム、グラフィックユーザインターフェース、またはフォースフィードバックを活用する他のアプリケーションプログラムである場合がある。一般的には、ホストアプリケーションは、後述されるように、ディスプレイ出力デバイスで表示される画像、及び/または聴覚信号などの他のフィードバックを提供する。
FIG. 1 is a block diagram depicting a force feedback interface system 10 controlled by a host computer system for use with the present invention. The interface system 10 includes a host computer system 12 and an interface device 14.
The host computer system 12 is preferably a personal computer such as an IBM compatible personal computer or a Macintosh personal computer, or a workstation such as a SUN or a Silicon Graphics workstation. Alternatively, the host computer system 12 may be one of a home video game system, such as a system commercially available from Nintendo, Sega or Sony, a “set top box” or “network computer” that connects to the television. is there. The host computer system 12 preferably implements a host application program with which the user 22 is interacting via the peripheral device and the interface device 14. For example, the host application program may be a video game, medical simulation, scientific analysis program, operating system, graphic user interface, or other application program that utilizes force feedback. In general, the host application provides other feedback, such as images displayed on the display output device and / or auditory signals, as described below.

ホストコンピュータシステム12は、好ましくはホストマイクロプロセッサ16、ランダムアクセスメモリ(RAM)17、読取専用メモリ(ROM)19、入力/出力(I/O)電子回路21、クロック18、表示画面20、及び音声出力装置21を含む。表示画面20は、ホストコンピュータシステム12または他のコンピュータシステムによって生成される画像を表示するために使用でき、標準表示画面、CRT、フラットパネルディスプレイ、3Dゴーグル、または任意の他の視覚インターフェースである場合がある。スピーカなどの音声出力装置21は、好ましくは増幅器、フィルタ及び(サウンドカードなどの)当業者に周知である他の回路構成要素を介してホストマイクロプロセッサ16に結合され、ホストコンピュータ18からユーザ22にサウンド出力を提供する。他の種類の周辺装置を、記憶装置(ハードディスクドライブ、CD ROM/DVD−ROMドライブ、フロッピー(登録商標)ディスクドライブ等)などのホストプロセッサ16、プリンタ、及び他の入出力装置に結合することもできる。本発明とともに用いることができるインターフェースを実現するためのデータは、メモリ(RAMまたはROM)、ハードディスク、CD−ROMまたはDVD−ROMなどのコンピュータ読み取り可能媒体上に記憶できる。   Host computer system 12 preferably includes host microprocessor 16, random access memory (RAM) 17, read only memory (ROM) 19, input / output (I / O) electronics 21, clock 18, display screen 20, and audio. An output device 21 is included. The display screen 20 can be used to display images generated by the host computer system 12 or other computer systems and can be a standard display screen, CRT, flat panel display, 3D goggles, or any other visual interface. There is. An audio output device 21 such as a speaker is preferably coupled to the host microprocessor 16 via an amplifier, a filter and other circuit components (such as a sound card) well known to those skilled in the art, from the host computer 18 to the user 22. Provide sound output. Other types of peripheral devices may be coupled to a host processor 16 such as a storage device (hard disk drive, CD ROM / DVD-ROM drive, floppy disk drive, etc.), a printer, and other input / output devices. it can. Data for implementing an interface that can be used with the present invention can be stored on a computer readable medium such as memory (RAM or ROM), hard disk, CD-ROM or DVD-ROM.

インターフェースデバイス14は、双方向バス24によってホストコンピュータシステム12に結合される。該双方向バスは、ホストコンピュータシステム12とインターフェースデバイスの間のどちらかの方向で信号を送信する。RS232またはユニバーサルシリアルバス(USB)シリアルインターフェースポート、パラレルポート、ゲームポート等のホストコンピュータシステム12のインターフェースポートは、バス24をホストコンピュータシステム12に接続する。   Interface device 14 is coupled to host computer system 12 by bidirectional bus 24. The bidirectional bus transmits signals in either direction between the host computer system 12 and the interface device. An interface port of the host computer system 12 such as an RS232 or universal serial bus (USB) serial interface port, parallel port, game port, etc. connects the bus 24 to the host computer system 12.

インターフェースデバイス14は、ローカルマイクロプロセッサ26、ローカルメモリ27、センサ28、アクチュエータ30、ユーザオブジェクト34、オプションのセンサインターフェース36、オプションのアクチュエータインターフェース38、及び他のオプションの入力装置39を含む。ローカルマイクロプロセッサ26はバス24に結合され、インターフェースデバイス14にとってはローカルと考えられ、インターフェースデバイス14のフォースフィードバック及びセンサI/O専用である。マイクロプロセッサ26は、コンピュータホスト12からのコマンドまたは要求を待機する、コマンドまたは要求を復号する、及びコマンドまたは要求に従って入力信号と出力信号を処理する/制御するためのソフトウェア命令を備えることができる。加えて、プロセッサ26は、センサ信号を読み取り、それらのセンサ信号、時間信号、及びホストコマンドに従って選択される記憶または中継される命令から適切なフォースを計算することによりホストコンピュータ16とは無関係に動作することが好ましい。ローカルマイクロプロセッサ26として使用するために適切なマイクロプロセッサは、例えば、MotorolaのMC68HC711E9、MicrochipのPIC16C74、及びIntel Corp.の82930AXを含む。マイクロプロセッサ26は、1つのマイクロプロセッサチップ、または複数のプロセッサ及び/またはコプロセッサチップ、及び/またはデジタル信号プロセッサ(DSP)機能を含むことができる。   The interface device 14 includes a local microprocessor 26, a local memory 27, a sensor 28, an actuator 30, a user object 34, an optional sensor interface 36, an optional actuator interface 38, and other optional input devices 39. A local microprocessor 26 is coupled to the bus 24 and is considered local to the interface device 14 and is dedicated to force feedback and sensor I / O of the interface device 14. The microprocessor 26 may comprise software instructions for waiting for commands or requests from the computer host 12, decoding commands or requests, and processing / controlling input and output signals according to the commands or requests. In addition, the processor 26 operates independently of the host computer 16 by reading the sensor signals and calculating the appropriate force from those sensor signals, time signals, and stored or relayed instructions selected according to host commands. It is preferable to do. Suitable microprocessors for use as the local microprocessor 26 are, for example, Motorola MC68HC711E9, Microchip PIC16C74, and Intel Corp. Of 82930AX. Microprocessor 26 may include a single microprocessor chip, or multiple processors and / or coprocessor chips, and / or digital signal processor (DSP) functionality.

マイクロプロセッサ26は、センサ28から信号を受信し、バス24上で、ホストコンピュータ12により提供される命令に従ってインターフェースデバイス14のアクチュエータ30に信号を提供できる。例えば、好ましいローカル制御実施形態では、ホストコンピュータシステム12は、バス24上でマイクロプロセッサ26に高水準監督コマンドを提供し、マイクロプロセッサ26は、高水準コマンドに従って、ホストコンピュータ18には無関係に、センサ及びアクチュエータに対する低水準フォース制御ループを管理する。このようにして、フォースフィードバックシステムは、分散制御システムにおいて情報のホスト制御ループ及び情報のローカル制御ループを提供する。この動作は、米国特許番号第5,379,811号、第6,169,540号、及び第5,734,373号にさらに詳しく説明される。マイクロプロセッサ26は、ボタンなどのインターフェース装置14に含まれるいかなる他の入力装置39からコマンドを受信することもでき、入力情報が受信され、任意の情報が入力情報に含まれることを示すためにホストコンピュータ12に適切な信号を提供する。RAM及び/またはROMなどのローカルメモリ27は、好ましくはマイクロプロセッサ26のための命令を記憶し、一時データ及び他のデータを記憶するためにインターフェースデバイス14内のマイクロプロセッサ26に結合される。さらに、ローカルクロック29は、タイミングデータを提供するためにマイクロプロセッサ26に結合できる。   Microprocessor 26 can receive signals from sensor 28 and provide signals to actuator 30 of interface device 14 over bus 24 in accordance with instructions provided by host computer 12. For example, in a preferred local control embodiment, the host computer system 12 provides a high level supervisory command to the microprocessor 26 on the bus 24, and the microprocessor 26 follows the high level command and is independent of the host computer 18 and sensor. And manages the low level force control loop for the actuator. In this way, the force feedback system provides a host control loop for information and a local control loop for information in a distributed control system. This operation is described in further detail in US Pat. Nos. 5,379,811, 6,169,540, and 5,734,373. The microprocessor 26 can also receive commands from any other input device 39 included in the interface device 14 such as a button, host to indicate that the input information has been received and any information is included in the input information. Provide appropriate signals to the computer 12. A local memory 27, such as RAM and / or ROM, preferably stores instructions for the microprocessor 26 and is coupled to the microprocessor 26 in the interface device 14 for storing temporary data and other data. In addition, the local clock 29 can be coupled to the microprocessor 26 to provide timing data.

センサ28は、1つまたは複数の自由度に沿ってインターフェースデバイス14のユーザオブジェクト34の位置、運動及び/または他の特性を感知し、それらの特性を表す情報を含む信号をマイクロプロセッサ26に提供する。ロータリーエンコーダまたはリニア光エンコーダ、電位差計、光センサ、速度センサ、加速度センサ、歪みゲージ、あるいは他の種類のセンサを使用できる。センサ28は、マイクロプロセッサ26及び/またはホストコンピュータシステム12によって解釈できる信号にセンサ信号を変換するために使用できる、オプションのセンサインターフェース36に電気信号を提供する。   The sensor 28 senses the position, movement and / or other characteristics of the user object 34 of the interface device 14 along one or more degrees of freedom and provides signals to the microprocessor 26 containing information representative of those characteristics. To do. A rotary encoder or linear optical encoder, potentiometer, optical sensor, speed sensor, acceleration sensor, strain gauge, or other type of sensor can be used. Sensor 28 provides an electrical signal to an optional sensor interface 36 that can be used to convert the sensor signal to a signal that can be interpreted by microprocessor 26 and / or host computer system 12.

アクチュエータ30は、1つまたは複数の自由度に沿った1つまたは複数の方向でインターフェースデバイス14のユーザオブジェクト34にフォースを伝送する、及び/またはマイクロプロセッサ26から受信される信号に応えてデバイス14のハウジングにフォースを適用してよい。アクチュエータ30は、アクティブアクチュエータとパッシブアクチュエータの2種類を含むことがある。アクティブアクチュエータは直線電流制御モータ、ステッピングモータ、空気圧/油圧アクティブアクチュエータ、トルカ(角範囲が限られたモータ)、音声コイルアクチュエータ、及びオブジェクトを移動するために力を伝達する他の種類のアクチュエータを含む。パッシブアクチュエータは、磁性粒子ブレーキ、摩擦ブレーキなどのアクチュエータ30、あるいは空気圧/油圧パッシブアクチュエータのためにも使用できる。アクチュエータインターフェース38は、マイクロプロセッサ26からの信号を、アクチュエータ30を駆動するのに適切な信号に変換するために、任意でアクチュエータ30とマイクロプロセッサ26の間で接続できる。   Actuator 30 transmits force to user object 34 of interface device 14 in one or more directions along one or more degrees of freedom and / or in response to a signal received from microprocessor 26. Force may be applied to the housing. The actuator 30 may include two types, an active actuator and a passive actuator. Active actuators include linear current control motors, stepping motors, pneumatic / hydraulic active actuators, torquers (motors with limited angular range), voice coil actuators, and other types of actuators that transmit force to move objects . Passive actuators can also be used for actuators 30 such as magnetic particle brakes, friction brakes, or pneumatic / hydraulic passive actuators. An actuator interface 38 can optionally be connected between the actuator 30 and the microprocessor 26 to convert the signal from the microprocessor 26 into a signal suitable for driving the actuator 30.

他の入力装置39は、任意でインターフェースデバイス14に含まれ、マイクロプロセッサ26に、またはホストプロセッサ16に入力信号を送信できる。このような入力装置は、ボタン、ダイヤル、スイッチ、レバーまたは他の機構を含むことがある。例えば、ユーザオブジェクト34がジョイスティックである実施形態では、他の入力装置は、例えば、ジョイスティックのハンドルまたは基部に設けられる1つまたは複数のボタンを含むことがある。電源40は、任意で、電力を提供するためにアクチュエータインターフェース38及び/またはアクチュエータ30に結合できる。安全スイッチ41は、任意で、安全性の理由からアクチュエータ30の動作を停止するための機構を提供するために、インターフェースデバイス14に含まれる。   Other input devices 39 are optionally included in the interface device 14 and can send input signals to the microprocessor 26 or to the host processor 16. Such input devices may include buttons, dials, switches, levers or other mechanisms. For example, in embodiments where the user object 34 is a joystick, other input devices may include one or more buttons provided, for example, on the handle or base of the joystick. A power supply 40 can optionally be coupled to the actuator interface 38 and / or the actuator 30 to provide power. A safety switch 41 is optionally included in the interface device 14 to provide a mechanism for stopping the operation of the actuator 30 for safety reasons.

ユーザが操作可能なオブジェクト34(「ユーザオブジェクト」)は、ユーザによって掴まれる、あるいはそれ以外の場合は接触されるまたは管理され、インターフェースデバイス14に結合される物理的なオブジェクト、デバイスまたは製品である。「掴む」は、手によって、指先で、あるいは障害者の場合には口を使ってなどのなんらかの方法で、ユーザが物理的にオブジェクトに接することができることを意味する。ユーザ22は、ユーザが表示画面20上で見ているホストアプリケーションプログラムと話すために、オブジェクトを操作または移動できる。オブジェクト34は、ジョイスティック、マウス、トラックボール、キーボード、(例えば、リンクの最後にある)スタイラス、ハンドル、球面(sphere)、医療機器(腹腔鏡、カテーテル等)、ビリヤードの突き棒(pool cue)(例えば、作動されたローラを通して突き棒を移動する)、ハンドグリップ、ノブ、ボタン、または他の製品である場合がある。   A user manipulable object 34 (“user object”) is a physical object, device or product that is grabbed by the user or otherwise touched or managed and coupled to the interface device 14. . “Grip” means that the user can physically touch the object in some way, such as by hand, with a fingertip, or in the case of a disabled person, using the mouth. The user 22 can manipulate or move the object to talk to the host application program that the user is viewing on the display screen 20. The object 34 can be a joystick, mouse, trackball, keyboard, stylus (eg, at the end of the link), handle, sphere, medical device (laparoscope, catheter, etc.), billiard pool cue ( For example, it may be a handgrip, knob, button, or other product.

ハプティックフィードバックインターフェースデバイス14は、マウス、ジョイスティック、ゲームパッド、ハンドル、ユーザが座る椅子パッド、釣りざお、ビリヤードの突き棒等を含む多様な形を取ることができる。種々のこれらの種類のデバイスは市販されている。例えば、本発明とともに使用するために適切なマウスは、同時係属米国特許第6,166,723号と第6,211,861号に記述されるマウスなどの運動感覚力マウスとvibrotactileマウスを含む。ユーザオブジェクト34及び/またはインターフェースデバイス14も、ハプティックフィードバック機能性を有するキーボードである場合があり、例えば振動誘発アクチュエータアセンブリ(複数の場合がある)は、キーまたはキーボードハウジング上でのタクタイル(触覚)フィードバックをハプティックセンセーションとして生じさせるために配置できる。本発明と使用するためのシステムの1つの好ましい実施形態は、ユーザがチャットインターフェースでハプティックキーボードでメッセージを入力でき、カーソルを移動し、チャットインターフェース内で機能を選択するためにハプティックマウスを使用できるハプティックキーボードとハプティックマウスである。両方のデバイスとも本発明で伝達されるハプティックフィードバックを出力できる。したがって、両方のデバイスを使用するときには、ユーザは、ユーザがキーボード上に片手を置き、マウス上に片手を置くのか、キーボード上に両手を置くかまたはマウス上に片手を置くのか、あるいはキーボード上に手を置かず、マウス上に片手を置くのかに関係なくつねにハプティックフィードバックを経験できる。(ハプティックフィードバックチャットインターフェース)
図2は、本発明と使用するのに適したコンピュータネットワーキング構造60を描くブロック図である。当業者に周知であるように、チャット通信プログラム及び/またはIRCなどのプロトコルを実現できるチャットサーバマシン70を具備することができる。サーバは、例えばインターネット及び/またはワールドワイドウェブ、あるいはLAN、WAN、または(無線網、デバイスネットワーク、電話網等を含む)他のネットワーク上で使用できる。クライアントマシン72aと72bは、ネットワーク上でサーバに接続し、サーバと通信できる。各クライアントマシン72は、前記に詳説されたようにユーザにハプティックセンセーションを出力し、クライアントマシンのユーザによって物理的に触れられ、操作されるハプティックデバイス74に結合される。クライアントマシン72a、72b及び73は、サーバに接続し、サーバを通して、クライアントマシンは互いとの接続を確立できる。チャットの中で、各クライアントマシンのユーザは、データを、それが他のユーザによって読み取られ、感知される他のクライアントマシンの1台または複数台に送信する。チャットサーバ70は、2台のクライアントマシンが互いを発見し、接続するための方法としてだけ使用でき、その結果クライアントマシン間の通信はそれ以降それら自体の間だけとなるか、あるいはチャットサーバ70は、データを受信し、クライアントの間でデータを送り続けることができる。他の実施形態では、クライアントマシンは、多様な種類のネットワーク、接続及びチャネル上で、別個のサーバマシンを使用しなくても、ピアツーピア接続で互いに直接的に接続できる。ここに使用される用語「ネットワーク」は、すべてのこのような通信接続を指すことを目的とする。
The haptic feedback interface device 14 can take a variety of forms including a mouse, joystick, game pad, handle, chair pad on which the user sits, fishing rod, billiard stab, and the like. A variety of these types of devices are commercially available. For example, suitable mice for use with the present invention include kinesthetic mice and vibroactile mice such as those described in co-pending US Pat. Nos. 6,166,723 and 6,211,861. User object 34 and / or interface device 14 may also be a keyboard with haptic feedback functionality, for example, vibration-inducing actuator assembly (s) may be tactile feedback on keys or keyboard housing. Can be placed as a haptic sensation. One preferred embodiment of a system for use with the present invention is a haptic that allows a user to enter a message with a haptic keyboard in a chat interface, move the cursor, and use a haptic mouse to select a function within the chat interface. A keyboard and a haptic mouse. Both devices can output the haptic feedback conveyed in the present invention. Therefore, when using both devices, the user places one hand on the keyboard and either puts one hand on the mouse, both hands on the keyboard, one hand on the mouse, or on the keyboard. You can always experience haptic feedback regardless of whether you place your hand on the mouse. (Haptic feedback chat interface)
FIG. 2 is a block diagram depicting a computer networking structure 60 suitable for use with the present invention. As is well known to those skilled in the art, a chat server machine 70 capable of implementing a chat communication program and / or a protocol such as IRC can be provided. The server can be used, for example, over the Internet and / or the World Wide Web, or over LAN, WAN, or other networks (including wireless networks, device networks, telephone networks, etc.). The client machines 72a and 72b can connect to the server on the network and communicate with the server. Each client machine 72 outputs a haptic sensation to the user as detailed above and is coupled to a haptic device 74 that is physically touched and manipulated by the user of the client machine. Client machines 72a, 72b and 73 connect to the server, through which the client machines can establish a connection with each other. In a chat, the user of each client machine sends data to one or more of the other client machines where it is read and sensed by the other user. Chat server 70 can only be used as a way for two client machines to discover and connect to each other so that communication between client machines will only be between themselves thereafter, or chat server 70 may Receive data and continue to send data between clients. In other embodiments, client machines can connect directly to each other in peer-to-peer connections over various types of networks, connections and channels without using separate server machines. The term “network” as used herein is intended to refer to all such communication connections.

説明されるインプリメンテーションでは、クライアント72aと72bは、それぞれチャットクライアント機能部分76及びハプティック制御機能部分78を含む。チャットクライアント76は、他のクライアントマシンからクライアントマシンのユーザにチャット通信を提供するために、標準的なプロトコルに従ってチャットサーバ70と対話する。例えば、サーバ70は、周知のIRCプロトコルを使用してクライアントと通信するIRC(インターネットリレーチャット)サーバである場合がある。使用できる他の種類のチャットプロトコルは、純粋なHTMLベースのチャットプロトコル、Java(登録商標)ベースのチャットプロトコル、他の基準に基づくプロトコルを含む。クライアント73などの、サーバ70に接続され、チャットセッションに参加しているいくつかのクライアントは、チャットクライアント部分76を実現しているにすぎないので、ハプティックメッセージのハプティックインプリメンテーションを無視してよい。   In the described implementation, clients 72a and 72b include a chat client functional portion 76 and a haptic control functional portion 78, respectively. Chat client 76 interacts with chat server 70 in accordance with standard protocols to provide chat communications from other client machines to users of client machines. For example, server 70 may be an IRC (Internet Relay Chat) server that communicates with clients using the well-known IRC protocol. Other types of chat protocols that can be used include pure HTML-based chat protocols, Java-based chat protocols, and other standards-based protocols. Some clients connected to the server 70 and participating in the chat session, such as client 73, may only implement the chat client portion 76 and thus ignore the haptic implementation of the haptic message. .

ハプティック制御部分78は、チャットメッセージと関連付けられる本発明のハプティックセンセーションに対する制御を提供するためにチャットクライアント部分76と対話する。例えば、ハプティックメッセージまたはコマンドとして解釈される受信メッセージは、ハプティック制御部分76によって検出することができ、ハプティックセンセーションは部分78からハプティックデバイス74に命令することができる。さらに、いくつかの実施形態では、ハプティック制御部分78は、ウェブサーバ80などの1台または複数台の他のサーバと通信できる。例えば、フォースエフェクトデータ、サウンドデータまたは他のデータは、特定のハプティックセンセーションを実現するためにハプティック制御部分78によって検索できる。この動作は、以下にさらに詳しく説明される。   Haptic control portion 78 interacts with chat client portion 76 to provide control over the haptic sensations of the present invention associated with chat messages. For example, a received message that is interpreted as a haptic message or command can be detected by the haptic control portion 76 and a haptic sensation can be commanded from the portion 78 to the haptic device 74. Further, in some embodiments, haptic control portion 78 can communicate with one or more other servers, such as web server 80. For example, force effect data, sound data, or other data can be retrieved by the haptic control portion 78 to achieve a particular haptic sensation. This operation is described in more detail below.

図3aは、ネットワークチャットアプリケーションプログラム用のチャットインターフェースの一例を描く表示されたインターフェース100を示すホストコンピュータ12の表示画面20の図である。当業者に周知であるように、ネットワークチャットプログラムにより、異なるコンピュータまたは端末にいる二人または三人以上の人はコンピュータネットワーク上で互いと通信できる。いくつかの実施形態では、ただ一人の人が、やはり本発明を利用できる、チャット状の通信の「シミュレーションされた人物」または、サーバ上で実行中のプログラムによって実現されるAIゲームキャラクターまたはプレーヤーなどのエンティティと対話できる。さまざまな実施形態では、テキスト、サウンド、画像またはこれらの組み合わせなどのさまざまなフォーマットのメッセージが送信できる。このチャットインターフェースにより、送信が所望されるメッセージに基づき、ネットワーク全体で、一人のユーザから一人または複数の他のユーザにハプティックセンセーションを送信することができる。ネットワークでハプティックフィードバックを提供するためのいくつかの方法は、米国特許第6,028,593号に説明されている。ネットワークは、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、インターネット、または他のネットワークである場合がある。   FIG. 3a is a diagram of the display screen 20 of the host computer 12 showing the displayed interface 100 depicting an example of a chat interface for a network chat application program. As is well known to those skilled in the art, a network chat program allows two or more people at different computers or terminals to communicate with each other over a computer network. In some embodiments, a “simulated person” of chat-like communication, or an AI game character or player implemented by a program running on a server, etc., where only one person can utilize the present invention, etc. Can interact with other entities. In various embodiments, messages in various formats, such as text, sound, images, or combinations thereof can be sent. This chat interface allows a haptic sensation to be sent from one user to one or more other users across the network based on the message desired to be sent. Some methods for providing haptic feedback in a network are described in US Pat. No. 6,028,593. The network may be a local area network (LAN), a wide area network (WAN), the Internet, or other network.

表示画面20は、チャットインターフェース100を表示して図示されている。インターフェース100は、当業者に周知の方法を使用して、インターネットリレーチャット(IRC)などの標準チャットプログラムとプロトコルを実行しているサーバを実現し、サーバに接続することができる。IRCは、あるクライアントから、チャットセッションに参加している他のクライアントにテキスト文字を送るチャットサーバ70にテキスト文字を提供するにすぎない。いくつかの実施形態では、使用されるチャットプロトコルは、特定のプログラムでしか機能しない独占プロトコルである場合がある。   The display screen 20 is shown with the chat interface 100 displayed. Interface 100 can implement and connect to a server running a standard chat program and protocol, such as Internet Relay Chat (IRC), using methods well known to those skilled in the art. The IRC only provides text characters from one client to the chat server 70 that sends text characters to other clients participating in the chat session. In some embodiments, the chat protocol used may be a proprietary protocol that only works with certain programs.

記載されている実施形態では、チャットクライアントプログラムは、すべての標準チャット接続を処理するが、ハプティック機能性プログラムは、ハプティックセンセーションの出力を処理するためにチャットプログラムと連動する。例えば、チャットインターフェース100は、ウェブページとして、Microsoft Internet ExplorerまたはNetscape Navigatorなどのウェブブラウザプログラムに表示できる。例えば、1つのインプリメンテーションでは、Internet Explorerウェブブラウザは、Microsoft Corp.から入手できる、IRCサーバと通信するために必要なすべての機能及び必要なネットワークプロトコルを実行できるMS Chat ActiveX Controlを利用できる。これは、図2に図示されるようにチャットクライアント部分76である場合がある。ActiveX Controlは、他のプログラムがこれらのイベントに作用できるようにするために、メッセージデータが受信されるときなどのイベントを生成できる。ハプティック制御部分78は、チャットActiveX Controlに沿って実行でき、制御からイベントを受信できる。イベントが発生すると、ハプティック制御部分は、特定的なハプティックコマンドまたはメッセージの入力をチェックし、適宜に、ユーザに対するハプティックセンセーションを引き起こすためのコマンドを生成できる。   In the described embodiment, the chat client program handles all standard chat connections, but the haptic functionality program works with the chat program to process the output of the haptic sensation. For example, the chat interface 100 can be displayed as a web page in a web browser program such as Microsoft Internet Explorer or Netscape Navigator. For example, in one implementation, the Internet Explorer web browser is a Microsoft Corp. MS Chat ActiveX Control is available which can perform all the functions necessary to communicate with the IRC server and the necessary network protocols. This may be a chat client portion 76 as illustrated in FIG. The ActiveX control can generate events such as when message data is received to allow other programs to act on these events. The haptic control portion 78 can be run along the chat ActiveX Control and can receive events from the control. When an event occurs, the haptic control portion can check for the input of a specific haptic command or message and, if appropriate, generate a command to trigger a haptic sensation for the user.

代わりに、チャットインターフェース100は、別個のアプリケーションプログラムとして、ワールドワイドウェブまたはインターネット上で実現される別のプログラムまたはオペレーティングシステム、Java(登録商標)アプレット、または他のプログラムの機能部分、あるいは他のインプリメンテーションとして実現することができる。ワールドワイドウェブで送信されるウェブページ内のフォースフィードバックのために使用される類似した実施形態は、米国特許第6,161,126号に説明されている。例えば、ある実施形態では、ハプティックチャットインターフェースは、ユーザが、テキストを使用してチャットし、ファイルを互いに送信し、ゲームプログラム等を使用して互いに接続できるようにする、America Online Inc.から入手できるICQまたはAOL Instant Messengerなどの「インスタントメッセージ通信」プログラムの一部である場合がある。別の実施形態では、つねにクライアントコンピュータ上で実行中であるバックグラウンドアプリケーションが、送信及び/または受信されるすべての入力をチェックし、例えば入力が後述されるような括弧で囲まれたテキスト文字を有するかどうかなど、入力のどれかがハプティックメッセージとして適格かどうかを判断する。このようにして、標準チャットインターフェースプログラムはチャット機能性を提供するために使用でき、バックグラウンドアプリケーションが、ハプティックメッセージのためにハプティックセンセーションを可能にする。このようなバックグラウンドアプリケーションが使用されると、チャットプログラムおよびインスタントメッセージ通信プログラムなどの特定のアプリケーションプログラムが、バックグラウンドアプリケーションによって監視されるためにユーザによって指定でき、その結果、バックグラウンドアプリケーションはハプティックメッセージ通信に関連しない他のプログラムの入力と出力を無視する。カーソル位置を監視し、グラフィックオブジェクトの位置または種類に基づき、グラフィックユーザインターフェース内でハプティックセンセーションを適用するバックグラウンドアプリケーションも、このチャットインターフェースに適用できる。   Instead, the chat interface 100 may be a separate application program, another program or operating system implemented on the World Wide Web or the Internet, a Java applet, or a functional part of another program, or other implementation. It can be realized as a presentation. A similar embodiment used for force feedback in web pages transmitted on the World Wide Web is described in US Pat. No. 6,161,126. For example, in one embodiment, the haptic chat interface allows America Online Inc. to allow users to chat using text, send files to each other, and connect to each other using game programs and the like. May be part of an “instant messaging” program such as ICQ or AOL Instant Messenger available from: In another embodiment, a background application that is always running on the client computer checks all input that is sent and / or received, such as text characters enclosed in parentheses as described below. Determine whether any of the inputs are eligible as haptic messages, such as whether or not they have. In this way, the standard chat interface program can be used to provide chat functionality and the background application allows haptic sensation for haptic messages. When such a background application is used, certain application programs, such as chat programs and instant messaging programs, can be specified by the user to be monitored by the background application, so that the background application can be haptic messages Ignore the input and output of other programs not related to communication. A background application that monitors the cursor position and applies haptic sensation within the graphic user interface based on the position or type of the graphic object can also be applied to the chat interface.

依然として他の実施形態では、インターフェース100は、ユーザがナビゲートし、操作できる2Dまたは3Dのグラフィック環境を描写することができる。例えば、インターネットまたは(例えば、VRMLプロトコルを使用する)他のネットワーク上で実現される仮想環境またはゲーム環境では、メッセージは別の3Dキャラクターまたはavatarに送信することができ、メッセージに対するハプティック構成要素が受取人のために提供できる。   In still other embodiments, the interface 100 can depict a 2D or 3D graphical environment that the user can navigate and manipulate. For example, in a virtual or gaming environment implemented on the Internet or other network (eg, using the VRML protocol), the message can be sent to another 3D character or avatar, and the haptic component for the message is received Can offer for men.

インターフェース100は、情報フィールド102、チャットウィンドウ104、ユーザリストウィンドウ106、及びエフェクトウィンドウ108を含む。情報フィールド102によって、ユーザは、接続及び名前指定のオプションを指定できる。サーバ名(Server Name)フィールド112により、ユーザは接続先の特定のサーバを指定できる。例えば、説明されたインプリメンテーションにより、ユーザはIRCサーバに接続できる。代わりに、このような機能性がチャットインターフェースで提供される場合、これは別のクライアントマシンに直接的に接続するためのクライアント名である場合がある。ニックネーム(Nickname)フィールド114により、ユーザはチャットの中で使用される名前を指定できる。ルーム名(Room Name)フィールド116により、ユーザは、「チャットルーム」つまり指定されたユーザだけが、チャットセッション中に互いに通信するためにそのチャットルーム内にいることができるようにする、チャットが行われる指定されたサーバ上の特定の領域を指定できる。「終了」(Leave)ボタン118は、(例えば、キーボードまたはマウスカーソルを使って)ユーザによって選択されると、ユーザに、ユーザが現在参加しているチャットセッションを終了させる。属性120は、ユーザが、ウィンドウ108のエフェクトと関連付けられたハプティックセンセーションを、このようなエフェクトが別のユーザから受信されるときに感じるのか、及び/または、そのハプティックメッセージと関連付けられたサウンドエフェクトを、それが受信されるときに聞くのかどうかを(あるいは、いくつかの実施形態では、ハプティックエフェクトまたはサウンドエフェクトがユーザによって送信されるときに、ユーザがメッセージの受取人がそれを経験するようにメッセージをハプティックに、及び聴覚的に経験できるように)、ユーザが指定できるようにする。アイコン属性122により、ユーザは、ユーザが別のユーザから受信される「アイコン」(エモティコン)、つまりそれぞれのメッセージが単一のコマンドまたはアイコンによって表現される本発明で使用されるときにハプティックコンテンツ及び聴覚コンテンツを有するメッセージ、と関連付けられるハプティックセンセーション及び/またはサウンドエフェクトを感じるかどうかを指定できるようにする。例えば、スマイリーアイコン(“:)”)では、属性122が選択されている場合には、受信時に、所定のフォースセンセーションとサウンドがユーザに出力される。したがって、ユーザは、自分が、チャットインターフェース100で受信されるアイコンのメッセージのハプティックコンテンツ及び/または聴覚コンテンツを経験することを希望するかどうかを選択できる。   The interface 100 includes an information field 102, a chat window 104, a user list window 106, and an effects window 108. Information field 102 allows the user to specify connection and naming options. A server name (Server Name) field 112 allows the user to specify a specific server to connect to. For example, the described implementation allows a user to connect to an IRC server. Alternatively, if such functionality is provided in a chat interface, this may be a client name for connecting directly to another client machine. A nickname field 114 allows the user to specify a name to be used in the chat. The Room Name field 116 allows the user to chat, allowing only “chat rooms” or designated users to be in the chat room to communicate with each other during a chat session. You can specify a specific area on the specified server. A “Leave” button 118, when selected by the user (eg, using a keyboard or mouse cursor), causes the user to end the chat session in which the user is currently participating. Attribute 120 indicates whether the user feels a haptic sensation associated with the effect of window 108 when such an effect is received from another user and / or a sound effect associated with the haptic message. Whether to listen when it is received (or, in some embodiments, when a haptic effect or sound effect is sent by the user, the message so that the message recipient will experience it) Can be specified by the user so that it can be experienced hapticly and audibly. The icon attribute 122 allows the user to use “icons” (emoticons) that the user receives from another user, that is, haptic content and each message when used in the present invention represented by a single command or icon. Allows to specify whether to feel haptic sensations and / or sound effects associated with messages having auditory content. For example, in the smiley icon (“:” ”), when the attribute 122 is selected, a predetermined force sensation and sound are output to the user at the time of reception. Thus, the user can select whether he / she wishes to experience the haptic content and / or auditory content of the icon message received at chat interface 100.

チャットウィンドウ104は、現在チャットセッション中のユーザのコンピュータに接続されている他のユーザから送信されるメッセージだけではなく、ユーザによってタイプされる(あるいはそれ以外の場合入力される)テキストメッセージも表示する。ユーザは、テキストエントリーフィールド126にテキストメッセージをタイプし、ボタン128を選択することによってチャットセッション中の全ユーザにメッセージを送信することができるか、あるいはボタン130を選択することによってウィンドウ106で選択されるユーザだけにメッセージを「ささやく」ことができる。他のインプリメンテーションでは、チャットセッション中のユーザのそれぞれが、別のウィンドウまたはそのユーザ専用のインターフェース100の他の領域にメッセージを表示できる。ユーザリストウィンドウ106は、ユーザが参加している、あるいは(例えば、ユーザが自分自身のメッセージを送信せずに観察することを希望するチャットルーム内に)観察しているチャットルームまたはセッションに現在入っているすべてのユーザを表示する。チャットルームに参加しているユーザは、チャットルーム内の他のユーザにメッセージを入力することができ、それらのメッセージはチャットウィンドウ104に表示される。いくつかの実施形態では、ユーザは、それらのユーザについての情報を呼び出す、及び/またはそれらのユーザに直接的にメッセージを送信するために、ウィンドウ106に表示されるユーザの1つまたは複数の名前を選択できる。好ましい実施形態では、ユーザは、1つまたは複数の名前を選択し、選択されたユーザにタクタイルメッセージを送信できる。   Chat window 104 displays text messages typed (or otherwise entered) by the user as well as messages sent from other users connected to the user's computer during the current chat session. . The user can send a message to all users in the chat session by typing a text message in the text entry field 126 and selecting the button 128 or selected in the window 106 by selecting the button 130. “Whispering” messages only to users who In other implementations, each user in a chat session can display a message in a separate window or other area of the user-specific interface 100. The user list window 106 currently enters a chat room or session in which the user is participating or who is observing (eg, in a chat room that the user wishes to observe without sending his own message). Displays all users who have Users participating in the chat room can input messages to other users in the chat room and these messages are displayed in the chat window 104. In some embodiments, the user may use one or more names of the user displayed in the window 106 to recall information about the user and / or send a message directly to the user. Can be selected. In a preferred embodiment, the user can select one or more names and send a tactile message to the selected users.

エフェクト(Effects)リスト108は、ユーザリストウィンドウ106で選択される特定のユーザに(あるいはリスト106内のユーザが選択されない場合には全ユーザに)ハプティックメッセージとして送信できる数多くのフォースエフェクトを提供する。また、リスト108に一覧表示されるエフェクトのそれぞれは、ハプティックメッセージが送信されるときに受取人のクライアントマシンにより再生される、それに関連付けられた1つまたは複数のサウンドを有する。エフェクトリスト108は、好ましくは、任意のカスタムメッセージまたは新規にダウンロードされるメッセージを含む、ユーザが送信できるすべてのハプティックメッセージを含む。メッセージは、選択されたユーザ(複数の場合がある)だけに送信され、その結果他の選択されていないユーザはメッセージを送信されない。リスト108内のそれぞれの名前は、リスト108内のその名前またはラベルと関連付けられたある特定のハプティックセンセーションを表す。ハプティックメッセージを送信するために、ユーザは、表示されたカーソルを用いて、あるいは他のなんらかの選択方法(キーボード等)を使用することによって、リスト108中のエフェクトの1つを選択できる。これが、好ましくは、図3bに関して詳しく後述されるように、ユーザが選択されたエフェクトでさまざまな機能を実行できるようにするためにメニューを呼び出す。リスト108は、好ましくは、エントリーが多すぎて一度にすべてを表示できない場合には、スクロールまたはそれ以外の場合ナビゲートできる。   The Effects list 108 provides a number of force effects that can be sent as haptic messages to a particular user selected in the user list window 106 (or to all users if no user in the list 106 is selected). Also, each of the effects listed in list 108 has one or more sounds associated with it that are played by the recipient's client machine when the haptic message is sent. The effects list 108 preferably includes all haptic messages that the user can send, including any custom messages or newly downloaded messages. The message is sent only to the selected user (s), so that other unselected users are not sent the message. Each name in list 108 represents a particular haptic sensation associated with that name or label in list 108. To send a haptic message, the user can select one of the effects in the list 108 using the displayed cursor or by using some other selection method (such as a keyboard). This preferably invokes a menu to allow the user to perform various functions with the selected effect, as described in detail below with respect to FIG. 3b. The list 108 is preferably scrollable or otherwise navigable if there are too many entries to display all at once.

図3bは、ユーザがオプションメニュー140を表示するためにリスト108中のエフェクトの内の1つを選択した、図3aの表示されたインターフェース100を示す。例えば、ユーザは、所望されるエフェクト上にカーソルを移動し、ある特定のマウスボタンを押してメニュー140を立ち上げるために、マウスまたは他のポインティングデバイスを使用できる。メニュー140は、送信(Send)コマンド142、ウィスパ(Whisper)コマンド144、再生(Play)コマンド146、新規エフェクト作成(Compose New Effect)コマンド148、及びインポートエフェクト(Import Effect)コマンド150を含む、数多くのオプションを含む。ユーザはこれらのコマンドのどれかを選択してよい。   FIG. 3b shows the displayed interface 100 of FIG. 3a in which the user has selected one of the effects in the list 108 to display the options menu 140. FIG. For example, the user can use a mouse or other pointing device to move the cursor over the desired effect and press a particular mouse button to bring up the menu 140. Menu 140 includes a number of Send commands 142, Whisper commands 144, Play commands 146, Create New Effect command 148, and Import Effect command 150. Includes options. The user may select any of these commands.

図3bのインターフェース100は、選択されている送信コマンド142を示す。このコマンドは、リスト108中の選択されているエフェクトを、チャットに参加している全ユーザ、つまりチャットルーム内のユーザに送信させるだろう。例えば、図3bで選択されて示されている「laugh(笑う)」エフェクトが、チャットセッション中の全参加者に送信される。説明される実施形態では、これは、他のテキスト文字によりハプティックコマンドとして指定されるまたは区切られるテキスト文字を送信することによって実現される。例えば、括弧<と>で囲まれる文字は、インターフェース100のハプティック制御部分によりハプティックコマンドとして解釈できる。このようにして、コマンド<laugh(笑う)>は、メニュー140を使用して「laugh(笑う)」エフェクトが送信されるときに他のクライアントに送信される。好ましくは、コマンドラベルは、通常、自然言語では、それが関連付けられているハプティックセンセーションを意味する。例えば、コマンド「slap(平手打ち)」は重要度が高い衝撃を意味するが、コマンド「wink(ウィンク)」は重要度が低いセンセーションを意味してよい。   The interface 100 of FIG. 3b shows the selected send command 142. This command will cause the selected effect in list 108 to be sent to all users participating in the chat, i.e. users in the chat room. For example, the “laugh” effect selected and shown in FIG. 3b is sent to all participants in the chat session. In the described embodiment, this is accomplished by sending text characters that are designated or delimited as haptic commands by other text characters. For example, characters enclosed in parentheses <and> can be interpreted as haptic commands by the haptic control portion of the interface 100. In this way, the command <laugh> is sent to other clients when the “laugh” effect is sent using the menu 140. Preferably, the command label usually means the haptic sensation with which it is associated in natural language. For example, the command “slap (slap)” may mean a shock with high importance, but the command “wink” may mean a sensation with low importance.

受取人ユーザのクライアントのハプティック制御部分は、受信されたコマンドを検出し、同じ名前が付けられたフォースセンセーションをハプティックデバイスに出力する。このようにして、例えば、エフェクト「なでる」が選択される(またはコマンド<pat>が入力される)と、関連付けられたハプティックメッセージが他のチャットユーザ(複数の場合がある)に送信される。それから、受取人ユーザ(複数の場合がある)は、受取人ユーザが使用しているハプティックフィードバックインターフェースデバイスを介してハプティックメッセージを感じる。ハプティックメッセージは、脈動、振動、衝撃等、または複数のハプティックセンセーションの組み合わせなどの受取人ユーザのハプティックインターフェースデバイスによって出力されるハプティックセンセーションとして受取人ユーザに送信される。リスト108中のエフェクトのそれぞれは、好ましくは、その名前に関連付けられるハプティックセンセーションに適切である名前またはラベルを有する。例えば、「なでる」エフェクトは、好ましくは、受取人ユーザのハプティックデバイスのユーザオブジェクトあるいはグリップに、手でなでるような小さく円滑な衝撃を実現するハプティックメッセージを提供する。「giggle(クスクス笑う)」エフェクトは、低周波の振動を提供することができ、「slap(平手打ち)」効果は鋭い重要度が高い衝撃を達成することができ、「smile(微笑む)」エフェクトが低速の側面から側面への運動等を提供することができる。   The haptic control portion of the recipient user's client detects the received command and outputs a force sensation with the same name to the haptic device. In this way, for example, when the effect “stroking” is selected (or the command <pat> is input), the associated haptic message is transmitted to the other chat user (s). The recipient user (s) will then feel the haptic message via the haptic feedback interface device that the recipient user is using. The haptic message is transmitted to the recipient user as a haptic sensation output by the recipient user's haptic interface device, such as pulsation, vibration, shock, etc., or a combination of multiple haptic sensations. Each of the effects in list 108 preferably has a name or label that is appropriate for the haptic sensation associated with that name. For example, the “stroking” effect preferably provides a haptic message that achieves a small smooth impact such as stroking the hand on the user object or grip of the recipient user's haptic device. The “giggle” effect can provide low-frequency vibrations, the “slap” effect can achieve a sharp and high-impact impact, and the “smile” effect For example, low-speed side-to-side movement can be provided.

また、このようなサウンドは代替実施形態で再生される必要はないが、所定のサウンドエフェクトも、好ましくは、メッセージをさらに効果的に伝達するために送信されたメッセージと関連付けられる。サウンドエフェクトは、ハプティックメッセージのハプティックセンセーションの特徴と同期される。例えば、メッセージ「slap(平手打ち)」は、単一のハプティック衝撃とサウンドエフェクトを提供できるが、メッセージ「slap−slap(平手打ち−平手打ち)」は、それぞれの衝撃が適切な平手で打つサウンドエフェクトと同期する2つの連続する衝撃を提供できる。(.wavなどの標準化されたフォーマットを取ることがある)サウンドファイルは、受取人クライアントマシンでハプティックコマンドと関連付けることができ、このサウンドファイルはフォースセンセーションの出力と同時に再生される。他の実施形態では、他の種類の媒体データが、サウンドエフェクトの代わりに、またはサウンドエフェクトに加えて、ハプティックエフェクトと同期して出力することができる。例えば、動画のまたは静止のグラフィックまたは画像は、ハプティックエフェクトの出力と、及びサウンドエフェクトと協調して表示画面に表示することができる。これらの他の種類のデータは、ファイルに記憶され、前述されたサウンドファイルと同様にアクセスできる。   Also, such sounds need not be played in alternative embodiments, but certain sound effects are also preferably associated with messages sent to more effectively convey the message. The sound effect is synchronized with the haptic sensation feature of the haptic message. For example, the message “slap” can provide a single haptic impact and sound effect, while the message “slap-slap” synchronizes with the sound effect where each impact strikes with the appropriate slap. Can provide two consecutive impacts. A sound file (which may take a standardized format such as .wav) can be associated with a haptic command on the recipient client machine, and the sound file is played simultaneously with the output of the force sensation. In other embodiments, other types of media data can be output in synchronization with the haptic effect instead of or in addition to the sound effect. For example, animated or static graphics or images can be displayed on the display screen in coordination with the output of the haptic effect and the sound effect. These other types of data are stored in files and can be accessed in the same way as the sound files described above.

チャットユーザは、リスト108からエフェクトを選択するよりむしろ、キーボード(あるいは別の入力装置を用いてコマンドを入力すること)によってチャットウィンドウにじかにテキストコマンドを入力することによってハプティックメッセージを送信することもできる。例えば、ユーザは、適切なハプティックメッセージを送信させるために単に「<slapslap>」を入力できるだろう。さらに、所定の「エモティコン」は、ハプティックエフェクトとサウンドエフェクトと関連付けられるために定義することができ、ハプティックコマンドとして送信できる。例えば、スマイリーエモティコン“:)”は、入力フィールド126に入力され、別のユーザに送信されると、エフェクトリスト108から選択される「smile(微笑む)」エフェクトと同じハプティックセンセーションを引き起こすことができる、あるいは一意の関連付けられたハプティックセンセーションを、受取人に出力させることができる。エモティコンの他の例は、“:(”(frown(しかめる))、“;)”(wink(ウィンク))、及び“:o”(surprise(驚く))を含む。いくつかの実施形態では、ハプティックメッセージとして使用されるために、このようなエモティコンが括弧の間に配置され、それらがハプティックコマンドであることを示す。他の実施形態は、括弧または他のコマンド文字またはデリミタを使用せずに、このようなエモティコンをコマンドとして自動的に解釈できる。エモティコンは、好ましくは別のリストでユーザによって事前に定義でき、各エモティコンは、後述のカスタムエフェクトと同様にハプティックエフェクトとサウンドエフェクトと関連付けることができる。   Rather than selecting an effect from the list 108, the chat user can also send a haptic message by entering a text command directly into the chat window via the keyboard (or entering the command using another input device). . For example, the user could simply enter “<slapslap>” to have the appropriate haptic message sent. Further, a predetermined “emoticon” can be defined to be associated with a haptic effect and a sound effect and can be sent as a haptic command. For example, the smiley emoticon “:)” can cause the same haptic sensation as a “smile” effect selected from the effects list 108 when entered in the input field 126 and sent to another user. Alternatively, a unique associated haptic sensation can be output to the recipient. Other examples of emoticons include “:(” (flow), “;)” (wink), and “: o” (surprise). In some embodiments, such emoticons are placed between parentheses to be used as haptic messages, indicating that they are haptic commands. Other embodiments can automatically interpret such emoticons as commands without the use of parentheses or other command characters or delimiters. The emoticons can be pre-defined by the user, preferably in a separate list, and each emoticon can be associated with a haptic effect and a sound effect as well as custom effects described below.

説明される実施形態では、ハプティックメッセージとして受取人クライアントに送信されるコマンドは、メッセージ中のテキスト文字として、受取人のチャットウィンドウ104(及び所望される場合には送信者のウィンドウ104)にも表示される。このようにして「smile(微笑む)」ハプティックメッセージ124は、ハプティックセンセーション及び関連するサウンドを受取人のクライアントマシン上で出力させた図3bに表示される。該表示メッセージ124は、ハプティクメッセージが送信された旨をユーザに視覚的に示す。   In the described embodiment, commands sent to the recipient client as haptic messages are also displayed in the recipient's chat window 104 (and the sender's window 104 if desired) as text characters in the message. Is done. In this manner, the “smile” haptic message 124 is displayed in FIG. 3 b with the haptic sensation and associated sound output on the recipient's client machine. The display message 124 visually indicates to the user that the haptic message has been transmitted.

いくつかの実施形態では、ユーザは、ハプティックエフェクトとサウンドエフェクトだけではなく通常のテキストメッセージも、すべて同時に送信できる。例えば、ユーザはフィールド126にメッセージを入力し、選択されたハプティックエフェクト(と関連付けられるサウンドエフェクト)を、受取人ユーザにフィールド126のテキストメッセージとともに同時に送信させるだろう「テキストメッセージとともに送信する」などのメニュー140内のオプション(図示されていない)を選択できる。したがって、ここに参照されるような用語「ハプティックメッセージ」は、サウンドエフェクト、テキストメッセージ及び/または他のコンテンツだけではなくハプティックエフェクトも含むことができる。   In some embodiments, the user can send not only haptic effects and sound effects, but also normal text messages all at the same time. For example, the user may enter a message in field 126 and cause the recipient user to send the selected haptic effect (associated with the sound effect) with the text message in field 126 at the same time, such as “send with text message”. Options (not shown) within menu 140 can be selected. Thus, the term “haptic message” as referred to herein can include haptic effects as well as sound effects, text messages and / or other content.

メニュー140内のウィスパコマンド144は、選択時、リスト108から選択されたハプティックエフェクト(複数の場合がある)を、ウィンドウ106内で選択されたそれらのユーザだけに送信させるが、それ以外には送信コマンド142に類似している。再生コマンド146は、選択されたハプティックエフェクト(複数の場合がある)とその関連サウンドを、ユーザが、ハプティックメッセージが受取人ユーザによってどのように経験されるのかをチェックできるように、ユーザの独自のクライアントマシンに出力できるようにする。   Whisperer command 144 in menu 140, when selected, causes the haptic effect (s) selected from list 108 to be sent only to those users selected in window 106, but otherwise sent. Similar to command 142. The play command 146 allows the user to check the selected haptic effect (s) and their associated sounds so that the user can check how the haptic message is experienced by the recipient user. Enable output to the client machine.

受取人クライアントマシン(複数の場合がある)に送信される実際のハプティックメッセージコンテンツは、さまざまな実施形態で異なることがある。説明されている実施形態では、リスト108からの使用可能なハプティックメッセージは、すべて同じインターフェース100を使用しているチャット内の全ユーザに対して同一である。したがって、ハプティックメッセージ内の他のユーザに送信される必要のある唯一の情報は、前述された括弧によって囲まれるエフェクトのテキストラベル、または他の種類のコマンドなど、ハプティックセンセーションの種類がメッセージとして送信されていることを示す高水準コマンドである。これにより、受取人クライアントマシンのチャットインターフェースは、標準テキスト文字または他の標準化されたデータとしてコマンドを受信でき、受取人クライアントマシンのハプティック制御部分は、どのハプティックセンセーションを出力する必要があるのかを知ることができる。いくつかの実施形態では、ハプティックメッセージは、送信側クライアントが、それがハプティックメッセージであることを知らなくとも送信できることに注意する必要がある。例えば、前述されたように、他の特殊文字を使用しないエモティコンは、テキストメッセージとしてチャットセッション中の非フォースフィードバック標準クライアントによって送信でき、該エモティコンは、該エモティコンに関連付けられるハプティックセンセーションが受信時に出力されるように、受信側クライアントによりハプティックメッセージと見なすことができる。このようなインプリメンテーションは、受信側クライアントだけで実現される「一般的な」ハプティックエフェクトと見なすことができる。   The actual haptic message content sent to the recipient client machine (s) may be different in various embodiments. In the described embodiment, the available haptic messages from list 108 are the same for all users in a chat that are all using the same interface 100. Therefore, the only information that needs to be sent to other users in the haptic message is that the haptic sensation type is sent as a message, such as the effect text label enclosed in parentheses as described above, or other types of commands. Is a high-level command that indicates This allows the recipient client machine's chat interface to receive commands as standard text characters or other standardized data, and the haptic control portion of the recipient client machine knows which haptic sensation needs to be output. be able to. It should be noted that in some embodiments, a haptic message can be sent without the sending client knowing that it is a haptic message. For example, as described above, an emoticon that does not use other special characters can be sent as a text message by a non-force feedback standard client in a chat session, and the emoticon is output when a haptic sensation associated with the emoticon is received. As can be seen as a haptic message by the receiving client. Such an implementation can be viewed as a “generic” haptic effect implemented only on the receiving client.

他の実施形態では、さらに精密なハプティックメッセージの送信または表示ができる。例えば、ハプティックメッセージは、受取人ユーザのクライアントマシンに送信され、受取人ユーザのハプティックデバイスにハプティックセンセーションを出力するように命令するフォース情報コンテンツ及び/または追加コマンドを含むことができる。これにより、インターフェース100内で過去に定義されていないカスタマイズされたハプティックセンセーションを出力できるようにする。フォース情報は、複数の異なる方法で提供できる。例えば、フォース情報は、出力するための標準化された種類のハプティックセンセーションを示す高水準コマンドとして送信することができ、そこでは受取人ユーザのすべてが、高水位順コマンドが参照できるそれらのコンピュータシステム上で使用可能なハプティックセンセーションの標準化されたライブラリを有すると仮定される。いくつかの実施形態では、センセーションの時間分、頻度、規模、方向、ボタンパラメータ、立ち上がり時間と減衰期間、シミュレーションされる質量と位置等の命令されたハプティックセンセーションを特徴づける1つまたは複数のコマンドパラメータなどの追加情報が送信できる。また他の実施形態では、一連のフォース規模と方向などの実際のハプティックセンセーションを記述し、定義するデータが送信できる。あるいはハプティックセンセーションデータをダウンロードまたは検索できるネットワークアドレス(または他のロケーション)が送信できる。これらの方法の多くは、受取人ユーザが常時有していない完全にカスタマイズされたハプティックセンセーションを送信できるようにする。例えば、初めてカスタマイズされたハプティックメッセージが送信されると、ハプティックセンセーションを実現するために必要とされるすべてのデータも送信される。ハプティック記述データはすでに受取人コンピュータシステム上に常駐し、保存されているので、そのハプティックメッセージが後に連続して送信されるときにはそれ以後記述データを送信する必要はない。明らかに、このような記述データの送信は、送信される大量のデータ量のために、さらに高速のブロードバンドネットワークでの通信及び接続により適している。   In other embodiments, more precise haptic messages can be sent or displayed. For example, the haptic message may include force information content and / or additional commands sent to the recipient user's client machine to instruct the recipient user's haptic device to output the haptic sensation. As a result, a customized haptic sensation that has not been defined in the past in the interface 100 can be output. Force information can be provided in a number of different ways. For example, force information can be sent as a high-level command indicating a standardized type of haptic sensation for output, where all of the recipient users are on those computer systems to which the high water order command can refer. Is assumed to have a standardized library of haptic sensations that can be used in In some embodiments, one or more command parameters that characterize the commanded haptic sensation, such as sensation time, frequency, magnitude, direction, button parameters, rise time and decay period, simulated mass and position, etc. Additional information such as can be sent. In another embodiment, data defining and defining an actual haptic sensation such as a series of force magnitudes and directions can be transmitted. Alternatively, a network address (or other location) from which haptic sensation data can be downloaded or retrieved can be transmitted. Many of these methods allow you to send fully customized haptic sensations that the recipient user does not have at all times. For example, when a customized haptic message is sent for the first time, all the data needed to implement a haptic sensation is also sent. Since the haptic description data is already resident and stored on the recipient computer system, it is not necessary to transmit the description data thereafter when the haptic message is subsequently transmitted continuously. Obviously, transmission of such descriptive data is more suitable for communication and connection over higher speed broadband networks due to the large amount of data transmitted.

カスタムハプティックエフェクト及びサウンドエフェクトは、ユーザによって創作することもできる。例えば、ユーザはメニュー140からCompose New Effect(新規エフェクト創作)コマンド148を選択すると、ユーザは好ましくはエフェクト作成を可能とするためのユーザインターフェースにアクセスする。このようなユーザインターフェースの一例は、図3cに図示されている。ダイアログボックス160は、ユーザがコマンド148を選択したときに表示される。ユーザは、カスタムハプティックエフェクトとサウンドエフェクトを定義するために、ダイアログボックスのフィールドの中に情報を入力することができる。例えば、ハプティックメッセージの名前またはラベルは、フィールド162で指定することができ、ネットワークアドレスまたは(データを「.IFR」ファイルなどの標準化されたフォーマットを有するファイルの中で編成できる)ラベルと関連付けられるハプティックエフェクトのロケーションのローカルアドレスは、フィールド164で指定することができ、フィールド164のアドレスでのハプティックエフェクトファイルの名前はフィールド166で指定することができ、サウンドファイルなどのサウンドデータのネットワークアドレスまたはローカルアドレスは、フィールド168で指定することができる。いったんユーザが新しいハプティックメッセージを作成するためにこのデータを入力すると、フィールド162の名前はチャットインターフェース100のリスト108に表示され、他の一覧表示されたエフェクトと同様に選択することができる。   Custom haptic effects and sound effects can also be created by the user. For example, when the user selects the Compose New Effect command 148 from the menu 140, the user preferably accesses a user interface to allow effect creation. An example of such a user interface is illustrated in FIG. 3c. Dialog box 160 is displayed when the user selects command 148. The user can enter information in the fields of the dialog box to define custom haptic effects and sound effects. For example, the name or label of a haptic message can be specified in field 162 and is associated with a network address or label (data can be organized in a file having a standardized format such as a “.IFR” file). The local address of the effect location can be specified in field 164, the name of the haptic effect file at the address of field 164 can be specified in field 166, and the network address or local address of the sound data such as a sound file. Can be specified in field 168. Once the user has entered this data to create a new haptic message, the name of field 162 is displayed in list 108 of chat interface 100 and can be selected like any other listed effect.

いくつかの実施形態では、カスタマイズされたあるいは標準化されたハプティックエフェクトとサウンドエフェクトのライブラリも、受信したハプティックメッセージを経験するのに必要なデータをダウンロードするために受信ユーザーがアクセスできるインターネットなどの幅広い分散を有するネットワーク上で使用可能なネットワークサーバに記憶することができる。説明されている実施形態では、(図2に図示されている)ウェブサーバ80は、サウンドデータだけではなく必要とされるハプティックエフェクト及び/またはデータもダウンロードするために、(例えば、URLアドレスとCGIスクリプトを使用することによって)本発明のチャットプログラムのハプティック制御部分によってアクセスできる。例えば、送信側ユーザは、図3cのインターフェースを使って自分のクライアントマシンに対するカスタムハプティックエフェクトを作成できる。エフェクト作成時に、または作成側ユーザがチャットルームに入るときに、あるいはそのユーザがこのように選ぶ場合/ときに、カスタムハプティックエフェクトは、記憶し、ネットワークにアクセスしている他のクライアントが使用できるようにするために、ウェブサーバ80にアップロードされる。さまざまなクライアントマシン上の他のユーザは、チャットルームに入るとき、あるいはカスタムエフェクトがアップロードされた後に、ウェブサーバ80からカスタムハプティックエフェクトを自動的にダウンロードするか、あるいはそのマシンのユーザがそのように選ぶときにカスタムエフェクトをダウンロードできる。例えば、チャットセッションに入ると、各クライアントマシン上のチャットインターフェースは、そのチャットセッションにどのハプティックエフェクトが必要とされているのかをチェックできる。これは、チャットルーム内のクライアントマシンのどれかから送信しうるすべてのエフェクトを含む、ウェブサーバに対するエフェクトの常時更新されている「チャットルームリスト」を維持することによって達成できる。ある特定のチャットインターフェースは、チャットセッションに入るとそのリストをチェックし、それからそのクライアントマシンに現在リストに記憶されていないエフェクトをダウンロードできる。代わりに、カスタムエフェクトを参照するハプティックメッセージがクライアントマシンに送信されるとき、受取人クライアントマシンはハプティックメッセージの受信時にそのエフェクトのためのデータをダウンロードできる。   In some embodiments, a library of customized or standardized haptic effects and sound effects is also widely distributed, such as the Internet, where the receiving user can access to download the data necessary to experience the received haptic message. Can be stored on a network server available on the network. In the described embodiment, the web server 80 (illustrated in FIG. 2) may download (eg, URL address and CGI) to download not only the sound data, but also the required haptic effects and / or data. Accessible by the haptic control portion of the chat program of the present invention (by using a script). For example, the sending user can create a custom haptic effect for his client machine using the interface of FIG. 3c. Custom haptic effects can be remembered and used by other clients accessing the network at the time of effect creation, or when the authoring user enters the chat room, or when the user chooses this way To be uploaded to the web server 80. Other users on various client machines can automatically download custom haptic effects from web server 80 when they enter a chat room or after custom effects are uploaded, or users on that machine can Custom effects can be downloaded when choosing. For example, when entering a chat session, the chat interface on each client machine can check what haptic effects are needed for that chat session. This can be accomplished by maintaining a constantly updated “chat room list” of effects for the web server, including all effects that can be sent from any of the client machines in the chat room. A particular chat interface can check its list when it enters a chat session, and then download effects that are not currently stored on the client machine. Alternatively, when a haptic message that references a custom effect is sent to the client machine, the recipient client machine can download data for that effect upon receipt of the haptic message.

チャットインターフェース100(あるいは他の別個のプログラムまたはウェブページ)は、ユーザが、自分達のセンセーションを使用可能とすることを選択した他の複数のユーザから使用できるカスタマイズされたハプティックセンセーションを一覧表示するサーバに接続できるようにするための、及びユーザが選択されたハプティックセンセーションファイルとデータをダウンロードするために多様な他のユーザクライアントマシンまたはサーバに接続できるようにする機能を含むことがある。例えば、ユーザがメニュー148のImport Effectコマンド150を選択すると、ユーザは、複数の使用可能なエフェクトのどれかをインポートできることが好ましい。このような選択を可能にするためのインターフェースの例は、図3dに図示されている。ウィンドウ170は、サーバ上で使用可能なエフェクトの数多くのカテゴリとサブカテゴリ172を含むウェブサーバ(または他のサーバ)に記憶されるライブラリリストを示す。それぞれのカテゴリまたはサブカテゴリ172では、サーバに記憶される数多くのエフェクト174が一覧表示できる。インターフェース100を表示するクライアントマシンに現在記憶されていないエフェクトは、そういうものとして指定またはマーキングできる。ユーザは、エフェクト174を選択してから、選択されたエフェクトをローカルクライアントマシンにダウンロードするために検索(Retrieve)ボタン176を選択できる。ユーザは、選択され、検索されたエフェクト174を再生するために再生(Play)ボタン178を選択し、ユーザがどのようにエフェクトが感じられるのかを経験できるようにすることもできる。ユーザがインポート(Import)ボタン180を選択すると、選択されたエフェクトはエフェクトのリスト108に追加、表示され(必要な場合にはダウンロードされ)、ユーザがそのハプティックエフェクトを含むハプティックメッセージを受信するときに再生
されるだけではなく、ハプティックメッセージとしてユーザによって送信することもできる。検索されたハプティックエフェクトと関連付けられるあらゆるサウンドエフェクトも好ましくはダウンロードされる。
Chat interface 100 (or other separate program or web page) is a server that lists customized haptic sensations that users can use from other users who have chosen to enable their sensations. Functions may be included, and may allow a user to connect to a variety of other user client machines or servers to download selected haptic sensation files and data. For example, when the user selects the Import Effect command 150 in menu 148, the user is preferably able to import any of a plurality of available effects. An example of an interface for enabling such selection is illustrated in FIG. 3d. Window 170 shows a library list stored on a web server (or other server) that includes a number of categories and subcategories 172 of effects available on the server. In each category or subcategory 172, a number of effects 174 stored in the server can be listed. Effects that are not currently stored on the client machine displaying the interface 100 can be designated or marked as such. The user can select an effect 174 and then select a Retrieve button 176 to download the selected effect to the local client machine. The user may also select a Play button 178 to play the selected and retrieved effect 174 so that the user can experience how the effect is felt. When the user selects the Import button 180, the selected effect is added and displayed in the effects list 108 (downloaded if necessary) and when the user receives a haptic message containing the haptic effect. In addition to being played, it can also be sent by the user as a haptic message. Any sound effects associated with the retrieved haptic effect are also preferably downloaded.

エフェクトは、数多くのさまざまな基準に従ってサーバ上で分類できる。例えば、ハプティックメッセージのグループは、メッセージの種類、メッセージの感情、メッセージの強度等に従って表示、編成できる。例えば、「sad messages(悲しいメッセージ)」カテゴリは、このような感情状態を伝達するすべてのそれらのハプティックメッセージを含むことができ、「romance(ロマンス)」カテゴリは適切な近い個人的なメッセージを伝達するハプティックメッセージを含むことができる。   Effects can be categorized on the server according to a number of different criteria. For example, a group of haptic messages can be displayed and organized according to message type, message emotion, message strength, and the like. For example, the “sad messages” category can include all those haptic messages that convey such emotional states, and the “romance” category conveys appropriate close personal messages. Haptic messages can be included.

他の実施形態では、チャットインターフェースが、コンピュータネットワーク60上で音声通信または電話技術を可能にする音声通信プログラムの一部である場合がある。音声通信機能は、既存のユーティリティプログラムに、あるいはDirectXなどのAPIのユーティリティプログラム内にある。例えば、何かを受取人ユーザに言うとき、送信側ユーザは、音声(spoken)メッセージとともに、あるいは任意の音声とは無関係に、受取人ユーザにハプティックセンセーションを提供するために、リスト108のエフェクトに類似するメッセージエフェクトを選択できる。ハプティックメッセージは、音声(spoken)メッセージの発生またはコンテンツに基づいて受取人ユーザに送信されるために選択することもできる。例えば、ハプティックメッセージは、言葉が話されるたびに送信できる。(例えば、標準的な市販の音声認識ソフトウェアを使用して)音声認識がクライアントマシン上で実現されている場合、ハプティックメッセージは、実際に話されるメッセージコンテンツのソフトウェア解釈をベースにすることができる。このように、もしユーザが「あなたを大嫌いだ」と別のユーザに言うと、適切なハプティックセンセーションを提供するために、音声メッセージとともに、あるいは音声メッセージの直後に、「slap(平手打ち)」または「punch(パンチ)」メッセージを自動的に送信することができる。   In other embodiments, the chat interface may be part of a voice communication program that enables voice communication or telephone technology over the computer network 60. The voice communication function is in an existing utility program or in an API utility program such as DirectX. For example, when telling the recipient user something, the sending user can use the list 108 effect to provide a haptic sensation to the recipient user, with or without a spoken message. You can select similar message effects. The haptic message can also be selected to be sent to the recipient user based on the occurrence or content of the spoken message. For example, a haptic message can be sent each time a word is spoken. If speech recognition is implemented on the client machine (eg, using standard commercial speech recognition software), the haptic message can be based on a software interpretation of the message content that is actually spoken. . Thus, if a user tells another user that he “hates you”, in order to provide the appropriate haptic sensation, along with or immediately after the voice message, “slap” or “ A “punch” message can be automatically sent.

ハプティックメッセージは、「一般的」である場合がある。つまりハプティック出力はユーザの好みに基づいて受信側マシンで作成でき、そこではユーザは所望のハプティックセンセーションを適切なインターフェースで受信される特定のコマンドに関連付けることができる。代わりに、ハプティックメッセージは「オーサリング」することができ、そこでは送信側ユーザが、標準化されたハプティックセンセーションを指すか、あるいはオーサリングされたハプティックセンセーションを実現するために必要なデータを提供することによって、ハプティックセンセーションがメッセージ内でどのように感じられるのかを定義する。このような一般的な、オーサリングされたインプリメンテーションは、米国特許番号第6,161,126号に説明されるようなネットワーク上で送信される一般的およびオーサリングされたフォースエフェクトに類似している。   A haptic message may be “generic”. That is, the haptic output can be generated at the receiving machine based on user preferences, where the user can associate the desired haptic sensation with a particular command received at the appropriate interface. Instead, the haptic message can be “authored”, where the sending user points to a standardized haptic sensation or provides the data necessary to realize the authored haptic sensation, Define how the haptic sensation is felt in the message. Such a generic, authored implementation is similar to a generic and authored force effect transmitted over a network as described in US Pat. No. 6,161,126. .

別の実施形態では、ハプティックセンセーションは、チャットセッション中に他のクライアントマシンにより出力されるチャットメッセージとして入力、伝送されるオーディオ音声(audio speech)に基づくことができる。このような1つの実施形態では、プロセスは入信オーディオ音声データを分析し、音声データに基づいてハプティックセンセーションを命令する受信側クライアントコンピュータで実行できる。例えば、簡略な実施形態では、音声データを表す波紋は、波形の形状に基づいてハプティックセンセーションに変換でき、そこでは波形のそれぞれの(または選択された)ピークがハプティックデバイス上での脈動または衝撃の出力を引き起こすことがあり、波形での繰り返すピークが振動を引き起こすことがある。例えば、所定量の振幅でのジャンプは衝撃または脈動を生じさせることがある、あるいは衝撃の規模は波形の振幅でのジャンプに比例するなど、波形の他の特徴が他のハプティックエフェクトのために指定できる。   In another embodiment, haptic sensation can be based on audio speech that is input and transmitted as chat messages output by other client machines during a chat session. In one such embodiment, the process may be performed at a receiving client computer that analyzes incoming audio voice data and commands a haptic sensation based on the voice data. For example, in a simple embodiment, ripples representing audio data can be converted into haptic sensations based on the shape of the waveform, where each (or selected) peak of the waveform is a pulsation or impact on the haptic device. May cause output, and repeated peaks in the waveform may cause vibration. For example, jumps with a certain amount of amplitude can cause an impact or pulsation, or the magnitude of the impact is proportional to the jump with the amplitude of the waveform, so other features of the waveform are specified for other haptic effects. it can.

さらに複雑な実施形態では、受信されたメッセージの音声波形が、音声チャットメッセージの感情のコンテンツを示すことができる所定の特定の特性について分析でき、感情コンテンツに適切なハプティックセンセーションがユーザに出力できる。例えば、送信側ユーザの笑いは、高周波、高振幅発振などの送信波形の他と区別する特性を提供することがある。このような笑いが検出されると、マウスを振動または小刻みに動かすこと(あるいは他のユーザマニピュランダム)などのハプティックセンセーションが出力できる。送信側ユーザからの叫びは、低振幅から高振幅への急速な遷移として波形内に表示される可能性があり、関連付けられるハプティックセンセーションは、迅速な高周波振動または脈動である場合がある。送信側ユーザからのため息は、波形の長い低周波の低いボリュームの一貫したピッチまたは振幅を生じさせることがあり、マニピュランダムの穏やかな循環する運動またはハプティックデバイスでの低周波振動と関連付けることができる。他の感情または固有のメッセージは、受信される波形で同様に分析され、適切なハプティックセンセーションを分析に基づいて出力できる。   In a more complex embodiment, the voice waveform of the received message can be analyzed for certain specific characteristics that can indicate the emotional content of the voice chat message, and a haptic sensation appropriate to the emotional content can be output to the user. For example, the transmitting user's laughter may provide characteristics that distinguish it from other transmitted waveforms, such as high frequencies and high amplitude oscillations. When such laughter is detected, a haptic sensation such as moving the mouse in a vibration or small increments (or other user manipulandum) can be output. The scream from the sending user may be displayed in the waveform as a rapid transition from low to high amplitude, and the associated haptic sensation may be a rapid high frequency vibration or pulsation. A sigh from the transmitting user can produce a consistent pitch or amplitude of a long, low frequency, low volume of the waveform and can be associated with a gentle circulatory movement of manipundum or low frequency vibrations in a haptic device . Other emotions or unique messages can be similarly analyzed in the received waveform and an appropriate haptic sensation can be output based on the analysis.

図4は、図3aに図示されるチャットインターフェース100に類似する、チャットインターフェースのわずかに異なる実施形態100’を描く。インターフェース100’は、エフェクトのリスト108の代わりに、複数のハプティックメッセージボタンが設けられるという点でインターフェース100と異なる。ハプティックメッセージウィスパボタン210は、ユーザリストウィンドウ106で選択される特定のユーザにハプティックメッセージと聴覚メッセージを送信するために使用される。メッセージは、ウィンドウ106で選択されたユーザだけに送信される。それぞれのボタン210は、前述されたリスト108に一覧表示されるエフェクトに類似するボタンの名前と関連付けられた特定のハプティックセンセーションを表す。ハプティックメッセージを送信するために、ユーザは、表示されるカーソルを用いて、あるいは他のなんらかの選択方法(キーボード、音声等)を使用することによってボタン210の内の1つを選択するにすぎない。このようにして、ボタン「なでる」が選択されると、関連付けられたハプティックメッセージが選択されたユーザ(複数の場合がある)に送信される。それから、選択されたユーザ(複数の場合がある)は、選択されたユーザが使用しているハプティックフィードバックインターフェースデバイスを介してハプティックメッセージを感じる。一般的なハプティックセンセーションメッセージボタン212は、ボタンラベルによって指定されるハプティックメッセージが選択されるユーザの代わりにチャットセッション内の全ユーザに送信される点を除き、ウィスパボタン210に類似している。   FIG. 4 depicts a slightly different embodiment 100 'of a chat interface similar to the chat interface 100 illustrated in FIG. 3a. The interface 100 ′ differs from the interface 100 in that a plurality of haptic message buttons are provided instead of the effect list 108. The haptic message whisper button 210 is used to send a haptic message and an auditory message to a particular user selected in the user list window 106. The message is sent only to the user selected in window 106. Each button 210 represents a particular haptic sensation associated with the name of a button similar to the effect listed in the list 108 described above. To send a haptic message, the user simply selects one of the buttons 210 using the displayed cursor or by using some other selection method (keyboard, voice, etc.). Thus, when the button “stroking” is selected, the associated haptic message is sent to the selected user (s). The selected user (s) will then feel the haptic message via the haptic feedback interface device that the selected user is using. The generic haptic sensation message button 212 is similar to the whisper button 210 except that the haptic message specified by the button label is sent to all users in the chat session on behalf of the selected user.

本発明は、複数の好ましい実施形態に関して説明されてきたが、その改変、置換及び同等物は、明細書を読み、図面を検討すれば当業者に明らかになるだろうと考えられる。例えば、ゲームプログラム、仮想現実プログラムと環境、営業会議用のテレビ電話用途、コンピュータネットワークまたは他の通信チャネルでの電話型音声通信等を含む、多くの異なるアプリケーションプログラムが、本発明のメッセージ通信機能を使用することができる。さらに、一部の専門用語は、本発明を制限するためではなく、記述の明快さの目的に使用された。   Although the present invention has been described with reference to a number of preferred embodiments, modifications, substitutions and equivalents will become apparent to those skilled in the art upon reading the specification and review of the drawings. Many different application programs, including, for example, game programs, virtual reality programs and environments, videophone applications for business meetings, telephone voice communications over computer networks or other communication channels, etc., provide the message communication function of the present invention. Can be used. Moreover, some terminology was used for the sake of clarity of description and not to limit the invention.

本発明の不揮発性のコンピュータ読取り可能媒体は、不揮発性のコンピュータ読取り可能媒体であって、プログラムコードを記憶し、前記プログラムコードは、第1のユーザデバイスから、1または複数のグラフィックオブジェクトを含むメッセージを受信し、前記メッセージに基づきハプティック効果を識別し、第2のユーザデバイスに、前記メッセージを表示すると同時に、前記ハプティック効果を出力し、前記第2のユーザデバイスは、二次元または三次元のグラフィカルな環境を描画するインターフェイスを含む。The non-volatile computer-readable medium of the present invention is a non-volatile computer-readable medium that stores program code, the program code from a first user device including a message that includes one or more graphic objects. , Identifying a haptic effect based on the message, displaying the message on a second user device and simultaneously outputting the haptic effect, wherein the second user device is a two-dimensional or three-dimensional graphical Includes an interface for drawing various environments.

本発明のデバイスは、1または複数のハプティック効果を実現するように構成されたハプティックデバイスであって、表示器と、ネットワークインターフェイスと、アクチュエータと、プロセッサと、前記プロセッサによって実行される1または複数のプログラムを記憶したメモリとを備え、前記1または複数のプログラムは、第2のユーザデバイスから1または複数のグラフィックオブジェクトを含むメッセージを受信し、前記メッセージに基づきハプティック効果を識別し、前記ハプティックデバイスに、前記メッセージを表示すると同時に前記ハプティック効果を出力し、前記ハプティックデバイスは、二次元または三次元のグラフィカルな環境を描画するインターフェイスを含む The device of the present invention is a haptic device configured to achieve one or more haptic effects, comprising a display, a network interface, an actuator, a processor, and one or more executed by the processor. A memory storing a program, wherein the one or more programs receive a message including one or more graphic objects from a second user device, identify a haptic effect based on the message, and store the haptic device , Outputting the haptic effect simultaneously with displaying the message, the haptic device including an interface for drawing a two-dimensional or three-dimensional graphical environment .

本発明の方法は、1または複数のハプティック効果を実現する方法であって、第1のユーザデバイスから、1または複数のグラフィックオブジェクトを含むメッセージを受信し、前記メッセージに基づきハプティック効果を識別し、第2のユーザデバイスに、前記メッセージを表示すると同時に、前記ハプティック効果を出力し、前記第2のユーザデバイスは、二次元または三次元のグラフィカルな環境を描画するインターフェイスを有する、方法である。The method of the present invention is a method for realizing one or more haptic effects, receiving a message including one or more graphic objects from a first user device, identifying a haptic effect based on the message, A method of displaying the message on a second user device and simultaneously outputting the haptic effect, wherein the second user device has an interface for drawing a two-dimensional or three-dimensional graphical environment.

Claims (18)

不揮発性のコンピュータ読取り可能媒体であって、プログラムコードを記憶し、前記プログラムコードは、
第1のユーザデバイスから、1または複数のグラフィックオブジェクトを含むメッセージを受信し、
前記メッセージに基づきハプティック効果を識別し、
第2のユーザデバイスに、前記メッセージを表示すると同時に、前記ハプティック効果を出力し、前記第2のユーザデバイスは、二次元または三次元のグラフィカルな環境を描画するインターフェイスを含む、コンピュータ読取り可能媒体。
A non-volatile computer readable medium that stores program code, the program code comprising:
Receiving a message including one or more graphic objects from a first user device;
Identifying a haptic effect based on the message;
A computer-readable medium comprising an interface for displaying the message on a second user device and simultaneously outputting the haptic effect, the second user device rendering a two-dimensional or three-dimensional graphical environment.
前記グラフィックオブジェクトは、エモティコン、アニメ映像、アニメ画像、静止グラフィック、静止画像、三次元文字、若しくはメディアデータの中から選ばれる少なくとも1つを含む、請求項1に記載のコンピュータ読取り可能媒体。   The computer-readable medium according to claim 1, wherein the graphic object includes at least one selected from an emoticon, an animation image, an animation image, a still graphic, a still image, a three-dimensional character, or media data. 前記三次元のグラフィカルな環境は、ユーザが操縦可能である、請求項1に記載のコンピュータ読取り可能媒体。   The computer-readable medium of claim 1, wherein the three-dimensional graphical environment is steerable by a user. 前記メッセージはハプティック情報を含み、前記ハプティック効果を識別するプログラムコードは、前記ハプティック情報に基づいて前記ハプティック効果を生成するプログラムコードを含む、請求項1に記載のコンピュータ読取り可能媒体。   The computer-readable medium of claim 1, wherein the message includes haptic information, and the program code for identifying the haptic effect includes program code for generating the haptic effect based on the haptic information. 前記第2のユーザデバイスは、前記第2のユーザデバイスのためのハプティック属性指定オプションを提供する、請求項1に記載のコンピュータ読取り可能媒体。   The computer-readable medium of claim 1, wherein the second user device provides haptic attribute specification options for the second user device. 前記メッセージを受信するプログラムコードは、無線通信網を通して前記メッセージを受信するプログラムコードを含む、請求項1に記載のコンピュータ読取り可能媒体。   The computer-readable medium of claim 1, wherein the program code for receiving the message comprises program code for receiving the message over a wireless communication network. 1または複数のハプティック効果を実現するように構成されたハプティックデバイスであって、
表示器と、ネットワークインターフェイスと、アクチュエータと、プロセッサと、前記プロセッサによって実行される1または複数のプログラムを記憶したメモリとを備え、
前記1または複数のプログラムは、第2のユーザデバイスから1または複数のグラフィックオブジェクトを含むメッセージを受信し、前記メッセージに基づきハプティック効果を識別し、
前記ハプティックデバイスに、前記メッセージを表示すると同時に前記ハプティック効果を出力し、前記ハプティックデバイスは、二次元または三次元のグラフィカルな環境を描画するインターフェイスを含む、ハプティックデバイス。
A haptic device configured to achieve one or more haptic effects comprising:
A display, a network interface, an actuator, a processor, and a memory storing one or more programs executed by the processor;
The one or more programs receive a message including one or more graphic objects from a second user device and identify a haptic effect based on the message;
A haptic device that displays the message on the haptic device and simultaneously outputs the haptic effect, the haptic device including an interface for drawing a two-dimensional or three-dimensional graphical environment.
前記グラフィックオブジェクトは、エモティコン、アニメ映像、アニメ画像、静止グラフィック、静止画像、三次元文字、若しくはメディアデータの中から選ばれる少なくとも1つを含む、請求項7に記載のハプティックデバイス。   The haptic device according to claim 7, wherein the graphic object includes at least one selected from emoticon, animation video, animation image, still graphic, still image, three-dimensional character, or media data. 前記三次元のグラフィカルな環境は、ユーザが操縦可能である、請求項7に記載のハプティックデバイス。   The haptic device of claim 7, wherein the three-dimensional graphical environment is steerable by a user. 前記メッセージはハプティック情報を含み、前記ハプティック効果を識別するプログラムコードは、前記ハプティック情報に基づいて前記ハプティック効果を生成するプログラムコードを含む、請求項7に記載のハプティックデバイス。   The haptic device according to claim 7, wherein the message includes haptic information, and the program code for identifying the haptic effect includes program code for generating the haptic effect based on the haptic information. 前記ハプティックデバイスは、前記ハプティックデバイスのためのハプティック属性指定オプションを提供する、請求項7に記載のハプティックデバイス。   The haptic device of claim 7, wherein the haptic device provides haptic attribute specification options for the haptic device. 前記メッセージを受信するプログラムコードは、無線通信網を通して前記メッセージを受信するプログラムコードを含む、請求項7に記載のハプティックデバイス。   8. The haptic device according to claim 7, wherein the program code for receiving the message includes a program code for receiving the message through a wireless communication network. 1または複数のハプティック効果を実現する方法であって、
第1のユーザデバイスから、1または複数のグラフィックオブジェクトを含むメッセージを受信し、
前記メッセージに基づきハプティック効果を識別し、
第2のユーザデバイスに、前記メッセージを表示すると同時に、前記ハプティック効果を出力し、前記第2のユーザデバイスは、二次元または三次元のグラフィカルな環境を描画するインターフェイスを有する、方法。
A method for realizing one or more haptic effects comprising:
Receiving a message including one or more graphic objects from a first user device;
Identifying a haptic effect based on the message;
A method of displaying the message on a second user device and simultaneously outputting the haptic effect, wherein the second user device has an interface for drawing a two-dimensional or three-dimensional graphical environment.
前記グラフィックオブジェクトは、エモティコン、アニメ映像、アニメ画像、静止グラフィック、静止画像、三次元文字、若しくはメディアデータの中から選ばれる少なくとも1つを含む、請求項13に記載の方法。   The method of claim 13, wherein the graphic object includes at least one selected from emoticons, animated images, animated images, still graphics, still images, three-dimensional characters, or media data. 前記三次元のグラフィカルな環境は、ユーザが操縦可能である、請求項13に記載の方法。   The method of claim 13, wherein the three-dimensional graphical environment is steerable by a user. 前記メッセージはハプティック情報を含み、前記ハプティック効果を識別するステップは、前記ハプティック情報に基づいて前記ハプティック効果を生成するプログラムコードを使用する、請求項13に記載の方法。   The method of claim 13, wherein the message includes haptic information, and the step of identifying the haptic effect uses program code that generates the haptic effect based on the haptic information. 前記第2のユーザデバイスは、前記第2のユーザデバイスのためのハプティック属性指定オプションを提供する、請求項13に記載の方法。   The method of claim 13, wherein the second user device provides a haptic attribute specification option for the second user device. 前記メッセージは、無線通信網を通して受信される、請求項13に記載の方法。   The method of claim 13, wherein the message is received through a wireless communication network.
JP2018001319A 2000-06-30 2018-01-09 Chat interface with haptic feedback functionality Pending JP2018049669A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/608,129 2000-06-30
US09/608,129 US7159008B1 (en) 2000-06-30 2000-06-30 Chat interface with haptic feedback functionality

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016176823A Division JP6552114B2 (en) 2000-06-30 2016-09-09 Chat interface with haptic feedback functionality

Publications (1)

Publication Number Publication Date
JP2018049669A true JP2018049669A (en) 2018-03-29

Family

ID=24435161

Family Applications (6)

Application Number Title Priority Date Filing Date
JP2002508173A Pending JP2004503004A (en) 2000-06-30 2001-06-20 Chat interface with haptic feedback functionality
JP2010260419A Expired - Fee Related JP5543902B2 (en) 2000-06-30 2010-11-22 Interface with haptic feedback
JP2012103375A Expired - Fee Related JP5828801B2 (en) 2000-06-30 2012-04-27 Chat interface with haptic feedback functionality
JP2014012553A Expired - Fee Related JP6161549B2 (en) 2000-06-30 2014-01-27 Chat interface with haptic feedback functionality
JP2016176823A Expired - Lifetime JP6552114B2 (en) 2000-06-30 2016-09-09 Chat interface with haptic feedback functionality
JP2018001319A Pending JP2018049669A (en) 2000-06-30 2018-01-09 Chat interface with haptic feedback functionality

Family Applications Before (5)

Application Number Title Priority Date Filing Date
JP2002508173A Pending JP2004503004A (en) 2000-06-30 2001-06-20 Chat interface with haptic feedback functionality
JP2010260419A Expired - Fee Related JP5543902B2 (en) 2000-06-30 2010-11-22 Interface with haptic feedback
JP2012103375A Expired - Fee Related JP5828801B2 (en) 2000-06-30 2012-04-27 Chat interface with haptic feedback functionality
JP2014012553A Expired - Fee Related JP6161549B2 (en) 2000-06-30 2014-01-27 Chat interface with haptic feedback functionality
JP2016176823A Expired - Lifetime JP6552114B2 (en) 2000-06-30 2016-09-09 Chat interface with haptic feedback functionality

Country Status (6)

Country Link
US (3) US7159008B1 (en)
EP (2) EP2372496A3 (en)
JP (6) JP2004503004A (en)
CN (2) CN101303622B (en)
AU (1) AU2001277256A1 (en)
WO (1) WO2002003172A2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210105267A (en) * 2020-02-18 2021-08-26 일렉트로닉 아트 아이엔씨. Systems and methods for transcribing user interface elements of a game application into haptic feedback
JP7062248B1 (en) 2021-12-17 2022-05-06 17Live株式会社 Computer programs, terminals and methods

Families Citing this family (195)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6429846B2 (en) 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US6822635B2 (en) * 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
US7159008B1 (en) * 2000-06-30 2007-01-02 Immersion Corporation Chat interface with haptic feedback functionality
US8707185B2 (en) * 2000-10-10 2014-04-22 Addnclick, Inc. Dynamic information management system and method for content delivery and sharing in content-, metadata- and viewer-based, live social networking among users concurrently engaged in the same and/or similar content
US6976082B1 (en) 2000-11-03 2005-12-13 At&T Corp. System and method for receiving multi-media messages
US6990452B1 (en) 2000-11-03 2006-01-24 At&T Corp. Method for sending multi-media messages using emoticons
US20080040227A1 (en) 2000-11-03 2008-02-14 At&T Corp. System and method of marketing using a multi-media communication system
US7203648B1 (en) 2000-11-03 2007-04-10 At&T Corp. Method for sending multi-media messages with customized audio
US6963839B1 (en) 2000-11-03 2005-11-08 At&T Corp. System and method of controlling sound in a multi-media communication application
US7091976B1 (en) * 2000-11-03 2006-08-15 At&T Corp. System and method of customizing animated entities for use in a multi-media communication application
US7133900B1 (en) * 2001-07-06 2006-11-07 Yahoo! Inc. Sharing and implementing instant messaging environments
FR2831428B1 (en) * 2001-10-26 2004-09-03 Univ Compiegne Tech METHOD FOR ALLOWING AT LEAST ONE USER, PARTICULARLY A BLIND USER, TO PERCEIVE A SHAPE AND DEVICE FOR CARRYING OUT THE METHOD
US7671861B1 (en) 2001-11-02 2010-03-02 At&T Intellectual Property Ii, L.P. Apparatus and method of customizing animated entities for use in a multi-media communication application
JP3733075B2 (en) * 2002-02-07 2006-01-11 株式会社国際電気通信基礎技術研究所 Interaction media system
US9849372B2 (en) 2012-09-28 2017-12-26 Sony Interactive Entertainment Inc. Method and apparatus for improving efficiency without increasing latency in emulation of a legacy application title
US20030237093A1 (en) * 2002-06-19 2003-12-25 Marsh David J. Electronic program guide systems and methods for handling multiple users
US7275215B2 (en) 2002-07-29 2007-09-25 Cerulean Studios, Llc System and method for managing contacts in an instant messaging environment
WO2004012074A2 (en) * 2002-07-29 2004-02-05 Cerulean Studios, Llc Apparatus and method for generating audio and graphical animations in an instant messaging environment
US20040024822A1 (en) * 2002-08-01 2004-02-05 Werndorfer Scott M. Apparatus and method for generating audio and graphical animations in an instant messaging environment
AU2002950502A0 (en) 2002-07-31 2002-09-12 E-Clips Intelligent Agent Technologies Pty Ltd Animated messaging
US7234117B2 (en) * 2002-08-28 2007-06-19 Microsoft Corporation System and method for shared integrated online social interaction
US7636755B2 (en) * 2002-11-21 2009-12-22 Aol Llc Multiple avatar personalities
US8037150B2 (en) 2002-11-21 2011-10-11 Aol Inc. System and methods for providing multiple personas in a communications environment
GB2413416B8 (en) * 2002-12-08 2006-09-07 Immersion Corp Haptic massaging in handheld communication devices
US20060136630A1 (en) * 2002-12-08 2006-06-22 Immersion Corporation, A Delaware Corporation Methods and systems for providing haptic messaging to handheld communication devices
US7779166B2 (en) 2002-12-08 2010-08-17 Immersion Corporation Using haptic effects to enhance information content in communications
US20070113181A1 (en) * 2003-03-03 2007-05-17 Blattner Patrick D Using avatars to communicate real-time information
US20070168863A1 (en) * 2003-03-03 2007-07-19 Aol Llc Interacting avatars in an instant messaging communication session
US7484176B2 (en) * 2003-03-03 2009-01-27 Aol Llc, A Delaware Limited Liability Company Reactive avatars
US7913176B1 (en) 2003-03-03 2011-03-22 Aol Inc. Applying access controls to communications with avatars
US7908554B1 (en) 2003-03-03 2011-03-15 Aol Inc. Modifying avatar behavior based on user action or mood
GB0307399D0 (en) * 2003-03-31 2003-05-07 British Telecomm Sensory output devices
US7363342B1 (en) * 2003-07-08 2008-04-22 Microsoft Corporation Method and apparatus for providing web services in a collaborative computing system
US8589517B2 (en) * 2003-11-04 2013-11-19 Verizon Business Global Llc Systems and methods for providing self-compiling, peer-to-peer on-line gaming
GB2424980B (en) * 2003-11-25 2007-04-18 Looptv Method and system for speeding up data input to a communication system
US8874644B2 (en) 2003-12-03 2014-10-28 International Business Machines Corporation Method, system, chat interface, and computer program product for comparing free time between instant message chat members
US20060066569A1 (en) * 2003-12-08 2006-03-30 Immersion Corporation, A Delaware Corporation Methods and systems for providing haptic messaging to handheld communication devices
US7752270B2 (en) * 2004-01-21 2010-07-06 At&T Mobility Ii Llc Linking sounds and emoticons
US20050235032A1 (en) * 2004-04-15 2005-10-20 Mason Wallace R Iii System and method for haptic based conferencing
US20060015560A1 (en) * 2004-05-11 2006-01-19 Microsoft Corporation Multi-sensory emoticons in a communication system
US20060020967A1 (en) * 2004-07-26 2006-01-26 International Business Machines Corporation Dynamic selection and interposition of multimedia files in real-time communications
KR20060047890A (en) 2004-10-01 2006-05-18 삼성전자주식회사 Device and method for displaying event in wireless terminal
WO2006038779A1 (en) * 2004-10-01 2006-04-13 Samsung Electronics Co., Ltd. Device and method for displaying event in wireless terminal
US10171386B1 (en) * 2004-10-06 2019-01-01 Oracle International Corporation Methods and systems for storing instant messaging messages
US20060085515A1 (en) * 2004-10-14 2006-04-20 Kevin Kurtz Advanced text analysis and supplemental content processing in an instant messaging environment
US9652809B1 (en) 2004-12-21 2017-05-16 Aol Inc. Using user profile information to determine an avatar and/or avatar characteristics
US7707262B1 (en) * 2004-12-28 2010-04-27 Aol Llc Negotiating content controls
GB2422454A (en) * 2005-01-22 2006-07-26 Siemens Plc A system for communicating user emotion
US7599719B2 (en) * 2005-02-14 2009-10-06 John D. Patton Telephone and telephone accessory signal generator and methods and devices using the same
WO2007030603A2 (en) * 2005-09-08 2007-03-15 Wms Gaming Inc. Gaming machine having display with sensory feedback
WO2007117418A2 (en) * 2006-03-31 2007-10-18 Wms Gaming Inc. Portable wagering game with vibrational cues and feedback mechanism
US20080036794A1 (en) * 2006-08-11 2008-02-14 Guy Weiser System and method for personalized scrolling banner
CN104656900A (en) * 2006-09-13 2015-05-27 意美森公司 Systems and methods for casino gaming haptics
TWI319625B (en) * 2006-11-30 2010-01-11 Tpo Displays Corp Image display system and manufacturing method of multi-gates thin film transistor
CN100444087C (en) * 2007-01-19 2008-12-17 姜志熹 Method for displaying information on display screen based on force sense
US8933891B2 (en) * 2007-03-02 2015-01-13 Lg Electronics Inc. Terminal and method of controlling terminal
KR100860547B1 (en) * 2007-03-02 2008-09-26 광주과학기술원 Method and Apparatus for Authoring Tactile Information, and Computer Readable Medium Including the Method
KR101437159B1 (en) * 2007-03-02 2014-09-11 엘지전자 주식회사 Method and terminal for transmitting user's action
US8315652B2 (en) * 2007-05-18 2012-11-20 Immersion Corporation Haptically enabled messaging
US8621348B2 (en) * 2007-05-25 2013-12-31 Immersion Corporation Customizing haptic effects on an end user device
US20090037827A1 (en) * 2007-07-31 2009-02-05 Christopher Lee Bennetts Video conferencing system and method
US20090037530A1 (en) * 2007-07-31 2009-02-05 Christopher Lee Bennetts Media broadcasting system
US20090037826A1 (en) * 2007-07-31 2009-02-05 Christopher Lee Bennetts Video conferencing system
US9019087B2 (en) * 2007-10-16 2015-04-28 Immersion Corporation Synchronization of haptic effect data in a media stream
US7911328B2 (en) * 2007-11-21 2011-03-22 The Guitammer Company Capture and remote reproduction of haptic events in synchronous association with the video and audio capture and reproduction of those events
US9372565B2 (en) 2008-01-04 2016-06-21 Tactus Technology, Inc. Dynamic tactile interface
US8179375B2 (en) * 2008-01-04 2012-05-15 Tactus Technology User interface system and method
US9720501B2 (en) 2008-01-04 2017-08-01 Tactus Technology, Inc. Dynamic tactile interface
US8154527B2 (en) 2008-01-04 2012-04-10 Tactus Technology User interface system
US8243038B2 (en) 2009-07-03 2012-08-14 Tactus Technologies Method for adjusting the user interface of a device
US9052790B2 (en) 2008-01-04 2015-06-09 Tactus Technology, Inc. User interface and methods
US9274612B2 (en) 2008-01-04 2016-03-01 Tactus Technology, Inc. User interface system
US8553005B2 (en) 2008-01-04 2013-10-08 Tactus Technology, Inc. User interface system
US9013417B2 (en) 2008-01-04 2015-04-21 Tactus Technology, Inc. User interface system
US8922510B2 (en) 2008-01-04 2014-12-30 Tactus Technology, Inc. User interface system
US9612659B2 (en) 2008-01-04 2017-04-04 Tactus Technology, Inc. User interface system
US20160187981A1 (en) 2008-01-04 2016-06-30 Tactus Technology, Inc. Manual fluid actuator
US9063627B2 (en) 2008-01-04 2015-06-23 Tactus Technology, Inc. User interface and methods
US9298261B2 (en) 2008-01-04 2016-03-29 Tactus Technology, Inc. Method for actuating a tactile interface layer
US8947383B2 (en) 2008-01-04 2015-02-03 Tactus Technology, Inc. User interface system and method
US9557915B2 (en) 2008-01-04 2017-01-31 Tactus Technology, Inc. Dynamic tactile interface
US9552065B2 (en) 2008-01-04 2017-01-24 Tactus Technology, Inc. Dynamic tactile interface
US9367132B2 (en) 2008-01-04 2016-06-14 Tactus Technology, Inc. User interface system
US8456438B2 (en) 2008-01-04 2013-06-04 Tactus Technology, Inc. User interface system
US8570295B2 (en) 2008-01-04 2013-10-29 Tactus Technology, Inc. User interface system
US9588683B2 (en) 2008-01-04 2017-03-07 Tactus Technology, Inc. Dynamic tactile interface
US8547339B2 (en) 2008-01-04 2013-10-01 Tactus Technology, Inc. System and methods for raised touch screens
US9423875B2 (en) 2008-01-04 2016-08-23 Tactus Technology, Inc. Dynamic tactile interface with exhibiting optical dispersion characteristics
US8704790B2 (en) 2010-10-20 2014-04-22 Tactus Technology, Inc. User interface system
US9128525B2 (en) 2008-01-04 2015-09-08 Tactus Technology, Inc. Dynamic tactile interface
US20090210476A1 (en) * 2008-02-19 2009-08-20 Joseph Arie Levy System and method for providing tangible feedback according to a context and personality state
US8180296B2 (en) * 2008-04-29 2012-05-15 Immersion Corporation Providing haptic effects to users in a short range wireless system
KR101474963B1 (en) * 2008-07-01 2014-12-19 엘지전자 주식회사 Controlling a Mobile Terminal
US20100005402A1 (en) * 2008-07-01 2010-01-07 International Business Machines Corporation System and Apparatus for Whispering in Group Chats
JP5690726B2 (en) 2008-07-15 2015-03-25 イマージョン コーポレーションImmersion Corporation System and method for haptic messaging based on physical laws
US8832201B2 (en) * 2008-08-18 2014-09-09 International Business Machines Corporation Method, system and program product for providing selective enhanced privacy and control features to one or more portions of an electronic message
KR101564314B1 (en) * 2008-10-06 2015-11-02 삼성전자주식회사 Method for inputting texts and display apparatus using the same
US8004391B2 (en) * 2008-11-19 2011-08-23 Immersion Corporation Method and apparatus for generating mood-based haptic feedback
US8458601B2 (en) 2008-12-04 2013-06-04 International Business Machines Corporation System and method for item inquiry and information presentation via standard communication paths
US9727139B2 (en) * 2008-12-12 2017-08-08 Immersion Corporation Method and apparatus for providing a haptic monitoring system using multiple sensors
US20100152620A1 (en) * 2008-12-12 2010-06-17 Immersion Corporation Method and Apparatus for Providing A Haptic Monitoring System Using Multiple Sensors
WO2010078597A1 (en) 2009-01-05 2010-07-08 Tactus Technology, Inc. User interface system
WO2010078596A1 (en) 2009-01-05 2010-07-08 Tactus Technology, Inc. User interface system
US9588684B2 (en) 2009-01-05 2017-03-07 Tactus Technology, Inc. Tactile interface for a computing device
US8365081B1 (en) * 2009-05-28 2013-01-29 Amazon Technologies, Inc. Embedding metadata within content
US20110004692A1 (en) 2009-07-01 2011-01-06 Tom Occhino Gathering Information about Connections in a Social Networking Service
EP2449452B1 (en) * 2009-07-03 2016-02-10 Tactus Technology User interface enhancement system
US8902050B2 (en) 2009-10-29 2014-12-02 Immersion Corporation Systems and methods for haptic augmentation of voice-to-text conversion
WO2011087816A1 (en) 2009-12-21 2011-07-21 Tactus Technology User interface system
WO2011087817A1 (en) 2009-12-21 2011-07-21 Tactus Technology User interface system
US9239623B2 (en) 2010-01-05 2016-01-19 Tactus Technology, Inc. Dynamic tactile interface
US8548135B1 (en) 2010-02-03 2013-10-01 Tal Lavian Systems and methods for visual presentation and selection of IVR menu
US8687777B1 (en) 2010-02-03 2014-04-01 Tal Lavian Systems and methods for visual presentation and selection of IVR menu
US8879698B1 (en) 2010-02-03 2014-11-04 Tal Lavian Device and method for providing enhanced telephony
US8548131B1 (en) 2010-02-03 2013-10-01 Tal Lavian Systems and methods for communicating with an interactive voice response system
US8553859B1 (en) 2010-02-03 2013-10-08 Tal Lavian Device and method for providing enhanced telephony
US8572303B2 (en) 2010-02-03 2013-10-29 Tal Lavian Portable universal communication device
US8903073B2 (en) 2011-07-20 2014-12-02 Zvi Or-Bach Systems and methods for visual presentation and selection of IVR menu
US9001819B1 (en) 2010-02-18 2015-04-07 Zvi Or-Bach Systems and methods for visual presentation and selection of IVR menu
US8625756B1 (en) 2010-02-03 2014-01-07 Tal Lavian Systems and methods for visual presentation and selection of IVR menu
US8681951B1 (en) 2010-02-03 2014-03-25 Tal Lavian Systems and methods for visual presentation and selection of IVR menu
US8406388B2 (en) 2011-07-18 2013-03-26 Zvi Or-Bach Systems and methods for visual presentation and selection of IVR menu
US8537989B1 (en) 2010-02-03 2013-09-17 Tal Lavian Device and method for providing enhanced telephony
US8594280B1 (en) 2010-02-03 2013-11-26 Zvi Or-Bach Systems and methods for visual presentation and selection of IVR menu
US8619035B2 (en) 2010-02-10 2013-12-31 Tactus Technology, Inc. Method for assisting user input to a device
KR20130141344A (en) 2010-04-19 2013-12-26 택투스 테크놀로지, 아이엔씨. Method of actuating a tactile interface layer
CN107102721A (en) 2010-04-23 2017-08-29 意美森公司 System and method for providing haptic effect
US9715275B2 (en) * 2010-04-26 2017-07-25 Nokia Technologies Oy Apparatus, method, computer program and user interface
KR101668118B1 (en) * 2010-07-23 2016-10-21 삼성전자주식회사 Apparatus and method for transmitting/receiving remote user interface data in a remote user interface system
US8554253B2 (en) 2010-08-26 2013-10-08 John L. Rogitz Telephone messaging privacy
WO2012054781A1 (en) 2010-10-20 2012-04-26 Tactus Technology User interface system and method
US9380145B2 (en) 2010-11-05 2016-06-28 Qualcomm Incorporated Dynamic tapping force feedback for mobile devices
US8215995B1 (en) * 2011-01-06 2012-07-10 Hon Hai Precision Ind. Co., Ltd. Connector attached to a bracket and mounted in a cutout in a substrate
US20120302323A1 (en) 2011-05-23 2012-11-29 Wms Gaming Inc. Haptic gaming chairs and wagering game systems and machines with a haptic gaming chair
US9142083B2 (en) 2011-06-13 2015-09-22 Bally Gaming, Inc. Convertible gaming chairs and wagering game systems and machines with a convertible gaming chair
US9773391B1 (en) * 2011-08-18 2017-09-26 Fauxsee Innovations, Llc Object detection device
US9762719B2 (en) * 2011-09-09 2017-09-12 Qualcomm Incorporated Systems and methods to enhance electronic communications with emotional context
US20130227409A1 (en) * 2011-12-07 2013-08-29 Qualcomm Incorporated Integrating sensation functionalities into social networking services and applications
US20130227411A1 (en) * 2011-12-07 2013-08-29 Qualcomm Incorporated Sensation enhanced messaging
US8867708B1 (en) 2012-03-02 2014-10-21 Tal Lavian Systems and methods for visual presentation and selection of IVR menu
US8731148B1 (en) 2012-03-02 2014-05-20 Tal Lavian Systems and methods for visual presentation and selection of IVR menu
US8767945B2 (en) * 2012-03-26 2014-07-01 Avaya Inc. IM to phone escalation for customer support
US20130311881A1 (en) * 2012-05-16 2013-11-21 Immersion Corporation Systems and Methods for Haptically Enabled Metadata
US9891709B2 (en) * 2012-05-16 2018-02-13 Immersion Corporation Systems and methods for content- and context specific haptic effects using predefined haptic effects
CN103516867B (en) * 2012-06-20 2019-01-22 腾讯科技(深圳)有限公司 Mobile device call method, device and phone system
US9694276B2 (en) 2012-06-29 2017-07-04 Sony Interactive Entertainment Inc. Pre-loading translated code in cloud based emulated applications
US9656163B2 (en) 2012-06-29 2017-05-23 Sony Interactive Entertainment Inc. Haptic enhancements for emulated video game not originally designed with haptic capabilities
US9925468B2 (en) 2012-06-29 2018-03-27 Sony Interactive Entertainment Inc. Suspending state of cloud-based legacy applications
US9248374B2 (en) 2012-06-29 2016-02-02 Sony Computer Entertainment Inc. Replay and resumption of suspended game
US9717989B2 (en) 2012-06-29 2017-08-01 Sony Interactive Entertainment Inc. Adding triggers to cloud-based emulated games
US9245428B2 (en) 2012-08-02 2016-01-26 Immersion Corporation Systems and methods for haptic remote control gaming
US10406429B2 (en) 2012-08-29 2019-09-10 Sony Interactive Entertainment, LLC User-based mini-game generation and distribution
JP6071372B2 (en) * 2012-09-21 2017-02-01 キヤノン株式会社 Electronic device and control method of electronic device
CN104662497A (en) 2012-09-24 2015-05-27 泰克图斯科技公司 Dynamic tactile interface and methods
US9405417B2 (en) 2012-09-24 2016-08-02 Tactus Technology, Inc. Dynamic tactile interface and methods
US10671165B2 (en) 2012-09-25 2020-06-02 Nokia Technologies Oy Method and display device with tactile feedback
US20140092087A1 (en) 2012-09-28 2014-04-03 Takayuki Kazama Adaptive load balancing in software emulation of gpu hardware
US9707476B2 (en) 2012-09-28 2017-07-18 Sony Interactive Entertainment Inc. Method for creating a mini-game
US11013993B2 (en) 2012-09-28 2021-05-25 Sony Interactive Entertainment Inc. Pre-loading translated code in cloud based emulated applications
US10410180B2 (en) * 2012-11-19 2019-09-10 Oath Inc. System and method for touch-based communications
US8754757B1 (en) * 2013-03-05 2014-06-17 Immersion Corporation Automatic fitting of haptic effects
US9866924B2 (en) * 2013-03-14 2018-01-09 Immersion Corporation Systems and methods for enhanced television interaction
US9258012B2 (en) 2013-03-15 2016-02-09 Sony Computer Entertainment Inc. Compression of state information for data transfer over cloud-based networks
US8918339B2 (en) 2013-03-15 2014-12-23 Facebook, Inc. Associating an indication of user emotional reaction with content items presented by a social networking system
US9672647B2 (en) * 2013-05-23 2017-06-06 Adobe Systems Incorporated Image effect extraction
US9557813B2 (en) 2013-06-28 2017-01-31 Tactus Technology, Inc. Method for reducing perceived optical distortion
CN103369477B (en) * 2013-07-02 2016-12-07 华为技术有限公司 Display media method, device, client, graphical control display packing and device
US9576445B2 (en) 2013-09-06 2017-02-21 Immersion Corp. Systems and methods for generating haptic effects associated with an envelope in audio signals
US9711014B2 (en) 2013-09-06 2017-07-18 Immersion Corporation Systems and methods for generating haptic effects associated with transitions in audio signals
US9619980B2 (en) 2013-09-06 2017-04-11 Immersion Corporation Systems and methods for generating haptic effects associated with audio signals
US9443401B2 (en) * 2013-09-06 2016-09-13 Immersion Corporation Automatic remote sensing and haptic conversion system
US9652945B2 (en) 2013-09-06 2017-05-16 Immersion Corporation Method and system for providing haptic effects based on information complementary to multimedia content
US20160227042A1 (en) * 2014-03-18 2016-08-04 Gubagoo, Inc. Systems and methods for call backup and takeover using web and mobile interfaces
US9542801B1 (en) 2014-04-28 2017-01-10 Bally Gaming, Inc. Wearable wagering game system and methods
WO2016043570A1 (en) * 2014-09-19 2016-03-24 삼성전자 주식회사 Terminal device, method for driving terminal device, and computer readable recording medium
US9858751B2 (en) 2014-09-26 2018-01-02 Bally Gaming, Inc. Wagering game wearables
US20160189427A1 (en) * 2014-12-31 2016-06-30 Immersion Corporation Systems and methods for generating haptically enhanced objects for augmented and virtual reality applications
US9619034B2 (en) 2015-02-25 2017-04-11 Immersion Corporation Overlaying of haptic effects
KR20160105321A (en) * 2015-02-27 2016-09-06 임머숀 코퍼레이션 Generating actions based on a user's mood
US10613629B2 (en) 2015-03-27 2020-04-07 Chad Laurendeau System and method for force feedback interface devices
KR20180004218A (en) * 2015-05-06 2018-01-10 스냅 인코포레이티드 Systems and methods for short-term group chat
KR20160139132A (en) * 2015-05-26 2016-12-07 삼성전자주식회사 Electronic device and method for information processing based on context in the electronic device
GB2543358A (en) * 2015-10-16 2017-04-19 Sony Computer Entertainment Inc Input device and method, entertainment system and control method
WO2017081895A1 (en) * 2015-11-13 2017-05-18 ソニー株式会社 Communication system and storage medium
US10200332B2 (en) * 2015-12-14 2019-02-05 Immersion Corporation Delivery of haptics to select recipients of a message
KR101928550B1 (en) * 2016-04-21 2018-12-12 주식회사 씨케이머티리얼즈랩 Method and device for supplying tactile message
KR102338357B1 (en) 2016-05-18 2021-12-13 애플 인크. Applying acknowledgement of options in a graphical messaging user interface
US10592098B2 (en) 2016-05-18 2020-03-17 Apple Inc. Devices, methods, and graphical user interfaces for messaging
US10368208B2 (en) 2016-06-12 2019-07-30 Apple Inc. Layers in messaging applications
KR101913616B1 (en) 2016-12-27 2018-10-31 주식회사 카카오 Instant message service method and user device for performing instant messaging service method for secret message
US10572016B2 (en) 2018-03-06 2020-02-25 Microsoft Technology Licensing, Llc Spatialized haptic device force feedback
CN109254650B (en) * 2018-08-02 2021-02-09 创新先进技术有限公司 Man-machine interaction method and device
CN109542624B (en) * 2018-11-23 2021-09-28 中国农业银行股份有限公司 Resource allocation method and device for application change
US10834543B2 (en) * 2018-11-26 2020-11-10 International Business Machines Corporation Creating a social group with mobile phone vibration
FR3100353B1 (en) * 2019-09-03 2022-01-07 Hap2U Method and device for producing a click-button effect on a haptic interface

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000135384A (en) * 1998-10-30 2000-05-16 Fujitsu Ltd Information processing device and animal-mimicking apparatus
JP2001265703A (en) * 1999-12-10 2001-09-28 Sega Corp Electronic document transmitting/receiving system
JP2004503004A (en) * 2000-06-30 2004-01-29 イマージョン コーポレーション Chat interface with haptic feedback functionality

Family Cites Families (138)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3157853A (en) 1957-12-06 1964-11-17 Hirsch Joseph Tactile communication system
GB958325A (en) 1962-07-08 1964-05-21 Communications Patents Ltd Improvements in or relating to ground-based flight training or simulating apparatus
US3497668A (en) 1966-08-25 1970-02-24 Joseph Hirsch Tactile control system
US3517446A (en) 1967-04-19 1970-06-30 Singer General Precision Vehicle trainer controls and control loading
US3903614A (en) 1970-03-27 1975-09-09 Singer Co Apparatus for simulating aircraft control loading
US3902687A (en) 1973-06-25 1975-09-02 Robert E Hightower Aircraft indicator system
US4160508A (en) 1977-08-19 1979-07-10 Nasa Controller arm for a remotely related slave arm
US4236325A (en) 1978-12-26 1980-12-02 The Singer Company Simulator control loading inertia compensator
US4599070A (en) 1981-07-29 1986-07-08 Control Interface Company Limited Aircraft simulator and simulated control system therefor
EP0085518B1 (en) 1982-01-22 1989-08-16 British Aerospace Public Limited Company Control apparatus
US4581491A (en) 1984-05-04 1986-04-08 Research Corporation Wearable tactile sensory aid providing information on voice pitch and intonation patterns
US5078152A (en) 1985-06-23 1992-01-07 Loredan Biomedical, Inc. Method for diagnosis and/or training of proprioceptor feedback capabilities in a muscle and joint system of a human patient
US4713007A (en) 1985-10-11 1987-12-15 Alban Eugene P Aircraft controls simulator
US5275174B1 (en) 1985-10-30 1998-08-04 Jonathan A Cook Repetitive strain injury assessment
NL8503096A (en) 1985-11-11 1987-06-01 Fokker Bv SIMULATOR OF MECHANICAL PROPERTIES OF OPERATING SYSTEM.
US4891764A (en) 1985-12-06 1990-01-02 Tensor Development Inc. Program controlled force measurement and control system
US4934694A (en) 1985-12-06 1990-06-19 Mcintosh James L Computer controlled exercise system
JPH048381Y2 (en) 1986-07-10 1992-03-03
JPS643664A (en) 1987-06-26 1989-01-09 Hitachi Ltd Laser beam marking device
US4938483A (en) 1987-11-04 1990-07-03 M. H. Segan & Company, Inc. Multi-vehicle interactive toy system
GB8801951D0 (en) 1988-01-29 1988-02-24 British Aerospace Control apparatus
US5038089A (en) 1988-03-23 1991-08-06 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Synchronized computational architecture for generalized bilateral control of robot arms
NL8801653A (en) 1988-06-29 1990-01-16 Stork Kwant Bv OPERATING SYSTEM.
US5208745A (en) * 1988-07-25 1993-05-04 Electric Power Research Institute Multimedia interface and method for computer system
JP2926721B2 (en) 1988-10-20 1999-07-28 スズキ株式会社 Stabilizer mounting structure
US4930770A (en) 1988-12-01 1990-06-05 Baker Norman A Eccentrically loaded computerized positive/negative exercise machine
JPH02185278A (en) 1989-01-12 1990-07-19 Taito Corp Light beam gun shooting game device
US5186695A (en) 1989-02-03 1993-02-16 Loredan Biomedical, Inc. Apparatus for controlled exercise and diagnosis of human performance
US5019761A (en) 1989-02-21 1991-05-28 Kraft Brett W Force feedback control for backhoe
GB8913323D0 (en) 1989-06-09 1989-07-26 Celco Ltd Controlling operations
JPH03504175A (en) 1989-08-03 1991-09-12 インターナシヨナル・ビジネス・マシーンズ・コーポレーシヨン data processing network
JPH0724147Y2 (en) 1989-12-28 1995-06-05 株式会社平和 Distance control device for pachinko machines
US5022407A (en) 1990-01-24 1991-06-11 Topical Testing, Inc. Apparatus for automated tactile testing
US5035242A (en) 1990-04-16 1991-07-30 David Franklin Method and apparatus for sound responsive tactile stimulation of deaf individuals
JPH047371A (en) 1990-04-25 1992-01-10 Canon Inc Ink for image recording
US5547382A (en) 1990-06-28 1996-08-20 Honda Giken Kogyo Kabushiki Kaisha Riding simulation system for motorcycles
US5212473A (en) 1991-02-21 1993-05-18 Typeright Keyboard Corp. Membrane keyboard and method of using same
US5334027A (en) 1991-02-25 1994-08-02 Terry Wherlock Big game fish training and exercise device and method
US5240417A (en) 1991-03-14 1993-08-31 Atari Games Corporation System and method for bicycle riding simulation
JPH06507734A (en) 1991-03-21 1994-09-01 アタリ ゲームズ コーポレーション Vehicle simulator with cross-network feedback
US5889670A (en) * 1991-10-24 1999-03-30 Immersion Corporation Method and apparatus for tactilely responsive user interface
US5271290A (en) 1991-10-29 1993-12-21 United Kingdom Atomic Energy Authority Actuator assembly
US5309140A (en) 1991-11-26 1994-05-03 The United States Of America As Represented By The Secretary Of The Navy Feedback system for remotely operated vehicles
JPH05192449A (en) 1992-01-20 1993-08-03 Taito Corp Video type rifle-shooting battle game machine and its control method
JP2812598B2 (en) 1992-01-21 1998-10-22 株式会社日立ビルシステム Equipment lifting device in hoistway
US5629594A (en) 1992-12-02 1997-05-13 Cybernet Systems Corporation Force feedback system
US5785630A (en) 1993-02-02 1998-07-28 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
WO1994025913A2 (en) 1993-04-30 1994-11-10 Novadigm, Inc. Method and apparatus for enterprise desktop management
JP3686686B2 (en) 1993-05-11 2005-08-24 松下電器産業株式会社 Haptic device, data input device, and data input device device
US5466213A (en) 1993-07-06 1995-11-14 Massachusetts Institute Of Technology Interactive robotic therapist
US5739811A (en) 1993-07-16 1998-04-14 Immersion Human Interface Corporation Method and apparatus for controlling human-computer interface systems providing force feedback
US5734373A (en) 1993-07-16 1998-03-31 Immersion Human Interface Corporation Method and apparatus for controlling force feedback interface systems utilizing a host computer
SE501867C2 (en) 1993-11-15 1995-06-12 Asea Brown Boveri Method and system for calibrating an industrial robot using a spherical calibration body
US6047356A (en) 1994-04-18 2000-04-04 Sonic Solutions Method of dynamically allocating network node memory's partitions for caching distributed files
US6160489A (en) 1994-06-23 2000-12-12 Motorola, Inc. Wireless communication device adapted to generate a plurality of distinctive tactile alert patterns
DE69525325T2 (en) 1994-09-07 2002-09-05 Koninkl Philips Electronics Nv VIRTUAL WORKPLACE WITH USER PROGRAMMABLE TACTILE FEEDBACK
US6422941B1 (en) 1994-09-21 2002-07-23 Craig Thorner Universal tactile feedback system for computer video games and simulations
US5766016A (en) 1994-11-14 1998-06-16 Georgia Tech Research Corporation Surgical simulator and method for simulating surgical procedure
US6339754B1 (en) * 1995-02-14 2002-01-15 America Online, Inc. System for automated translation of speech
US6166723A (en) 1995-11-17 2000-12-26 Immersion Corporation Mouse interface device providing force feedback
US5933599A (en) * 1995-07-17 1999-08-03 Microsoft Corporation Apparatus for presenting the content of an interactive on-line network
US5818836A (en) * 1995-08-09 1998-10-06 Duval; Stephen C. Method and apparatus for anonymous voice communication using an online data service
US6108704A (en) * 1995-09-25 2000-08-22 Netspeak Corporation Point-to-point internet protocol
US5999168A (en) * 1995-09-27 1999-12-07 Immersion Corporation Haptic accelerator for force feedback computer peripherals
US5719561A (en) * 1995-10-25 1998-02-17 Gilbert R. Gonzales Tactile communication device and method
US6219045B1 (en) * 1995-11-13 2001-04-17 Worlds, Inc. Scalable virtual world chat client-server system
JPH09138767A (en) * 1995-11-14 1997-05-27 Fujitsu Ten Ltd Communication equipment for feeling expression
US6028593A (en) 1995-12-01 2000-02-22 Immersion Corporation Method and apparatus for providing simulated physical interactions within computer generated environments
US5956484A (en) 1995-12-13 1999-09-21 Immersion Corporation Method and apparatus for providing force feedback over a computer network
US6169540B1 (en) 1995-12-01 2001-01-02 Immersion Corporation Method and apparatus for designing force sensations in force feedback applications
US6859819B1 (en) * 1995-12-13 2005-02-22 Immersion Corporation Force feedback enabled over a computer network
US6161126A (en) 1995-12-13 2000-12-12 Immersion Corporation Implementing force feedback over the World Wide Web and other computer networks
US5880731A (en) * 1995-12-14 1999-03-09 Microsoft Corporation Use of avatars with automatic gesturing and bounded interaction in on-line chat session
US5695400A (en) 1996-01-30 1997-12-09 Boxer Jam Productions Method of managing multi-player game playing over a network
US5721763A (en) * 1996-01-31 1998-02-24 At&T Corp Method for providing information during a chat session
CA2248909A1 (en) * 1996-03-15 1997-09-25 Zapa Digital Arts Ltd. System for producing an animation sequence according to character behaviour characteristics
US6111577A (en) * 1996-04-04 2000-08-29 Massachusetts Institute Of Technology Method and apparatus for determining forces to be applied to a user through a haptic interface
US5943648A (en) * 1996-04-25 1999-08-24 Lernout & Hauspie Speech Products N.V. Speech signal distribution system providing supplemental parameter associated data
US5987503A (en) * 1996-06-28 1999-11-16 Fujitsu Limited System and method for displaying an electronic mail containing a keyword detected in a chat session message
CA2261933A1 (en) * 1996-07-25 1998-02-05 Hybrid Networks, Inc. Two-way asymmetric communication system
US5907677A (en) * 1996-08-23 1999-05-25 Ecall Inc. Method for establishing anonymous communication links
US6862625B1 (en) * 1996-09-27 2005-03-01 Avaya Technology Corp. Method and apparatus for real time network communication
US5764916A (en) * 1996-09-27 1998-06-09 Ichat, Inc. Method and apparatus for real time communication over a computer network
US5884029A (en) 1996-11-14 1999-03-16 International Business Machines Corporation User interaction with intelligent virtual objects, avatars, which interact with other avatars controlled by different users
US5963217A (en) * 1996-11-18 1999-10-05 7Thstreet.Com, Inc. Network conference system using limited bandwidth to generate locally animated displays
US20010044725A1 (en) * 1996-11-19 2001-11-22 Koichi Matsuda Information processing apparatus, an information processing method, and a medium for use in a three-dimensional virtual reality space sharing system
US6760751B1 (en) * 1996-12-20 2004-07-06 Sony Corporation Method and apparatus for automatic sending of E-mail and automatic sending control program supplying medium
TW391092B (en) * 1996-12-27 2000-05-21 Hitachi Ltd Cellular mobile telephone apparatus and method for transmitting a response message to an caller
JP3557062B2 (en) * 1997-01-10 2004-08-25 日本電信電話株式会社 Low bit rate image communication system, low bit rate image communication center device, and low bit rate image communication method
DE19809231A1 (en) * 1997-03-04 1998-09-17 Talkway Inc System for improved discussion technologies
EP0866592A3 (en) 1997-03-20 1999-06-16 Nortel Networks Corporation Personal communication device and call process status signalling method
KR100287137B1 (en) 1997-04-11 2001-04-16 윤종용 Method for managing version of portable information terminal
US5978467A (en) * 1997-04-11 1999-11-02 Walker Asset Management Limited Partnership Method and apparatus for enabling interaction between callers with calls positioned in a queue
US5987525A (en) * 1997-04-15 1999-11-16 Cddb, Inc. Network delivery of interactive entertainment synchronized to playback of audio recordings
US5983190A (en) * 1997-05-19 1999-11-09 Microsoft Corporation Client server animation system for managing interactive user interface characters
US6425764B1 (en) * 1997-06-09 2002-07-30 Ralph J. Lamson Virtual reality immersion therapy for treating psychological, psychiatric, medical, educational and self-help problems
US6523022B1 (en) * 1997-06-09 2003-02-18 Allen Hobbs Method and apparatus for selectively augmenting retrieved information from a network resource
US6252579B1 (en) * 1997-08-23 2001-06-26 Immersion Corporation Interface device and method for providing enhanced cursor control with force feedback
US6292174B1 (en) 1997-08-23 2001-09-18 Immersion Corporation Enhanced cursor control using limited-workspace force feedback devices
US5973678A (en) 1997-08-29 1999-10-26 Ford Global Technologies, Inc. Method and system for manipulating a three-dimensional object utilizing a force feedback interface
US6175954B1 (en) * 1997-10-30 2001-01-16 Fuji Xerox Co., Ltd. Computer programming using tangible user interface where physical icons (phicons) indicate: beginning and end of statements and program constructs; statements generated with re-programmable phicons and stored
US6281651B1 (en) * 1997-11-03 2001-08-28 Immersion Corporation Haptic pointing devices
US6211861B1 (en) 1998-06-23 2001-04-03 Immersion Corporation Tactile mouse device
US6076100A (en) * 1997-11-17 2000-06-13 Microsoft Corporation Server-side chat monitor
CN1299479A (en) 1998-02-03 2001-06-13 因维伯诺有限公司 System and method for vibro generations
US6396509B1 (en) * 1998-02-21 2002-05-28 Koninklijke Philips Electronics N.V. Attention-based interaction in a virtual environment
US6219034B1 (en) 1998-02-23 2001-04-17 Kristofer E. Elbing Tactile computer interface
US6349301B1 (en) * 1998-02-24 2002-02-19 Microsoft Corporation Virtual environment bystander updating in client server architecture
US6166732A (en) * 1998-02-24 2000-12-26 Microsoft Corporation Distributed object oriented multi-user domain with multimedia presentations
US6393461B1 (en) * 1998-02-27 2002-05-21 Fujitsu Limited Communication management system for a chat system
JPH11288421A (en) * 1998-04-03 1999-10-19 Fujitsu Ltd Service providing device, service receiving device, service providing host, computer readable recording medium for recording selective service reception program, computer readable recording medium for recording selective service transmission program, service selecting method for service receiving device and transmission method for selective service for service providing host
US6563487B2 (en) * 1998-06-23 2003-05-13 Immersion Corporation Haptic feedback for directional control pads
US6429846B2 (en) * 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US6421048B1 (en) * 1998-07-17 2002-07-16 Sensable Technologies, Inc. Systems and methods for interacting with virtual objects in a haptic virtual reality environment
AU5563799A (en) 1998-08-17 2000-03-06 Net Talk, Inc. Computer architecture and process for audio conferencing over local and global networks including internets and intranets
JP2000115153A (en) * 1998-09-30 2000-04-21 Fujitsu Ltd Security method and security device
JP3644579B2 (en) * 1998-10-29 2005-04-27 富士通株式会社 Security enhancement method and apparatus
JP2000163337A (en) * 1998-11-27 2000-06-16 Kyocera Corp Electronic mail transmission system
US6256663B1 (en) * 1999-01-22 2001-07-03 Greenfield Online, Inc. System and method for conducting focus groups using remotely loaded participants over a computer network
US6677858B1 (en) * 1999-02-26 2004-01-13 Reveo, Inc. Internet-based method of and system for monitoring space-time coordinate information and biophysiological state information collected from an animate object along a course through the space-time continuum
JP3644580B2 (en) * 1999-03-19 2005-04-27 富士通株式会社 Display control method and apparatus
US7084867B1 (en) * 1999-04-02 2006-08-01 Massachusetts Institute Of Technology Haptic interface system for collision detection and applications therefore
US6563503B1 (en) * 1999-05-07 2003-05-13 Nintendo Co., Ltd. Object modeling for computer simulation and animation
US6763371B1 (en) * 1999-05-10 2004-07-13 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for collaborative communication in a communication network
US6442590B1 (en) * 1999-05-27 2002-08-27 Yodlee.Com, Inc. Method and apparatus for a site-sensitive interactive chat network
US6546390B1 (en) * 1999-06-11 2003-04-08 Abuzz Technologies, Inc. Method and apparatus for evaluating relevancy of messages to users
US6559845B1 (en) * 1999-06-11 2003-05-06 Pulse Entertainment Three dimensional animation system and method
US6347307B1 (en) * 1999-06-14 2002-02-12 Integral Development Corp. System and method for conducting web-based financial transactions in capital markets
JP3654797B2 (en) * 1999-07-29 2005-06-02 富士通株式会社 Message system and message device
US6965868B1 (en) * 1999-08-03 2005-11-15 Michael David Bednarek System and method for promoting commerce, including sales agent assisted commerce, in a networked economy
US6496200B1 (en) * 1999-11-02 2002-12-17 Interval Research Corp. Flexible variation of haptic interface resolution
US6693626B1 (en) * 1999-12-07 2004-02-17 Immersion Corporation Haptic feedback using a keyboard device
US6755743B1 (en) * 1999-12-08 2004-06-29 Kabushiki Kaisha Sega Enterprises Communication game system and processing method thereof
US6519771B1 (en) * 1999-12-14 2003-02-11 Steven Ericsson Zenith System for interactive chat without a keyboard
DE60113820T2 (en) * 2000-02-14 2006-07-13 Motorola, Inc., Schaumburg DEVICE FOR TRANSMITTING CHAT MESSAGES AND METHOD THEREFOR
US7222228B1 (en) * 2000-06-14 2007-05-22 Netwolves Corporation System and method for secure management or remote systems
US20040125120A1 (en) 2001-06-08 2004-07-01 Michael Weiner Method and apparatus for interactive transmission and reception of tactile information

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000135384A (en) * 1998-10-30 2000-05-16 Fujitsu Ltd Information processing device and animal-mimicking apparatus
JP2001265703A (en) * 1999-12-10 2001-09-28 Sega Corp Electronic document transmitting/receiving system
JP2004503004A (en) * 2000-06-30 2004-01-29 イマージョン コーポレーション Chat interface with haptic feedback functionality

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Pメールを使う", PHS電話機 PHS−J80, JPN6019009290, 31 August 1999 (1999-08-31), JP, pages 7 - 1, ISSN: 0004151594 *
"メールをやりとりする", NTTDOCOMO デジタル・ムーバP501I HYPER 取扱説明書, JPN6019009291, 30 June 1999 (1999-06-30), JP, pages 235 - 243, ISSN: 0004151595 *
飯田 朝子: "2000年の迎え方・過ごし方", 作ろう!魅せるHOMEPAGE, JPN6019009292, 29 December 1999 (1999-12-29), JP, pages 35 - 49, ISSN: 0004151596 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210105267A (en) * 2020-02-18 2021-08-26 일렉트로닉 아트 아이엔씨. Systems and methods for transcribing user interface elements of a game application into haptic feedback
US11358054B2 (en) 2020-02-18 2022-06-14 Electronic Arts Inc. Systems and methods for transcribing user interface elements of a game application into haptic feedback
KR102432011B1 (en) * 2020-02-18 2022-08-12 일렉트로닉 아트 아이엔씨. Systems and methods for transcribing user interface elements of a game application into haptic feedback
US11786812B2 (en) 2020-02-18 2023-10-17 Electronic Arts Inc. Systems and methods for transcribing user interface elements of a game application into haptic feedback
JP7062248B1 (en) 2021-12-17 2022-05-06 17Live株式会社 Computer programs, terminals and methods
JP2023090453A (en) * 2021-12-17 2023-06-29 17Live株式会社 Computer program, terminal, and method

Also Published As

Publication number Publication date
EP1311966A2 (en) 2003-05-21
EP2372496A3 (en) 2017-09-13
JP6161549B2 (en) 2017-07-12
CN1434947A (en) 2003-08-06
US20070033259A1 (en) 2007-02-08
WO2002003172A3 (en) 2002-06-27
JP2011044183A (en) 2011-03-03
JP5543902B2 (en) 2014-07-09
US7159008B1 (en) 2007-01-02
JP2012178171A (en) 2012-09-13
CN101303622B (en) 2011-08-24
CN101303622A (en) 2008-11-12
EP1311966B1 (en) 2012-11-28
JP5828801B2 (en) 2015-12-09
USRE45884E1 (en) 2016-02-09
EP1311966A4 (en) 2009-04-15
US7493365B2 (en) 2009-02-17
EP2372496A2 (en) 2011-10-05
WO2002003172A2 (en) 2002-01-10
JP2004503004A (en) 2004-01-29
JP6552114B2 (en) 2019-07-31
AU2001277256A1 (en) 2002-01-14
JP2014112411A (en) 2014-06-19
JP2016219058A (en) 2016-12-22

Similar Documents

Publication Publication Date Title
JP6552114B2 (en) Chat interface with haptic feedback functionality
Rovers et al. HIM: A framework for haptic instant messaging
EP1451672B1 (en) Rich communication over internet
US6906697B2 (en) Haptic sensations for tactile feedback interface devices
US6101530A (en) Force feedback provided over a computer network
US8072422B2 (en) Networked applications including haptic feedback
US8149241B2 (en) Arrangements for controlling activities of an avatar
KR102415719B1 (en) Metaverse server for displaying avatar status information for virtual counseling envuronment
JP2001229392A (en) Rational architecture for executing conversational character with communication of small number of messages
JP2006201912A (en) Processing method for three-dimensional virtual object information providing service, three-dimensional virtual object providing system, and program
CN1322756C (en) Method and interactive display for exchanging message
Hossain et al. Measurements of multimodal approach to haptic interaction in second life interpersonal communication system
Rauterberg From gesture to action: Natural user interfaces
KR20110040128A (en) System for streaming a haptic content
Rahman et al. Haptic Interaction and Avatar Animation Rendering Centric Telepresence in Second Life
Mandeville et al. Remote Touch: Humanizing Social Interactions in Technology Through Multimodal Interfaces
Simpson et al. Using Games as a Means for Collaboration
Blum Reducing Overload in Multiuser Online Applications

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190328

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190626

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191114