JP2017527032A - タッチメッセージの送信システムと方法 - Google Patents

タッチメッセージの送信システムと方法 Download PDF

Info

Publication number
JP2017527032A
JP2017527032A JP2017510589A JP2017510589A JP2017527032A JP 2017527032 A JP2017527032 A JP 2017527032A JP 2017510589 A JP2017510589 A JP 2017510589A JP 2017510589 A JP2017510589 A JP 2017510589A JP 2017527032 A JP2017527032 A JP 2017527032A
Authority
JP
Japan
Prior art keywords
touch
area
message
response
touch area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017510589A
Other languages
English (en)
Other versions
JP7037938B2 (ja
JP2017527032A5 (ja
Inventor
デント,アンドリュー
Original Assignee
タッチグラム プロプライエタリー リミテッド
タッチグラム プロプライエタリー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2014903278A external-priority patent/AU2014903278A0/en
Application filed by タッチグラム プロプライエタリー リミテッド, タッチグラム プロプライエタリー リミテッド filed Critical タッチグラム プロプライエタリー リミテッド
Publication of JP2017527032A publication Critical patent/JP2017527032A/ja
Publication of JP2017527032A5 publication Critical patent/JP2017527032A5/ja
Application granted granted Critical
Publication of JP7037938B2 publication Critical patent/JP7037938B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

タッチメッセージを送信する方法は、第1装置のタッチ受付面におけるタッチ領域を記録し、上記タッチ受付面の上記タッチ領域内がタッチされることによって引き起こされる応答を記録し、上記記録されたタッチ領域と、上記応答とを含むメッセージを作成し、上記メッセージを上記第1装置から第2装置に送信し、上記第2装置のタッチ受付面におけるタッチを受け付け、上記第2装置のタッチ受付面における上記タッチが上記タッチ領域内であることを判定し、上記タッチが上記タッチ領域内である場合、上記応答を引き起こす。

Description

本発明は、タッチメッセージを送信するシステムと、タッチメッセージを送信する方法とに関するものである。タッチメッセージは双方向の電子メッセージを含んでいてもよいが、双方向の電子メッセージに限定はされない。
長距離離れた人同士は、「スマートフォン」のような携帯型コンピュータ装置を使用することで、互いに通信および交流することができる。これらの携帯型コンピュータ装置は、無線データネットワークを使用して、他の同類の装置との間で電子メッセージを作成および送信することができる。上記メッセージは、簡単なテキストメッセージの形式または、画像、動画、および音声コンテンツを含み得る、マルチメディアメッセージの形式であって良い。電子メッセージを使用した交流は、通常、テキストを読むこと、ビデオクリップを見ることまたは、録音されたサウンドクリップを聞くことに限られる。
大抵の場合、上記メッセージは、視覚と聴覚との2つの感覚を用いてメッセージを伝えるものであるだけで十分である。
本発明は、背景技術の不利な点および短所の少なくとも一方を克服すること、少なくとも実質的な改善をもたらすこと、ならびに代替案の少なくとも一つを提供することを目的とする。
この明細書において証明されるあらゆる論は、明確に言及しない限り、本発明の分野における当業者に知られた共通の一般的知識の一部を形成している文献に含まれる情報を示すことを認めることを意図していない。
本発明により提供されるタッチメッセージを送信する方法は、第1装置のタッチ受付面におけるタッチ領域を記録し、タッチ受付面の上記タッチ領域内がタッチされることによって引き起こされる応答を記録し、上記記録されたタッチ領域と、上記応答とを含むメッセージを作成し、上記メッセージを上記第1装置から第2装置に送信し、上記第2装置のタッチ受付面におけるタッチを受け付け、上記第2装置のタッチ受付面における上記タッチが上記タッチ領域内であることを判定し、上記タッチが上記タッチ領域内である場合、上記応答を引き起こす方法。
本発明により提供されるタッチメッセージを送信する方法は、第1装置のタッチ受付面におけるタッチ領域を記録し、上記タッチ受付面の上記タッチ領域内がタッチされることによって引き起こされる応答を記録し、上記記録されたタッチ領域と、上記応答とを含むメッセージを作成し、第2装置のタッチ受付面がタッチを受け付けたときに上記タッチと上記タッチ領域とを対照し、上記タッチが上記タッチ領域内である場合に上記応答を引き起こすために、上記第1装置から上記第2装置に上記メッセージを送信する方法である。

本発明により提供される第2装置でタッチメッセージを受信する方法は、第1装置のタッチ受付面において記録されたタッチ領域と、上記タッチ受付面の上記タッチ領域内がタッチされることによって引き起こされる応答とを含むメッセージを受信し、上記第2装置のタッチ受付面におけるタッチを受け付け、上記第2装置のタッチ受付面における上記タッチが上記タッチ領域内であることを判定し、上記タッチが上記タッチ領域内である場合、上記応答を引き起こす方法である。
一実施形態では、上記タッチ受付面はタッチスクリーンである。
一実施形態では、上記タッチ受付面の上記タッチのための視覚的リファレンスを与えるためにメッセージに含まれる画像が選択される。
一実施形態では、視覚的リファレンスがタッチ領域を生成するのに用いられる。
一実施形態では、タッチ領域は、第1装置のユーザがタッチ受付面をタッチすること、およびタッチ受付面のタッチを記録することで生成される。
一実施形態では、上記視覚的リファレンスは、上記第2装置における上記タッチの受け付けにおいて使用される。
一実施形態では、一連の視覚的リファレンスは、一連のタッチ領域の生成において使用される。
一実施形態では、一連の視覚的リファレンスの各々は、別の視覚的リファレンスに推移する。
ある視覚的リファレンスから他の視覚的リファレンスへの変化は、聴覚効果および視覚効果の少なくとも一方に関連している。
一実施形態では、上記タッチ領域はタッチスクリーンの全体である。
一実施形態では、上記タッチ領域は上記タッチスクリーンの一部分の領域である。
一実施形態では、上記タッチ領域は、上記タッチスクリーンの複数部分の領域である。

一実施形態では、上記タッチ領域は、上記複数部分の領域における連続的なタッチをさらに含む。
一実施形態では、上記タッチ領域は、上記複数部分の領域におけるタッチのタイミングをさらに含む。
一実施形態では、上記タッチ領域は、ある部分の領域から他の部分の領域へのタッチおよびドラッグ移動をさらに含む。
一実施形態では、上記タッチ領域はある部分の領域から他の部分の領域への、一連のタッチおよびドラッグ移動をさらに含む。
一実施形態では、画像は装置のカメラまたは上記装置のストレージから取得される。
一実施形態では、上記タッチ領域は、上記第2装置のユーザを示す。
一実施形態では、上記タッチ領域は上記タッチスクリーン上で視覚的に強調される。
一実施形態では、上記第2装置のユーザに、タッチする場所と、いつタッチすべきか、および、何をタッチすべきかの少なくとも一方のいくつかの具体例と、を教えるため、視覚的プロンプトがタッチスクリーン上に表示される。
一実施形態では、上記応答は、第1画像を表示するための応答、および、第1音声を再生するための応答の少なくとも一方である。
一実施形態では、音声は、デバイスのマイクまたはデバイスのストレージから得られる。
一実施形態では、上記第2装置は、上記第2装置のユーザがタッチスクリーンの上記タッチ領域を不正確にタッチしたことを示すように構成される。
一実施形態では、提示は、第2画像の表示または、第2の音声の再生であってもよい
一実施形態では、上記第2装置は、上記第2装置における上記タッチ領域へのタッチの正確さを判定するように構成される。
一実施形態では、上記第1装置における上記タッチと、上記第2装置における上記タッチとの間の一致度合いを判定する。
一実施形態では、上記第2装置は、上記第1装置における上記タッチと、上記第2装置における上記タッチとの間の一致度合いを段階的に示す。
一実施形態では、1つ以上の応答を記録し得る、第1応答は上記一致度合いが所定量以上であるときに引き起こされるとともに、第2応答は上記一致の程度が所定量未満であるときに引き起こされる。
一実施形態では、上記第2装置におけるタッチの受付け、上記一致度合いの提示、および応答は、自動的に繰り返される。
一実施形態では、上記タッチ領域は、上記第1装置のタッチスクリーンのサイズ、および上記第2装置のタッチスクリーンのサイズに応じて定められる。
一実施形態では、上記タッチ領域は、画面アスペクト比になるように定義される。
一実施形態では、背景を与えるために、メッセージに含まれた別の画像が選択される。
一実施形態では、背景は、1つ以上の画像を含んでいてもよい。
一実施形態では、タッチメッセージは、第1装置上に、テンプレートとして格納されてもよく、タッチメッセージの構成要素は、以前のステートメント(statement)によって定義された構成要素が変更されたものでもよい。
本発明により提供される、タッチメッセージを送信するシステムは、第1装置と第2装置とを含み、上記第1装置は、タッチ受付面と、タッチ受付部上のタッチ領域を記録する記録部と、上記タッチ受付面の上記タッチ領域内がタッチされることによって引き起こされる応答を記録する記録部と、上記記録されたタッチ領域と、上記応答とを含むメッセージを作成するメッセージ作成部と、上記メッセージを上記第1装置から第2装置に送信する送信部と、を備え、上記第2装置は、タッチを受け付けるためのタッチ受付面と、上記第2装置のタッチ受付面における上記タッチが上記タッチ領域内であることを判定し、上記タッチが上記タッチ領域内である場合上記応答を引き起こす判定部と、を備えるシステムである。
本発明により提供される、第2装置にタッチメッセージを送信するよう構成された第1装置は、タッチ受付面におけるタッチ領域を記録する記録部と、タッチ受付面の上記タッチ領域内がタッチされることによって引き起こされる応答を記録する記録部と、上記記録されたタッチ領域と、上記応答とを含むメッセージを作成するメッセージ作成部と、上記メッセージを上記第1装置から第2装置に送信する送信部と、を備え、上記メッセージは、上記第2装置のタッチ受付面がタッチを受け付けたとき、上記タッチと上記タッチ領域とを対照してもよく、かつ上記タッチが上記タッチ領域内であるとき、上記応答が引き起こされ得るように構成される。
本発明により提供される、第1装置からのタッチメッセージを受信するように構成された第2装置は、メッセージの受信部は、記録された第1装置のタッチ受付面におけるタッチ領域と、タッチ受付面の上記タッチ領域内がタッチされることによって引き起こされる応答とを含み、タッチを受け付けるためのタッチ受付面と、上記第2装置のタッチ受付面における上記タッチが上記タッチ領域内であることを判定し、上記タッチが上記タッチ領域内である場合上記応答を引き起こす判定部とを備える。
一実施形態では、第1装置と第2装置とは、スマートフォン(または、他の携帯型計算装置)であってもよい。スマートフォン(または、他の携帯型計算装置)は、スマートフォンの動作を上述で定義したように制御するための命令を含んだコンピュータアプリケーションを、非一時的なメモリに格納するよう構成されていてもよい。
本発明により提供される、ボータブルコンピューティングデバイスのプロセッサは、下記(A)および(B)の少なくとも一方の動作を行うように制御するための指示を含んでおり、実体的な形式で格納された、コンピュータプログラム製品である。
ここで上記の(A)の動作は、第1装置のタッチ受付面におけるタッチ領域を記録し、タッチ受付面の上記タッチ領域内がタッチされることによって引き起こされる応答を記録し、上記記録されたタッチ領域と、上記応答とを含むメッセージを作成し、上記第2装置のタッチ受付面がタッチを受け付けたとき、上記タッチと上記タッチ領域とを対照してもよく、かつ上記タッチが上記タッチ領域内であるとき、上記応答が引き起こされ得るように、上記メッセージを上記第1装置から第2装置に送信する動作である。
ここで上記の(B)の動作は、上記記録された上記第1装置の上記タッチ受付面上のタッチ領域と、タッチ受付面の上記タッチ領域内がタッチされることによって引き起こされる応答とを含むメッセージを受信し、上記第2装置のタッチ受付面におけるタッチを受け付け、上記第2装置のタッチ受付面における上記タッチが上記タッチ領域内であることを判定し、上記タッチが上記タッチ領域内である場合に、上記応答を引き起こす動作である。
本発明により提供される方法は、コンピュータプログラム製品の送信、受信、または格納を含む。
本発明により提供される、コンピュータが読み出し可能なデータ形式のメッセージは、記録された第1装置のタッチ受付面上のタッチ領域と、第2装置のタッチ受付面の上記タッチ領域内がタッチされることによって引き起こされる応答とを含む。
本発明により提供される方法は、上記メッセージの送信、受信、または格納を含む。
本明細書と請求項を通して、特段の説明を必要とせずとも、“comprise(含む)”またはその変形例としての“comprises(含む)”または“comprising(含んでいる)”の用語は、記載された完全体または、完全体のグループを包含すると示唆されると理解され得るが、他の完全体または完全体のグループを排除することは意図していない。
今から、本発明の実施形態に対するより良い理解を与えるために、以下の図面を参照して、一例として、説明を行う。
本発明を具体化するシステムを図で示したものである。 本発明の一実施形態に係る第1装置の機能的モジュールに関するブロック図である。 本発明の一実施形態に係る第2装置の機能的モジュールに関するブロック図である。 タッチメッセージを送信する方法を例示したフローチャートを示すものである。 タッチメッセージを作成する方法を例示したフローチャートである。 タッチ受付面に表示される視覚的リファレンスを有する装置を示す図である。 図6に示す装置であって、上記視覚的リファレンスで定義されるタッチ領域を有する、装置を示す図である。
図1は、タッチメッセージを送信するためのシステムであって、本発明を具体化し得る、システム10を示す図である。システム10は、第1装置12と第2装置14a、14bとを含む。言うまでもなく、デバイス(装置)12、14a、および14bはそれぞれ、スマートフォン、ラップトップコンピュータ、タブレットコンピュータ、またはこれらに類似するものであってもよい。
第1装置12は、ランダムアクセスメモリ(RAM)のような揮発性メモリとリードオンリーメモリ(ROM)のような不揮発性メモリとを含むメモリ16を包含する。
第1装置12は、1つ以上のネットワーク20で通信するためのネットワークインターフェース18も包含する。ネットワーク20は、イーサネット(登録商標)ネットワークのような有線ネットワーク、または、Bluetooth(登録商標)ネットワーク、IEEE 802.11ネットワーク、もしくは携帯電話のネットワークのような無線ネットワークであってもよい。ネットワーク20は、ホームもしくはオフィスのコンピュータネットワークのようなローカルエリアネットワーク(LAN)であってもよいし、例えばインターネットまたはプライベートWANのような広域ネットワーク(WAN)であってもよい。
ネットワーク20は、メッセージ交換(message exchange)またはあるデバイスから他のデバイスに交換(exchange)を介さずに送信されるメッセージを含んでいてもよい。
第1装置12は、コンピュータアプリケーション30を形作るような命令を実行するためのプロセッサ22を包含する。コンピュータアプリケーション30は、ストレージデバイス24からメモリ16へロードされてもよい。コンピュータプログラム30は、ネットワークインターフェース18を使用することで、ネットワーク20経由でアプリケーションストアから取得されてもよい。ストレージデバイス24は、SSD(Solid State Drive)、HDD(Hard Disk Drive)、またはこれらに類似するものであってもよい。
この方法において、メモリ16に格納されたコンピュータアプリケーション30は、プロセッサ22によって引き出されて実行された場合、第1装置12を、上記機能的モジュールを含み得る特別な目的を有した機械、および、ここで述べる上記機能を実行し得る特別な目的を有した機械の少なくとも一方として形成し得る。
デバイス12は、ユーザに画像を表示するための、および、該ユーザからの入力を受け付けるためのタッチスクリーン32を備えていてもよい。一般的に、デバイスは、カメラ28とマイク/スピーカー26も含む。第2装置14a、14bは、一般的にデバイス12と同一または実質的に同等のハードウェア構成要素を有し、該ハードウェア構成要素はそれらのプロセッサによって実行されるためにそれらの部材にロードされるコンピュータアプリケーション30を伴い得る。
図2を参照すると、ある一実施形態における第1装置12は、次の機能モジュール34を動作させるためのコンピュータアプリケーション30の命令によって形作られる。
タッチ領域を記録するためのモジュール36
応答を記録するモジュール38
メッセージを作成するためのモジュール40
メッセージを送信するためのモジュール42
メッセージを受信するためのモジュール44
タッチを受け付けるためのモジュール46
タッチがタッチ領域内かどうか判定するためのモジュール48
応答を与えるためのモジュール50
モジュール36は、タッチスクリーン32のタッチ受付面へのタッチ入力を受け付けるとタッチ領域を記録するとともに、タッチ領域が定義されるように、タッチスクリーン30に対するタッチの位置情報を記録する。位置情報は、タッチ領域を定義し、ストレージデバイス24(またはメモリ16)内に記録される。タッチスクリーン32は、ユーザがタッチするための視覚的リファレンスを形成するために選択された画像を表示してもよい。
モジュール38は、応答の種類を選択するユーザ入力を受け付けると応答を記録する。モジュール38は、ある場合では、マイク26からの音声という形で、カメラ28からの画像という形で、または、マイク26およびカメラ28からの動画という形で、応答の記録を作成する。いくつかの例では、予め記録された応答が選択される。
モジュール40は、ユーザからの指定場所の識別子を受け付けると、メッセージを作成する。モジュール40はまた、記録されたタッチ領域、好ましくはリファレンス画像、および、記録された応答を、メッセージとして送るのに適した形式にフォーマットする。メッセージは、ストレージデバイス24(またはメモリ16)内に格納される。メッセージは、第2装置14a、14bのタッチ受付面でタッチを受け付けたときに、当該タッチが、上記タッチ領域と対照されるように構成され、さらに当該タッチが上記タッチ領域内である場合に、上記応答を引き起こすことができるように構成される。
モジュール42は、ネットワークインターフェース18を介してメッセージを上記指定場所にアップロードすることで、メッセージを送信する。メッセージはその後、ネットワークインターフェース18から、ネットワーク20からクラウドサーバへの通信網を経由して第2装置14aへ送信されるか、または、第2装置14bに直接送信される。
図3を参照すると、ある一実施形態では、第2装置14a、14bはコンピュータアプリケーションの命令によって形作られる。上記コンピュータアプリケーションは、以下の機能モジュール60を動作させるために、ネットワーク20を介して第2装置14a、14bにロードされることで供されてもよい。
メッセージを受信するためのモジュール62
タッチを受け付けるためのモジュール64
タッチがタッチ領域内かどうか判定するためのモジュール66
応答を与えるためのモジュール68
第1装置は、メッセージを受信する、またはユーザによって生成されたメッセージを使用するように構成されることが好ましく、また、第2装置と同じように動作するように構成されることが望ましい。モジュール44は、モジュール62と同じように動作する。モジュール46は、モジュール64と同じように動作する。モジュール48は、モジュール66と同じように動作する。モジュール50は、モジュール68と同じように動作する。上記動作について第2装置のモジュールを参照して説明するが、当該動作は、第2装置のモジュールに相当するモジュールを備えた第1装置で実行することもできることを理解されたい。
モジュール62は、第2装置14a、14bのネットワークインターフェース18を介してメッセージを受信する。メッセージは、上述したように、第1装置12のタッチ受付面(タッチスクリーン32)上の記録されたタッチ領域とタッチ領域内にある第2装置14a、14bのタッチ受付面へのタッチにより引き起こされた応答とを包含する。メッセージは、第2装置14a、14bのタッチスクリーン32に表示されるリファレンス画像を包含してもよい。
リファレンス画像がある場合、リファレンス画像は、タッチスクリーン32に表示される。モジュール64は、第2装置14a、14bのタッチスクリーン32に対するタッチ入力を受け付ける。上記タッチ入力は対照するためにストレージデバイス24内に記録される。
モジュール66は、タッチ入力がタッチ領域内かどうかの対照および判定を行う。構成に応じて、種々の正確度合いにすることが許される。タッチ入力が受信したタッチ領域に合致する(許容された正確さの範囲内で合致する)イベントで、応答が引き起こされる。
モジュール68は、受信したメッセージに含まれる応答に応じて引き起こされた応答を与える。例えば、上記応答は、必要に応じて、第2装置のスクリーン32およびスピーカー26の少なくとも一方へ出力される音声、画像、または動画であってもよい。
システム10によれば、第2装置14aは、第2装置14bが第1装置12から直接メッセージを受信する間に、ネットワーク20を介してメッセージを受信する。第2装置14aおよび14bは両方とも、ネットワークインターフェースの形式の受信機を使用してメッセージを受信する。メッセージを受信した場合、上記処理は、第1装置12が第2装置として動作するときと同じ処理である。
タッチメッセージは、複数の計算機装置間、大抵の場合、複数のスマートフォン間で送信される。上記機器は、タッチ記録を任意の音声および画像と組み合わせる。タッチは応答の再生に対する他の振る舞いを定義するために使用されてもよい。応答の再生は、1.同じデバイスで、2.短い範囲内の、可能ならば、Bluetooth(登録商標)の範囲内の他のデバイスで、または、3.メッセージ交換ハブを介してメッセージを送信した後の、距離がさらに離れたデバイスで行われてもよい。
図4を参照すると、タッチメッセージを送信する方法100が示される。102に始まり、第1装置12のユーザは、送信する準備ができているタッチメッセージを作成する。メッセージ作成については、以後、図5を用いてより詳細に記載する。
このポイントでは少なくとも3つの可能性がある。第1の可能性は、受信側のアプリケーションが動作中であるローカルデバイスに、メッセージを送信することである。第1装置12で動作しているアプリケーションは、第2装置14bでアプリケーションが動作していることを、LANを介して接続されることで、認識できてもよい。接続は、アプリケーションが動作している2つのデバイス間で確立される。1つのデバイスは信号をブロードキャストし、さらに第2装置は、自装置が存在していることを示す。その後、どちらかのデバイスがメッセージの送信を開始し得る。ブロードキャストは、例えば、LAN上のUDP(user datagram protocol)を利用したメッセージブロードキャストであってもよい。この場合、メッセージはローカルデバイスへ(近くのデバイスへ)送信される(120)。ローカルメッセージは、LANを通じた通信を介して、第2装置14bの受信機に到着する。
第2の可能性は、ユーザがデバイスを他の人に手渡す場合である。当該他の人は、同じデバイスでメッセージを再生することを選択できる(130)。
第3の可能性は、目的のデバイス14aが、ローカルでも、現在オンライン状態でもない場合である。この場合、メッセージ調整ハブを使用して接続が確立される。当該ハブは、メッセージの伝達を調整する交換部とも呼ばれる。メッセージは、交換部に送信される(140)。交換部はメッセージを受信し(142)、そしてメッセージで識別される受信側のデバイスがオンラインであるとき、該受信側のデバイスに通知を送信する。受信側のデバイスまたは交換サーバがいつ受信側のデバイスがインターネットに接続しているか、またはいつ受信側のデバイスでアプリケーションが起動されるかを確認した結果を登録してもよい。メッセージが使用可能である旨の通知が送信され、144において、受信側のデバイス14aに到着する。デバイス14aは交換サーバからメッセージを引き出す(146)。
タッチメッセージの伝達機能には制限はなく(open)、受信側のデバイスの番地、例えば、電話番号、e-mailアドレス、IPアドレスまたはこれらに類似するもの、を要求できさえすればよい。他に、伝達されるべきタッチメッセージのために、装置間で事前の許可を要求する方法を用いてもよい。
ユーザは、その後150において、メッセージを活性化(activate)することができる。受信側のユーザは、メッセージへのタッチを開始するよう促され得る。ユーザのタッチ開始を促すためのオプションは、メッセージが作成された時に指定される。上記オプションの指定は、メッセージの受信側ではなく、メッセージの送信側の選択でなされる。
メッセージが受信されると、タッチ開始を促すアクション(プロンプティングアクション)は
1.促すアクション(プロンプティング)なし、
2.アクティブな領域全体が僅かに光る、または、
3.ユーザがタッチを開始すべき位置にパルス波形が出現し、該パルス波形がタッチまたはトレースすべき経路に沿ってユーザの指を誘導するように僅かに動くアクション、
のいずれかを含む。
受信側のデバイス14a、14bは、以下に示すアクションのあらゆる組み合わせによって、ユーザのスクリーンをタッチするアクションに対して応答する。その応答は、メッセージを作成する間に何を特定するかに依る。
1.目に見える応答なし
2.元のタッチとのタッチの整合性の精度に基づく“スコア”(score)を記録
3.指をトレースするように視覚の強調表示を連続して与え、その強調表示は、元のタッチとの一致度合に応じて変化する
4.タッチしている間、音声フィードバックを規則的にまたは連続して与え、その音声フィードバックは元のタッチとの一致度合に応じて変化する
5.元のタッチパターンを正確に満たす、または、タッチ無しの予め定められたポーズであること、のどちらかによってタッチの中止を検出した場合、元のタッチパターンがどの程度正確に追従したかに従い変化し得る、最後のフィードバックを提供し、当該フィードバックは以下のa〜cを1つ以上含んでいてよい。
a.音声フィードバック
b.画像フィードバック
c.テキストメッセージ
図5を参照すると、タッチメッセージを作成するための方法200が示されている。ユーザは、前回のメッセージまたはテンプレートからメッセージの作成を開始してもよいし(204)、ブランク初期状態からメッセージの作成を開始してもよい(202)。
メッセージはその後、206で作成中の間“オープン”の状態となり、ユーザは、メッセージが準備できるまで1つ以上のシーンを作成することができる。ユーザは、種々のタッチの種類の数が1つになり得るように、208でトリガー領域を選択しなければならない。ユーザは、引き起こされるべきメッセージを与えなければならない。大抵、しばしば最初の段階で、リファレンス背景(reference background)が、222および224の少なくとも一方で選ばれる。224の場合、リファレンス背景は画像である。画像は、カメラから得られたものであってもよく(228)、デバイスに保存された画像(picture)(226)、または、メディアストアから得られるコンテンツ(230)であってもよい。222での場合では、タッチパターンのためのグラフィック背景が指定されなければ、アプリケーションによって初期設定時の無地の色が選ばれる。
リファレンス背景は、ユーザのタッチに対する視覚的リファレンスを与える。タッチ領域は、選択されたタッチの種類に応じて定義される。単純な例では、該定義は、該タッチ領域がタッチされたことに対する応答であるアクションが行われるように、1つ以上のタッチを設定することを含む。少なくとも、あるタッチ機構を定義することは必須である。第1装置のタッチスクリーンに適用されたタッチは、タッチ領域となり、タッチ記録モードで記録される。上記記録は、タッチメッセージが受信された場合の、タッチメッセージのためのトリガー機構となり得る。メッセージを与えるためのトリガー機構は以下であってもよい。
1.指定された領域内または画像(picture)全体の内側へのあらゆるタッチ、つまり単純なタッチ、または、指定された領域内または画像(picture)全体内に対する“ジグザグ”の前後のタッチ、または輪郭を描くこと(210)によること、または、
2.複合的な一連のタッチ(212)、可能であれば、タイミングが活性化(activate)されていること。
3.指定された順番の複合的なタッチ(214)。
正しいまたは間違いのタッチの少なくとも一方に基づいて、フィードバックが決定されてもよい(216)。この場合に提供されるべきコンテンツは、変化エフェクトを備えた新しいシーンを含み得る218で選ばれる。新しいシーンは、応答を活性化(activate)させるために要求される、種々のタッチアクションを有していてもよい。
220で、トレース(タッチ)を開始するよう促すことが選択されてもよい。
引き起こされる応答は、任意の新しい画像(224)を撮影写真から(228)、デバイスから(226)、またはメディアストアから(230)選択することによって定義される。232で音声が供給されてもよく、音声は、デバイスのシステム音声から(234)、録音音声から(236)、またはメディアストアの音声から(230)の場合がある。応答は動画であってもよい。
タッチメッセージの一例を、図6と図7とを参照して下記に記載する。カメラ28は、足300の写真を撮影するために使用され、該写真はタッチスクリーン32上に表示される。アクティブなタッチ領域306は、画像300上をドローイング(drawing)することで定義される。つまり、タッチ領域306をタッチすることにより302をトレースするためのタッチスクリーン32上のリファレンス画像300のタッチを行うことで、アクティブなタッチ領域が定義される。笑っている人の音声が、マイク26を使用して録音される。メッセージは送信される。または、メッセージは、現在「受信側のデバイス」と称している同じデバイスで再生される。受信側のデバイスでは、タッチスクリーン32上のタッチ領域306をタッチすると、結果として音声が再生される。タッチ領域の外部304をタッチすることで、応答なし、または別の応答が生じてもよい。
タッチスクリーンのスクリーンサイズは、第1装置と第2装置とで異なっていてもよい。したがって、リファレンス画像とタッチ領域は、第1装置上のタッチスクリーンのサイズ割当と第2装置上のタッチスクリーンのサイズ割当とに応じて定められてもよい。さらにタッチ領域は、タッチ領域は歪まないように、画面アスペクト比に合うよう定義されてもよい。
本発明は、明細書および示された図面の範囲内で変更されてもよい。そのような変更は、本明細書内で述べた、発明の一部分を形作ることを意図している。

Claims (39)

  1. タッチメッセージを送信する方法であって、
    第1装置のタッチ受付面におけるタッチ領域を記録し、
    上記タッチ受付面の上記タッチ領域内がタッチされることによって引き起こされる応答を記録し、
    上記記録されたタッチ領域と、上記応答とを含むメッセージを作成し、
    上記メッセージを上記第1装置から第2装置に送信し、
    上記第2装置のタッチ受付面におけるタッチを受け付け、
    上記第2装置のタッチ受付面における上記タッチが上記タッチ領域内であることを判定し、
    上記タッチが上記タッチ領域内である場合、上記応答を引き起こす、方法。
  2. タッチメッセージを送信する方法であって、
    第1装置のタッチ受付面におけるタッチ領域を記録し、
    上記タッチ受付面の上記タッチ領域内がタッチされることによって引き起こされる応答を記録し、
    上記記録されたタッチ領域と、上記応答とを含むメッセージを作成し、
    第2装置のタッチ受付面がタッチを受け付けたときに上記タッチと上記タッチ領域とを対照し、上記タッチが上記タッチ領域内である場合に上記応答を引き起こすために、上記第1装置から上記第2装置に上記メッセージを送信する、方法。
  3. 第2装置でタッチメッセージを受信する方法であって、
    第1装置のタッチ受付面において記録されたタッチ領域と、上記タッチ受付面の上記タッチ領域内がタッチされることによって引き起こされる応答とを含むメッセージを受信し、
    上記第2装置のタッチ受付面におけるタッチを受け付け、
    上記第2装置のタッチ受付面における上記タッチが上記タッチ領域内であることを判定し、
    上記タッチが上記タッチ領域内である場合、上記応答を引き起こす、方法。
  4. 上記タッチ受付面はタッチスクリーンである、請求項1〜3のいずれか1項に記載の方法。
  5. 上記タッチ領域は、ユーザが、上記タッチ受付面にタッチし、かつ、上記タッチ受付面に適用されるタッチを記録することによって生成される、請求項1〜4のいずれか1項に記載の方法。
  6. 上記タッチ受付面の上記タッチのための視覚的リファレンスを与えるためにメッセージに含まれる画像が選出される、請求項1〜5のいずれか1項に記載の方法。
  7. 上記視覚的リファレンスは、上記第2装置における上記タッチの受け付けにおいて使用される、請求項6に記載の方法。
  8. 上記タッチ受付面の上記タッチのための一連の視覚的リファレンスを与えるために、上記メッセージに含まれる一連の画像が選出される、請求項1〜4のいずれか1項に記載の方法。
  9. それぞれの上記視覚的リファレンスは、一連のタッチ領域の生成において使用される、請求項8に記載の方法。
  10. それぞれの上記視覚的リファレンスは、上記第2装置において上記一連のタッチの受け付けにおいて使用される、請求項8および9に記載の方法。
  11. それぞれの視覚的リファレンスは、他の視覚的リファレンスに変化する、請求項10に記載の方法。
  12. ある視覚的リファレンスから他の視覚的リファレンスへの変化は、聴覚効果および視覚効果の少なくとも一方に関連している、請求項11に記載の方法。
  13. 上記タッチ領域はタッチスクリーンの全体である、請求項1〜12のいずれか1項に記載の方法。
  14. 上記タッチ領域は上記タッチスクリーンの一部分の領域である、請求項13に記載の方法。
  15. 上記タッチ領域は、上記タッチスクリーンの複数部分の領域である、請求項13に記載の方法。
  16. 上記タッチ領域は、上記複数部分の領域における連続的なタッチをさらに含む、請求項15に記載の方法。
  17. 上記タッチ領域は、上記複数部分の領域におけるタッチのタイミングをさらに含む、請求項15または16に記載の方法。
  18. 上記タッチ領域は、ある部分の領域から他の部分の領域へのタッチおよびドラッグ移動をさらに含む、請求項15に記載の方法。
  19. 上記タッチ領域はある部分の領域から他の部分の領域への、一連のタッチおよびドラッグ移動をさらに含む、請求項18に記載の方法。
  20. 画像は装置のカメラまたは上記装置のストレージから取得される、請求項1〜19のいずれか1項に記載の方法。
  21. 上記タッチ領域は、上記第2装置のユーザを示す、請求項1〜20のいずれか1項に示す方法。
  22. 上記タッチ領域はタッチスクリーン上で視覚的に強調される、請求項1〜21のいずれか1項に記載の方法。
  23. 上記第2装置のユーザに、タッチする場所と、いつタッチすべきか、および、何をタッチすべきかの少なくとも一方のいくつかの具体例と、を教えるため、視覚的プロンプトがタッチスクリーン上に表示される、請求項1〜22のいずれか1項に記載の方法。
  24. 上記応答は、第1画像を表示するための応答、および、第1音声を再生するための応答の少なくとも一方である、請求項1〜23のいずれか1項に記載の方法。
  25. 上記第2装置は、上記第2装置のユーザがタッチスクリーンの上記タッチ領域を不正確にタッチしたことを示すように構成される、請求項1〜24のいずれか1項に記載の方法。
  26. 上記第2装置は、上記第2装置における上記タッチ領域へのタッチの正確さを判定するように構成される、請求項1〜25のいずれか1項に記載の方法。
  27. 上記第1装置における上記タッチと、上記第2装置における上記タッチとの間の一致度合いを判定する、請求項1〜26のいずれか1項に記載の方法。
  28. 上記第2装置は、上記第1装置における上記タッチと、上記第2装置における上記タッチとの間の一致度合いを段階的に示す、請求項27に記載の方法。
  29. 1つ以上の応答を記録し、第1応答は上記一致度合いが所定量以上であるときに引き起こされるとともに、第2応答は上記一致の程度が所定量未満であるときに引き起こされる、請求項27および28に記載の方法。
  30. 上記第2装置におけるタッチの受付け、上記一致度合いの提示、および応答は、自動的に繰り返される、請求項30〜32のいずれか1項に記載の方法。
  31. 上記タッチ領域は、上記第1装置のタッチスクリーンのサイズ、および上記第2装置のタッチスクリーンのサイズに応じて定められる、請求項1〜30のいずれか1項に記載の方法。
  32. 上記タッチ領域は、画面アスペクト比になるように定義される、請求項1〜31のいずれか1項に記載の方法。
  33. タッチメッセージを送信するシステムであって、
    第1装置と第2装置とを含み、
    上記第1装置は、
    タッチ受付面と、
    タッチ受付部上のタッチ領域を記録する記録部と、
    上記タッチ受付面の上記タッチ領域内がタッチされることによって引き起こされる応答を記録する記録部と、
    上記記録されたタッチ領域と、上記応答とを含むメッセージを作成するメッセージ作成部と、
    上記メッセージを上記第1装置から第2装置に送信する送信部と、を備え、
    上記第2装置は、
    タッチを受け付けるためのタッチ受付面と、
    上記第2装置のタッチ受付面における上記タッチが上記タッチ領域内であることを判定し、上記タッチが上記タッチ領域内である場合上記応答を引き起こす判定部と、
    を備える、システム。
  34. 第2装置にタッチメッセージを送信するよう構成された第1装置であって、
    タッチ受付面におけるタッチ領域を記録する記録部と、
    タッチ受付面の上記タッチ領域内がタッチされることによって引き起こされる応答を記録する記録部と、
    上記記録されたタッチ領域と、上記応答とを含むメッセージを作成するメッセージ作成部と、
    上記メッセージを上記第1装置から第2装置に送信する送信部と、を備え、
    上記メッセージは、上記第2装置のタッチ受付面がタッチを受け付けたとき、上記タッチと上記タッチ領域とを対照してもよく、かつ上記タッチが上記タッチ領域内であるとき、上記応答が引き起こされるように構成される、第1装置。
  35. 第1装置からのタッチメッセージを受信するように構成された第2装置であって、メッセージの受信部は、記録された第1装置のタッチ受付面におけるタッチ領域と、タッチ受付面の上記タッチ領域内がタッチされることによって引き起こされる応答とを含み、
    タッチを受け付けるためのタッチ受付面と、
    上記第2装置のタッチ受付面における上記タッチが上記タッチ領域内であることを判定し、上記タッチが上記タッチ領域内である場合上記応答を引き起こす判定部と、を備える、第2装置。
  36. ボータブルコンピューティングデバイスのプロセッサが、下記(A)および(B)の少なくとも一方の動作を行うように制御するための指示を含んでおり、実体的な形式で格納された、コンピュータプログラム製品。
    (A)第1装置のタッチ受付面におけるタッチ領域を記録し、
    タッチ受付面の上記タッチ領域内がタッチされることによって引き起こされる応答を記録し、
    上記記録されたタッチ領域と、上記応答とを含むメッセージを作成し、
    第2装置のタッチ受付面がタッチを受け付けたとき、上記タッチと上記タッチ領域とを対照してもよく、かつ上記タッチが上記タッチ領域内であるとき、上記応答が引き起こされるように、上記メッセージを上記第1装置から第2装置に送信する。
    (B)上記記録された上記第1装置の上記タッチ受付面上のタッチ領域と、タッチ受付面の上記タッチ領域内がタッチされることによって引き起こされる応答とを含むメッセージを受信し、
    上記第2装置のタッチ受付面におけるタッチを受け付け、
    上記第2装置のタッチ受付面における上記タッチが上記タッチ領域内であることを判定し、上記タッチが上記タッチ領域内である場合に、上記応答を引き起こす。
  37. 請求項36に記載のコンピュータプログラム製品の送信、受信、または格納を含む、方法。
  38. コンピュータが読み出し可能なデータ形式のメッセージであって、
    記録された第1装置のタッチ受付面上のタッチ領域と、第2装置のタッチ受付面の上記タッチ領域内がタッチされることによって引き起こされる応答と、を含む、メッセージ。
  39. 請求項38に記載のメッセージの送信、受信、または格納を含む、方法。
JP2017510589A 2014-08-20 2015-08-20 タッチメッセージの送信システムと方法 Active JP7037938B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
AU2014903278 2014-08-20
AU2014903278A AU2014903278A0 (en) 2014-08-20 Touch Message
PCT/AU2015/050480 WO2016026006A1 (en) 2014-08-20 2015-08-20 A system and a method for sending a touch message

Publications (3)

Publication Number Publication Date
JP2017527032A true JP2017527032A (ja) 2017-09-14
JP2017527032A5 JP2017527032A5 (ja) 2017-10-26
JP7037938B2 JP7037938B2 (ja) 2022-03-17

Family

ID=55350020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017510589A Active JP7037938B2 (ja) 2014-08-20 2015-08-20 タッチメッセージの送信システムと方法

Country Status (8)

Country Link
US (1) US10845984B2 (ja)
EP (1) EP3183630A4 (ja)
JP (1) JP7037938B2 (ja)
KR (1) KR102399771B1 (ja)
CN (1) CN106575146A (ja)
AU (1) AU2015306091B2 (ja)
SG (1) SG11201701255VA (ja)
WO (1) WO2016026006A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018133934A1 (en) * 2017-01-19 2018-07-26 Telefonaktiebolaget Lm Ericsson (Publ) Improved transmission of haptic input

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002232317A (ja) * 2001-02-07 2002-08-16 Nippon Telegr & Teleph Corp <Ntt> 触覚通信装置
JP2011076549A (ja) * 2009-10-01 2011-04-14 Canon Inc 情報処理システム、情報処理装置、端末装置、及びそれらの制御方法
JP2012520522A (ja) * 2009-03-12 2012-09-06 イマージョン コーポレイション グラフィカルユーザインターフェース装置においてテクスチャを用いるためのシステム及び方法
JP2012226480A (ja) * 2011-04-18 2012-11-15 Kyocera Corp 通信端末、サーバ、触覚フィードバック生成方法および通信システム
JP2013073118A (ja) * 2011-09-28 2013-04-22 Dainippon Printing Co Ltd 触覚式通信装置

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5801700A (en) * 1996-01-19 1998-09-01 Silicon Graphics Incorporated System and method for an iconic drag and drop interface for electronic file transfer
US6249316B1 (en) * 1996-08-23 2001-06-19 Flashpoint Technology, Inc. Method and system for creating a temporary group of images on a digital camera
US6522354B1 (en) * 1997-06-09 2003-02-18 Nikon Corporation Electronic camera and method of operating an electronic camera
US7844914B2 (en) * 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
US7996473B2 (en) * 2007-07-30 2011-08-09 International Business Machines Corporation Profile-based conversion and delivery of electronic messages
US8990400B2 (en) * 2007-08-17 2015-03-24 The Invention Science Fund I, Llc Facilitating communications among message recipients
EP2741177B1 (en) * 2008-07-15 2019-06-26 Immersion Corporation Systems and Methods for Transmitting Haptic Messages
US20100124906A1 (en) * 2008-11-14 2010-05-20 Nokia Corporation Method and Apparatus for Transmitting and Receiving Data
US8756534B2 (en) * 2009-03-16 2014-06-17 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
KR101080244B1 (ko) * 2009-04-02 2011-11-08 (주)가온게임즈 화면 터치를 기반으로 하는 메시지 서비스 기능을 갖는 단말기 및 화면 터치를 기반으로 하는 메시지 서비스 시스템
CN104679247B (zh) * 2009-07-22 2018-07-24 意美森公司 用于在输入控制手势以及关于虚拟设备的控制期间提供复杂触觉激励的系统和方法
US9298260B2 (en) * 2010-03-12 2016-03-29 Broadcom Corporation Tactile communication system with communications based on capabilities of a remote system
CN101893964A (zh) * 2010-07-21 2010-11-24 中兴通讯股份有限公司 移动终端远程控制方法及移动终端
US10303357B2 (en) * 2010-11-19 2019-05-28 TIVO SOLUTIONS lNC. Flick to send or display content
US20120196630A1 (en) * 2011-02-02 2012-08-02 Hand Held Products, Inc. Alphanumeric keypad arrangement for handheld devices
CN103608749B (zh) * 2011-04-26 2016-12-07 加利福尼亚大学董事会 用于记录和重现感觉的系统和装置
US9052772B2 (en) 2011-08-10 2015-06-09 Lester F. Ludwig Heuristics for 3D and 6D touch gesture touch parameter calculations for high-dimensional touch parameter (HDTP) user interfaces
US20130227409A1 (en) * 2011-12-07 2013-08-29 Qualcomm Incorporated Integrating sensation functionalities into social networking services and applications
US10289660B2 (en) * 2012-02-15 2019-05-14 Apple Inc. Device, method, and graphical user interface for sharing a content object in a document
US8711118B2 (en) 2012-02-15 2014-04-29 Immersion Corporation Interactivity model for shared feedback on mobile devices
US8344862B1 (en) 2012-04-09 2013-01-01 John Donham Tactile messaging system
US9281793B2 (en) 2012-05-29 2016-03-08 uSOUNDit Partners, LLC Systems, methods, and apparatus for generating an audio signal based on color values of an image
US8954854B2 (en) 2012-06-06 2015-02-10 Nokia Corporation Methods and apparatus for sound management
KR101901919B1 (ko) * 2012-08-27 2018-09-27 삼성전자주식회사 휴대 단말기 및 메신저 영상 서비스 운용 방법
KR102013443B1 (ko) * 2012-09-25 2019-08-22 삼성전자주식회사 이미지를 전송하기 위한 방법 및 그 전자 장치
KR101992191B1 (ko) * 2012-11-01 2019-06-24 엘지전자 주식회사 이동 단말기 및 그 제어방법
US9948589B2 (en) * 2012-11-14 2018-04-17 invi Labs, Inc. System for and method of organizing contacts for chat sessions on an electronic device
US20140195943A1 (en) * 2013-01-04 2014-07-10 Patent Category Corp. User interface controls for portable devices
CN103116469A (zh) * 2013-03-15 2013-05-22 天津三星光电子有限公司 一种文件传输方法及其系统
US9733716B2 (en) * 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
US9419935B2 (en) * 2013-08-02 2016-08-16 Whatsapp Inc. Voice communications with real-time status notifications
US9866673B2 (en) * 2013-12-18 2018-01-09 Medlegal Network, Inc. Methods and systems of managing accident communications over a network
CN103885708A (zh) 2014-02-28 2014-06-25 宇龙计算机通信科技(深圳)有限公司 触觉交互的方法及系统
DE102014210602A1 (de) * 2014-06-04 2015-12-17 Siemens Aktiengesellschaft Computernetzwerk und Verfahren zum Verschieben eines Objektes innerhalb eines Computernetzwerkes
CN104375637B (zh) * 2014-07-17 2017-07-04 深圳市魔眼科技有限公司 触控系统、触控装置、移动设备以及触控处理方法
KR101659032B1 (ko) * 2014-07-25 2016-09-23 엘지전자 주식회사 이동 단말기 및 그것의 제어방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002232317A (ja) * 2001-02-07 2002-08-16 Nippon Telegr & Teleph Corp <Ntt> 触覚通信装置
JP2012520522A (ja) * 2009-03-12 2012-09-06 イマージョン コーポレイション グラフィカルユーザインターフェース装置においてテクスチャを用いるためのシステム及び方法
JP2011076549A (ja) * 2009-10-01 2011-04-14 Canon Inc 情報処理システム、情報処理装置、端末装置、及びそれらの制御方法
JP2012226480A (ja) * 2011-04-18 2012-11-15 Kyocera Corp 通信端末、サーバ、触覚フィードバック生成方法および通信システム
JP2013073118A (ja) * 2011-09-28 2013-04-22 Dainippon Printing Co Ltd 触覚式通信装置

Also Published As

Publication number Publication date
WO2016026006A1 (en) 2016-02-25
AU2015306091A1 (en) 2017-04-06
EP3183630A1 (en) 2017-06-28
AU2015306091B2 (en) 2021-04-01
CN106575146A (zh) 2017-04-19
KR20170046707A (ko) 2017-05-02
SG11201701255VA (en) 2017-03-30
WO2016026006A9 (en) 2016-03-24
US20170277384A1 (en) 2017-09-28
EP3183630A4 (en) 2018-04-11
JP7037938B2 (ja) 2022-03-17
KR102399771B1 (ko) 2022-05-20
US10845984B2 (en) 2020-11-24

Similar Documents

Publication Publication Date Title
JP6510536B2 (ja) インスタント通信において表現情報を処理する方法及び装置
KR102577186B1 (ko) 코스웨어 녹화 및 재생 방법, 장치, 스마트 인터랙티브 태블릿 및 저장 매체
US10529384B2 (en) Video recording method and apparatus for mobile terminal
US9628744B2 (en) Display apparatus and control method thereof
WO2020077855A1 (zh) 视频拍摄方法、装置、电子设备及计算机可读存储介质
KR102071576B1 (ko) 콘텐트 재생 방법 및 이를 위한 단말
US9762517B2 (en) System and method for sharing multimedia recording in a gift receiving event
WO2019033663A1 (zh) 视频教学互动方法、装置、设备及存储介质
US10277546B2 (en) Information processing system, information processing apparatus, and storage medium
US10082928B2 (en) Providing content to a user based on amount of user contribution
US10821358B2 (en) Gaming server and method to generate context-aware gaming information
US10719545B2 (en) Methods and systems for facilitating storytelling using visual media
JP2016110676A (ja) 動画編集装置
CN104254021B (zh) 信息显示方法、装置和系统
KR102224420B1 (ko) 모바일 컴퓨팅 디바이스들에 의해 주석달린 비디오 콘텐츠를 디스플레이하기 위한 시스템들 및 방법들
WO2015080212A1 (ja) コンテンツの評価方法、装置、システム、サーバ装置及び端末装置
EP2779071A1 (en) Mobile display device with flip-screen functionality
WO2023241360A1 (zh) 在线课堂的语音交互方法、装置、设备及存储介质
WO2023216993A1 (zh) 录制数据处理方法、装置及电子设备
JP2017527032A (ja) タッチメッセージの送信システムと方法
JP2016099773A (ja) 端末装置、再生方法、プログラム及び画面共有システム
US20220150290A1 (en) Adaptive collaborative real-time remote remediation
KR101518482B1 (ko) 스마트기기의 이벤트신호 동기화를 이용한 실시간 프리젠테이션 컨텐츠 저작 시스템
CN114816287A (zh) 传屏控制方法、装置、存储介质及电子设备
CN115277650B (zh) 投屏显示控制方法、电子设备及相关装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170908

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190228

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190326

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20190726

C116 Written invitation by the chief administrative judge to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C116

Effective date: 20190806

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20190806

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200623

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200804

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210204

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20210427

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210927

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220105

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220208

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220307

R150 Certificate of patent or registration of utility model

Ref document number: 7037938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150